JP2018153295A - Motion analysis device, motion analysis method, and motion analysis system - Google Patents

Motion analysis device, motion analysis method, and motion analysis system Download PDF

Info

Publication number
JP2018153295A
JP2018153295A JP2017050922A JP2017050922A JP2018153295A JP 2018153295 A JP2018153295 A JP 2018153295A JP 2017050922 A JP2017050922 A JP 2017050922A JP 2017050922 A JP2017050922 A JP 2017050922A JP 2018153295 A JP2018153295 A JP 2018153295A
Authority
JP
Japan
Prior art keywords
swing
analysis
unit
image data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017050922A
Other languages
Japanese (ja)
Inventor
健也 小平
Takeya Kodaira
健也 小平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2017050922A priority Critical patent/JP2018153295A/en
Publication of JP2018153295A publication Critical patent/JP2018153295A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a device that allows a swing of a golfer to be visually grasped by displaying a swing analysis result together with a swing video.SOLUTION: A motion analysis device 20 includes: a motion detection part 213 for acquiring swing image data in which a swing of a golf club 3 gripped by a user 2 is photographed, acquiring output of a sensor unit 10 according to the swing, and analyzing the swing based on the output of the sensor unit 10; an analysis information image generation part 222 for generating analysis image data indicating a result of the analysis by the motion detection part 213; an image compositing part 224 for generating composite image data compositing the swing image shown by the swing image data and analysis data shown by the analysis image data; and a display part 25 for displaying composite image data.SELECTED DRAWING: Figure 1

Description

本発明は、運動解析装置、運動解析方法および運動解析システムに関する。   The present invention relates to a motion analysis device, a motion analysis method, and a motion analysis system.

近年、様々な分野において人間の運動を解析する装置が提案されている。このような装置は、例えば、ゴルフでの競技力の向上を図るべく、ゴルフクラブのスイング軌道等に関して、ゴルファーの運動フォームをセンサーの検出情報に基づいて解析し、解析結果から被検査体に適したゴルフクラブの選定やスイングフォームの改善を行っている。
ところで、ゴルフプレイにおいて競技力を向上させるためには、自らのスイングを客観的に分析し、改善のための意識をもってスイングすることが重要である。そのために、例えば、ゴルファー自身のスイングを動画として録画し、スイング後にその動画を視聴して、改善点などを把握することが広く行われている。このような動画は、他人に撮影してもらう場合もあるが、ゴルファー自身が撮影する、いわゆる自分撮りである場合も多い。
下記特許文献1では、動画の撮影に際して、スイング動作において特定の動作を検出し、検出した動作に応じてスイング動作の撮影の開始や終了を制御する技術が開示されている。
In recent years, apparatuses for analyzing human movement have been proposed in various fields. Such a device, for example, analyzes a golfer's movement form based on detection information of a sensor with respect to a golf club's swing trajectory, etc., in order to improve the competitiveness in golf, and is suitable for an inspection object from the analysis result. Golf club selection and swing form improvements.
By the way, in order to improve competitiveness in golf play, it is important to objectively analyze own swing and swing with a consciousness for improvement. For this purpose, for example, it is widely practiced to record a golfer's own swing as a moving image, and view the moving image after the swing to grasp improvement points. Such a moving image may be taken by another person, but is often a so-called selfie taken by the golfer himself.
Patent Document 1 below discloses a technique for detecting a specific operation in a swing operation when shooting a moving image, and controlling the start and end of shooting of the swing operation according to the detected operation.

特開2013−188426号公報JP2013-188426A

しかしながら、上述の技術を採用することで、ゴルファーのスイング動作を効率良く撮影し、撮影した動画をゴルファーが視認することはできるが、センサーの検出情報に基づくスイングの解析結果はスイング動画と共に表示されないため、スイングの解析結果をスイング動画と共に表示させることで、ゴルファーのスイングを視覚的に捉えることはできなかった。
本発明は、上述の課題に鑑みてなされたものであり、スイングの解析結果をスイング動画と共に視認することを目的とする。
However, by adopting the above technique, the golfer's swing motion can be efficiently captured and the captured video can be viewed by the golfer, but the swing analysis result based on the sensor detection information is not displayed together with the swing video. Therefore, the golfer's swing cannot be visually grasped by displaying the swing analysis result together with the swing video.
The present invention has been made in view of the above-described problems, and an object thereof is to visually recognize a swing analysis result together with a swing moving image.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態又は適用例として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.

[適用例1]
本適用例にかかる運動解析装置は、運動具を用いたスイングを撮影したスイング画像データおよび前記スイングに基づく慣性センサーの出力を取得する取得部と、前記慣性センサーの出力を用いて前記スイングを解析する解析部と、前記解析部による解析結果を示す解析画像データを生成する解析画像生成部と、前記スイング画像データが示すスイング画像に前記解析画像データが示す解析画像を合成した合成画像データを生成する合成部と、前記合成画像データを出力する出力部と、前記解析画像を合成する前記スイング画像における位置を設定する表示設定部と、を備えることを特徴とする。
[Application Example 1]
The motion analysis apparatus according to this application example analyzes the swing by using swing image data obtained by capturing a swing using an exercise tool and an output of an inertial sensor based on the swing, and an output of the inertial sensor. An analysis unit for generating, an analysis image generation unit for generating analysis image data indicating an analysis result by the analysis unit, and generating composite image data obtained by synthesizing the analysis image indicated by the analysis image data with the swing image indicated by the swing image data A synthesizing unit that outputs the synthesized image data; and a display setting unit that sets a position in the swing image for synthesizing the analysis image.

このような構成によれば、運動具を用いたスイングを撮影したスイング画像に、スイングに基づく慣性センサーの出力に基づく解析画像を合成した合成画像データが生成されて出力されるため、スイング画像にスイングの解析結果を合成した画像データを取得できる。   According to such a configuration, since the synthesized image data obtained by synthesizing the analysis image based on the output of the inertial sensor based on the swing is generated and output on the swing image obtained by photographing the swing using the exercise tool, the swing image is displayed. Image data obtained by combining the swing analysis results can be acquired.

また、このような構成によれば、スイング画像において解析画像を合成する位置を設定できるため、解析画像によりスイング動作の視認性が低下することを回避できる。   Moreover, according to such a structure, since the position which synthesize | combines an analysis image in a swing image can be set, it can avoid that the visibility of swing operation | movement falls by an analysis image.

[適用例2]
上記適用例にかかる運動解析装置において、前記出力部は、前記合成画像データが示す合成画像を表示する表示部であることが好ましい。
[Application Example 2]
In the motion analysis apparatus according to the application example, it is preferable that the output unit is a display unit that displays a composite image indicated by the composite image data.

このような構成によれば、合成画像データが示す合成画像を表示部で視認できる。   According to such a configuration, the composite image indicated by the composite image data can be visually recognized on the display unit.

[適用例3]
上記適用例にかかる運動解析装置において、前記解析結果における、所定の動作に基づいて撮影制御する撮影制御部を備えることが好ましい。
[Application Example 3]
The motion analysis apparatus according to the application example described above preferably includes a shooting control unit that controls shooting based on a predetermined operation in the analysis result.

このような構成によれば、解析結果における所定の動作により運動具のスイングを撮影できる。   According to such a configuration, the swing of the exercise tool can be photographed by a predetermined operation in the analysis result.

[適用例4]
上記適用例にかかる運動解析装置において、前記表示設定部は、前記解析結果の中から前記解析画像に含まれる解析項目を設定することが好ましい。
[Application Example 4]
In the motion analysis apparatus according to the application example, it is preferable that the display setting unit sets an analysis item included in the analysis image from the analysis result.

このような構成によれば、所望の解析項目を解析画像に含めることができる。   According to such a configuration, a desired analysis item can be included in the analysis image.

[適用例5]
上記適用例にかかる運動解析装置において、前記運動具はゴルフクラブであり、前記スイング画像は、ユーザーが前記ゴルフクラブを把持してスイングする動画像であることが好ましい。
[Application Example 5]
In the motion analysis apparatus according to the application example described above, it is preferable that the exercise tool is a golf club, and the swing image is a moving image in which a user grasps the golf club and swings.

このような構成によれば、ゴルフクラブを把持してスイングする動画像に解析画像を合成させることができる。   According to such a configuration, the analysis image can be combined with the moving image that grips and swings the golf club.

[適用例6]
上記適用例にかかる運動解析装置において、前記慣性センサーは、前記運動具に取り付けられ、加速度および角速度の少なくとも1つを出力しても良い。
[Application Example 6]
In the motion analysis apparatus according to the application example, the inertial sensor may be attached to the exercise tool and output at least one of acceleration and angular velocity.

[適用例7]
上記適用例にかかる運動解析装置において、前記スイング画像データを出力する撮像部を備えても良い。
[Application Example 7]
The motion analysis apparatus according to the application example may include an imaging unit that outputs the swing image data.

[適用例8]
本適用例にかかる運動解析方法は、運動具を用いたスイングを撮影したスイング画像データおよび前記スイングに基づく慣性センサーの出力を取得し、前記慣性センサーの出力を用いて前記スイングを解析し、前記スイングの解析結果を示す解析画像データを生成し、前記スイング画像データが示すスイング画像のユーザーにより予め設定された位置に前記解析画像データが示す解析画像を合成した合成画像データを生成し、前記合成画像データを出力することを特徴とする。
[Application Example 8]
The motion analysis method according to this application example acquires swing image data obtained by photographing a swing using an exercise tool and an output of an inertial sensor based on the swing, analyzes the swing using an output of the inertial sensor, Generating analysis image data indicating the analysis result of the swing, generating composite image data by combining the analysis image indicated by the analysis image data at a position preset by a user of the swing image indicated by the swing image data, and generating the composite Image data is output.

このような方法によれば、運動具を用いたスイングを撮影したスイング画像に、スイングに基づく慣性センサーの出力に基づく解析画像を合成した合成画像データが生成されて出力されるため、スイング画像にスイングの解析結果を合成した画像データを取得できる。   According to such a method, since the composite image data obtained by synthesizing the analysis image based on the output of the inertial sensor based on the swing is generated and output on the swing image obtained by photographing the swing using the exercise tool, the swing image is generated. Image data obtained by combining the swing analysis results can be acquired.

また、このような方法によれば、スイング画像において解析画像を合成する位置を設定できるため、解析画像によりスイング動作の視認性が低下することを回避できる。   Moreover, according to such a method, since the position which synthesize | combines an analysis image in a swing image can be set, it can avoid that the visibility of swing operation | movement falls by an analysis image.

[適用例9]
本適用例にかかる運動解析システムは、運動具を用いたスイングを撮影したスイング画像データおよび前記スイングに基づく慣性センサーの出力を取得する取得部と、前記慣性センサーの出力を用いて前記スイングを解析する解析部と、前記解析部による解析結果を示す解析画像データを生成する解析画像生成部と、前記スイング画像データが示すスイング画像に前記解析画像データが示す解析画像を合成した合成画像データを生成する合成部と、前記解析画像を合成する前記スイング画像における位置を設定する表示設定部と前記合成画像データを出力する出力部と、を備えることを特徴とする。
[Application Example 9]
The motion analysis system according to this application example analyzes the swing by using swing image data obtained by capturing a swing using an exercise tool and an output of an inertial sensor based on the swing, and an output of the inertial sensor. An analysis unit for generating, an analysis image generation unit for generating analysis image data indicating an analysis result by the analysis unit, and generating composite image data obtained by synthesizing the analysis image indicated by the analysis image data with the swing image indicated by the swing image data And a display setting unit for setting a position in the swing image for synthesizing the analysis image, and an output unit for outputting the synthesized image data.

このような構成によれば、運動具を用いたスイングを撮影したスイング画像に、スイングに基づく慣性センサーの出力に基づく解析画像を合成した合成画像データが生成されて出力されるため、スイング画像にスイングの解析結果を合成した画像データを取得できる。   According to such a configuration, since the synthesized image data obtained by synthesizing the analysis image based on the output of the inertial sensor based on the swing is generated and output on the swing image obtained by photographing the swing using the exercise tool, the swing image is displayed. Image data obtained by combining the swing analysis results can be acquired.

また、このような構成によれば、スイング画像において解析画像を合成する位置を設定できるため、解析画像によりスイング動作の視認性が低下することを回避できる。   Moreover, according to such a structure, since the position which synthesize | combines an analysis image in a swing image can be set, it can avoid that the visibility of swing operation | movement falls by an analysis image.

実施形態に係る運動解析システムの概要の説明図。Explanatory drawing of the outline | summary of the motion analysis system which concerns on embodiment. センサーユニットの装着位置の一例を示す図。The figure which shows an example of the mounting position of a sensor unit. センサーユニットの装着位置の一例を示す図。The figure which shows an example of the mounting position of a sensor unit. センサーユニットの装着位置の一例を示す図。The figure which shows an example of the mounting position of a sensor unit. ユーザーが行う動作の手順を示す図。The figure which shows the procedure of the operation | movement which a user performs. 運動解析システムの構成例を示す図。The figure which shows the structural example of a motion analysis system. 処理部による撮影制御の一例を示す図。The figure which shows an example of imaging | photography control by a process part. 画像データと各動作との対応関係を示す図。The figure which shows the correspondence of image data and each operation | movement. 表示項目選択画面の一例を示す図。The figure which shows an example of a display item selection screen. 表示設定画面の一例を示す図。The figure which shows an example of a display setting screen. スイング動画像に解析情報の画像を合成した合成した動画像の1フレーム例を示す図。The figure which shows the 1 frame example of the synthetic | combination moving image which combined the image of the analysis information with the swing moving image. 運動解析処理の手順の一例を示すフローチャート。The flowchart which shows an example of the procedure of an exercise | movement analysis process. スイングにおける各動作を検出する処理の手順の一例を示すフローチャート。The flowchart which shows an example of the procedure of the process which detects each operation | movement in a swing. スイング時の3軸角速度をグラフ表示した図。The figure which displayed the triaxial angular velocity at the time of swing as a graph. 3軸角速度の合成値をグラフ表示した図。The figure which displayed the composite value of the triaxial angular velocity on the graph. 3軸角速度の合成値の微分値をグラフ表示した図。The figure which displayed the derivative value of the synthetic value of triaxial angular velocity on the graph.

以下、本発明の実施形態について図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(実施形態)
以下では、ゴルフスイングの解析を行う運動解析システム(運動解析装置)を例に挙げて説明する。
(Embodiment)
Hereinafter, a motion analysis system (motion analysis device) that performs golf swing analysis will be described as an example.

1.運動解析システム
1−1.運動解析システムの概要
図1は、運動解析システムの概要について説明するための図である。運動解析システム1は、センサーユニット10(慣性センサーの一例)および運動解析装置20を含んで構成されている。
1. Motion analysis system 1-1. Outline of Motion Analysis System FIG. 1 is a diagram for explaining an outline of a motion analysis system. The motion analysis system 1 includes a sensor unit 10 (an example of an inertial sensor) and a motion analysis device 20.

センサーユニット10は、3軸の各軸方向に生じる加速度と3軸の各軸回りに生じる角速度を計測可能であり、ゴルフクラブ3(運動器具の一例)又はユーザー2の部位に装着される。   The sensor unit 10 can measure the acceleration generated in each of the three axes and the angular velocity generated around each of the three axes, and is mounted on the golf club 3 (an example of an exercise device) or the user 2.

センサーユニット10は、例えば、図2Aに示すように、ゴルフクラブ3のシャフトなどの部位に取り付けられてもよいし、図2Bに示すように、ユーザー2の手やグローブなどに取り付けられてもよいし、図2Cに示すように、腕時計などのアクセサリーに取り付けられてもよい。   The sensor unit 10 may be attached to a part such as a shaft of the golf club 3 as shown in FIG. 2A, or may be attached to the hand of the user 2 or a glove as shown in FIG. 2B. However, as shown in FIG. 2C, it may be attached to an accessory such as a wristwatch.

特に、図2Aに示すように、センサーユニット10を、3つの検出軸(x軸,y軸,z軸)のうちの1軸、例えばy軸がシャフトの長軸方向に合うように、ゴルフクラブ3に取り付ければ、センサーユニット10の1つの検出軸の方向とゴルフクラブ3の姿勢との相対関係が固定されるので、スイング解析における計算量を削減することができる。また、センサーユニット10をゴルフクラブ3のシャフトに取り付ける場合、図2Aに示すように、打球時の衝撃が伝わりにくく、スイング時に遠心力がかかりにくいグリップ部に近い位置に取り付けられるのが望ましい。   In particular, as shown in FIG. 2A, the golf club is arranged so that one of the three detection axes (x-axis, y-axis, z-axis), for example, the y-axis is aligned with the long axis direction of the shaft. 3 is fixed, the relative relationship between the direction of one detection axis of the sensor unit 10 and the posture of the golf club 3 is fixed, so that the amount of calculation in the swing analysis can be reduced. When the sensor unit 10 is attached to the shaft of the golf club 3, as shown in FIG. 2A, it is desirable that the sensor unit 10 be attached at a position close to the grip portion where impact at the time of hitting is difficult to be transmitted and centrifugal force is difficult to be applied at the time of swing.

本実施形態では、ユーザー2は、あらかじめ決められた手順に従って、ゴルフボール4を打球するスイング動作を行う。図3は、ユーザー2が行う動作の手順を示す図である。図3に示すように、ユーザー2は、まず、ゴルフクラブ3を把持し、ゴルフクラブ3のシャフトの長軸がターゲットライン(打球の目標方向)に対して垂直となるようにアドレスの姿勢をとり、所定時間以上(例えば、1秒以上)静止する(S1)。次に、ユーザー2は、スイング動作を行い、ゴルフボール4を打球する(S2)。   In the present embodiment, the user 2 performs a swing operation of hitting the golf ball 4 according to a predetermined procedure. FIG. 3 is a diagram illustrating a procedure of an operation performed by the user 2. As shown in FIG. 3, the user 2 first holds the golf club 3 and takes an address posture so that the long axis of the shaft of the golf club 3 is perpendicular to the target line (the target direction of the hit ball). Then, it stops for a predetermined time or longer (for example, 1 second or longer) (S1). Next, the user 2 performs a swing motion and hits the golf ball 4 (S2).

ユーザー2が図3に示す手順に従ってゴルフボール4を打球する動作を行う間、センサーユニット10は、所定周期(例えば1ms)で3軸加速度と3軸角速度を計測し、計測したデータを順次、運動解析装置20に送信する。センサーユニット10と運動解析装置20との間の通信は、無線通信でもよいし、有線通信でもよい。   While the user 2 performs the operation of hitting the golf ball 4 according to the procedure shown in FIG. 3, the sensor unit 10 measures the triaxial acceleration and the triaxial angular velocity at a predetermined cycle (for example, 1 ms), and sequentially moves the measured data. It transmits to the analysis device 20. The communication between the sensor unit 10 and the motion analysis device 20 may be wireless communication or wired communication.

なお、ユーザー2は、図3に示す動作に先立って、運動解析装置20を操作して、スイング解析用のアプリケーションソフトウェアを起動させ、解析に必要な情報を入力する。更に、ユーザー2は、運動解析装置20を操作してセンサーユニット10に計測を開始させる。また、ユーザー2は、図3に示す動作を行った後、運動解析装置20を操作してセンサーユニット10に計測を終了させる。その後、運動解析装置20は、自動的に、あるいは、ユーザー2の操作に応じて、スイング運動を解析する。   Prior to the operation shown in FIG. 3, the user 2 operates the motion analysis apparatus 20 to start application software for swing analysis and inputs information necessary for analysis. Further, the user 2 operates the motion analysis device 20 to cause the sensor unit 10 to start measurement. In addition, after performing the operation shown in FIG. 3, the user 2 operates the motion analysis device 20 to cause the sensor unit 10 to finish the measurement. Thereafter, the motion analysis apparatus 20 analyzes the swing motion automatically or in response to the operation of the user 2.

運動解析装置20は、センサーユニット10が計測したデータを用いて、ユーザー2のスイング運動に関する特定の状態を検出した場合に、撮像部27による撮影を制御するための制御信号を生成し、撮像部27に送る。
また、運動解析装置20は、センサーユニット10が計測したデータを用いて、ユーザー2がゴルフクラブ3を用いて打球したスイング運動における特定の動作を検出する。
The motion analysis device 20 generates a control signal for controlling shooting by the imaging unit 27 when a specific state related to the swing motion of the user 2 is detected using the data measured by the sensor unit 10, and the imaging unit 27.
Further, the motion analysis device 20 detects a specific motion in the swing motion that the user 2 hits with the golf club 3 using the data measured by the sensor unit 10.

運動解析装置20は、動画像の撮影が可能な撮像部27を備え、スイングを撮影した画像データ246(図4)とスイング運動における特定の動作とを対応づけて解析情報を生成し、画像や音によりユーザー2に提示する。運動解析装置20は、例えば、スマートフォンのような高機能携帯機器や、タブレットのような多機能携帯端末を想定する。
尚、本実施形態では、撮像部27は運動解析装置20に内蔵された態様を想定するが、これには限定されない。例えば、運動解析システム1がデジタルカメラのような撮影装置を備え、通信により運動解析装置20と接続可能な態様も想定できる。
The motion analysis apparatus 20 includes an imaging unit 27 capable of capturing a moving image, generates analysis information by associating image data 246 (FIG. 4) obtained by capturing a swing with a specific motion in the swing motion, Present to user 2 by sound. The motion analysis device 20 is assumed to be, for example, a high-function mobile device such as a smartphone or a multi-function mobile terminal such as a tablet.
In the present embodiment, the imaging unit 27 is assumed to be built in the motion analysis apparatus 20, but is not limited thereto. For example, a mode in which the motion analysis system 1 includes an imaging device such as a digital camera and can be connected to the motion analysis device 20 by communication can be assumed.

1−2.運動解析システムの構成
図4は、運動解析システム1の構成例を示す図である。
1-2. Configuration of Motion Analysis System FIG. 4 is a diagram illustrating a configuration example of the motion analysis system 1.

[センサーユニットの構成]
図4に示すように、本実施形態では、センサーユニット10は、加速度センサー12、角速度センサー14、信号処理部16及び通信部18を含んで構成されている。
[Configuration of sensor unit]
As shown in FIG. 4, in the present embodiment, the sensor unit 10 includes an acceleration sensor 12, an angular velocity sensor 14, a signal processing unit 16, and a communication unit 18.

加速度センサー12は、互いに交差する(理想的には直交する)3軸方向の各々に生じる加速度を計測し、計測した3軸加速度の大きさ及び向きに応じたデジタル信号(加速度データ)を出力する。   The acceleration sensor 12 measures acceleration generated in each of three axis directions that intersect (ideally orthogonal) with each other, and outputs a digital signal (acceleration data) corresponding to the magnitude and direction of the measured three axis acceleration. .

角速度センサー14は、互いに交差する(理想的には直交する)3軸の各々の軸回りに生じる角速度を計測し、計測した3軸角速度の大きさ及び向きに応じたデジタル信号(角速度データ)を出力する。   The angular velocity sensor 14 measures an angular velocity generated around each of three axes that intersect each other (ideally orthogonal), and outputs a digital signal (angular velocity data) corresponding to the magnitude and direction of the measured three-axis angular velocity. Output.

信号処理部16は、加速度センサー12と角速度センサー14から、それぞれ加速度データと角速度データを受け取って計測時刻を付して不図示の記憶部に記憶し、記憶した計測データ(加速度データと角速度データ)と計測時刻とを用いて通信用のフォーマットに合わせたパケットデータを生成し、通信部18に出力する。   The signal processing unit 16 receives acceleration data and angular velocity data from the acceleration sensor 12 and the angular velocity sensor 14, respectively, adds measurement times, stores them in a storage unit (not shown), and stores the stored measurement data (acceleration data and angular velocity data). And the measurement time are used to generate packet data that matches the communication format and output the packet data to the communication unit 18.

加速度センサー12及び角速度センサー14は、それぞれ3軸が、センサーユニット10に対して定義される直交座標系(センサー座標系)の3軸(x軸、y軸、z軸)と一致するようにセンサーユニット10に取り付けられるのが理想的だが、実際には取り付け角の誤差が生じる。そこで、信号処理部16は、取り付け角誤差に応じてあらかじめ算出された補正パラメーターを用いて、加速度データ及び角速度データをxyz座標系のデータに変換する処理を行う。   The acceleration sensor 12 and the angular velocity sensor 14 each have three axes that coincide with the three axes (x axis, y axis, z axis) of the orthogonal coordinate system (sensor coordinate system) defined for the sensor unit 10. Although it is ideal to be attached to the unit 10, an error in the attachment angle actually occurs. Therefore, the signal processing unit 16 performs a process of converting the acceleration data and the angular velocity data into data in the xyz coordinate system using a correction parameter calculated in advance according to the attachment angle error.

さらに、信号処理部16は、加速度センサー12及び角速度センサー14の温度補正処理を行ってもよい。あるいは、加速度センサー12及び角速度センサー14に温度補正の機能が組み込まれていてもよい。   Further, the signal processing unit 16 may perform temperature correction processing of the acceleration sensor 12 and the angular velocity sensor 14. Alternatively, a temperature correction function may be incorporated in the acceleration sensor 12 and the angular velocity sensor 14.

なお、加速度センサー12と角速度センサー14は、アナログ信号を出力するものであってもよく、この場合は、信号処理部16が、加速度センサー12の出力信号と角速度センサー14の出力信号をそれぞれA/D変換して計測データ(加速度データと角速度データ)を生成し、これらを用いて通信用のパケットデータを生成すればよい。   The acceleration sensor 12 and the angular velocity sensor 14 may output analog signals. In this case, the signal processing unit 16 converts the output signal of the acceleration sensor 12 and the output signal of the angular velocity sensor 14 to A / Measurement data (acceleration data and angular velocity data) is generated by D conversion, and packet data for communication may be generated using these.

通信部18は、信号処理部16から受け取ったパケットデータを運動解析装置20に送信する処理や、運動解析装置20から制御信号(計測制御コマンド)を受信して信号処理部16に送る処理等を行う。信号処理部16は、計測制御コマンドに応じた各種処理を行う。例えば、信号処理部16は、計測開始コマンドを受け取ると加速度センサー12及び角速度センサー14に計測を開始させるとともに、パケットデータの生成を開始する。また、信号処理部16は、計測終了コマンドを受け取ると加速度センサー12及び角速度センサー14に計測を終了させるとともに、パケットデータの生成を終了する。   The communication unit 18 performs processing for transmitting the packet data received from the signal processing unit 16 to the motion analysis device 20, processing for receiving a control signal (measurement control command) from the motion analysis device 20 and transmitting the control signal to the signal processing unit 16, and the like. Do. The signal processing unit 16 performs various processes according to the measurement control command. For example, when receiving a measurement start command, the signal processing unit 16 causes the acceleration sensor 12 and the angular velocity sensor 14 to start measurement and starts generating packet data. When the signal processing unit 16 receives the measurement end command, the signal processing unit 16 causes the acceleration sensor 12 and the angular velocity sensor 14 to end the measurement and ends the generation of the packet data.

[運動解析装置の構成]
図4に示すように、本実施形態では、運動解析装置20は、処理部21、通信部22、操作部23、記憶部24、表示部25、音出力部26および撮像部27を含んで構成されている。
[Configuration of motion analysis device]
As shown in FIG. 4, in this embodiment, the motion analysis apparatus 20 includes a processing unit 21, a communication unit 22, an operation unit 23, a storage unit 24, a display unit 25, a sound output unit 26, and an imaging unit 27. Has been.

通信部22は、センサーユニット10から送信されたパケットデータを受信して処理部21に送る処理や、処理部21からセンサーユニット10による計測を制御するための制御信号(計測制御コマンド)を受け取ってセンサーユニット10に送信する処理等を行う。   The communication unit 22 receives the packet data transmitted from the sensor unit 10 and sends it to the processing unit 21 or receives a control signal (measurement control command) for controlling measurement by the sensor unit 10 from the processing unit 21. Processing to be transmitted to the sensor unit 10 is performed.

操作部23は、ユーザー2等からの操作データを取得し、処理部21に送る処理を行う。操作部23は、例えば、タッチパネル型ディスプレイ、ボタン、キー、マイクなどであってもよい。   The operation unit 23 performs a process of acquiring operation data from the user 2 and the like and sending it to the processing unit 21. The operation unit 23 may be, for example, a touch panel display, a button, a key, a microphone, or the like.

記憶部24は、例えば、ROM(Read Only Memory)やフラッシュROM、RAM(Random Access Memory)等の各種ICメモリーやハードディスクやメモリーカードなどの記録媒体等により構成される。   The storage unit 24 includes, for example, various IC memories such as a ROM (Read Only Memory), a flash ROM, and a RAM (Random Access Memory), a recording medium such as a hard disk and a memory card, and the like.

記憶部24は、処理部21が各種の計算処理や制御処理を行うためのプログラムや、アプリケーション機能を実現するための各種プログラムやデータ等を記憶している。特に、本実施形態では、記憶部24には、処理部21によって読み出され、運動解析処理を実行するための運動解析プログラム240が記憶されている。運動解析プログラム240は、あらかじめ不揮発性の記録媒体に記憶されていてもよいし、処理部21がネットワークを介してサーバーから運動解析プログラム240を受信して記憶部24に記憶させてもよい。   The storage unit 24 stores programs for the processing unit 21 to perform various calculation processes and control processes, various programs and data for realizing application functions, and the like. In particular, in the present embodiment, the storage unit 24 stores a motion analysis program 240 that is read by the processing unit 21 and that executes a motion analysis process. The motion analysis program 240 may be stored in advance in a non-volatile recording medium, or the processing unit 21 may receive the motion analysis program 240 from the server via the network and store it in the storage unit 24.

また、本実施形態では、記憶部24には、ゴルフクラブ3の仕様を表すクラブ仕様情報242及びセンサーユニット10の装着位置を表すセンサー装着位置情報244が記憶される。   In the present embodiment, the storage unit 24 stores club specification information 242 indicating the specifications of the golf club 3 and sensor mounting position information 244 indicating the mounting position of the sensor unit 10.

例えば、ユーザー2が操作部23を操作して使用するゴルフクラブ3の型番を入力(あるいは、型番リストから選択)し、記憶部24にあらかじめ記憶されている型番毎の仕様情報(例えば、シャフトの長さ、重心の位置、ライ角、フェース角、ロフト角等の情報など)のうち、入力された型番の仕様情報をクラブ仕様情報242としてもよい。あるいは、ユーザー2が操作部23を操作してゴルフクラブ3の型番あるいは種類(ドライバー、1〜9番アイアンなど)の情報を入力すると、処理部21が、入力された型番あるいは種類のゴルフクラブに関するシャフトの長さなどの各種項目のデフォルト値を編集可能に表示部25に表示し、クラブ仕様情報242は、各種項目のデフォルト値あるいは編集後の値を含んでもよい。   For example, the user 2 inputs the model number of the golf club 3 to be used by operating the operation unit 23 (or selected from the model number list), and the specification information for each model number stored in advance in the storage unit 24 (for example, the shaft Of the length, the position of the center of gravity, the information of the lie angle, face angle, loft angle, etc.), the specification information of the input model number may be used as the club specification information 242. Alternatively, when the user 2 operates the operation unit 23 and inputs information about the model number or type (driver, 1-9 iron, etc.) of the golf club 3, the processing unit 21 relates to the input golf club number or type. Default values of various items such as the length of the shaft are displayed on the display unit 25 so as to be editable, and the club specification information 242 may include default values of various items or values after editing.

また、例えば、ユーザー2が操作部23を操作してセンサーユニット10の装着位置とゴルフクラブ3のグリップエンドとの間の距離を入力し、入力された距離の情報がセンサー装着位置情報244として記憶部24に記憶されてもよい。あるいは、センサーユニット10を決められた所定位置(例えば、グリップエンドから20cmの距離など)に装着するものとして、当該所定位置の情報がセンサー装着位置情報244としてあらかじめ記憶されていてもよい。
また、記憶部24には、撮像部27が撮影した動画像の画像データ246が撮影時刻と関連付けて記憶される。
Further, for example, the user 2 operates the operation unit 23 to input the distance between the mounting position of the sensor unit 10 and the grip end of the golf club 3, and the input distance information is stored as the sensor mounting position information 244. It may be stored in the unit 24. Alternatively, information on the predetermined position may be stored in advance as sensor mounting position information 244, assuming that the sensor unit 10 is mounted at a predetermined position (for example, a distance of 20 cm from the grip end).
The storage unit 24 stores the image data 246 of the moving image captured by the imaging unit 27 in association with the shooting time.

また、記憶部24は、処理部21の作業領域として用いられ、操作部23から入力されたデータ、処理部21が各種プログラムに従って実行した演算結果等を一時的に記憶する。さらに、記憶部24は、処理部21の処理により生成されたデータのうち、長期的な保存が必要なデータを記憶してもよい。   The storage unit 24 is used as a work area of the processing unit 21, and temporarily stores data input from the operation unit 23, calculation results executed by the processing unit 21 according to various programs, and the like. Furthermore, the memory | storage part 24 may memorize | store the data which require long-term preservation | save among the data produced | generated by the process of the process part 21. FIG.

表示部25は、処理部21の処理結果を文字、グラフ、表、アニメーション、その他の画像として表示するものである。表示部25は、例えば、CRT、LCD、タッチパネル型ディスプレイ、HMD(ヘッドマウントディスプレイ)などであってもよい。なお、1つのタッチパネル型ディスプレイで操作部23と表示部25の機能を実現するようにしてもよい。   The display unit 25 displays the processing results of the processing unit 21 as characters, graphs, tables, animations, and other images. The display unit 25 may be, for example, a CRT, LCD, touch panel display, HMD (head mounted display), or the like. In addition, you may make it implement | achieve the function of the operation part 23 and the display part 25 with one touchscreen type display.

音出力部26は、処理部21の処理結果を音声やブザー音等の音として出力するものである。音出力部26は、例えば、スピーカーやブザーなどであってもよい。   The sound output unit 26 outputs the processing result of the processing unit 21 as sound such as sound or buzzer sound. The sound output unit 26 may be, for example, a speaker or a buzzer.

撮像部27は、被写体(ユーザー2)が発する光に応じた動画像の画像データ246を生成し、生成した画像データ246を処理部21に送る。例えば、撮像部27は、被写体(ユーザー2)が発する光を、レンズ(不図示)を通して撮像素子(不図示)で受け取って電気信号に変換し、この電気信号をRGB成分に分解し、所望の調整や補正及びA/D変換を行って画像データ246を生成する。   The imaging unit 27 generates image data 246 of a moving image corresponding to light emitted from the subject (user 2), and sends the generated image data 246 to the processing unit 21. For example, the imaging unit 27 receives light emitted from the subject (user 2) through an image sensor (not shown) through a lens (not shown), converts the light into an electrical signal, decomposes the electrical signal into RGB components, and performs desired processing. The image data 246 is generated by performing adjustment, correction, and A / D conversion.

撮像部27は、処理部21から動画像の撮影の開始指示を受けると、設定されたフレームレート(例えば、60フレーム/秒)で動画像の画像データ246を生成し、処理部21に出力する。また、撮像部27は、処理部21から撮影の終了指示を受けると、画像データ246の生成を終了する。   Upon receiving an instruction to start moving image shooting from the processing unit 21, the imaging unit 27 generates image data 246 of the moving image at a set frame rate (for example, 60 frames / second) and outputs the generated image data 246 to the processing unit 21. . In addition, when receiving an instruction to end shooting from the processing unit 21, the imaging unit 27 ends the generation of the image data 246.

処理部21は、センサーユニット10に計測制御コマンドを送信する処理や、センサーユニット10から通信部22を介して受信したデータに対する各種の計算処理を行う。また、処理部21は、操作部23から受け取った操作データに応じて、記憶部24に対するデータのリード/ライト処理、表示部25に画像データ246を送る処理、音出力部26に音データを送る処理等、その他の各種の制御処理を行う。特に、本実施形態では、処理部21は、運動解析プログラム240を実行することにより、計測データ取得部210、特定状態検出部211、撮影制御部212、動作検出部213、解析情報生成部215、記憶処理部216、表示処理部217及び音出力処理部218として機能する。
尚、本実施形態では、処理部21は、取得部に相当し、撮像部27が出力する画像データ246やセンサーユニット10が出力する計測データを取得する機能を有する。
The processing unit 21 performs processing for transmitting a measurement control command to the sensor unit 10 and various types of calculation processing for data received from the sensor unit 10 via the communication unit 22. Further, the processing unit 21 reads / writes data from / to the storage unit 24 according to the operation data received from the operation unit 23, sends image data 246 to the display unit 25, and sends sound data to the sound output unit 26. Various other control processes such as processes are performed. In particular, in the present embodiment, the processing unit 21 executes the motion analysis program 240 to thereby perform measurement data acquisition unit 210, specific state detection unit 211, imaging control unit 212, motion detection unit 213, analysis information generation unit 215, It functions as a storage processing unit 216, a display processing unit 217, and a sound output processing unit 218.
In the present embodiment, the processing unit 21 corresponds to an acquisition unit, and has a function of acquiring image data 246 output from the imaging unit 27 and measurement data output from the sensor unit 10.

処理部21は、例えば、演算装置であるCPU(Central Processing Unit)、揮発性の記憶装置であるRAM(Random Access Memory)、不揮発性の記憶装置であるROM、処理部21と他のユニットを接続するインターフェイス(I/F)回路、これらを互いに接続するバス、などを備えるコンピューターにより実現してもよい。コンピューターは、画像処理回路など各種の専用処理回路を備えていてもよい。また、処理部21は、ASIC(Application Specific Integrated Circuit)などにより実現されてもよい。   The processing unit 21 connects, for example, a central processing unit (CPU) that is an arithmetic device, a random access memory (RAM) that is a volatile storage device, a ROM that is a nonvolatile storage device, and the processing unit 21 and other units. It may be realized by a computer including an interface (I / F) circuit to be connected, a bus for connecting these to each other, and the like. The computer may include various dedicated processing circuits such as an image processing circuit. The processing unit 21 may be realized by an ASIC (Application Specific Integrated Circuit) or the like.

計測データ取得部210は、通信部22がセンサーユニット10から受信したパケットデータを受け取り、受け取ったパケットデータから計測時刻及び計測データを取得する処理を行う。計測データ取得部210が取得した計測時刻と計測データは、記憶部24に、対応づけて記憶される。   The measurement data acquisition unit 210 receives the packet data received from the sensor unit 10 by the communication unit 22 and performs a process of acquiring measurement time and measurement data from the received packet data. The measurement time and measurement data acquired by the measurement data acquisition unit 210 are stored in the storage unit 24 in association with each other.

特定状態検出部211は、センサーユニット10が出力する計測データを用いて、ユーザー2のスイングに関する特定の状態を検出する処理を行う。本実施形態では、特定状態検出部211は、特定状態の1つとして第1の状態を検出する。第1の状態は、例えば、ユーザー2がスイングを開始する前の静止状態(アドレス時の静止状態)である。また、特定状態検出部211は、特定状態の1つとして第2の状態を検出する。第2の状態は、例えば、ユーザー2がスイングを終了した後の静止状態(フォロースルー後の静止状態)である。   The specific state detection unit 211 performs processing for detecting a specific state related to the swing of the user 2 using the measurement data output from the sensor unit 10. In the present embodiment, the specific state detection unit 211 detects the first state as one of the specific states. The first state is, for example, a stationary state (static state at the time of address) before the user 2 starts swinging. In addition, the specific state detection unit 211 detects the second state as one of the specific states. The second state is, for example, a stationary state after the user 2 finishes swinging (a stationary state after follow-through).

撮影制御部212は、特定状態検出部211が特定の状態(所定の動作)を検出した場合に、撮像部27による撮影を制御するための制御信号(撮影制御コマンド)を生成し、撮像部27に送る処理を行う。本実施形態では、撮影制御部212は、特定状態検出部211が第1の状態(例えば、ユーザー2がスイングを開始する前の静止状態)を検出した場合に、撮影を開始させるための第1制御信号(撮影開始コマンド)を生成して撮像部27に送る。これにより、センサーユニット10が出力する計測データ(センサーユニット10の出力信号)と、撮像部27が撮影した画像データ246とは、第1の状態のタイミングに基づき、同期がとられる。   The imaging control unit 212 generates a control signal (imaging control command) for controlling imaging by the imaging unit 27 when the specific state detection unit 211 detects a specific state (predetermined operation), and the imaging unit 27 Process to send to. In the present embodiment, the shooting control unit 212 is configured to start shooting when the specific state detection unit 211 detects a first state (for example, a stationary state before the user 2 starts swinging). A control signal (shooting start command) is generated and sent to the imaging unit 27. Thereby, the measurement data output from the sensor unit 10 (the output signal of the sensor unit 10) and the image data 246 taken by the imaging unit 27 are synchronized based on the timing of the first state.

また、撮影制御部212は、特定状態検出部211が第2の状態(例えば、ユーザー2がスイングを終了した後の静止状態)を検出した場合に、撮影を終了させるための第2制御信号(撮影終了コマンド)を生成して撮像部27に送る。   In addition, the shooting control unit 212 detects a second control signal (in order to end shooting) when the specific state detection unit 211 detects a second state (for example, a stationary state after the user 2 has finished swinging). A shooting end command) is generated and sent to the imaging unit 27.

動作検出部(解析部)213は、センサーユニット10が出力する計測データを用いて、ユーザー2のスイングにおける動作を検出し、検出した時刻(計測データの計測時刻)を特定する処理を行う。本実施形態では、動作検出部213は、スイングにおける特徴的な複数の動作を検出する。例えば、動作検出部213は、ユーザー2がスイングを開始するときの動作(例えば、バックスイングを開始した直後の動作)を検出する。また、動作検出部213は、ユーザー2がスイングの方向を切り替えるときの動作(例えば、バックスイングからダウンスイングに切り替わるスイングのトップ)を検出する。また、動作検出部213は、スイングの速度が最大となるときの動作(ユーザー2がダウンスイング中に手首の力を緩める動作(ナチュラルアンコック))を検出する。また、動作検出部213は、ユーザー2が打球するときの動作(例えば、インパクト)を検出する。また、動作検出部213は、ユーザー2がスイングを終了するときの動作(例えば、フォロースルーを終了する直前の動作)を検出する。   The motion detection unit (analysis unit) 213 detects the motion of the user 2 in the swing using the measurement data output from the sensor unit 10 and performs processing for specifying the detected time (measurement time of the measurement data). In the present embodiment, the motion detection unit 213 detects a plurality of characteristic motions in the swing. For example, the operation detection unit 213 detects an operation when the user 2 starts a swing (for example, an operation immediately after starting a backswing). Further, the motion detection unit 213 detects a motion when the user 2 switches the swing direction (for example, the top of the swing that switches from the back swing to the down swing). In addition, the motion detection unit 213 detects a motion when the swing speed is maximum (a motion in which the user 2 relaxes the wrist force during the downswing (natural uncock)). The motion detection unit 213 detects a motion (for example, impact) when the user 2 hits the ball. In addition, the operation detection unit 213 detects an operation when the user 2 ends the swing (for example, an operation immediately before the end of the follow-through).

具体的には、動作検出部213は、まず、センサーユニット10の計測終了後、記憶部24に記憶された、ユーザー2の静止時(アドレス時)の計測データ(加速度データ及び角速度データ)を用いて、計測データに含まれるオフセット量を計算する。次に、動作検出部213は、記憶部24に記憶された計測データからオフセット量を減算してバイアス補正し、バイアス補正された計測データを用いて、ユーザー2のスイングにおける特徴的な各動作を検出する。例えば、動作検出部213は、バイアス補正された加速度データ又は角速度データの合成値を計算し、当該合成値に基づいて、バックスイングの開始直後、トップ、インパクト及びフォロースルーの終了直前の各動作を検出してもよい。また、例えば、動作検出部213は、バイアス補正された加速度データの積分値とクラブ仕様情報242及びセンサー装着位置情報244とを用いてグリップスピードを計算し、グリップスピードの速度が最大となるときをナチュラルアンコックとして検出してもよい。   Specifically, the motion detection unit 213 first uses measurement data (acceleration data and angular velocity data) when the user 2 is stationary (addressed) stored in the storage unit 24 after the measurement of the sensor unit 10 is completed. Then, the offset amount included in the measurement data is calculated. Next, the motion detection unit 213 performs bias correction by subtracting the offset amount from the measurement data stored in the storage unit 24, and uses the measurement data that has been bias corrected to perform each characteristic motion in the swing of the user 2. To detect. For example, the motion detection unit 213 calculates a combined value of the bias-corrected acceleration data or angular velocity data, and based on the combined value, performs each motion immediately after the start of the backswing, immediately before the end of the top, impact, and follow-through. It may be detected. Further, for example, the motion detection unit 213 calculates the grip speed using the integrated value of the bias-corrected acceleration data, the club specification information 242 and the sensor mounting position information 244, and the time when the grip speed becomes maximum. You may detect as natural uncock.

解析情報生成部215は、撮像部27が撮影した画像データ246と動作検出部213が検出した動作とを対応づける処理を行う。例えば、解析情報生成部215は、撮影制御部212が撮影開始コマンドを送った後に計測データ取得部210が直近に取得した計測データの計測時刻を撮像部27の撮影開始時刻として、各画像データ246の撮影時刻を計測時刻に換算し、動作検出部213が検出した各動作と、換算後の撮影時刻が当該各動作を検出した計測時刻と一致する(あるいは最も近い)各画像データ246とを対応づけてもよい。
本実施形態では、解析情報生成部215は、画像データ246のうち、動作検出部213が検出した各動作に対応する画像データ246に、検出した動作の種類に応じて異なる種類のフラグを付する。
The analysis information generation unit 215 performs processing for associating the image data 246 captured by the imaging unit 27 with the operation detected by the operation detection unit 213. For example, the analysis information generation unit 215 uses the measurement time of the measurement data most recently acquired by the measurement data acquisition unit 210 after the shooting control unit 212 sends a shooting start command as the shooting start time of the imaging unit 27, and then sets each image data 246. Is converted into a measurement time, and each action detected by the motion detection unit 213 corresponds to each image data 246 whose converted shooting time matches (or is closest to) the measurement time at which each action is detected. It may be attached.
In the present embodiment, the analysis information generation unit 215 attaches different types of flags to the image data 246 corresponding to each operation detected by the operation detection unit 213 in the image data 246 depending on the type of operation detected. .

例えば、解析情報生成部215は、ユーザー2がスイングを開始するときの動作に対応する画像データ246にはフラグ1(第1のフラグ)を付する。また、解析情報生成部215は、ユーザー2がスイングの方向を切り替えるときの動作に対応する画像データ246にはフラグ2(第2のフラグ)を付する。また、解析情報生成部215は、スイングの速度が最大となるときの動作に対応する画像データ246にはフラグ3(第3のフラグ)を付する。
また、解析情報生成部215は、ユーザー2が打球するときの動作に対応する画像データ246にはフラグ4(第4のフラグ)を付する。また、解析情報生成部215は、ユーザー2がスイングを終了するときの動作に対応する画像データ246にはフラグ5(第5のフラグ)を付する。
For example, the analysis information generation unit 215 adds a flag 1 (first flag) to the image data 246 corresponding to the operation when the user 2 starts swinging. In addition, the analysis information generation unit 215 attaches a flag 2 (second flag) to the image data 246 corresponding to the operation when the user 2 switches the swing direction. Further, the analysis information generation unit 215 attaches a flag 3 (third flag) to the image data 246 corresponding to the operation when the swing speed is maximum.
Further, the analysis information generation unit 215 attaches a flag 4 (fourth flag) to the image data 246 corresponding to the action when the user 2 hits the ball. In addition, the analysis information generation unit 215 adds a flag 5 (fifth flag) to the image data 246 corresponding to the operation when the user 2 finishes the swing.

ここで、図5および図6を参照して、画像データ246とユーザー2の動作との関連付けについて説明する。
図5は、処理部21による撮影制御の一例を示す図である。この例では、センサーユニット10が計測を開始した後の最初の計測データの計測時刻をt0としている。その後、ユーザー2は、計測時刻t1からt3までアドレス姿勢で静止し(図3のS1)、処理部21は、計測時刻t2において、ユーザー2がスイングを開始する前の静止状態(第1動作)を検出し、撮像部27に撮影を開始させる。ここで、撮像部27が撮影を開始したときの撮影時刻をT0とし、処理部21が計測時刻t2の計測データを取得してから撮像部27が撮影を開始するまでの遅延時間をΔtとすると、撮影時刻T0は計測時刻t2+Δtに相当する。
Here, the association between the image data 246 and the operation of the user 2 will be described with reference to FIGS.
FIG. 5 is a diagram illustrating an example of shooting control by the processing unit 21. In this example, the measurement time of the first measurement data after the sensor unit 10 starts measurement is t0. Thereafter, the user 2 stops at the address posture from the measurement time t1 to t3 (S1 in FIG. 3), and the processing unit 21 is in a stationary state (first operation) before the user 2 starts swinging at the measurement time t2. Is detected and the imaging unit 27 starts imaging. Here, when the imaging time when the imaging unit 27 starts imaging is T0, and the delay time from when the processing unit 21 acquires measurement data at the measurement time t2 to when the imaging unit 27 starts imaging is Δt. The shooting time T0 corresponds to the measurement time t2 + Δt.

その後、ユーザー2は、計測時刻t3からt4まで、ワッグルと呼ばれる、手足を小さく動かす動作を行った後、計測時刻t4においてスイングを開始する。計測時刻t4からt5まではバックスイングの期間であり、計測時刻t5からt7まではダウンスイングの期間である。バックスイングからダウンスイングに切り替わるときの計測時刻t5でスイングのトップとなり、ダウンスイングが終了するときの計測時刻t7でインパクトとなる。また、インパクトの少し前の計測時刻t6でナチュラルアンコックとなる。   After that, the user 2 performs an operation of moving the limb small, called waggle, from the measurement time t3 to t4, and then starts swinging at the measurement time t4. The measurement time t4 to t5 is a backswing period, and the measurement time t5 to t7 is a downswing period. It becomes the top of the swing at the measurement time t5 when switching from the backswing to the downswing, and becomes an impact at the measurement time t7 when the downswing ends. Moreover, it becomes natural uncock at the measurement time t6 slightly before the impact.

計測時刻t7からt8まではフォロースルーの期間であり、フォロースルーが終了するときの計測時刻t8でスイングが終了する。その後、処理部21は、計測時刻t7において、ユーザー2によるインパクト(第2動作)を検出し、検出してからtm(例えば、1秒)後に撮像部27による撮影を終了させる。尚、処理部21は、計測時刻t9において、スイングを終了した後の静止状態を検出し、撮影を終了させても良い。ここで、撮像部27が撮影を終了したときの撮影時刻をTNとする。   The measurement time t7 to t8 is a follow-through period, and the swing ends at the measurement time t8 when the follow-through ends. Thereafter, the processing unit 21 detects the impact (second operation) by the user 2 at the measurement time t7, and ends the imaging by the imaging unit 27 after tm (for example, 1 second) after the detection. Note that the processing unit 21 may detect the stationary state after the end of the swing at the measurement time t9 and end the photographing. Here, the shooting time when the imaging unit 27 finishes shooting is TN.

その後、計測時刻t10でセンサーユニット10が計測を終了すると、処理部21は、計測時刻t1〜t9の計測データを用いて、スイング開始、トップ、ナチュラルアンコック、インパクト、スイング終了の各動作を検出し、各動作に対応する計測時刻t4,t5,t6,t7,t8を特定する。   Thereafter, when the sensor unit 10 ends the measurement at the measurement time t10, the processing unit 21 detects each operation of the swing start, top, natural uncock, impact, and swing end using the measurement data at the measurement times t1 to t9. The measurement times t4, t5, t6, t7, and t8 corresponding to each operation are specified.

また、処理部21は、記憶部24から撮影時刻T0〜TNの撮影期間において撮影された画像データ(スイング画像データ)246を取得し、検出した各動作と取得した画像データ246のフレームとを対応づける。具体的には、処理部21は、検出した各動作に対応する画像データ246のフレームに、それぞれフラグ1〜5をタグ付する。   Further, the processing unit 21 acquires image data (swing image data) 246 captured during the imaging period from the storage time T0 to TN from the storage unit 24, and associates each detected operation with the acquired frame of the image data 246. Put it on. Specifically, the processing unit 21 tags flags 1 to 5 to the frames of the image data 246 corresponding to the detected operations.

図6は、図5の例における画像データ246と各動作との対応関係を示す図である。図6に示すように、スイングを開始するときの計測時刻t4に対応する撮影時刻T105の画像データ1105にフラグ1が付加される。また、トップのときの計測時刻t5に対応する撮影時刻T190の画像データ1190にフラグ2が付加される。また、ナチュラルアンコックのときの計測時刻t6に対応する撮影時刻T240の画像データ1240にフラグ3が付加される。また、インパクトのときの計測時刻t7に対応する撮影時刻T250の画像データ1250にフラグ4が付加される。また、スイングを終了するときの計測時刻t8に対応する撮影時刻T305の画像データ1305にフラグ5が付加される。   FIG. 6 is a diagram illustrating a correspondence relationship between the image data 246 and each operation in the example of FIG. As shown in FIG. 6, the flag 1 is added to the image data 1105 at the photographing time T105 corresponding to the measurement time t4 when the swing is started. Further, the flag 2 is added to the image data 1190 at the photographing time T190 corresponding to the measurement time t5 at the top. Further, the flag 3 is added to the image data 1240 at the photographing time T240 corresponding to the measurement time t6 at the time of natural uncook. Further, the flag 4 is added to the image data 1250 at the photographing time T250 corresponding to the measurement time t7 at the time of impact. Further, the flag 5 is added to the image data 1305 at the photographing time T305 corresponding to the measurement time t8 when the swing is finished.

図4に戻り、解析情報生成部215は、例えば、打球の目標方向を示すターゲットラインをX軸、X軸に垂直な水平面上の軸をY軸、鉛直上方向(重力加速度の方向と逆方向)をZ軸とするXYZ座標系(グローバル座標系)を定義し、計測データからオフセット量を減算してバイアス補正した計測データを用いて、センサーユニット10のXYZ座標系(グローバル座標系)における位置及び姿勢を計算してもよい。
例えば、解析情報生成部215は、加速度データを2階積分してセンサーユニット10の初期位置からの位置の変化を時系列に計算し、角速度データを用いた回転演算を行ってセンサーユニット10の初期姿勢からの姿勢の変化を時系列に計算することができる。なお、センサーユニット10の姿勢は、例えば、X軸、Y軸、Z軸回りの回転角(ロール角、ピッチ角、ヨー角)、オイラー角、クオータ二オン(四元数)などで表現することができる。
Returning to FIG. 4, for example, the analysis information generation unit 215 sets the target line indicating the target direction of the hit ball as the X axis, the axis on the horizontal plane perpendicular to the X axis as the Y axis, and the vertical upward direction (the direction opposite to the direction of gravity acceleration). ) Is defined as an XYZ coordinate system (global coordinate system) with the Z axis, and the position of the sensor unit 10 in the XYZ coordinate system (global coordinate system) is measured using the measurement data obtained by subtracting the offset amount from the measurement data and correcting the bias. And the attitude may be calculated.
For example, the analysis information generation unit 215 performs second-order integration of acceleration data, calculates a change in position from the initial position of the sensor unit 10 in time series, performs rotation calculation using the angular velocity data, and performs initial calculation of the sensor unit 10. The change in posture from the posture can be calculated in time series. The posture of the sensor unit 10 is expressed by, for example, rotation angles (roll angle, pitch angle, yaw angle), Euler angle, quarter-on (quaternion), etc. around the X, Y, and Z axes. Can do.

ユーザー2は図3のステップS1の動作を行うので、センサーユニット10の初期位置のX座標は0である。さらに、ユーザー2の静止時には、加速度センサー12は重力加速度のみを計測するので、例えば、図2Aに示したように、センサーユニット10のy軸をゴルフクラブ3のシャフトの長軸方向と一致させた場合は、解析情報生成部215は、y軸加速度データを用いてシャフトの傾斜角(水平面(XY平面)あるいは鉛直面(XZ平面)に対する傾き)を計算することができる。そして、解析情報生成部215は、シャフトの傾斜角、クラブ仕様情報242(シャフトの長さ)及びセンサー装着位置情報244を用いて、センサーユニット10の初期位置のY座標及びZ座標を計算し、センサーユニット10の初期位置を特定することができる。   Since the user 2 performs the operation of step S1 in FIG. 3, the X coordinate of the initial position of the sensor unit 10 is zero. Furthermore, since the acceleration sensor 12 measures only the gravitational acceleration when the user 2 is stationary, for example, as shown in FIG. 2A, the y axis of the sensor unit 10 is made to coincide with the major axis direction of the shaft of the golf club 3. In this case, the analysis information generation unit 215 can calculate the inclination angle of the shaft (inclination with respect to the horizontal plane (XY plane) or the vertical plane (XZ plane)) using the y-axis acceleration data. Then, the analysis information generation unit 215 calculates the Y coordinate and the Z coordinate of the initial position of the sensor unit 10 using the tilt angle of the shaft, the club specification information 242 (shaft length), and the sensor mounting position information 244, The initial position of the sensor unit 10 can be specified.

また、ユーザー2の静止時には、加速度センサー12は重力加速度のみを計測するので、解析情報生成部215は、3軸加速度データを用いて、センサーユニット10のx軸、y軸、z軸の各々と重力方向とのなす角度を特定することができる。さらに、ユーザー2は図3のステップS1の動作を行うので、ユーザー2の静止時において、センサーユニット10のy軸はYZ平面上にあるため、解析情報生成部215は、センサーユニット10の初期姿勢を特定することができる。   In addition, since the acceleration sensor 12 measures only gravitational acceleration when the user 2 is stationary, the analysis information generation unit 215 uses the three-axis acceleration data to determine each of the x-axis, y-axis, and z-axis of the sensor unit 10. The angle formed with the direction of gravity can be specified. Further, since the user 2 performs the operation of step S1 in FIG. 3, when the user 2 is stationary, the y-axis of the sensor unit 10 is on the YZ plane, so the analysis information generation unit 215 determines the initial posture of the sensor unit 10. Can be specified.

また、解析情報生成部215は、センサーユニット10の位置及び姿勢の情報を用いて、打球時のヘッドスピード、打球時の入射角(クラブパス)やフェース角、シャフトローテーション(スイング中のフェース角の変化量)、ゴルフクラブ3の減速率などの情報、あるいは、ユーザー2が複数回のスイングを行った場合のこれら各情報のばらつきの情報等を含む解析情報を生成してもよい。   Further, the analysis information generation unit 215 uses the position and orientation information of the sensor unit 10 to determine the head speed at the time of hitting the ball, the incident angle (club path) and the face angle at the time of hitting, the shaft rotation (the face angle during the swing). Change information), information such as the deceleration rate of the golf club 3, or analysis information including information on the variation of each information when the user 2 performs a plurality of swings may be generated.

なお、センサーユニット10の信号処理部16が、計測データのオフセット量を計算し、計測データのバイアス補正を行うようにしてもよいし、加速度センサー12及び角速度センサー14にバイアス補正の機能が組み込まれていてもよい。これらの場合は、動作検出部213や解析情報生成部215による計測データのバイアス補正が不要となる。   The signal processing unit 16 of the sensor unit 10 may calculate the offset amount of the measurement data and perform bias correction of the measurement data, or the acceleration sensor 12 and the angular velocity sensor 14 may incorporate a bias correction function. It may be. In these cases, bias correction of measurement data by the operation detection unit 213 and the analysis information generation unit 215 is not necessary.

記憶処理部216は、記憶部24に対する各種プログラムや各種データのリード/ライト処理を行う。具体的には、記憶処理部216は、計測データ取得部210が取得した計測データを計測時刻と対応づけて記憶部24に記憶させる処理や記憶部24からこれらの情報を読み出す処理を行う。
また、記憶処理部216は、撮像部27が撮影した画像データ246を撮影時刻と対応づけて記憶部24に記憶させる処理や記憶部24からこれらの情報を読み出す処理を行う。また、記憶処理部216は、ユーザー2が操作部23を操作して入力した情報に応じたクラブ仕様情報242及びセンサー装着位置情報244を記憶部24に記憶させる処理や記憶部24からこれらの情報を読み出す処理も行う。また、記憶処理部216は、撮影制御部212が撮影開始コマンドや撮影終了コマンドを送ったときの計測時刻の情報、動作検出部213が検出した各動作を特定するための情報、解析情報生成部215が生成した解析情報等を記憶部24に記憶させる処理や記憶部24からこれらの情報を読み出す処理も行う。
The storage processing unit 216 performs read / write processing of various programs and various data for the storage unit 24. Specifically, the storage processing unit 216 performs a process of storing the measurement data acquired by the measurement data acquisition unit 210 in the storage unit 24 in association with the measurement time and a process of reading out the information from the storage unit 24.
The storage processing unit 216 performs processing for storing the image data 246 captured by the imaging unit 27 in the storage unit 24 in association with the shooting time, and processing for reading out the information from the storage unit 24. In addition, the storage processing unit 216 stores the club specification information 242 and the sensor mounting position information 244 corresponding to the information input by the user 2 by operating the operation unit 23 in the storage unit 24 and the storage unit 24. The process of reading out is also performed. The storage processing unit 216 also includes information on measurement time when the shooting control unit 212 sends a shooting start command and a shooting end command, information for specifying each operation detected by the operation detection unit 213, and an analysis information generation unit A process of storing the analysis information generated by 215 in the storage unit 24 and a process of reading out the information from the storage unit 24 are also performed.

表示処理部217は、表示部25に対して各種の画像(文字や記号等も含む)を表示させる処理を行う。例えば、表示処理部217は、ユーザー2のスイング運動が終了した後、記憶部24に記憶されている画像データ246に基づいて、スイング運動を示す動画像を生成し、表示部25に表示させる処理を行う。
本実施形態では、表示処理部217は、表示設定部221、解析情報画像生成部222、表示位置決定部223および画像合成部224を備える。
表示設定部221は、表示部25に表示させる画像に対する設定を行う。
例えば、図7は、解析情報の中から解析情報画像として表示する項目を選択するための表示項目選択画面280の一例を示す。この表示項目選択画面280は、ユーザーインターフェイスとして運動解析プログラム240に組み込まれ、ユーザー2が操作部23で所定の操作を行うことで表示部25に表示される。
The display processing unit 217 performs processing for displaying various images (including characters and symbols) on the display unit 25. For example, the display processing unit 217 generates a moving image indicating the swing motion based on the image data 246 stored in the storage unit 24 after the user 2 swings, and causes the display unit 25 to display the moving image. I do.
In the present embodiment, the display processing unit 217 includes a display setting unit 221, an analysis information image generation unit 222, a display position determination unit 223, and an image composition unit 224.
The display setting unit 221 performs setting for an image to be displayed on the display unit 25.
For example, FIG. 7 shows an example of a display item selection screen 280 for selecting an item to be displayed as an analysis information image from the analysis information. The display item selection screen 280 is incorporated in the exercise analysis program 240 as a user interface, and is displayed on the display unit 25 when the user 2 performs a predetermined operation on the operation unit 23.

表示項目選択画面280が表示部25に表示されると、ユーザー2は、スピード解析、インパクト解析、テンポ解析、シャフト回転解析等の中から、解析情報画像に表示する所望の項目を選択できる。
この図7では、スピード解析のヘッドスピード、インパクト解析のフェース角、クラブパスおよびアタック角が表示項目として選択されている。
また、図8は、動画像の中に解析情報を重ね合せて表示する位置を設定するための表示設定画面285の一例を示す。この表示設定画面285は、ユーザーインターフェイスとして運動解析プログラム240に組み込まれ、ユーザー2が操作部23で所定の操作を行うことで、表示部25に表示される。
When the display item selection screen 280 is displayed on the display unit 25, the user 2 can select a desired item to be displayed on the analysis information image from speed analysis, impact analysis, tempo analysis, shaft rotation analysis, and the like.
In FIG. 7, the head speed for speed analysis, the face angle for impact analysis, the club path, and the attack angle are selected as display items.
FIG. 8 shows an example of a display setting screen 285 for setting a position for displaying analysis information superimposed on a moving image. This display setting screen 285 is incorporated in the motion analysis program 240 as a user interface, and is displayed on the display unit 25 when the user 2 performs a predetermined operation on the operation unit 23.

ユーザー2は、この表示設定画面285の中で、動画像に解析情報を重ね合せて表示するか、否かの設定や、解析情報を重ね合せる位置の設定や、重ね合せる位置の自動設定を行うことができる。
解析情報画像生成部(解析画像生成部)222は、解析情報生成部215で生成した解析情報の中から、表示項目選択画面280で選択された項目に基づいて解析情報画像(解析画像データ)を生成する。
表示位置決定部223は、表示設定画面285で設定された項目に基づいて、解析情報画像生成部222が生成した解析情報画像を表示する位置を決定する。
例えば、表示設定画面285で解析情報を重ね合せる位置として右上が設定された場合、解析情報画像を動画像の右上部分に重畳して表示するように設定する。
In the display setting screen 285, the user 2 sets whether or not to display the analysis information superimposed on the moving image, sets the position where the analysis information is overlapped, and automatically sets the position where the analysis information is overlapped. be able to.
The analysis information image generation unit (analysis image generation unit) 222 generates an analysis information image (analysis image data) based on the item selected on the display item selection screen 280 from the analysis information generated by the analysis information generation unit 215. Generate.
The display position determination unit 223 determines a position for displaying the analysis information image generated by the analysis information image generation unit 222 based on the items set on the display setting screen 285.
For example, when the upper right is set as the position where the analysis information is superimposed on the display setting screen 285, the analysis information image is set to be superimposed on the upper right portion of the moving image.

また、例えば、重ね合せる位置の自動設定が選択された場合、表示位置決定部223は、動画像を解析し、解析情報を重ね合せる位置を決定する。この場合、表示位置決定部223は、ユーザー2のスイング動作を隠さない位置を選択しても良い。例えば、動画像の中で芝を示す緑色が多い部分を選択しても良い。また、被打撃物であるゴルフボール4が設置(ティーアップ)されていた位置の近傍を選択しても良い。
画像合成部224は、動画像と解析情報画像とをスーパーインポーズ技術により合成して合成画像データを生成し、合成画像データが示す合成した動画像295を表示部25に表示させる。
For example, when automatic setting of a position to be superimposed is selected, the display position determination unit 223 analyzes a moving image and determines a position to overlap the analysis information. In this case, the display position determination unit 223 may select a position that does not hide the swing motion of the user 2. For example, you may select the part with much green which shows turf in a moving image. Moreover, you may select the vicinity of the position where the golf ball 4 as the hit object was installed (teeed up).
The image composition unit 224 generates a composite image data by combining the moving image and the analysis information image using a superimpose technique, and causes the display unit 25 to display the combined moving image 295 indicated by the composite image data.

例えば、図9は、ユーザー2によるスイング動画像292の右下部分に、解析情報の画像294を合成した合成した動画像295の1フレーム例を示す。
尚、画像合成部224は、ダウンスイングからフォロースルーまでのように、スイングにおける所定のタイミングに限定して解析情報画像を合成して表示しても良く、また、スイングが終了した後の静止画像に至るまで解析情報画像を合成して表示しても良い。
For example, FIG. 9 shows one frame example of a synthesized moving image 295 obtained by combining the analysis information image 294 with the lower right portion of the swing moving image 292 by the user 2.
The image synthesis unit 224 may synthesize and display the analysis information image limited to a predetermined timing in the swing, such as from downswing to follow-through, or a still image after the swing is finished. The analysis information image may be synthesized and displayed up to.

音出力処理部218は、音出力部26に対して各種の音(音声やブザー音等も含む)を出力させる処理を行う。例えば、音出力処理部218は、ユーザー2のスイング運動が終了した後、自動的に、あるいは、ユーザー2の入力操作に応じて、記憶部24に記憶されている解析情報に対応する音や音声を生成して音出力部26から出力させる処理を行ってもよい。なお、センサーユニット10に音出力部を設けておいて、音出力処理部218は、通信部22を介してセンサーユニット10に各種の音データや音声データを送信し、センサーユニット10の音出力部に各種の音や音声を出力させてもよい。   The sound output processing unit 218 performs processing for causing the sound output unit 26 to output various sounds (including sound and buzzer sound). For example, the sound output processing unit 218 performs sound or voice corresponding to the analysis information stored in the storage unit 24 automatically or in response to the input operation of the user 2 after the user 2 swings. May be generated and output from the sound output unit 26. Note that a sound output unit is provided in the sensor unit 10, and the sound output processing unit 218 transmits various sound data and audio data to the sensor unit 10 via the communication unit 22, and the sound output unit of the sensor unit 10. Various sounds and sounds may be output.

また、運動解析装置20あるいはセンサーユニット10に振動機構を設けておいて、当該振動機構により各種の情報を振動情報に変換してユーザー2に提示してもよい。   In addition, a vibration mechanism may be provided in the motion analysis device 20 or the sensor unit 10, and various information may be converted into vibration information by the vibration mechanism and presented to the user 2.

1−3.運動解析装置の処理
[運動解析処理]
図10は、本実施形態における運動解析装置20の処理部21による運動解析処理の手順の一例(運動解析方法の一例)を示すフローチャート図である。運動解析装置20(コンピューターの一例)の処理部21は、記憶部24に記憶されている運動解析プログラム240を実行することにより、例えば、図10のフローチャートの手順で運動解析処理を実行する。以下、図10のフローチャートについて説明する。
1-3. Processing of motion analysis device [Motion analysis processing]
FIG. 10 is a flowchart illustrating an example of a procedure of a motion analysis process (an example of a motion analysis method) performed by the processing unit 21 of the motion analysis apparatus 20 according to the present embodiment. The processing unit 21 of the motion analysis apparatus 20 (an example of a computer) executes the motion analysis process according to the procedure of the flowchart of FIG. 10 by executing the motion analysis program 240 stored in the storage unit 24, for example. Hereinafter, the flowchart of FIG. 10 will be described.

まず、処理部21は、操作データに基づいて計測開始の操作が行われたか否かを判断し(S10)、計測開始操作が行われるまで待機する(S10のN)。処理部21は、計測開始の操作が行われた場合(S10のY)、センサーユニット10に計測開始コマンドを送信する(S20)。センサーユニット10は計測開始コマンドを受信し、3軸加速度及び3軸角速度の計測を開始する。その後、処理部21は、センサーユニット10が出力する計測データを順番に取得し、記憶部24に記憶させる。また、ユーザー2は、図3のS1及びS2の動作を行う。   First, the processing unit 21 determines whether or not a measurement start operation has been performed based on the operation data (S10), and waits until a measurement start operation is performed (N in S10). When the measurement start operation is performed (Y in S10), the processing unit 21 transmits a measurement start command to the sensor unit 10 (S20). The sensor unit 10 receives the measurement start command and starts measuring the triaxial acceleration and the triaxial angular velocity. Thereafter, the processing unit 21 sequentially acquires measurement data output from the sensor unit 10 and stores the measurement data in the storage unit 24. Further, the user 2 performs the operations of S1 and S2 in FIG.

次に、処理部21は、センサーユニット10が出力する計測データを用いて、ユーザー2がスイングを開始する前の静止状態(アドレス時の静止状態)を検出する(S30)。例えば、処理部21は、バイアス補正後の3軸加速度の合成値あるいはバイアス補正後の3軸角速度の合成値が所定の閾値以下の状態が所定時間継続した場合に静止状態を検出する。   Next, the processing unit 21 uses the measurement data output from the sensor unit 10 to detect a stationary state (static state at the time of address) before the user 2 starts swinging (S30). For example, the processing unit 21 detects a stationary state when a state where the combined value of the triaxial acceleration after bias correction or the combined value of the triaxial angular velocity after bias correction is equal to or less than a predetermined threshold continues for a predetermined time.

次に、処理部21は、撮像部27によるスイング動画の撮影を開始する(S40)。   Next, the processing unit 21 starts shooting a swing video by the imaging unit 27 (S40).

次に、処理部21は、センサーユニット10が出力する計測データを用いて、スイングを検出する(S50)。例えば、処理部21は、バイアス補正後の3軸加速度の合成値あるいはバイアス補正後の3軸角速度の合成値が所定の閾値を超えたときに(例えば、ダウンスイング中やインパクト時に)スイングを検出する。   Next, the processing unit 21 detects a swing using the measurement data output from the sensor unit 10 (S50). For example, the processing unit 21 detects a swing when a composite value of triaxial acceleration after bias correction or a composite value of triaxial angular velocity after bias correction exceeds a predetermined threshold (for example, during a downswing or during an impact). To do.

次に、処理部21は、センサーユニット10が出力する計測データを用いて、ユーザー2がスイングを終了した後の静止状態を検出する(S60)。例えば、処理部21は、バイアス補正後の3軸加速度の合成値あるいはバイアス補正後の3軸角速度の合成値が所定の閾値以下の状態が所定時間継続した場合に静止状態を検出する。なお、S50の検出処理は、S60の検出処理において、スイング開始前の静止状態が誤検出されないために設けられている。   Next, the processing unit 21 uses the measurement data output from the sensor unit 10 to detect a stationary state after the user 2 has finished swinging (S60). For example, the processing unit 21 detects a stationary state when a state where the combined value of the triaxial acceleration after bias correction or the combined value of the triaxial angular velocity after bias correction is equal to or less than a predetermined threshold continues for a predetermined time. Note that the detection process of S50 is provided so that the stationary state before the start of the swing is not erroneously detected in the detection process of S60.

次に、処理部21は、撮像部27によるスイング動画の撮影を終了する(S70)。   Next, the processing unit 21 ends the swing moving image shooting by the imaging unit 27 (S70).

次に、処理部21は、操作データに基づいて、所定時間内に計測終了の操作が行われたか否かを判断し(S80)、所定時間内に計測終了の操作が行われなかった場合は(S80のN)、もう一度S30以降の処理を行う。また、ユーザー2は、図3のS1及びS2の動作を行う。   Next, the processing unit 21 determines whether or not the measurement end operation has been performed within a predetermined time based on the operation data (S80), and when the measurement end operation has not been performed within the predetermined time, (N in S80), the processing after S30 is performed once again. Further, the user 2 performs the operations of S1 and S2 in FIG.

処理部21は、所定時間内に計測終了の操作が行われた場合は(S80のY)、センサーユニット10に計測終了コマンドを送信する(S90)。センサーユニット10は計測終了コマンドを受信し、3軸加速度及び3軸角速度の計測を終了する。   When the measurement end operation is performed within a predetermined time (Y in S80), the processing unit 21 transmits a measurement end command to the sensor unit 10 (S90). The sensor unit 10 receives the measurement end command and ends the measurement of the triaxial acceleration and the triaxial angular velocity.

次に、処理部21は、S30以降に記憶部24に記憶させた計測データを用いて、スイングにおける特徴的な各動作を検出する(S100)。この工程S100の処理の詳細な手順については後述する。   Next, the processing unit 21 detects each characteristic action in the swing using the measurement data stored in the storage unit 24 after S30 (S100). The detailed procedure of the process in step S100 will be described later.

次に、処理部21は、画像データ246と工程S100で検出した各動作とを対応づけて解析情報を生成する(S120)。   Next, the processing unit 21 generates analysis information by associating the image data 246 with each operation detected in step S100 (S120).

次に、処理部21は、解析情報を表示する項目および位置を決定する(S130)。   Next, the processing unit 21 determines an item and a position for displaying the analysis information (S130).

次に、処理部21は、スイング動画像292上の決定した位置に解析情報の画像294を合成する(S140)。
そして、処理部21は、合成した動画像295を表示部25に表示し(S150)、処理を終了する。
Next, the processing unit 21 synthesizes the analysis information image 294 at the determined position on the swing moving image 292 (S140).
Then, the processing unit 21 displays the synthesized moving image 295 on the display unit 25 (S150), and ends the process.

なお、図10のフローチャートにおいて、可能な範囲で各工程の順番を適宜変えてもよい。   In the flowchart of FIG. 10, the order of the steps may be changed as appropriate within the possible range.

[動作検出処理]
図11は、ユーザー2のスイングにおける各動作を検出する処理(図10の工程S100の処理)の手順の一例を示すフローチャート図である。以下、図11のフローチャートについて説明する。
[Motion detection processing]
FIG. 11 is a flowchart illustrating an example of a procedure of a process of detecting each action in the swing of the user 2 (process of step S100 in FIG. 10). Hereinafter, the flowchart of FIG. 11 will be described.

まず、処理部21は、記憶部24に記憶された計測データ(加速度データ及び角速度データ)をバイアス補正する(S200)。   First, the processing unit 21 performs bias correction on the measurement data (acceleration data and angular velocity data) stored in the storage unit 24 (S200).

次に、処理部21は、工程S200でバイアス補正した角速度データ(時刻t毎の角速度データ)を用いて、各時刻tでの角速度の合成値n0(t)の値を計算する(S210)。例えば、時刻tでの角速度データをx(t)、y(t)、z(t)とすると、角速度の合成値n0(t)は、次の式(1)で計算される。   Next, using the angular velocity data (angular velocity data for each time t) bias-corrected in step S200, the processing unit 21 calculates a value of a combined value n0 (t) of angular velocities at each time t (S210). For example, assuming that the angular velocity data at time t is x (t), y (t), and z (t), the synthesized value n0 (t) of the angular velocity is calculated by the following equation (1).

Figure 2018153295
Figure 2018153295

ユーザー2がスイングを行ってゴルフボール4を打ったときの3軸角速度データx(t)、y(t)、z(t)の一例を、図12Aに示す。図12Aにおいて、横軸は時間(msec)、縦軸は角速度(dps)である。   An example of the triaxial angular velocity data x (t), y (t), z (t) when the user 2 swings and hits the golf ball 4 is shown in FIG. 12A. In FIG. 12A, the horizontal axis represents time (msec) and the vertical axis represents angular velocity (dps).

次に、処理部21は、各時刻tでの角速度の合成値n0(t)を所定範囲に正規化(スケール変換)した合成値n(t)に変換する(S220)。例えば、計測データの取得期間における角速度の合成値の最大値をmax(n0)とすると、次の式(2)により、角速度の合成値n0(t)が0〜100の範囲に正規化した合成値n(t)に変換される。   Next, the processing unit 21 converts the combined value n0 (t) of angular velocities at each time t into a combined value n (t) that is normalized (scale converted) to a predetermined range (S220). For example, assuming that the maximum value of the combined value of angular velocities in the measurement data acquisition period is max (n0), the combined value obtained by normalizing the combined value n0 (t) of angular velocities in the range of 0 to 100 according to the following equation (2). Converted to the value n (t).

Figure 2018153295
Figure 2018153295

図12Bは、図12Aの3軸角速度データx(t),y(t),z(t)から3軸角速度の合成値n0(t)を式(1)に従って計算した後に式(2)に従って0〜100に正規化した合成値n(t)をグラフ表示した図である。図12Bにおいて、横軸は時間(msec)、縦軸は角速度の合成値である。   In FIG. 12B, a composite value n0 (t) of triaxial angular velocities is calculated from the triaxial angular velocity data x (t), y (t), z (t) in FIG. 12A according to the equation (1), and then according to the equation (2). It is the figure which displayed the synthetic value n (t) normalized to 0-100 in the graph. In FIG. 12B, the horizontal axis represents time (msec), and the vertical axis represents the combined value of angular velocities.

次に、処理部21は、各時刻tでの正規化後の合成値n(t)の微分dn(t)を計算する(S230)。例えば、3軸角速度データの計測周期をΔtとすると、時刻tでの角速度の合成値の微分(差分)dn(t)は次の式(3)で計算される。   Next, the processing unit 21 calculates a differential dn (t) of the normalized composite value n (t) at each time t (S230). For example, assuming that the measurement period of the triaxial angular velocity data is Δt, the differential (difference) dn (t) of the synthesized value of angular velocities at time t is calculated by the following equation (3).

Figure 2018153295
Figure 2018153295

図12Cは、図12Bの3軸角速度の合成値n(t)からその微分dn(t)を式(3)に従って計算し、グラフ表示した図である。図12Cにおいて、横軸は時間(msec)、縦軸は3軸角速度の合成値の微分値である。なお、図12A及び図12Bでは横軸を0秒〜5秒で表示しているが、図12Cでは、インパクトの前後の微分値の変化がわかるように、横軸を2秒〜2.8秒で表示している。   FIG. 12C is a graph in which the differential dn (t) is calculated from the combined value n (t) of the triaxial angular velocities in FIG. In FIG. 12C, the horizontal axis represents time (msec), and the vertical axis represents the differential value of the combined value of the triaxial angular velocities. In FIGS. 12A and 12B, the horizontal axis is displayed from 0 to 5 seconds. In FIG. 12C, the horizontal axis is 2 to 2.8 seconds so that the change in the differential value before and after the impact can be seen. Is displayed.

次に、処理部21は、合成値の微分dn(t)の値が最大となる時刻と最小となる時刻のうち、先の時刻をインパクトの計測時刻t7として特定する(S240)(図12C参照)。通常のゴルフスイングでは、インパクトの瞬間にスイング速度が最大になると考えられる。そして、スイング速度に応じて角速度の合成値の値も変化すると考えられるので、一連のスイング動作の中で角速度の合成値の微分値が最大又は最小となるタイミング(すなわち、角速度の合成値の微分値が正の最大値又は負の最小値になるタイミング)をインパクトのタイミングとして捉えることができる。なお、インパクトによりゴルフクラブ3が振動するため、角速度の合成値の微分値が最大となるタイミングと最小となるタイミングが対になって生じると考えられるが、そのうちの先のタイミングがインパクトの瞬間と考えられる。   Next, the processing unit 21 specifies the previous time as the impact measurement time t7 among the time when the value of the derivative dn (t) of the combined value becomes the maximum and the minimum (S240) (see FIG. 12C). ). In a normal golf swing, it is considered that the swing speed becomes maximum at the moment of impact. Since the combined value of the angular velocities is considered to change according to the swing speed, the timing at which the differential value of the combined angular velocity value becomes maximum or minimum in a series of swing motions (ie, the differential of the combined angular velocity value). The timing at which the value becomes the maximum positive value or the minimum negative value) can be regarded as the impact timing. In addition, since the golf club 3 vibrates due to the impact, it is considered that the timing at which the differential value of the combined value of the angular velocities is the maximum and the timing at which the differential is the minimum occurs. Conceivable.

次に、処理部21は、インパクトの計測時刻t7より前で合成値n(t)が0に近づく極小点の時刻をトップの計測時刻t5として特定する(S250)(図12B参照)。
通常のゴルフスイングでは、スイング開始後、トップで一旦動作が止まり、その後、徐々にスイング速度が大きくなってインパクトに至ると考えられる。従って、インパクトのタイミングより前で角速度の合成値が0に近づき極小となるタイミングをトップのタイミングとして捉えることができる。
Next, the processing unit 21 specifies the time of the minimum point where the composite value n (t) approaches 0 before the impact measurement time t7 as the top measurement time t5 (S250) (see FIG. 12B).
In a normal golf swing, it is considered that after the start of the swing, the operation is temporarily stopped at the top, and then the swing speed is gradually increased to cause an impact. Therefore, the timing at which the combined value of the angular velocities approaches 0 and becomes the minimum before the impact timing can be regarded as the top timing.

次に、処理部21は、インパクトの計測時刻t7より後で合成値n(t)が0に近づく極小点の時刻をスイング終了の計測時刻t8として特定する(S260)(図12B参照)。通常のゴルフスイングでは、インパクトの後、徐々にスイング速度が小さくなって止まると考えられる。従って、インパクトのタイミングより後で角速度の合成値が0に近づき極小となるタイミングをスイング終了のタイミングとして捉えることができる。   Next, the processing unit 21 specifies the time of the minimum point at which the composite value n (t) approaches 0 after the impact measurement time t7 as the measurement time t8 of the swing end (S260) (see FIG. 12B). In a normal golf swing, it is considered that the swing speed gradually decreases after impact and stops. Therefore, the timing at which the combined value of the angular velocities approaches 0 and becomes minimum after the impact timing can be regarded as the swing end timing.

次に、処理部21は、トップの計測時刻t5の前後で合成値n(t)が所定の閾値以下の区間をトップ区間として特定する(S270)。通常のゴルフスイングでは、トップで一旦動作が止まるので、トップの前後ではスイング速度が小さいと考えられる。従って、トップのタイミングを含み角速度の合成値が所定の閾値以下の連続した区間をトップ区間として捉えることができる。   Next, the processing unit 21 specifies a section where the composite value n (t) is equal to or less than a predetermined threshold before and after the top measurement time t5 as a top section (S270). In a normal golf swing, the operation stops once at the top, so it is considered that the swing speed is low before and after the top. Therefore, a continuous section including the top timing and the combined value of the angular velocities being equal to or less than the predetermined threshold can be regarded as the top section.

次に、処理部21は、トップ区間の開始時刻より前で合成値n(t)が所定の閾値以下となる最後の時刻をスイング開始の計測時刻t4として特定する(S280)(図12B参照)。通常のゴルフスイングでは、静止した状態からスイング動作を開始し、トップまでにスイング動作が止まることは考えにくい。従って、トップのタイミングより前で角速度の合成値が所定の閾値以下となる最後のタイミングをスイング動作の開始のタイミングとして捉えることができる。なお、トップの計測時刻t5より前で、合成値n(t)が0に近づく極小点の時刻をスイング開始の計測時刻と特定してもよい。   Next, the processing unit 21 specifies the last time when the composite value n (t) is equal to or less than a predetermined threshold before the start time of the top section as a swing start measurement time t4 (S280) (see FIG. 12B). . In a normal golf swing, it is unlikely that the swing operation starts from a stationary state and stops until the top. Therefore, the last timing at which the combined value of the angular velocities is less than or equal to the predetermined threshold before the top timing can be regarded as the timing for starting the swing motion. Note that the time at the local minimum point where the composite value n (t) approaches 0 before the top measurement time t5 may be specified as the measurement time at the start of the swing.

次に、処理部21は、工程S200でバイアス補正した加速度データ(時刻t毎の加速度データ)を用いて、各時刻tでのグリップスピードv(t)を計算する(S290)。   Next, the processing unit 21 calculates the grip speed v (t) at each time t using the acceleration data bias-corrected in step S200 (acceleration data at each time t) (S290).

最後に、処理部21は、グリップスピードv(t)が最大となる時刻を、ナチュラルアンコックの計測時刻t6として特定し(S300)、処理を終了する。   Finally, the processing unit 21 specifies the time when the grip speed v (t) is maximum as the natural uncock measurement time t6 (S300), and ends the process.

なお、図11のフローチャートにおいて、可能な範囲で各工程の順番を適宜変えてもよい。また、図11のフローチャートでは、処理部21は、3軸角速度データを用いてインパクト等を特定しているが、3軸加速度データを用いて、同様にインパクト等を特定することもできる。   In addition, in the flowchart of FIG. 11, the order of each process may be changed as appropriate within a possible range. Further, in the flowchart of FIG. 11, the processing unit 21 specifies the impact or the like using the triaxial angular velocity data, but can similarly specify the impact or the like using the triaxial acceleration data.

以上述べた実施形態によれば、以下のような効果を奏する。
(1)運動解析装置20は、ゴルフクラブ3を把持したユーザー2のスイングが撮影されたスイング動画像292に、スイングに応じたセンサーユニット10の計測データに基づく解析情報の画像294を合成した合成した動画像295を生成し、表示部25に表示するため、スイングの動画像とスイングの解析結果とを共に視認できる。
(2)運動解析装置20は、ユーザー2の動作を検知し、ユーザー2がアドレス姿勢で静止した状態からインパクトまでの動作を動画として撮影できる。
According to the embodiment described above, the following effects can be obtained.
(1) The motion analysis apparatus 20 combines a swing moving image 292 in which a swing of the user 2 holding the golf club 3 is photographed with an analysis information image 294 based on measurement data of the sensor unit 10 corresponding to the swing. Since the generated moving image 295 is generated and displayed on the display unit 25, both the moving image of the swing and the analysis result of the swing can be visually recognized.
(2) The motion analysis apparatus 20 can detect the motion of the user 2 and photograph the motion from the state where the user 2 is stationary in the address posture to the impact as a moving image.

(3)運動解析装置20は、スイング動画像292に解析情報の画像294を合成する位置を設定できるため、解析情報の画像294によりスイング動作の視認性が低下することを回避できる。
(4)運動解析装置20は、計測データを解析して得られたスイングの解析結果の中から、解析情報の画像294に含める解析項目を設定できるため、ユーザー2の所望の解析項目を表示させることができる。
(3) Since the motion analysis apparatus 20 can set the position where the analysis information image 294 is combined with the swing moving image 292, it is possible to avoid a decrease in the visibility of the swing motion due to the analysis information image 294.
(4) Since the motion analysis apparatus 20 can set analysis items to be included in the analysis information image 294 from the swing analysis results obtained by analyzing the measurement data, the motion analysis device 20 displays the desired analysis items of the user 2. be able to.

以上、添付図面を参照しながら好適な実施形態について説明したが、好適な実施形態は、前記実施形態に限らない。実施形態は、要旨を逸脱しない範囲内において種々変更を加え得ることは勿論であり、以下のように実施することもできる。
運動具としてのゴルフクラブ3は、ドライバー、アイアン、パターの何れであってもよい。
また、撮像部27がスイングを撮影する場合、動画像の画像データ246に加えて、スイングの音声等も録音し、録音した音声データを画像データ246と関連付けて記憶部24に記憶しても良い。
また、本実施形態では、ゴルフスイングを解析する運動解析システム1を例に挙げたが、本発明は、ボールを打球する他の運動具にも適用することができる。
また、以上のような手法を実施する装置は、単独の装置によって実現される場合もあれば、複数の装置を組み合わせることによって実現される場合もあり、各種の態様を含むものである。
As mentioned above, although preferred embodiment was described referring an accompanying drawing, suitable embodiment is not restricted to the said embodiment. The embodiment can of course be modified in various ways without departing from the scope, and can also be implemented as follows.
The golf club 3 as an exercise tool may be a driver, an iron, or a putter.
In addition, when the imaging unit 27 captures a swing, in addition to the moving image data 246, a swing sound or the like may be recorded, and the recorded audio data may be stored in the storage unit 24 in association with the image data 246. .
Moreover, in this embodiment, although the exercise | movement analysis system 1 which analyzes a golf swing was mentioned as an example, this invention is applicable also to the other exercise equipment which hits a ball | bowl.
Moreover, the apparatus which implements the above methods may be realized by a single apparatus or may be realized by combining a plurality of apparatuses, and includes various aspects.

また、図4に示した処理部21の各機能部は、ハードウェアとソフトウェアとの協働により実現される機能的構成を示すものであって、具体的な実装形態は特に制限されない。従って、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、あるいは、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。その他、処理部21の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。   Each functional unit of the processing unit 21 illustrated in FIG. 4 indicates a functional configuration realized by cooperation of hardware and software, and a specific mounting form is not particularly limited. Therefore, it is not always necessary to mount hardware corresponding to each function unit individually, and it is of course possible to realize a function of a plurality of function units by one processor executing a program. In addition, in the above embodiment, a part of the function realized by software may be realized by hardware, or a part of the function realized by hardware may be realized by software. In addition, the specific detailed configuration of each other part of the processing unit 21 can be arbitrarily changed without departing from the spirit of the present invention.

1…運動解析システム、2…ユーザー、3…ゴルフクラブ、4…ゴルフボール、10…センサーユニット、12…加速度センサー、14…角速度センサー、16…信号処理部、18…通信部、20…運動解析装置、21…処理部、22…通信部、23…操作部、24…記憶部、25…表示部、26…音出力部、27…撮像部、210…計測データ取得部、211…特定状態検出部、212…撮影制御部、213…動作検出部、215…解析情報生成部、216…記憶処理部、217…表示処理部、218…音出力処理部、221…表示設定部、222…解析情報画像生成部、223…表示位置決定部、224…画像合成部、240…運動解析プログラム、242…クラブ仕様情報、244…センサー装着位置情報、246…画像データ、280…表示項目選択画面、285…表示設定画面、292…スイング動画像、294…解析情報の画像、295…合成した動画像。   DESCRIPTION OF SYMBOLS 1 ... Motion analysis system, 2 ... User, 3 ... Golf club, 4 ... Golf ball, 10 ... Sensor unit, 12 ... Acceleration sensor, 14 ... Angular velocity sensor, 16 ... Signal processing part, 18 ... Communication part, 20 ... Motion analysis Device 21 ... Processing unit 22 ... Communication unit 23 ... Operation unit 24 ... Storage unit 25 ... Display unit 26 ... Sound output unit 27 ... Imaging unit 210 ... Measurement data acquisition unit 211 ... Specific state detection 212, imaging control unit, 213 ... motion detection unit, 215 ... analysis information generation unit, 216 ... storage processing unit, 217 ... display processing unit, 218 ... sound output processing unit, 221 ... display setting unit, 222 ... analysis information Image generation unit, 223 ... display position determination unit, 224 ... image synthesis unit, 240 ... motion analysis program, 242 ... club specification information, 244 ... sensor mounting position information, 246 ... image data, 28 ... display item selection screen 285 ... display setting screen 292 ... swing moving image, 294 ... analysis information of the image, 295 ... synthesized moving picture.

Claims (9)

運動具を用いたスイングを撮影したスイング画像データおよび前記スイングに基づく慣性センサーの出力を取得する取得部と、
前記慣性センサーの出力を用いて前記スイングを解析する解析部と、
前記解析部による解析結果を示す解析画像データを生成する解析画像生成部と、
前記スイング画像データが示すスイング画像に前記解析画像データが示す解析画像を合成した合成画像データを生成する合成部と、
前記合成画像データを出力する出力部と、
前記解析画像を合成する前記スイング画像における位置を設定する表示設定部と、を備えることを特徴とする運動解析装置。
An acquisition unit for acquiring swing image data obtained by photographing a swing using an exercise tool and an output of an inertial sensor based on the swing;
An analysis unit for analyzing the swing using an output of the inertial sensor;
An analysis image generation unit for generating analysis image data indicating an analysis result by the analysis unit;
A combining unit that generates combined image data obtained by combining the analysis image indicated by the analysis image data with the swing image indicated by the swing image data;
An output unit for outputting the composite image data;
And a display setting unit for setting a position in the swing image for synthesizing the analysis image.
請求項1に記載の運動解析装置において、
前記出力部は、前記合成画像データが示す合成画像を表示する表示部であることを特徴とする運動解析装置。
The motion analysis apparatus according to claim 1,
The motion analysis apparatus, wherein the output unit is a display unit that displays a composite image indicated by the composite image data.
請求項1乃至2のいずれかに記載の運動解析装置において、
前記解析結果における、所定の動作に基づいて撮影制御する撮影制御部を備えることを特徴とする運動解析装置。
The motion analysis apparatus according to claim 1,
A motion analysis apparatus comprising: an imaging control unit that controls imaging based on a predetermined operation in the analysis result.
請求項1乃至3のいずれか1項に記載の運動解析装置において、
前記表示設定部は、前記解析結果の中から前記解析画像に含まれる解析項目を設定することを特徴とする運動解析装置。
The motion analysis apparatus according to any one of claims 1 to 3,
The display setting unit sets an analysis item included in the analysis image from the analysis result.
請求項1乃至4のいずれか1項に記載の運動解析装置において、
前記運動具はゴルフクラブであり、
前記スイング画像は、ユーザーが前記ゴルフクラブを把持してスイングする動画像であることを特徴とする運動解析装置。
The motion analysis apparatus according to any one of claims 1 to 4,
The exercise equipment is a golf club;
The motion analysis apparatus according to claim 1, wherein the swing image is a moving image in which a user grips and swings the golf club.
請求項1乃至5のいずれか1項に記載の運動解析装置において、
前記慣性センサーは、前記運動具に取り付けられ、加速度および角速度の少なくとも1つを出力することを特徴とする運動解析装置。
The motion analysis apparatus according to any one of claims 1 to 5,
The inertial sensor is attached to the exercise tool and outputs at least one of acceleration and angular velocity.
請求項1乃至6のいずれか1項に記載の運動解析装置において、
前記スイング画像データを出力する撮像部を備えることを特徴とする運動解析装置。
The motion analysis apparatus according to any one of claims 1 to 6,
A motion analysis apparatus comprising an imaging unit that outputs the swing image data.
運動具を用いたスイングを撮影したスイング画像データおよび前記スイングに基づく慣性センサーの出力を取得し、
前記慣性センサーの出力を用いて前記スイングを解析し、
前記スイングの解析結果を示す解析画像データを生成し、
前記スイング画像データが示すスイング画像のユーザーにより予め設定された位置に前記解析画像データが示す解析画像を合成した合成画像データを生成し、
前記合成画像データを出力することを特徴とする運動解析方法。
Swing image data obtained by photographing a swing using an exercise tool and an output of an inertial sensor based on the swing,
Analyzing the swing using the output of the inertial sensor,
Generate analysis image data indicating the analysis result of the swing,
Generating synthesized image data obtained by synthesizing the analysis image indicated by the analysis image data at a position preset by the user of the swing image indicated by the swing image data;
A motion analysis method characterized by outputting the composite image data.
運動具を用いたスイングを撮影したスイング画像データおよび前記スイングに基づく慣性センサーの出力を取得する取得部と、
前記慣性センサーの出力を用いて前記スイングを解析する解析部と、
前記解析部による解析結果を示す解析画像データを生成する解析画像生成部と、
前記スイング画像データが示すスイング画像に前記解析画像データが示す解析画像を合成した合成画像データを生成する合成部と、
前記解析画像を合成する前記スイング画像における位置を設定する表示設定部と
前記合成画像データを出力する出力部と、を備えることを特徴とする運動解析システム。
An acquisition unit for acquiring swing image data obtained by photographing a swing using an exercise tool and an output of an inertial sensor based on the swing;
An analysis unit for analyzing the swing using an output of the inertial sensor;
An analysis image generation unit for generating analysis image data indicating an analysis result by the analysis unit;
A combining unit that generates combined image data obtained by combining the analysis image indicated by the analysis image data with the swing image indicated by the swing image data;
A motion analysis system comprising: a display setting unit that sets a position in the swing image that synthesizes the analysis image; and an output unit that outputs the combined image data.
JP2017050922A 2017-03-16 2017-03-16 Motion analysis device, motion analysis method, and motion analysis system Pending JP2018153295A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017050922A JP2018153295A (en) 2017-03-16 2017-03-16 Motion analysis device, motion analysis method, and motion analysis system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017050922A JP2018153295A (en) 2017-03-16 2017-03-16 Motion analysis device, motion analysis method, and motion analysis system

Publications (1)

Publication Number Publication Date
JP2018153295A true JP2018153295A (en) 2018-10-04

Family

ID=63715380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017050922A Pending JP2018153295A (en) 2017-03-16 2017-03-16 Motion analysis device, motion analysis method, and motion analysis system

Country Status (1)

Country Link
JP (1) JP2018153295A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020137566A (en) * 2019-02-26 2020-09-03 H2L株式会社 Exercise determination system
JP2020174845A (en) * 2019-04-17 2020-10-29 セイコーエプソン株式会社 Motion analysis method, motion analysis system, and motion analysis device
JP2020178860A (en) * 2019-04-25 2020-11-05 カシオ計算機株式会社 Video output device, video output method, and program
JP2021000281A (en) * 2019-06-21 2021-01-07 株式会社ブリヂストン Swing analysis method, swing analysis device, and swing analysis program
KR20210146264A (en) * 2019-10-02 2021-12-03 주식회사 모아이스 Method, device and non-transitory computer-readable recording medium for estimating information about golf swing

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020137566A (en) * 2019-02-26 2020-09-03 H2L株式会社 Exercise determination system
JP7182275B2 (en) 2019-02-26 2022-12-02 H2L株式会社 Motion judgment system
JP2020174845A (en) * 2019-04-17 2020-10-29 セイコーエプソン株式会社 Motion analysis method, motion analysis system, and motion analysis device
JP2020178860A (en) * 2019-04-25 2020-11-05 カシオ計算機株式会社 Video output device, video output method, and program
JP7275811B2 (en) 2019-04-25 2023-05-18 カシオ計算機株式会社 Video output device, video output method and program
JP2021000281A (en) * 2019-06-21 2021-01-07 株式会社ブリヂストン Swing analysis method, swing analysis device, and swing analysis program
JP7233318B2 (en) 2019-06-21 2023-03-06 株式会社ブリヂストン Swing analysis method, swing analysis device, and swing analysis program
KR20210146264A (en) * 2019-10-02 2021-12-03 주식회사 모아이스 Method, device and non-transitory computer-readable recording medium for estimating information about golf swing
KR102539215B1 (en) * 2019-10-02 2023-06-02 주식회사 모아이스 Method, device and non-transitory computer-readable recording medium for estimating information about golf swing

Similar Documents

Publication Publication Date Title
WO2016024392A1 (en) Motion analysis method, motion analysis device, motion analysis system, and program
JP2018153295A (en) Motion analysis device, motion analysis method, and motion analysis system
US20150285834A1 (en) Sensor, computing device, and motion analyzing apparatus
US10512833B2 (en) Presentation method, swing analysis apparatus, swing analysis system, swing analysis program, and recording medium
US20160001127A1 (en) Motion analysis method, program, and motion analysis device
US20160089566A1 (en) Sensor, motion measurement system, and method of motion measurement
JP2015156882A (en) Motion analysis device and motion analysis system
US10286285B2 (en) Display method, display apparatus, motion analysis system, motion analysis program, and recording medium
JP2016067408A (en) Sensor, arithmetic unit, movement measurement method, movement measurement system, and program
WO2015141173A1 (en) Movement analysis method, movement analysis device, movement analysis system and program
JP2016067410A (en) Motion analysis device, motion analysis system, and motion analysis method and program
JP2017029516A (en) Golf swing analysis device
WO2016024388A1 (en) Imaging control method, imaging control device, imaging control system and program
WO2015146062A1 (en) Motion analysis method, motion analysis device, motion analysis system and program
JP2015181565A (en) Motion analysis device, motion analysis system, motion analysis method, display method of motion analysis information, and program
JP2018126180A (en) Motion analysis method, and display method
JP2016116720A (en) Motion analysis device, motion analysis system, and motion analysis method and program
JP6315181B2 (en) Motion analysis method, motion analysis apparatus, motion analysis system, and program
JP2016055028A (en) Motion analysis method, motion analysis device, motion analysis system and program
JP2016030123A (en) Motion analysis method, motion analysis device, and program
US20180250571A1 (en) Motion analysis device, motion analysis method, motion analysis system, and display method
JP2017029515A (en) Golf swing analysis device, golf swing analysis system, golf swing analysis method and golf swing analysis program
JP2017012586A (en) Swing data arithmetic device, swing data arithmetic system, swing data arithmetic method, and program
JP2018157986A (en) Swing analysis device, swing analysis system, and swing analysis method
JP2017046732A (en) Swing analysis device, swing analysis system, swing analysis method, swing analysis program, and recording medium

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180910