JPWO2020021873A1 - Processing equipment, processing methods and programs - Google Patents
Processing equipment, processing methods and programs Download PDFInfo
- Publication number
- JPWO2020021873A1 JPWO2020021873A1 JP2020532197A JP2020532197A JPWO2020021873A1 JP WO2020021873 A1 JPWO2020021873 A1 JP WO2020021873A1 JP 2020532197 A JP2020532197 A JP 2020532197A JP 2020532197 A JP2020532197 A JP 2020532197A JP WO2020021873 A1 JPWO2020021873 A1 JP WO2020021873A1
- Authority
- JP
- Japan
- Prior art keywords
- measurement target
- motion
- measured value
- processing device
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 154
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000005259 measurement Methods 0.000 claims abstract description 218
- 230000033001 locomotion Effects 0.000 claims abstract description 186
- 238000004364 calculation method Methods 0.000 claims abstract description 119
- 238000004458 analytical method Methods 0.000 claims abstract description 17
- 238000011156 evaluation Methods 0.000 claims description 47
- 238000000034 method Methods 0.000 claims description 39
- 230000006870 function Effects 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 4
- 210000002683 foot Anatomy 0.000 description 28
- 238000001514 detection method Methods 0.000 description 19
- 238000003703 image analysis method Methods 0.000 description 19
- 238000010191 image analysis Methods 0.000 description 18
- 210000003141 lower extremity Anatomy 0.000 description 18
- 210000000323 shoulder joint Anatomy 0.000 description 16
- 210000004394 hip joint Anatomy 0.000 description 15
- 210000003371 toe Anatomy 0.000 description 15
- 238000010586 diagram Methods 0.000 description 11
- 210000002414 leg Anatomy 0.000 description 10
- 230000000694 effects Effects 0.000 description 8
- 210000001624 hip Anatomy 0.000 description 8
- 210000003127 knee Anatomy 0.000 description 8
- 210000001364 upper extremity Anatomy 0.000 description 8
- 210000004197 pelvis Anatomy 0.000 description 7
- 230000006872 improvement Effects 0.000 description 5
- 210000000707 wrist Anatomy 0.000 description 5
- 210000004247 hand Anatomy 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000007405 data analysis Methods 0.000 description 3
- 230000006866 deterioration Effects 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000012951 Remeasurement Methods 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 210000004936 left thumb Anatomy 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 210000004935 right thumb Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Dentistry (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Physiology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Analysis (AREA)
Abstract
本発明は、可動域の測定対象を選択する選択部(11)と、被験者を撮影した画像を、選択された測定対象に対応した解析方法で解析することで、選択された測定対象の可動域を示す測定値を算出する算出部(12)と、を有する処理装置(10)を提供する。In the present invention, the range of motion of the selected measurement target is analyzed by the selection unit (11) for selecting the measurement target of the movable range and the image of the subject taken by the analysis method corresponding to the selected measurement target. Provided is a processing apparatus (10) having a calculation unit (12) for calculating a measured value indicating the above.
Description
本発明は、処理装置、処理方法及びプログラムに関する。 The present invention relates to a processing device, a processing method and a program.
ケガ予防、故障部位の回復具合の観察等の目的で、身体の所定部位の可動域を評価するメディカルチェックが行われる。このメディカルチェックを、専門的な知識なしで行えるようにすることが望まれている。メディカルチェックに関連する技術が特許文献1及び2に開示されている。
A medical check is performed to evaluate the range of motion of a predetermined part of the body for the purpose of preventing injuries and observing the recovery condition of the damaged part. It is hoped that this medical check can be performed without specialized knowledge. Techniques related to medical check are disclosed in
特許文献1には、被験者が上肢運動を行うと、位置計測装置が被験者の手の先端の位置を特定し、その特定結果に基づき手部可動域測定手段が手部可動域を算出することが開示されている。
According to
特許文献2には、被験者が動作中に痛み又は違和感を覚えたことを検出すると、その時の被験者の姿勢に関する情報を記憶する装置が開示されている。
特許文献2に記載の技術は、被験者が動作中に痛み又は違和感を覚えた時の被験者の姿勢に関する情報を記憶するだけであり、被験者の所定部位の可動域を測定する技術ではない。
The technique described in
特許文献1に記載の技術は、可動域を評価できる部位及びその動作方向が限定される。すなわち、身体の複数の部位や複数の動作方向の可動域を測定することはできない。
In the technique described in
本発明は、身体の複数の部位や複数の動作方向の可動域を、専門的な知識なしで測定できるようにすることを課題とする。 An object of the present invention is to make it possible to measure a plurality of parts of a body and a range of motion in a plurality of movement directions without specialized knowledge.
本発明によれば、
可動域の測定対象を選択する選択手段と、
被験者を撮影した画像を、選択された前記測定対象に対応した解析方法で解析することで、選択された前記測定対象の可動域を示す測定値を算出する算出手段と、
を有する処理装置が提供される。According to the present invention
Selection means for selecting the measurement target of the range of motion and
A calculation means for calculating a measured value indicating the range of motion of the selected measurement target by analyzing an image of the subject by an analysis method corresponding to the selected measurement target.
A processing device having the above is provided.
また、本発明によれば、
コンピュータが、
可動域の測定対象を選択する選択工程と、
被験者を撮影した画像を、選択された前記測定対象に対応した解析方法で解析することで、選択された前記測定対象の可動域を示す測定値を算出する算出工程と、
を実行する処理方法が提供される。Further, according to the present invention.
The computer
The selection process of selecting the measurement target of the range of motion and
A calculation step of calculating a measured value indicating the range of motion of the selected measurement target by analyzing an image of the subject by an analysis method corresponding to the selected measurement target.
Is provided with a processing method to execute.
また、本発明によれば、
コンピュータを、
可動域の測定対象を選択する選択手段、
被験者を撮影した画像を、選択された前記測定対象に対応した解析方法で解析することで、選択された前記測定対象の可動域を示す測定値を算出する算出手段、
として機能させるプログラムが提供される。Further, according to the present invention.
Computer,
Selection means for selecting the measurement target of the range of motion,
A calculation means for calculating a measured value indicating the range of motion of the selected measurement target by analyzing an image of the subject by an analysis method corresponding to the selected measurement target.
A program is provided to function as.
本発明によれば、身体の複数の部位や複数の動作方向の可動域を、専門的な知識なしで評価できるようになる。 According to the present invention, it becomes possible to evaluate a plurality of parts of the body and a range of motion in a plurality of movement directions without specialized knowledge.
上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。 The above-mentioned objectives and other objectives, features and advantages will be further clarified by the preferred embodiments described below and the accompanying drawings below.
<第1の実施形態>
まず、本実施形態の処理装置の概要を説明する。本実施形態では、図1に示すように、被験者100が所定の動きを行う様子を3次元カメラ200で撮影する。そして、3次元カメラ200で生成された画像データが処理装置に入力される。3次元カメラ200は、画素毎に、色情報に加えて、距離情報を取得することができる。3次元カメラ200は、例えばkinectである。<First Embodiment>
First, the outline of the processing apparatus of this embodiment will be described. In the present embodiment, as shown in FIG. 1, a state in which the subject 100 performs a predetermined movement is photographed by the three-
処理装置は、複数の測定対象の可動域を測定することができる。複数の測定対象は、評価部位及びその部位の動作方向の少なくとも一方が互いに異なる。複数の測定対象の一例は、以下の実施形態で詳細に説明する。 The processing device can measure the range of motion of a plurality of measurement targets. At least one of the evaluation site and the movement direction of the site is different from each other in the plurality of measurement targets. An example of a plurality of measurement targets will be described in detail in the following embodiments.
予め、測定対象毎に画像データの解析方法が用意され、そのアルゴリズムが処理装置に記憶されている。複数の測定対象各々に対応したアルゴリズムは、身体の所定の部位(例:肘、肩)を特定し、特定した部位に基づき可動域を示す値を算出する点で共通するが、特定する部位や特定した部位に基づき算出する値(例:角度、距離等)等が互いに異なる。アルゴリズムの一例は、以下の実施形態で説明する。 An image data analysis method is prepared in advance for each measurement target, and the algorithm is stored in the processing device. Algorithms corresponding to each of multiple measurement targets are common in that they identify a predetermined part of the body (eg, elbow, shoulder) and calculate a value indicating the range of motion based on the specified part. Values calculated based on the specified part (eg, angle, distance, etc.) are different from each other. An example of the algorithm will be described in the following embodiments.
処理装置は、ユーザ入力に基づき可動域の測定対象を選択すると、選択した測定対象に対応した解析方法で入力された画像データを解析し、選択した測定対象の可動域を示す測定値を算出する。 When the processing device selects the measurement target of the movable range based on the user input, the processing device analyzes the image data input by the analysis method corresponding to the selected measurement target and calculates the measured value indicating the movable range of the selected measurement target. ..
以下、処理装置の構成を詳細に説明する。まず、処理装置のハードウエア構成の一例について説明する。本実施形態の処理装置が備える各機能部は、任意のコンピュータのCPU(Central Processing Unit)、メモリ、メモリにロードされるプログラム、そのプログラムを格納するハードディスク等の記憶ユニット(あらかじめ装置を出荷する段階から格納されているプログラムのほか、CD(Compact Disc)等の記憶媒体やインターネット上のサーバ等からダウンロードされたプログラムをも格納できる)、ネットワーク接続用インターフェイスを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。 Hereinafter, the configuration of the processing device will be described in detail. First, an example of the hardware configuration of the processing device will be described. Each functional unit included in the processing device of the present embodiment is a storage unit such as a CPU (Central Processing Unit) of an arbitrary computer, a memory, a program loaded in the memory, and a hard disk for storing the program (the stage of shipping the device in advance). In addition to the programs stored in, it can also store programs downloaded from storage media such as CDs (Compact Discs) and servers on the Internet), any hardware and software centered on the network connection interface. It is realized by the combination. And, it is understood by those skilled in the art that there are various modifications of the realization method and the device.
図2は、本実施形態の処理装置のハードウエア構成を例示するブロック図である。図2に示すように、処理装置は、プロセッサ1A、メモリ2A、入出力インターフェイス3A、周辺回路4A、バス5Aを有する。周辺回路4Aには、様々なモジュールが含まれる。処理装置は周辺回路4Aを有さなくてもよい。なお、処理装置は物理的に分かれた複数の装置で構成されてもよい。この場合、各装置が上記ハードウエア構成を備えることができる。
FIG. 2 is a block diagram illustrating a hardware configuration of the processing device of the present embodiment. As shown in FIG. 2, the processing device includes a
バス5Aは、プロセッサ1A、メモリ2A、周辺回路4A及び入出力インターフェイス3Aが相互にデータを送受信するためのデータ伝送路である。プロセッサ1Aは、例えばCPU、GPU(Graphics Processing Unit)などの演算処理装置である。メモリ2Aは、例えばRAM(Random Access Memory)やROM(Read Only Memory)などのメモリである。入出力インターフェイス3Aは、入力装置、外部装置、外部サーバ、外部センサ(3次元カメラ)等から情報を取得するためのインターフェイスや、出力装置、外部装置、外部サーバ等に情報を出力するためのインターフェイスなどを含む。入力装置は、例えばキーボード、マウス、マイク等である。出力装置は、例えばディスプレイ、スピーカ、プリンター、メーラ等である。プロセッサ1Aは、各モジュールに指令を出し、それらの演算結果をもとに演算を行うことができる。
The
次に、処理装置の機能構成を説明する。図3に、処理装置10の機能ブロック図の一例を示す。図示するように、処理装置10は、選択部11と、算出部12とを有する。
Next, the functional configuration of the processing device will be described. FIG. 3 shows an example of a functional block diagram of the
選択部11は、ユーザ入力に基づき、可動域の測定対象を選択する。例えば、選択部11は、測定対象を選択するUI(user interface)画面をディスプレイに出力し、当該UI画面からユーザ入力を受付ける。
The
一例として、選択部11は、図4に示すように、「全項目測定」と「個別測定」とが選択可能なUI画面を出力してもよい。
As an example, as shown in FIG. 4, the
ユーザ入力で「全項目測定」が指定された場合、選択部11は、全ての測定対象を所定順に1つずつ選択する。
When "Measurement of all items" is specified by user input, the
一方、ユーザ入力で「個別測定」が指定された場合、選択部11は、図5に示すように複数の測定対象を選択可能に一覧表示したUI画面をディスプレイに出力する。そして、選択部11は、当該UI画面においてユーザ入力で指定された測定対象を選択する。図5に示す複数の測定対象各々の詳細は以下の実施形態で説明する。
On the other hand, when "individual measurement" is specified by the user input, the
その他、選択部11は、動作を指定するUI画面をディスプレイに出力し、当該UI画面からユーザ入力を受付けてもよい。UI画面で指定可能な動作は、所定のスポーツ時に行う動作であってもよい。例えば、野球の投げる動作、野球の打つ動作、テニスのサーブの動作、テニスのフォアハンドの動作、テニスのボレーの動作等が例示されるが、これらに限定されない。その他、UI画面で指定可能な動作は、日常生活で行う動作であってもよい。例えば、階段を上がる動作、物を持ち上げる動作等が例示されるが、これらに限定されない。この場合、選択部11は、予め、各動作に、各動作に関連する測定対象を対応付けた情報を記憶しておく。そして、選択部11は、ユーザ入力で指定された動作に対応する測定対象を、所定順に1つずつ選択する。
In addition, the
算出部12は、被験者を撮影した画像を、選択された測定対象に対応した解析方法で解析することで、選択された測定対象の可動域を示す測定値を算出する。「画像」は、被験者100が所定の動きを行う様子を3次元カメラ200で撮影した画像である。
The
処理装置10には、予め、複数の測定対象各々に対応した画像データの解析方法を示すアルゴリズムが記憶されている。上述の通り、複数の測定対象各々に対応したアルゴリズムは、身体の所定の部位(例:肘、肩)を特定し、特定した部位に基づき可動域を示す値を算出する点で共通するが、特定する部位や特定した部位に基づき算出する値(例:角度、距離等)等が互いに異なる。算出部12は、選択部11が選択した測定対象に対応したアルゴリズムで画像を解析することで、選択された測定対象の可動域を示す測定値を算出する。アルゴリズムの詳細は、以下の実施形態で説明する。
The
次に、図6のフローチャートを用いて、本実施形態の処理装置10の処理の流れの一例を説明する。
Next, an example of the processing flow of the
まず、選択部11が、ユーザ入力に基づき、可動域の測定対象を選択する(S10)。次いで、算出部12が、被験者を撮影した画像を、S10で選択された測定対象に対応した解析方法で解析することで、選択された測定対象の可動域を示す測定値を算出する(S20)。
First, the
以上説明したように、本実施形態の処理装置10は、評価部位及びその部位の動作方向の少なくとも一方が互いに異なる複数の測定対象毎に画像データの解析方法(アルゴリズム)を用意しておき、選択された測定対象に対応する解析方法で被験者を撮影した画像を解析し、測定対象の可動域を示す測定値を算出する。このような処理装置10によれば、身体の複数の部位や複数の動作方向の可動域を、専門的な知識なしで評価できる。
As described above, the
また、本実施形態の処理装置10によれば、コンピュータが予め定められたアルゴリズムに基づき画像を解析することで可動域が算出されるので、「人が可動域を評価する場合に比べて短時間で可動域が算出される」、「高い再現性が得られる」等の優れた効果が得られる。
Further, according to the
また、本実施形態の処理装置10の一例によれば、ユーザ入力で動作(例:野球の投げる動作、野球の打つ動作、テニスのサーブの動作、テニスのフォアハンドの動作、テニスのボレーの動作等)が指定されると、指定された動作に関連する測定対象が選択される。この場合、ユーザが測定対象に関する専門的な知識を有さない場合であっても、自身に関連する動作を指定するという単純な作業を行うだけで、評価すべき測定対象の選択が実現される。すなわち、非専門性がより高くなる。
Further, according to an example of the
<第2の実施形態>
本実施形態の処理装置10は、可動域を示す測定値の算出方法がより具体化される点で、第1の実施形態と異なる。以下、詳細に説明する。<Second embodiment>
The
処理装置10のハードウエア構成の一例は、第1の実施形態と同様である。
An example of the hardware configuration of the
処理装置10の機能ブロック図の一例は、第1の実施形態同様、図3で示される。図示するように、処理装置10は、選択部11と、算出部12とを有する。選択部11の構成は、第1の実施形態と同様である。
An example of the functional block diagram of the
算出部12は、第1の実施形態同様、被験者を撮影した画像を、選択部11により選択された測定対象に対応した解析方法で解析することで、選択された測定対象の可動域を示す測定値を算出する。
Similar to the first embodiment, the
具体的には、まず、算出部12は、被験者を画像上で特定する。画像内に存在する人を特定する手段は特段制限されず、あらゆる技術を利用して実現できる。
Specifically, first, the
次いで、算出部12は、選択された測定対象に関連した身体の箇所を画像上で特定する。特定する箇所は、頭、首、左右の手先、左右の手の親指、左右の手首、左右の肘、左右の肩、左右の肩の真ん中、左右の股関節、左右の股関節の真ん中、骨盤の真ん中、脊柱の真ん中、左右の膝、左右の足首、左右の足先等が挙げられるが、これらに限定されない。これらの箇所は、身体全体の外観の特徴や、各箇所の外観の特徴等に基づき、画像解析で特定することができる。
Next, the
次いで、算出部12は、特定した身体の箇所に基づき測定値を算出する。
Next, the
例えば、算出部12は、身体の第1の箇所と第2の箇所とを結ぶ線と、基準線とのなす角を、可動域を示す測定値として算出してもよい。
For example, the
その他、算出部12は、身体の第3の箇所と第4の箇所との距離を、可動域を示す測定値として算出してもよい。
In addition, the
その他、算出部12は、被験者が第1の姿勢をとっている時の身体の第5の箇所と、被験者が同位置で第1の姿勢と異なる第2の姿勢をとっている時の身体の第5の箇所との距離を、可動域を示す測定値として算出してもよい。
In addition, the
なお、図7に示すように、予め、測定対象毎に特定する身体の箇所を示した情報が処理装置10に登録されていてもよい。そして、算出部12は、当該情報と、選択部11により選択された測定対象とに基づき、特定する身体の箇所を把握してもよい。また、算出部12は、図7に示す情報に基づき、算出する値を把握してもよい。
As shown in FIG. 7, information indicating a body portion to be specified for each measurement target may be registered in the
ここで、各測定対象を詳細に説明するとともに、各測定対象で特定される身体の箇所の一例と、画像解析方法の一例とを説明する。 Here, each measurement target will be described in detail, and an example of a body portion specified by each measurement target and an example of an image analysis method will be described.
「肩関節屈曲(図5の「肩屈曲右」、「肩屈曲左」)」
肩関節屈曲では、図8及び図9に示すように、被験者100は、3次元カメラ200(不図示)に正対し、気を付けの姿勢から手のひらを内側(身体側)に向けた状態で身体の前方を経由して腕を上方に上げていく。肩屈曲右では被験者100は右腕を動作させ、肩屈曲左では被験者100は左腕を動作させる。"Shoulder flexion (" Shoulder flexion right "," Shoulder flexion left "in Fig. 5)"
In shoulder joint flexion, as shown in FIGS. 8 and 9, the subject 100 faces the three-dimensional camera 200 (not shown), and the body is in a state where the palm is facing inward (body side) from a careful posture. Raise your arm upwards via the front of. On the right shoulder flexion, the subject 100 operates the right arm, and on the left shoulder flexion, the subject 100 operates the left arm.
画像解析方法は、例えば次のようなもの考えられる。まず、算出部12は、画像解析で、動作させる側の肩と肘とを特定する(図8及び図9中、点で示す位置)。次いで、算出部12は、肩からY軸方向に下ろした線を基準線(図8中、Sで示す線)として定めるとともに、肩と肘とを結ぶ線を移動線として定める。なお、XYZ軸方向は図1及び図8に示す通りであるが、3次元カメラ200と被験者100とを結ぶ方向がz軸方向、垂直方向がY軸方向、水平方向であって3次元カメラ200の左右方向がX軸方向である。
The image analysis method can be considered as follows, for example. First, the
そして、算出部12は、基準線をYZ平面に投影した線と、移動線をYZ平面に投影した線とのなす角を、肩関節屈曲の可動域を示す測定値として算出する。
Then, the
算出部12は、例えば、被験者100が上記一連の動作を行う様子を示す動画像を解析することができる。この場合、算出部12は、フレーム毎に画像を解析し、フレーム毎に上記なす角を算出することができる。そして、算出部12は、フレーム毎に算出した複数のなす角の中の最大値を、肩関節屈曲の可動域を示す測定値として算出することができる。
The
なお、ここで説明した画像解析方法は一例であり、これに準じた他の方法を採用することもできる。 The image analysis method described here is an example, and other methods based on the same can be adopted.
「肩関節外旋(図5の「肩外旋右」、「肩外旋左」)」
肩関節外旋では、図10及び図11に示すように、被験者100は、3次元カメラ200(不図示)に正対し、外転90°の姿勢から手先が上を向くように肘を90°曲げ、手のひらが内側を向いた状態(手の親指が体の後方を向く状態)で肘から先を体の後方側に倒していく。肩外旋右では被験者100は右腕を動作させ、肩外旋左では被験者100は左腕を動作させる。"External rotation of the shoulder joint (" External rotation of the shoulder "," External rotation of the shoulder "in Fig. 5)"
In the external rotation of the shoulder joint, as shown in FIGS. 10 and 11, the subject 100 faces the three-dimensional camera 200 (not shown), and the elbow is 90 ° so that the hand faces upward from the posture of
画像解析方法は、例えば次のようなもの考えられる。まず、算出部12は、画像解析で、動作させる側の肘と手首とを特定する(図10及び図11中、点で示す位置)。次いで、算出部12は、肘からZ軸方向(身体の前方側)に伸ばした線を基準線(図10中、Sで示す線)として定めるとともに、肘と手首とを結ぶ線を移動線として定める。
The image analysis method can be considered as follows, for example. First, the
そして、算出部12は、基準線をYZ平面に投影した線と、移動線をYZ平面に投影した線とのなす角を、肩関節外旋の可動域を示す測定値として算出する。
Then, the
算出部12は、例えば、被験者100が上記一連の動作を行う様子を示す動画像を解析することができる。この場合、算出部12は、フレーム毎に画像を解析し、フレーム毎に上記なす角を算出することができる。そして、算出部12は、フレーム毎に算出した複数のなす角の中の最大値を、肩関節外旋の可動域を示す測定値として算出することができる。
The
なお、ここで説明した画像解析方法は一例であり、これに準じた他の方法を採用することもできる。 The image analysis method described here is an example, and other methods based on the same can be adopted.
「肩関節内旋(図5の「肩内旋右」、「肩内旋左」)」
肩関節内旋では、図12及び図13に示すように、被験者100は、3次元カメラ200(不図示)に正対し、外転90°の姿勢から手先が上を向くように肘を90°曲げ、手のひらが外側を向いた状態(手の親指が身体の前方を向く状態)で肘から先を身体の前方側に倒していく。肩内旋右では被験者100は右腕を動作させ、肩内旋左では被験者100は左腕を動作させる。"Internal rotation of the shoulder joint (" right of internal rotation of the shoulder "and" left of internal rotation of the shoulder "in Fig. 5)"
In the internal rotation of the shoulder joint, as shown in FIGS. 12 and 13, the subject 100 faces the three-dimensional camera 200 (not shown), and the elbow is 90 ° so that the hand faces upward from the posture of
画像解析方法は、例えば次のようなもの考えられる。まず、算出部12は、画像解析で、動作させる側の肘と手首とを特定する(図12及び図13中、点で示す位置)。次いで、算出部12は、肘からZ軸方向(身体の後方側)に伸ばした線を基準線(図12中、Sで示す線)として定めるとともに、肘と手首とを結ぶ線を移動線として定める。
The image analysis method can be considered as follows, for example. First, the
そして、算出部12は、基準線をYZ平面に投影した線と、移動線をYZ平面に投影した線とのなす角を、肩関節内旋の可動域を示す測定値として算出する。
Then, the
算出部12は、例えば、被験者100が上記一連の動作を行う様子を示す動画像を解析することができる。この場合、算出部12は、フレーム毎に画像を解析し、フレーム毎に上記なす角を算出することができる。そして、算出部12は、フレーム毎に算出した複数のなす角の中の最大値を、肩関節内旋の可動域を示す測定値として算出することができる。
The
なお、ここで説明した画像解析方法は一例であり、これに準じた他の方法を採用することもできる。 The image analysis method described here is an example, and other methods based on the same can be adopted.
「股関節屈曲(図5の「股屈曲右」、「股屈曲左」)」
股関節屈曲は、図14及び図15に示すように、被験者100は、3次元カメラ200(不図示)に正対し、気を付けの姿勢から膝を胸に近づけるように足を動かす。股屈曲右では被験者100は右足を動作させ、股屈曲左では被験者100は左足を動作させる。"Hip flexion (" hip flexion right "," hip flexion left "in Fig. 5)"
For hip flexion, as shown in FIGS. 14 and 15, subject 100 faces the three-dimensional camera 200 (not shown) and moves his legs from a careful posture so that his knees are closer to his chest. On the right side of the crotch flexion, the subject 100 moves the right foot, and on the left side of the crotch flexion, the subject 100 moves the left foot.
画像解析方法は、例えば次のようなもの考えられる。まず、算出部12は、画像解析で、動作させる側の股関節と膝とを特定する(図14及び図15中、点で示す位置)。次いで、算出部12は、股関節からY軸方向に下ろした線を基準線(図14中、Sで示す線)として定めるとともに、股関節と膝とを結ぶ線を移動線として定める。
The image analysis method can be considered as follows, for example. First, the
そして、算出部12は、基準線をYZ平面に投影した線と、移動線をYZ平面に投影した線とのなす角を、股関節屈曲の可動域を示す測定値として算出する。
Then, the
算出部12は、例えば、被験者100が上記一連の動作を行う様子を示す動画像を解析することができる。この場合、算出部12は、フレーム毎に画像を解析し、フレーム毎に上記なす角を算出することができる。そして、算出部12は、フレーム毎に算出した複数のなす角の中の最大値を、股関節屈曲の可動域を示す測定値として算出することができる。
The
なお、ここで説明した画像解析方法は一例であり、これに準じた他の方法を採用することもできる。 The image analysis method described here is an example, and other methods based on the same can be adopted.
「体幹部回旋(図5の「体幹回旋右」、「体幹回旋左」)」
体幹部回旋では、図16及び図17に示すように、被験者100は、3次元カメラ200(不図示)に正対し、両手を頭部で組んだ座位で上半身を回旋させる。その際、被験者100は、回旋方向に体重移動させる。体幹回旋右では被験者100は右方向に上半身を回旋させ、体幹回旋左では被験者100は左方向に上半身を回旋させる。"Torso rotation (" trunk rotation right "," trunk rotation left "in Fig. 5)"
In the trunk rotation, as shown in FIGS. 16 and 17, the subject 100 faces the three-dimensional camera 200 (not shown) and rotates the upper body in a sitting position with both hands folded by the head. At that time, the subject 100 shifts the weight in the rotation direction. On the right side of the trunk rotation, the subject 100 rotates the upper body to the right, and on the left side of the trunk rotation, the subject 100 rotates the upper body to the left.
画像解析方法は、例えば次のようなもの考えられる。まず、算出部12は、画像解析で、両股関節と、両肩とを特定する(図16及び図17中、点で示す位置)。次いで、算出部12は、両股関節を結ぶ線を基準線(図16中、Sで示す線)として定めるとともに、両肩を結ぶ線を移動線として定める。
The image analysis method can be considered as follows, for example. First, the
そして、算出部12は、基準線をXZ平面に投影した線と、移動線をXZ平面に投影した線とのなす角を、体幹部外旋の可動域を示す測定値として算出する。
Then, the
算出部12は、例えば、被験者100が上記一連の動作を行う様子を示す動画像を解析することができる。この場合、算出部12は、フレーム毎に画像を解析し、フレーム毎に上記なす角を算出することができる。そして、算出部12は、フレーム毎に算出した複数のなす角の中の最大値を、体幹部回旋の可動域を示す測定値として算出することができる。
The
なお、ここで説明した画像解析方法は一例であり、これに準じた他の方法を採用することもできる。 The image analysis method described here is an example, and other methods based on the same can be adopted.
「下肢リーチ側方(図5の「下肢リーチ側方」)」
下肢リーチ側方では、図18及び図19に示すように、被験者100は、3次元カメラ200(不図示)に正対し、手を腰に当てて片足立ちし、そこから浮いている足を地面につかないように最大限側方側(X軸方向側)に伸ばして足先を身体から離した後、元の状態に戻る。なお、下肢リーチ側方では、左足で立って右足を伸ばす測定と、右足で立って左足を伸ばす測定との2パターンを行うことができる。"Lower limb reach lateral"("Lower limb reach lateral" in Fig. 5) "
On the side of the lower limb reach, as shown in FIGS. 18 and 19, the subject 100 faces the three-dimensional camera 200 (not shown), stands on one leg with his hand on his waist, and puts his floating leg on the ground. Extend it to the side as much as possible (X-axis direction side) so that it does not get stuck, and after separating the toes from the body, return to the original state. On the lateral side of the reach of the lower limbs, two patterns can be performed: a measurement of standing with the left foot and extending the right leg, and a measurement of standing with the right foot and extending the left leg.
画像解析方法は、例えば次のようなもの考えられる。まず、算出部12は、画像解析で、左右の足先を特定する(図18及び図19中、点で示す位置)。そして、算出部12は、左右の足先のX軸方向の距離を、下肢リーチ側方の可動域を示す測定値として算出する。
The image analysis method can be considered as follows, for example. First, the
算出部12は、例えば、被験者100が上記一連の動作を行う様子を示す動画像を解析することができる。この場合、算出部12は、フレーム毎に画像を解析し、フレーム毎に上記距離を算出することができる。そして、算出部12は、フレーム毎に算出した複数の距離の中の最大値を、下肢リーチ側方の可動域を示す測定値として算出することができる。
The
なお、ここで説明した画像解析方法は一例であり、これに準じた他の方法を採用することもできる。 The image analysis method described here is an example, and other methods based on the same can be adopted.
「下肢リーチ後方(図5の「下肢リーチ後方」)」
下肢リーチ後方では、図20及び図21に示すように、被験者100は、X軸方向を向いて、手を腰に当てて片足立ちし、そこから浮いている足を地面につかないように最大限後方側(X軸方向側)に伸ばして足先を身体から離した後、元の状態に戻る。なお、下肢リーチ後方では、左足で立って右足を伸ばす測定と、右足で立って左足を伸ばす測定との2パターンを行うことができる。"Backward of lower limb reach (" Rearward of lower limb reach "in Fig. 5)"
Behind the lower limb reach, as shown in FIGS. 20 and 21, subject 100 faces the X-axis direction, stands on one leg with his hand on his hip, and maximally avoids the floating leg from touching the ground. After extending to the rear side (X-axis direction side) and separating the toes from the body, it returns to the original state. Behind the reach of the lower limbs, two patterns can be performed: a measurement of standing with the left foot and extending the right leg, and a measurement of standing with the right foot and extending the left leg.
画像解析方法は、例えば次のようなもの考えられる。まず、算出部12は、画像解析で、左右の足先を特定する(図20及び図21中、点で示す位置)。そして、算出部12は、左右の足先のX軸方向の距離を、下肢リーチ後方の可動域を示す測定値として算出する。
The image analysis method can be considered as follows, for example. First, the
算出部12は、例えば、被験者100が上記一連の動作を行う様子を示す動画像を解析することができる。この場合、算出部12は、フレーム毎に画像を解析し、フレーム毎に上記距離を算出することができる。そして、算出部12は、フレーム毎に算出した複数の距離の中の最大値を、下肢リーチ後方の可動域を示す測定値として算出することができる。
The
なお、ここで説明した画像解析方法は一例であり、これに準じた他の方法を採用することもできる。 The image analysis method described here is an example, and other methods based on the same can be adopted.
「上肢リーチ(図5の「上肢リーチ」)」
上肢リーチでは、図22及び図23に示すように、被験者100は、X軸方向を向いて計測位置に測定側の足を付けた最初の状態から3歩後ろに下がる。そこから、被験者100は、非測定側の足を最初の状態の位置に戻し、両腕を前方に伸ばした第1の姿勢(図22において点線で示す姿勢)をとる。次いで、その位置で全身を前方に伸ばし、両腕の先の位置を最大限遠方に離した第2の姿勢(図22において実線で示す姿勢)をとる。なお、上肢リーチでは、右足を測定側の足とした測定と、左足を測定側の足とした測定との2パターンを行うことができる。"Upper limb reach (" Upper limb reach "in Fig. 5)"
In the upper limb reach, as shown in FIGS. 22 and 23, the subject 100 descends three steps back from the initial state in which the measurement side foot is attached to the measurement position facing the X-axis direction. From there, the subject 100 takes a first posture (the posture shown by the dotted line in FIG. 22) in which the foot on the non-measurement side is returned to the position in the initial state and both arms are extended forward. Next, the whole body is extended forward at that position, and a second posture (the posture shown by the solid line in FIG. 22) is taken in which the positions of the tips of both arms are separated as far as possible. In the upper limb reach, two patterns can be performed: measurement with the right foot as the foot on the measurement side and measurement with the left foot as the foot on the measurement side.
画像解析方法は、例えば次のようなもの考えられる。まず、算出部12は、画像解析で、第1の姿勢時の手先及び第2の姿勢時の手先を特定する(図22及び図23中、点で示す位置)。そして、算出部12は、第1の姿勢時の手先と、第2の姿勢時の手先とのX軸方向の距離を、上肢リーチの可動域を示す測定値として算出する。
The image analysis method can be considered as follows, for example. First, the
算出部12は、例えば、被験者100が第1の姿勢から第2の姿勢になるまでの一連の動作を示す動画像を解析することができる。この場合、算出部12は、フレーム毎に画像を解析し、フレーム毎に上記距離を算出することができる。そして、算出部12は、フレーム毎に算出した複数の距離の中の最大値を、上肢リーチの可動域を示す測定値として算出することができる。
The
なお、ここで説明した画像解析方法は一例であり、これに準じた他の方法を採用することもできる。 The image analysis method described here is an example, and other methods based on the same can be adopted.
「T字バランス(図5の「T字バランス左支持」、「T字バランス右支持」)」
T字バランスでは、図24及び図25に示すように、被験者100は、X軸方向を向いて片足立ちし、手と足を可能な限り床と平行にする。T字バランス左支持では、被験者100は左足で立ち、T字バランス右支持では、被験者100は右足で立つ。"T-shaped balance (" T-shaped balance left support "," T-shaped balance right support "in Fig. 5)"
In the T-balance, as shown in FIGS. 24 and 25, the subject 100 stands on one leg facing the X-axis direction and keeps his hands and feet as parallel to the floor as possible. In the T-balance left support, the subject 100 stands on the left foot, and in the T-balance right support, the subject 100 stands on the right foot.
画像解析方法は、例えば次のようなもの考えられる。まず、算出部12は、画像解析で、肩と、肘と、股関節と、膝とを特定する(図24及び図25中、点で示す位置)。次いで、算出部12は、肩からX軸方向(腕と反対側に伸びる方向)に伸びる線を基準線(図24中、Sで示す線)として定めるとともに、この基準線とのなす角を算出するための移動線として肩と肘とを結ぶ線を定める。また、算出部12は、股関節からX軸方向(足と反対側に伸びる方向)に伸びる線を基準線(図24中、Sで示す線)として定めるとともに、この基準線とのなす角を算出するための移動線として股関節と膝とを結ぶ線を定める。
The image analysis method can be considered as follows, for example. First, the
そして、算出部12は、基準線をXY平面に投影した線と、移動線をXY平面に投影した線とのなす角を、T字バランスの可動域を示す測定値として算出する。
Then, the
算出部12は、例えば、被験者100が上記一連の動作を行う様子を示す動画像を解析することができる。この場合、算出部12は、フレーム毎に画像を解析し、フレーム毎に上記なす角を算出することができる。そして、算出部12は、フレーム毎に算出した複数のなす角の中の最大値を、T字バランスの可動域を示す測定値として算出することができる。
The
なお、ここで説明した画像解析方法は一例であり、これに準じた他の方法を採用することもできる。 The image analysis method described here is an example, and other methods based on the same can be adopted.
次に、本実施形態の処理装置10の処理の流れの一例は第1の実施形態同様、図6のフローチャートで示される。ここで、図6のS20の処理の流れの一例を、図26のフローチャートを用いて説明する。
Next, an example of the processing flow of the
まず、算出部12は、被験者を画像上で特定する(S21)。次いで、算出部12は、S10で選択された測定対象に関連した身体の箇所を画像上で特定する(S22)。次いで、算出部12は、S22で特定した箇所に基づき測定値を算出する(S23)。
First, the
以上説明した本実施形態の処理装置10によれば、第1の実施形態と同様な作用効果を実現できる。
According to the
また、本実施形態の処理装置10によれば、画像解析で測定対象に関連した身体の箇所を特定した後、特定した箇所に基づき測定値を算出することができる。例えば、2つの箇所を結ぶ線と基準線とのなす角を算出したり、2つの箇所の距離を算出したり、第1の姿勢を取っている時の箇所と同位置で第2の姿勢を取っている時の同箇所との距離を算出したりできる。このような処理装置10によれば、身体の様々な部位の様々な動作方向の可動域を測定することができる。
Further, according to the
<第3の実施形態>
本実施形態の処理装置10は、可動域を示す測定値に基づき、測定対象の状態を評価する機能を有する点で、第1及び第2の実施形態と異なる。以下、詳細に説明する。<Third embodiment>
The
処理装置10のハードウエア構成の一例は、第1及び第2の実施形態と同様である。
An example of the hardware configuration of the
処理装置10の機能ブロック図の一例は、図27で示される。図示するように、処理装置10は、選択部11と、算出部12と、評価部13とを有する。選択部11及び算出部12の構成は、第1及び第2の実施形態と同様である。
An example of the functional block diagram of the
評価部13は、算出部12が算出した測定対象の可動域を示す測定値に基づき、測定対象の状態を評価する。評価部13は、以下で説明する第1乃至第3の評価方法の中の少なくとも1つを実行することができる。
The
「第1の評価方法」
測定対象の測定値が、身体の左右に対応して2パターン算出された場合、評価部13は、2パターンの測定値の差を算出し、当該差に基づき測定対象の状態を評価することができる。差が小さい程、左右のバランスが適切な状態であり、差が大きい程、左右のバランスが崩れている状態である。第1の評価方法によれば、身体の左右のバランスが適切な状態か否かを評価することができる。"First evaluation method"
When the measured values of the measurement target are calculated in two patterns corresponding to the left and right sides of the body, the
「身体の左右に対応して測定値を2パターン算出」は、例えば、「肩屈曲右と肩屈曲左の測定値を算出」、「肩外旋右と肩外旋左の測定値を算出」、「肩内旋右と肩内旋左の測定値を算出」、「股屈曲右と股屈曲左の測定値を算出」、「体幹回旋右と体幹回旋左の測定値を算出」、「下肢リーチ側方において、左足で立って右足を伸ばす測定値と、右足で立って左足を伸ばす測定値とを算出」、「下肢リーチ後方において、左足で立って右足を伸ばす測定値と、右足で立って左足を伸ばす測定値とを算出」、「上肢リーチにおいて、右足を測定側の足とした測定値と、左足を測定側の足とした測定値とを算出」、「T字バランス左支持とT字バランス右支持の測定値を算出」等が例示される。 "Calculate two patterns of measured values corresponding to the left and right of the body" is, for example, "Calculate the measured values of shoulder flexion right and shoulder flexion left", "Calculate the measured values of shoulder external rotation right and shoulder external rotation left" , "Calculate measurements for right shoulder and left shoulder flexion", "Calculate measurements for right crotch flexion and left crotch flexion", "Calculate measurements for right trunk rotation and left trunk rotation", "Calculate the measured values of standing on the left foot and extending the right foot on the side of the lower limb reach and the measured values of standing on the right foot and extending the left foot", "After the lower limb reach, the measured values of standing on the left foot and extending the right foot and the right foot "Calculate the measured value of standing and extending the left foot", "Calculate the measured value of the right foot as the measuring side foot and the measured value of the left foot as the measuring side foot in the upper limb reach", "T-shaped balance left "Calculate the measured values of support and T-shaped balance right support" and the like are exemplified.
例えば、評価部13は、2パターンの測定値の差を複数レベルに分類し、レベル毎に測定対象の状態を定義した第1の状態定義情報を保持しておいてもよい。第1の状態定義情報は、例えば、差がD0〜D1は「良好」、差がD1〜D2は「やや危険」、差がD2〜D3は「危険」等である。そして、評価部13は、第1の状態定義情報と、2パターンの測定値の差に基づき、各測定対象の状態を評価してもよい。
For example, the
なお、第1の状態定義情報は、測定対象毎に定義されてもよい。すなわち、「良好」、「やや危険」、「危険」等の各状態となる差の数値範囲は、測定対象毎に異なってもよい。 The first state definition information may be defined for each measurement target. That is, the numerical range of the difference in each state such as "good", "slightly dangerous", and "danger" may be different for each measurement target.
「第2の評価方法」
評価部13は、測定値と参照値との比較結果に基づき、測定対象の状態を評価することができる。"Second evaluation method"
The
例えば、評価部13は、測定値を複数レベルに分類し、レベル毎に測定対象の状態を定義した第2の状態定義情報を保持しておいてもよい。第2の状態定義情報は、例えば、測定値がC0〜C1は「良好」、測定値がC1〜C2は「やや危険」、測定値がC2〜C3は「危険」等である。そして、評価部13は、第2の状態定義情報と、測定値とに基づき、各測定対象の状態を評価してもよい。
For example, the
なお、第2の状態定義情報は、測定対象毎に定義されてもよい。すなわち、「良好」、「やや危険」、「危険」等の各状態となる測定値の数値範囲は、測定対象毎に異なってもよい。また、第2の状態定義情報は、被験者の属性毎(例:年齢ごと、性別ごと)に定義されてもよい。すなわち、「良好」、「やや危険」、「危険」等の各状態となる測定値の数値範囲は、被験者の属性毎(例:年齢ごと、性別ごと)に異なってもよい。この場合、処理装置10は任意の手段で被験者の属性を指定する値の入力を受付け、評価部13は入力された値に基づき被験者の属性を特定し、特定した属性に対応した第2の状態定義情報を用いて測定対象の状態を評価する。
The second state definition information may be defined for each measurement target. That is, the numerical range of the measured values in each state such as "good", "slightly dangerous", and "danger" may be different for each measurement target. Further, the second state definition information may be defined for each attribute of the subject (eg, for each age, for each gender). That is, the numerical range of the measured values in each state such as "good", "slightly dangerous", and "danger" may differ for each attribute of the subject (eg, for each age, for each gender). In this case, the
「第3の評価方法」
評価部13は、同被験者の測定値(例:最新の測定値)と過去の測定値に基づき、測定対象の状態を評価する。第3の評価方法によれば、被験者の測定対象の状態の変化(悪化、現状維持、良化等)を評価することができる。"Third evaluation method"
The
例えば、評価部13は、過去の測定値に基づき測定対象の状態を定義した第3の状態定義情報を保持しておいてもよい。第3の状態定義情報は、例えば、測定値が「過去の測定値マイナスα以上過去の測定値プラスα以下」の場合は「現状維持」、測定値が「過去の測定値マイナスα未満」の場合は「悪化」、測定値が「過去の測定値プラスαより大」の場合は「良化」等である。そして、評価部13は、第3の状態定義情報と、過去の測定値と、例えば最新の測定値とに基づき、各測定対象の状態を評価してもよい。
For example, the
なお、第3の状態定義情報は、測定対象毎に定義されてもよい。すなわち、上記αの値は、測定対象毎に異なってもよい。また、第3の状態定義情報は、被験者の属性毎(例:年齢ごと、性別ごと)に定義されてもよい。すなわち、上記αの値は、被験者の属性毎(例:年齢ごと、性別ごと)に異なってもよい。この場合、処理装置10は任意の手段で被験者の属性を指定する値の入力を受付け、評価部13は入力された値に基づき被験者の属性を特定し、特定した属性に対応した第3の状態定義情報を用いて測定対象の状態を評価する。
The third state definition information may be defined for each measurement target. That is, the value of α may be different for each measurement target. Further, the third state definition information may be defined for each attribute of the subject (eg, for each age, for each gender). That is, the value of α may differ for each attribute of the subject (eg, for each age, for each gender). In this case, the
次に、図28のフローチャートを用いて、本実施形態の処理装置10の処理の流れの一例を説明する。
Next, an example of the processing flow of the
まず、選択部11が、ユーザ入力に基づき、可動域の測定対象を選択する(S10)。次いで、算出部12が、被験者を撮影した画像を、S10で選択された測定対象に対応した解析方法で解析することで、選択された測定対象の可動域を示す測定値を算出する(S20)。次いで、評価部13が、S20で算出された測定値に基づき、測定対象の状態を評価する(S30)。
First, the
以上説明した本実施形態の処理装置10によれば、第1及び第2の実施形態と同様な作用効果を実現できる。
According to the
また、本実施形態の処理装置10によれば、測定値に基づき測定対象の状態を評価することができる。
Further, according to the
例えば、身体の左右に対応して2パターンの測定値が算出された場合、2パターンの測定値の差に基づき測定対象の状態を評価することができる。この場合、身体の左右のバランスが適切な状態か否かを評価することができる。 For example, when two patterns of measured values are calculated corresponding to the left and right sides of the body, the state of the measurement target can be evaluated based on the difference between the two patterns of measured values. In this case, it is possible to evaluate whether or not the left-right balance of the body is in an appropriate state.
その他、測定値と参照値との比較結果に基づき、測定対象の状態を評価することができる。この場合、測定対象の状態が一般的な標準状態か否かを評価することができる。 In addition, the state of the measurement target can be evaluated based on the comparison result between the measured value and the reference value. In this case, it is possible to evaluate whether or not the state to be measured is a general standard state.
その他、同被験者の測定値と過去の測定値との比較結果に基づき、測定対象の状態を評価することができる。この場合、被験者の測定対象の状態の変化(悪化、現状維持、良化等)を評価することができる。 In addition, the state of the measurement target can be evaluated based on the comparison result between the measurement value of the same subject and the past measurement value. In this case, changes in the state of the subject to be measured (deterioration, status quo, improvement, etc.) can be evaluated.
このように、本実施形態の処理装置10によれば、測定対象の状態を様々な角度から評価することができる。
As described above, according to the
<第4の実施形態>
本実施形態の処理装置10は、測定対象の状態を示す情報を出力する機能を有する点で、第1乃至第3の実施形態と異なる。以下、詳細に説明する。<Fourth Embodiment>
The
処理装置10のハードウエア構成の一例は、第1乃至第3の実施形態と同様である。
An example of the hardware configuration of the
処理装置10の機能ブロック図の一例は、図29で示される。図示するように、処理装置10は、選択部11と、算出部12と、評価部13と、出力部14とを有する。選択部11、算出部12及び評価部13の構成は、第1乃至第3の実施形態と同様である。
An example of the functional block diagram of the
出力部14は、出力装置を介して各種情報を出力する。出力装置は、ディスプレイ、投影装置、メーラ、プリンター、スピーカ、警告ランプ等が例示されるがこれらに限定されない。
The
出力部14は、例えば、評価部13が評価した測定対象の状態を示す情報を出力する。そして、出力部14は、測定対象の状態が所定の状態である場合、測定対象の状態を示す情報に加えて、測定対象の状態を改善するための情報又は当該情報を取得するための情報を出力することができる。
The
ここでの「所定の状態」は、改善が必要な状態である。測定対象の状態の定義の仕方が第3の実施形態で例示したものである場合、所定の状態は、例えば「危険」、「やや危険」、「悪化」等である。 The "predetermined state" here is a state that needs improvement. When the method of defining the state of the measurement target is illustrated in the third embodiment, the predetermined state is, for example, "danger", "slightly dangerous", "worse" or the like.
「測定対象の状態を改善するための情報」は、状態を改善するための運動を示す。当該情報は、人物等が当該運動を行っている様子を記録した動画であってもよいし、写真、イラスト及び文字等で当該運動を説明したものであってもよい。「当該情報を取得するための情報」は、当該情報を含むデータファイルの保存場所(例:URL)や、当該情報にアクセスするための案内等である。 "Information for improving the condition of the measurement target" indicates an exercise for improving the condition. The information may be a moving image recording a person or the like performing the exercise, or may be an explanation of the exercise with photographs, illustrations, characters, or the like. The "information for acquiring the information" is a storage location (example: URL) of a data file containing the information, a guide for accessing the information, and the like.
また、出力部14は、算出部12が算出した測定対象の可動域を示す測定値を出力してもよい。
Further, the
図30に、出力部14が出力する情報の一例を示す。図30では、出力部14は、測定対象毎に、測定対象の可動域を示す測定値(左右両方)と、左右の測定値の差と、評価部13が評価した状態と、を互いに対応付けた情報を出力している。評価部13が評価した状態は、顔のアイコンの表情で示している。そして、出力部14は、評価部13が評価した状態が所定の状態(改善が必要な状態)である測定対象に対応付けて、動画のリンクを埋め込んだアイコン(「Do It!」、「Check」の文字が付されたアイコン)を出力している。
FIG. 30 shows an example of the information output by the
図31に、出力部14が出力する情報の他の一例を示す。図31では、出力部14は、測定対象毎に、評価部13が評価した状態と、左右の測定値の差と、当該差を示す棒グラフと、を互いに対応付けて出力している。評価部13が評価した状態は、顔のアイコンの表情で示している。左右の測定値の差は顔のアイコンの下の数値である。そして、出力部14は、評価部13が評価した状態が所定の状態(改善が必要な状態)である測定対象に対応付けて、動画のリンクを埋め込んだアイコン(「Do It!」、「Check」の文字が付されたアイコン)を出力している。
FIG. 31 shows another example of the information output by the
図32に、出力部14が出力する情報の他の一例を示す。図32では、評価部13は0乃至3の4段階で測定対象の状態を評価している。3が最も良い状態であり、数値が小さくなるに従い状態が悪くなる。そして、出力部14は、各測定対象の状態及び全体の状態を示したレーダチャートを出力している。
FIG. 32 shows another example of the information output by the
図33に、出力部14が出力する情報の他の一例を示す。図33では、出力部14は、ある被験者100のある測定対象の測定値の時系列な変化を示す情報を出力している。
FIG. 33 shows another example of the information output by the
また、出力部14は、図34に示すように、被験者100が可動域測定のための所定の動作を行っている最中に、被験者100を撮影した動画をリアルタイムに出力してもよい。そして、出力部14は、当該画面上に各種情報を出力してもよい。
Further, as shown in FIG. 34, the
図34の画面では、(1)の領域に、被験者100を撮影した動画がリアルタイムに表示されている。そして、(2)の領域に、選択部11が選択した測定対象を示す情報が表示されている。
On the screen of FIG. 34, a moving image of the subject 100 is displayed in real time in the area (1). Then, in the area (2), information indicating the measurement target selected by the
また、(3)の領域に、その時に(1)の領域に表示されているフレーム又はその直前のフレームに基づき算出部12が算出したその時の可動域を示す測定値が表示されている。また、(3)の領域には、測定中に各フレームに基づき算出された測定値の中の最大値が表示されている。この場合、算出部12は画像を解析し、出力部14はその解析結果(測定値)をリアルタイムに出力する。
Further, in the area (3), a measured value indicating the range of motion at that time calculated by the
図34の画面では、その他、再測定を行うためのボタンや、その時に(3)の領域に表示されている測定値で(3)の領域に表示される最大値を強制的に更新するためのボタン(星が付されたボタン)等が表示されている。 On the screen of FIG. 34, in addition to the button for performing remeasurement and the measured value displayed in the area (3) at that time, the maximum value displayed in the area (3) is forcibly updated. Buttons (buttons with stars) etc. are displayed.
以上説明した本実施形態の処理装置10によれば、第1乃至第3の実施形態と同様な作用効果を実現できる。
According to the
また、本実施形態の処理装置10によれば、測定対象の可動域を示す測定値、左右の測定値の差、測定対象の状態等の各種情報を測定対象毎に出力することができる。被験者100は、当該情報を閲覧することで、自身の身体の部位の状態を容易に把握することができる。
Further, according to the
また、本実施形態の処理装置10によれば、状態がよくない測定対象が存在する場合、その測定対象の状態を改善するための情報やその情報を取得するための情報を出力することができる。このように、処理装置10は、被験者100が欲する情報を適切なタイミングで提供することができる。
Further, according to the
<第5の実施形態>
本実施形態の処理装置10は、測定対象の可動域を測定するための所定の動作を行っている最中に被験者が当該測定の精度に影響する禁止動作を行ったことを検出する機能を有する点で、第1乃至第4の実施形態と異なる。以下、詳細に説明する。<Fifth Embodiment>
The
処理装置10のハードウエア構成の一例は、第1乃至第4の実施形態と同様である。
An example of the hardware configuration of the
処理装置10の機能ブロック図の一例は、図35で示される。図示するように、処理装置10は、選択部11と、算出部12と、評価部13と、出力部14と、禁止動作検出部15とを有する。選択部11、算出部12、評価部13及び出力部14の構成は、第1乃至第4の実施形態と同様である。
An example of the functional block diagram of the
禁止動作検出部15は、被験者100を撮影した画像を解析し、被験者が禁止動作を行ったことを検出する。禁止動作検出部15は、選択部11が選択した測定対象に関連した被験者の身体の複数箇所を画像上で特定し、特定した複数箇所に基づき禁止動作を検出する。例えば、禁止動作検出部15は、身体の第1の箇所と第2の箇所とを結ぶ線と基準線とのなす角が基準範囲から逸脱した場合、禁止動作を行ったと判断してもよい。その他、禁止動作検出部15は、身体の第3の箇所と第4の箇所との距離が基準範囲から逸脱した場合、禁止動作を行ったと判断してもよい。
The prohibited
なお、図36に示すように、予め、測定対象毎に特定する身体の箇所を示した情報が処理装置10に登録されていてもよい。そして、禁止動作検出部15は、当該情報と、選択部11により選択された測定対象とに基づき、特定する身体の箇所を把握してもよい。また、禁止動作検出部15は、図36に示す情報に基づき、検出する内容を把握してもよい。
As shown in FIG. 36, information indicating a body portion to be specified for each measurement target may be registered in the
なお、第2の実施形態で説明した通り、算出部12も、選択部11が選択した測定対象に関連した被験者の身体の複数箇所を画像上で特定し、特定した複数箇所に基づき所定の処理を行う。しかし、算出部12が特定する身体の箇所と、禁止動作検出部15が特定する身体の箇所とは互いに異なり得る(完全には一致しない状態)。すなわち、算出部12が第1の測定対象に関連して特定する身体の複数箇所と、禁止動作検出部15が第1の測定対象に関連して特定する身体の複数箇所とは異なり得る(完全には一致しない状態)。
As described in the second embodiment, the
ここで、各測定対象の禁止動作、及び、禁止動作検出部15が検出する内容の一例を説明する。
Here, an example of the prohibited operation of each measurement target and the content detected by the prohibited
「肩関節屈曲」
肩関節屈曲では、図37に示すように、(1)体幹を前後に倒す動作、(2)動作している腕の肩を後ろ側に引く動作、(3)動作している腕が身体から外側に離れる動作等が、禁止動作となる。ここで、各禁止動作を画像解析で検出する方法の一例を説明するが、これに限定されない。"Shoulder flexion"
In shoulder joint flexion, as shown in FIG. 37, (1) the movement of tilting the trunk back and forth, (2) the movement of pulling the shoulder of the moving arm backward, and (3) the movement of the moving arm are the body. An action such as moving away from the outside is a prohibited action. Here, an example of a method of detecting each prohibited operation by image analysis will be described, but the method is not limited thereto.
(1)の禁止動作:例えば、禁止動作検出部15は、頭と左右の肩の真ん中を結ぶ線や、左右の肩の真ん中と骨盤真ん中とを結ぶ線等が、YZ平面内でY軸から所定角度以上傾くことを検出することで、(1)の禁止動作を検出してもよい。
(1) Prohibited motion: For example, in the prohibited
(2)の禁止動作:例えば、禁止動作検出部15は、両肩を結ぶ線が、XZ平面内でX軸から所定角度以上傾くことを検出することで、(2)の禁止動作を検出してもよい。
(2) Prohibited operation: For example, the prohibited
(3)の禁止動作:例えば、禁止動作検出部15は、動作している腕の肩と肘を結ぶ線が、XY平面内でY軸から所定角度以上傾くことを検出することで、(3)の禁止動作を検出してもよい。
(3) Prohibited motion: For example, the prohibited
「肩関節外旋、肩関節内旋」
肩関節外旋及び肩関節内旋では、図38に示すように、(1)体幹を前後に倒す動作、(2)動作している腕の肩を後ろ側に引く動作、(3)動作している腕が身体から外側に離れる動作、(4)肘の90°が解除される動作等が、禁止動作となる。ここで、各禁止動作を画像解析で検出する方法の一例を説明するが、これに限定されない。"External rotation of the shoulder joint, internal rotation of the shoulder joint"
In the external rotation of the shoulder joint and the internal rotation of the shoulder joint, as shown in FIG. 38, (1) the motion of tilting the trunk back and forth, (2) the motion of pulling the shoulder of the moving arm backward, and (3) the motion. The movement of the arm being moved outward from the body, (4) the movement of releasing the 90 ° of the elbow, and the like are prohibited movements. Here, an example of a method of detecting each prohibited operation by image analysis will be described, but the method is not limited thereto.
(1)の禁止動作:例えば、禁止動作検出部15は、頭と左右の肩の真ん中を結ぶ線や、左右の肩の真ん中と骨盤真ん中とを結ぶ線等が、YZ平面内でY軸から所定角度以上傾くことを検出することで、(1)の禁止動作を検出してもよい。
(1) Prohibited motion: For example, in the prohibited
(2)の禁止動作:例えば、禁止動作検出部15は、両肩を結ぶ線が、XZ平面内でX軸から所定角度以上傾くことを検出することで、(2)の禁止動作を検出してもよい。
(2) Prohibited operation: For example, the prohibited
(3)の禁止動作:例えば、禁止動作検出部15は、動作している腕の肘と手先を結ぶ線が、XY平面内でY軸から所定角度以上傾くことを検出することで、(3)の禁止動作を検出してもよい。
(3) Prohibited motion: For example, the prohibited
(4)の禁止動作:例えば、禁止動作検出部15は、動作している腕の肩と肘を結ぶ線をXY平面に投影した線と、肘と手先を結ぶ線をXY平面に投影した線とのなす角が90°マイナスβから90°プラスβの範囲から逸脱することを検出することで、(4)の禁止動作を検出してもよい。
(4) Prohibited motion: For example, the prohibited
「股関節屈曲」
股関節屈曲では、図39に示すように、(1)体幹を前後に倒す動作等が禁止動作となる。ここで、当該禁止動作を画像解析で検出する方法の一例を説明するが、これに限定されない。"Hip flexion"
In hip flexion, as shown in FIG. 39, (1) the motion of tilting the trunk back and forth is prohibited. Here, an example of a method of detecting the prohibited operation by image analysis will be described, but the method is not limited thereto.
(1)の禁止動作:例えば、禁止動作検出部15は、頭と左右の肩の真ん中を結ぶ線や、左右の肩の真ん中と左右の股関節の真ん中とを結ぶ線等が、YZ平面内でY軸から所定角度以上傾くことを検出することで、(1)の禁止動作を検出してもよい。
(1) Prohibited motion: For example, in the prohibited
「体幹部回旋」
体幹部回旋では、図40に示すように、(1)両肩の一方が下がってしまい、両肩を結ぶ線が水平になっていない動作等が禁止動作となる。ここで、当該禁止動作を画像解析で検出する方法の一例を説明するが、これに限定されない。"Trunk rotation"
In the trunk rotation, as shown in FIG. 40, (1) one of both shoulders is lowered and the line connecting both shoulders is not horizontal, and the like is prohibited. Here, an example of a method of detecting the prohibited operation by image analysis will be described, but the method is not limited thereto.
(1)の禁止動作:例えば、禁止動作検出部15は、両肩を結ぶ線が、XY平面内でX軸から所定角度以上傾くことを検出することで、(1)の禁止動作を検出してもよい。
(1) Prohibited operation: For example, the prohibited
「下肢リーチ側方」
下肢リーチ側方では、図41に示すように、(1)両足先間のX軸方向の距離をLとした場合、骨盤真ん中の位置が支持側の足先からX軸方向にL/3以上離れる動作等が禁止動作となる。ここで、当該禁止動作を画像解析で検出する方法の一例を説明するが、これに限定されない。"Lower limb reach side"
On the side of the reach of the lower limbs, as shown in FIG. 41, (1) When the distance between both toes in the X-axis direction is L, the position in the center of the pelvis is L / 3 or more in the X-axis direction from the toes on the support side. The movement of leaving is prohibited. Here, an example of a method of detecting the prohibited operation by image analysis will be described, but the method is not limited thereto.
(1)の禁止動作:例えば、禁止動作検出部15は、両足先間の距離Lを算出し、また、骨盤真ん中と支持側の足先のX軸方向の距離Mを算出した後、M≧L/3を満たすことを検出することで、(1)の禁止動作を検出してもよい。
(1) Prohibited motion: For example, the prohibited
「下肢リーチ後方」
下肢リーチ側方では、図42に示すように、(1)両足先間のX軸方向の距離をLとした場合、骨盤真ん中の位置が支持側の足先からX軸方向にL/3以上離れる動作等が禁止動作となる。ここで、当該禁止動作を画像解析で検出する方法の一例を説明するが、これに限定されない。"Back of lower limb reach"
On the side of the reach of the lower limbs, as shown in FIG. 42, (1) When the distance between the toes in the X-axis direction is L, the position in the center of the pelvis is L / 3 or more in the X-axis direction from the toes on the support side. The movement of leaving is prohibited. Here, an example of a method of detecting the prohibited operation by image analysis will be described, but the method is not limited thereto.
(1)の禁止動作:例えば、禁止動作検出部15は、両足先間の距離Lを算出し、また、骨盤真ん中と支持側の足先のX軸方向の距離Mを算出した後、M≧L/3を満たすことを検出することで、(1)の禁止動作を検出してもよい。
(1) Prohibited motion: For example, the prohibited
「T字バランス」
T字バランスでは、(1)肩が肘より3次元カメラ200側にある、また、膝が股関節より3次元カメラ200側にある動作等が禁止動作となる。ここで、当該禁止動作を画像解析で検出する方法の一例を説明するが、これに限定されない。"T-shaped balance"
In the T-shaped balance, (1) the movement in which the shoulder is on the
(1)の禁止動作:例えば、禁止動作検出部15は、肩と肘とを結ぶ線がXZ平面内でX軸から所定角度以上傾くことや、膝と股関節とを結ぶ線がXZ平面内でX軸から所定角度以上傾くことを検出することで、(1)の禁止動作を検出してもよい。
(1) Prohibited motion: For example, in the prohibited
なお、出力部14は、禁止動作検出部15が禁止動作を検出した場合、その旨を示す警告を出力してもよい。
When the prohibited
例えば、出力部14が、図34に示すように、被験者100が可動域測定のための所定の動作を行っている最中に、被験者100を撮影した動画をリアルタイムに出力する場合、禁止動作検出部15はリアルタイムに画像を解析し、禁止動作を検出してもよい。そして、出力部14は、禁止動作検出部15が禁止動作を検出すると、その旨を示す警告をリアルタイムに図34に示す画面に表示してもよい。出力部14は、その他、スピーカや警告連プ等を介して、警告を出力してもよい。
For example, as shown in FIG. 34, when the
また、算出部12は、可動域を示す測定値の算出に、禁止動作検出部15の検出結果を利用してもよい。第2の実施形態で説明した通り、算出部12は、被験者100が所定の一連の動作を行う様子を示す動画像を解析し、フレーム毎になす角や距離を算出し、フレーム毎に算出した複数のなす角や距離の中の最大値を、可動域を示す測定値として算出することができる。この場合、算出部12は、禁止動作が検出されていない時のフレーム各々から算出した複数のなす角や距離の中の最大値を、可動域を示す測定値として算出してもよい。すなわち、算出部12は、禁止動作が検出されている時のフレームに基づき算出されたなす角や距離は無視し、禁止動作が検出されていない時のフレームに基づき算出されたなす角や距離に基づき、可動域を示す測定値を算出してもよい。
Further, the
以上説明した本実施形態の処理装置10によれば、第1乃至第4の実施形態と同様な作用効果を実現できる。
According to the
また、本実施形態の処理装置10によれば、測定対象の可動域を測定するための所定の動作を行っている最中に被験者が当該測定の精度に影響する禁止動作を行ったことを検出できる。このような本実施形態の処理装置10によれば、可動域の測定結果の信頼度が高まる。
Further, according to the
<第6の実施形態>
本実施形態の処理装置10は、反動をつけて動作を行うことで可動域の測定値が大きくなる問題を軽減する機能を有する点で、第1乃至第5の実施形態と異なる。以下、詳細に説明する。<Sixth Embodiment>
The
処理装置10のハードウエア構成の一例は、第1乃至第5の実施形態と同様である。
An example of the hardware configuration of the
処理装置10の機能ブロック図の一例は、図3、図27、図29又は図35で示される。図示するように、処理装置10は、選択部11と、算出部12とを有し、さらに、評価部13、出力部14及び禁止動作検出部15の中の少なくとも1つを備えることができる。選択部11、評価部13、出力部14及び禁止動作検出部15の構成は、第1乃至第5の実施形態と同様である。
An example of the functional block diagram of the
算出部12は、第2の実施形態で説明した通り、被験者100が所定の一連の動作を行う様子を示す動画像を解析し、フレーム毎に測定対象の可動域を示す値(なす角や距離)を算出する。そして、算出部12は、ある瞬間の可動域を示す値として、その瞬間のフレーム及びその直前M個のフレーム各々に基づき算出した測定対象の可動域を示す値(なす角や距離)の統計値(例:平均値、最頻値、中央値等)を算出する。このようにして、算出部12は、動画像に含まれる複数の瞬間各々に対応して、その瞬間のフレーム及びその直前M個のフレームに基づき可動域を示す値を算出する。次いで、算出部12は、複数の瞬間各々に対応して算出した可動域を示す値の中の最大値を、測定対象の可動域を示す測定値として算出する。
As described in the second embodiment, the
なお、上記処理の「その瞬間のフレーム及びその直前M個のフレーム」を、「その瞬間のフレーム及びその直後M個のフレーム」又は「その瞬間のフレーム及びその直前直後M個のフレーム」に代えてもよい。 In addition, "the frame at that moment and M frames immediately before it" in the above process are replaced with "the frame at that moment and M frames immediately after that" or "the frame at that moment and M frames immediately before and after". You may.
算出部12のその他の構成は、第1乃至第5の実施形態と同様である。
Other configurations of the
以上説明した本実施形態の処理装置10によれば、第1乃至第5の実施形態と同様な作用効果を実現できる。
According to the
また、本実施形態の処理装置10によれば、反動をつけて動作を行うことで可動域の測定値が大きくなる問題を軽減することができる。反動をつけて第2の実施形態で説明したような動作を行った場合、瞬間的に算出する値(なす角や距離)が大きくなり得るが、その状態は持続しない。このため、連続する複数のフレーム各々から算出した値の統計値を測定値とすることで、瞬間的に大きくなった値を無視又はその影響を小さくすることができる。
Further, according to the
以下、参考形態の例を付記する。
1. 可動域の測定対象を選択する選択手段と、
被験者を撮影した画像を、選択された前記測定対象に対応した解析方法で解析することで、選択された前記測定対象の可動域を示す測定値を算出する算出手段と、
を有する処理装置。
2. 1に記載の処理装置において、
前記算出手段は、
前記被験者を前記画像上で特定し、
選択された前記測定対象に関連した箇所を前記画像上で特定し、
特定した前記箇所に基づき前記測定値を算出する処理装置。
3. 2に記載の処理装置において、
前記算出手段は、
特定した第1の箇所と第2の箇所とを結ぶ線と、基準線とのなす角を、前記測定値として算出する処理装置。
4. 2又は3に記載の処理装置において、
前記算出手段は、
特定した第3の箇所と第4の箇所との距離を、前記測定値として算出する処理装置。
5. 2から4のいずれかに記載の処理装置において、
前記算出手段は、
前記被験者が第1の姿勢をとっている時に特定した第5の箇所と、前記被験者が前記第1の姿勢と異なる第2の姿勢をとっている時に特定した前記第5の箇所との距離を、前記測定値として算出する処理装置。
6. 1から5のいずれかに記載の処理装置において、
前記算出手段は、
動画像を解析して前記測定値を算出し、
選択された前記測定対象の可動域を示す値を複数のフレーム画像各々に基づき算出し、算出した複数の前記値の統計値を前記測定値として算出する処理装置。
7. 1から6のいずれかに記載の処理装置において、
前記測定値に基づき、前記測定対象の状態を評価する評価手段をさらに有する処理装置。
8. 7に記載の処理装置において、
前記測定対象の前記測定値が、身体の左右に対応して2パターン算出された場合、
前記評価手段は、2パターンの前記測定値の差に基づき、前記測定対象の状態を評価する処理装置。
9. 7又は8に記載の処理装置において、
前記評価手段は、前記測定値と参照値との比較結果に基づき、前記測定対象の状態を評価する処理装置。
10. 7から9のいずれかに記載の処理装置において、
前記評価手段は、同じ前記被験者の前記測定値と過去の前記測定値に基づき、前記測定対象の状態を評価する処理装置。
11. 7から10のいずれかに記載の処理装置において、
前記評価手段が評価した前記測定対象の状態を示す情報を出力する出力手段をさらに有する処理装置。
12. 11に記載の処理装置において、
前記出力手段は、前記測定対象の状態が所定の状態である場合、前記測定対象の状態を改善するための情報又は前記情報を取得するための情報を出力する処理装置。
13. 1から12のいずれかに記載の処理装置において、
前記画像を解析し、前記被験者が禁止動作を行ったことを検出する禁止動作検出手段をさらに有する処理装置。
14. 13に記載の処理装置において、
前記測定対象毎に前記禁止動作が予め登録されており、
前記禁止動作検出手段は、選択された前記測定対象に関連した前記禁止動作を検出する処理装置。
15. 13又は14に記載の処理装置において、
前記算出手段は、選択された前記測定対象に対応した複数箇所を前記画像上で特定し、特定した前記複数箇所に基づき前記測定値を算出し、
前記禁止動作検出手段は、選択された前記測定対象に対応した複数箇所を前記画像上で特定し、特定した前記複数箇所に基づき前記禁止動作を検出し、
前記算出手段が第1の前記測定対象に対応して特定する複数箇所と、前記禁止動作検出手段が前記第1の測定対象に対応して特定する複数箇所とは異なる処理装置。
16. コンピュータが、
可動域の測定対象を選択する選択工程と、
被験者を撮影した画像を、選択された前記測定対象に対応した解析方法で解析することで、選択された前記測定対象の可動域を示す測定値を算出する算出工程と、
を実行する処理方法。
17. コンピュータを、
可動域の測定対象を選択する選択手段、
被験者を撮影した画像を、選択された前記測定対象に対応した解析方法で解析することで、選択された前記測定対象の可動域を示す測定値を算出する算出手段、
として機能させるプログラム。Hereinafter, an example of the reference form will be added.
1. 1. Selection means for selecting the measurement target of the range of motion and
A calculation means for calculating a measured value indicating the range of motion of the selected measurement target by analyzing an image of the subject by an analysis method corresponding to the selected measurement target.
Processing equipment with.
2. In the processing apparatus according to 1.
The calculation means is
The subject was identified on the image and
A location related to the selected measurement target is identified on the image,
A processing device that calculates the measured value based on the specified location.
3. 3. In the processing apparatus according to 2.
The calculation means is
A processing device that calculates the angle formed by the line connecting the specified first and second points and the reference line as the measured value.
4. In the processing apparatus according to 2 or 3.
The calculation means is
A processing device that calculates the distance between the specified third location and the fourth location as the measured value.
5. In the processing apparatus according to any one of 2 to 4.
The calculation means is
The distance between the fifth location specified when the subject is in the first posture and the fifth location specified when the subject is in a second posture different from the first posture. , A processing device that calculates as the measured value.
6. In the processing apparatus according to any one of 1 to 5.
The calculation means is
The moving image is analyzed, the measured value is calculated, and the measured value is calculated.
A processing device that calculates a value indicating the range of motion of the selected measurement target based on each of the plurality of frame images, and calculates the statistical value of the plurality of the calculated values as the measurement value.
7. In the processing apparatus according to any one of 1 to 6.
A processing apparatus further comprising an evaluation means for evaluating the state of the measurement target based on the measured value.
8. In the processing apparatus according to 7.
When the measured value of the measurement target is calculated in two patterns corresponding to the left and right sides of the body,
The evaluation means is a processing device that evaluates the state of the measurement target based on the difference between the two patterns of the measured values.
9. In the processing apparatus according to 7 or 8.
The evaluation means is a processing device that evaluates the state of the measurement target based on the result of comparison between the measured value and the reference value.
10. In the processing apparatus according to any one of 7 to 9.
The evaluation means is a processing device that evaluates the state of the measurement target based on the measurement value of the same subject and the measurement value in the past.
11. In the processing apparatus according to any one of 7 to 10.
A processing device further comprising an output means for outputting information indicating the state of the measurement target evaluated by the evaluation means.
12. In the processing apparatus according to 11.
The output means is a processing device that outputs information for improving the state of the measurement target or information for acquiring the information when the state of the measurement target is a predetermined state.
13. In the processing apparatus according to any one of 1 to 12.
A processing device further comprising a prohibited motion detecting means for analyzing the image and detecting that the subject has performed a prohibited motion.
14. In the processing apparatus according to 13.
The prohibited operation is registered in advance for each measurement target, and the prohibited operation is registered in advance.
The prohibited operation detecting means is a processing device that detects the prohibited operation related to the selected measurement target.
15. In the processing apparatus according to 13 or 14.
The calculation means identifies a plurality of locations corresponding to the selected measurement target on the image, calculates the measurement value based on the identified plurality of locations, and calculates the measurement value.
The prohibited motion detecting means identifies a plurality of locations corresponding to the selected measurement target on the image, detects the prohibited motion based on the identified plurality of locations, and detects the prohibited motion.
A processing device different from a plurality of locations specified by the calculation means corresponding to the first measurement target and a plurality of locations specified by the prohibited operation detecting means corresponding to the first measurement target.
16. The computer
The selection process of selecting the measurement target of the range of motion and
A calculation step of calculating a measured value indicating the range of motion of the selected measurement target by analyzing an image of the subject by an analysis method corresponding to the selected measurement target.
Processing method to execute.
17. Computer,
Selection means for selecting the measurement target of the range of motion,
A calculation means for calculating a measured value indicating the range of motion of the selected measurement target by analyzing an image of the subject by an analysis method corresponding to the selected measurement target.
A program that functions as.
この出願は、2018年7月24日に出願された日本出願特願2018−138529号を基礎とする優先権を主張し、その開示の全てをここに取り込む。 This application claims priority on the basis of Japanese application Japanese Patent Application No. 2018-138529 filed on July 24, 2018, the entire disclosure of which is incorporated herein by reference.
Claims (17)
被験者を撮影した画像を、選択された前記測定対象に対応した解析方法で解析することで、選択された前記測定対象の可動域を示す測定値を算出する算出手段と、
を有する処理装置。Selection means for selecting the measurement target of the range of motion and
A calculation means for calculating a measured value indicating the range of motion of the selected measurement target by analyzing an image of the subject by an analysis method corresponding to the selected measurement target.
Processing equipment with.
前記算出手段は、
前記被験者を前記画像上で特定し、
選択された前記測定対象に関連した箇所を前記画像上で特定し、
特定した前記箇所に基づき前記測定値を算出する処理装置。In the processing apparatus according to claim 1,
The calculation means is
The subject was identified on the image and
A location related to the selected measurement target is identified on the image,
A processing device that calculates the measured value based on the specified location.
前記算出手段は、
特定した第1の箇所と第2の箇所とを結ぶ線と、基準線とのなす角を、前記測定値として算出する処理装置。In the processing apparatus according to claim 2,
The calculation means is
A processing device that calculates the angle formed by the line connecting the specified first and second points and the reference line as the measured value.
前記算出手段は、
特定した第3の箇所と第4の箇所との距離を、前記測定値として算出する処理装置。In the processing apparatus according to claim 2 or 3.
The calculation means is
A processing device that calculates the distance between the specified third location and the fourth location as the measured value.
前記算出手段は、
前記被験者が第1の姿勢をとっている時に特定した第5の箇所と、前記被験者が前記第1の姿勢と異なる第2の姿勢をとっている時に特定した前記第5の箇所との距離を、前記測定値として算出する処理装置。In the processing apparatus according to any one of claims 2 to 4.
The calculation means is
The distance between the fifth location specified when the subject is in the first posture and the fifth location specified when the subject is in a second posture different from the first posture. , A processing device that calculates as the measured value.
前記算出手段は、
動画像を解析して前記測定値を算出し、
選択された前記測定対象の可動域を示す値を複数のフレーム画像各々に基づき算出し、算出した複数の前記値の統計値を前記測定値として算出する処理装置。In the processing apparatus according to any one of claims 1 to 5,
The calculation means is
The moving image is analyzed, the measured value is calculated, and the measured value is calculated.
A processing device that calculates a value indicating the range of motion of the selected measurement target based on each of the plurality of frame images, and calculates the statistical value of the plurality of the calculated values as the measurement value.
前記測定値に基づき、前記測定対象の状態を評価する評価手段をさらに有する処理装置。In the processing apparatus according to any one of claims 1 to 6,
A processing apparatus further comprising an evaluation means for evaluating the state of the measurement target based on the measured value.
前記測定対象の前記測定値が、身体の左右に対応して2パターン算出された場合、
前記評価手段は、2パターンの前記測定値の差に基づき、前記測定対象の状態を評価する処理装置。In the processing apparatus according to claim 7,
When the measured value of the measurement target is calculated in two patterns corresponding to the left and right sides of the body,
The evaluation means is a processing device that evaluates the state of the measurement target based on the difference between the two patterns of the measured values.
前記評価手段は、前記測定値と参照値との比較結果に基づき、前記測定対象の状態を評価する処理装置。In the processing apparatus according to claim 7 or 8.
The evaluation means is a processing device that evaluates the state of the measurement target based on the result of comparison between the measured value and the reference value.
前記評価手段は、同じ前記被験者の前記測定値と過去の前記測定値に基づき、前記測定対象の状態を評価する処理装置。In the processing apparatus according to any one of claims 7 to 9.
The evaluation means is a processing device that evaluates the state of the measurement target based on the measurement value of the same subject and the measurement value in the past.
前記評価手段が評価した前記測定対象の状態を示す情報を出力する出力手段をさらに有する処理装置。In the processing apparatus according to any one of claims 7 to 10.
A processing device further comprising an output means for outputting information indicating the state of the measurement target evaluated by the evaluation means.
前記出力手段は、前記測定対象の状態が所定の状態である場合、前記測定対象の状態を改善するための情報又は前記情報を取得するための情報を出力する処理装置。In the processing apparatus according to claim 11,
The output means is a processing device that outputs information for improving the state of the measurement target or information for acquiring the information when the state of the measurement target is a predetermined state.
前記画像を解析し、前記被験者が禁止動作を行ったことを検出する禁止動作検出手段をさらに有する処理装置。In the processing apparatus according to any one of claims 1 to 12,
A processing device further comprising a prohibited motion detecting means for analyzing the image and detecting that the subject has performed a prohibited motion.
前記測定対象毎に前記禁止動作が予め登録されており、
前記禁止動作検出手段は、選択された前記測定対象に関連した前記禁止動作を検出する処理装置。In the processing apparatus according to claim 13,
The prohibited operation is registered in advance for each measurement target, and the prohibited operation is registered in advance.
The prohibited operation detecting means is a processing device that detects the prohibited operation related to the selected measurement target.
前記算出手段は、選択された前記測定対象に対応した複数箇所を前記画像上で特定し、特定した前記複数箇所に基づき前記測定値を算出し、
前記禁止動作検出手段は、選択された前記測定対象に対応した複数箇所を前記画像上で特定し、特定した前記複数箇所に基づき前記禁止動作を検出し、
前記算出手段が第1の前記測定対象に対応して特定する複数箇所と、前記禁止動作検出手段が前記第1の測定対象に対応して特定する複数箇所とは異なる処理装置。In the processing apparatus according to claim 13 or 14.
The calculation means identifies a plurality of locations corresponding to the selected measurement target on the image, calculates the measurement value based on the identified plurality of locations, and calculates the measurement value.
The prohibited motion detecting means identifies a plurality of locations corresponding to the selected measurement target on the image, detects the prohibited motion based on the identified plurality of locations, and detects the prohibited motion.
A processing device different from a plurality of locations specified by the calculation means corresponding to the first measurement target and a plurality of locations specified by the prohibited operation detecting means corresponding to the first measurement target.
可動域の測定対象を選択する選択工程と、
被験者を撮影した画像を、選択された前記測定対象に対応した解析方法で解析することで、選択された前記測定対象の可動域を示す測定値を算出する算出工程と、
を実行する処理方法。The computer
The selection process of selecting the measurement target of the range of motion and
A calculation step of calculating a measured value indicating the range of motion of the selected measurement target by analyzing an image of the subject by an analysis method corresponding to the selected measurement target.
Processing method to execute.
可動域の測定対象を選択する選択手段、
被験者を撮影した画像を、選択された前記測定対象に対応した解析方法で解析することで、選択された前記測定対象の可動域を示す測定値を算出する算出手段、
として機能させるプログラム。Computer,
Selection means for selecting the measurement target of the range of motion,
A calculation means for calculating a measured value indicating the range of motion of the selected measurement target by analyzing an image of the subject by an analysis method corresponding to the selected measurement target.
A program that functions as.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018138529 | 2018-07-24 | ||
JP2018138529 | 2018-07-24 | ||
PCT/JP2019/022386 WO2020021873A1 (en) | 2018-07-24 | 2019-06-05 | Processing device, processing method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2020021873A1 true JPWO2020021873A1 (en) | 2021-08-12 |
Family
ID=69180480
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020532197A Pending JPWO2020021873A1 (en) | 2018-07-24 | 2019-06-05 | Processing equipment, processing methods and programs |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2020021873A1 (en) |
WO (1) | WO2020021873A1 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02139611U (en) * | 1989-04-24 | 1990-11-21 | ||
JP2011078728A (en) * | 2009-03-10 | 2011-04-21 | Shinsedai Kk | Body state evaluation unit, state estimation unit, step estimation unit, and health management system |
JP2012139480A (en) * | 2010-12-15 | 2012-07-26 | Shinsedai Kk | Physical condition evaluation device, physical condition evaluation method, and computer program |
JP2015061579A (en) * | 2013-07-01 | 2015-04-02 | 株式会社東芝 | Motion information processing apparatus |
JP2016101229A (en) * | 2014-11-27 | 2016-06-02 | パナソニックIpマネジメント株式会社 | Gait analysis system and gait analysis program |
WO2016208291A1 (en) * | 2015-06-26 | 2016-12-29 | Necソリューションイノベータ株式会社 | Measurement device and measurement method |
WO2018087853A1 (en) * | 2016-11-09 | 2018-05-17 | 株式会社システムフレンド | Stereoscopic image generation system, stereoscopic image generation method, and stereoscopic image generation program |
-
2019
- 2019-06-05 WO PCT/JP2019/022386 patent/WO2020021873A1/en active Application Filing
- 2019-06-05 JP JP2020532197A patent/JPWO2020021873A1/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02139611U (en) * | 1989-04-24 | 1990-11-21 | ||
JP2011078728A (en) * | 2009-03-10 | 2011-04-21 | Shinsedai Kk | Body state evaluation unit, state estimation unit, step estimation unit, and health management system |
JP2012139480A (en) * | 2010-12-15 | 2012-07-26 | Shinsedai Kk | Physical condition evaluation device, physical condition evaluation method, and computer program |
JP2015061579A (en) * | 2013-07-01 | 2015-04-02 | 株式会社東芝 | Motion information processing apparatus |
JP2016101229A (en) * | 2014-11-27 | 2016-06-02 | パナソニックIpマネジメント株式会社 | Gait analysis system and gait analysis program |
WO2016208291A1 (en) * | 2015-06-26 | 2016-12-29 | Necソリューションイノベータ株式会社 | Measurement device and measurement method |
WO2018087853A1 (en) * | 2016-11-09 | 2018-05-17 | 株式会社システムフレンド | Stereoscopic image generation system, stereoscopic image generation method, and stereoscopic image generation program |
Also Published As
Publication number | Publication date |
---|---|
WO2020021873A1 (en) | 2020-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11182599B2 (en) | Motion state evaluation system, motion state evaluation device, motion state evaluation server, motion state evaluation method, and motion state evaluation program | |
CN206363261U (en) | Motion analysis system based on image | |
Metcalf et al. | Markerless motion capture and measurement of hand kinematics: validation and application to home-based upper limb rehabilitation | |
Diego-Mas et al. | Using Kinect™ sensor in observational methods for assessing postures at work | |
JP5641222B2 (en) | Arithmetic processing device, motion analysis device, display method and program | |
CA2943113C (en) | Method and system for delivering biomechanical feedback to human and object motion | |
JP6369811B2 (en) | Gait analysis system and gait analysis program | |
AU2024200988A1 (en) | Multi-joint Tracking Combining Embedded Sensors and an External | |
JP6930995B2 (en) | Stereoscopic image generation system, stereoscopic image generation method and stereoscopic image generation program | |
CN112970074A (en) | Physical activity quantification and monitoring | |
CN107930048B (en) | Space somatosensory recognition motion analysis system and motion analysis method | |
JP6649323B2 (en) | Gait analysis system and method | |
JP2022043264A (en) | Motion evaluation system | |
Liu et al. | Simple method integrating OpenPose and RGB-D camera for identifying 3D body landmark locations in various postures | |
JPWO2020021873A1 (en) | Processing equipment, processing methods and programs | |
WO2017056357A1 (en) | Information processing apparatus, information processing method, and program | |
JP6940139B2 (en) | Physical characteristic analyzer, physical characteristic analysis method, and program | |
JP2021099666A (en) | Method for generating learning model | |
Plantard et al. | Ergonomics measurements using kinect with a pose correction framework | |
JP7147848B2 (en) | Processing device, posture analysis system, processing method, and processing program | |
Richter et al. | Climbing with Virtual Mentor by Means of Video-Based Motion Analysis. | |
WO2022208859A1 (en) | Skill recognition method, skill recognition apparatus, and gymnastics scoring support system | |
US20230177718A1 (en) | System and method for selecting a sporting equipment | |
JP2024087325A (en) | Behavioral analysis result output method, behavioral analysis result output program, and behavioral analysis result output system | |
JP2024044529A (en) | Evaluation system and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210113 |
|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A801 Effective date: 20210113 |
|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20210113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220214 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220412 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220704 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220704 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220712 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220719 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20220819 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20220823 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20230131 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20230404 |