JP2023011184A - Training support method, training support device, and program - Google Patents

Training support method, training support device, and program Download PDF

Info

Publication number
JP2023011184A
JP2023011184A JP2021114877A JP2021114877A JP2023011184A JP 2023011184 A JP2023011184 A JP 2023011184A JP 2021114877 A JP2021114877 A JP 2021114877A JP 2021114877 A JP2021114877 A JP 2021114877A JP 2023011184 A JP2023011184 A JP 2023011184A
Authority
JP
Japan
Prior art keywords
training
subject
display
training support
rotation angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021114877A
Other languages
Japanese (ja)
Inventor
康裕 鈴木
Yasuhiro Suzuki
直也 矢作
Naoya Yahagi
拓海 椿
Takumi Tsubaki
史明 村上
Fumiaki Murakami
康司 羽田
Yasushi Hada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tsukuba NUC
Original Assignee
University of Tsukuba NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tsukuba NUC filed Critical University of Tsukuba NUC
Priority to JP2021114877A priority Critical patent/JP2023011184A/en
Publication of JP2023011184A publication Critical patent/JP2023011184A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Rehabilitation Tools (AREA)

Abstract

To enable an object person to do training of an eyeball motion easily as compared to a conventional method.SOLUTION: A training support method (S10) includes: an object display step (S11) for displaying an object that an object person doing training gazes at in a portable display part; a movement execution step (S12) for executing one or both of a first animation display in which the object moves relative to a background image accompanying an amount of change in a rotation angle in a predetermined rotation axis, which is an amount of change in a rotation angle of the display part, and a scroll display in which the background image of the object moves; and a determination step (S13) for determining whether or not the amount of change in the rotation angle has reached a threshold.SELECTED DRAWING: Figure 2

Description

本発明は、眼球運動あるいは認知症予防のトレーニングを支援する技術に関する。 TECHNICAL FIELD The present invention relates to technology for supporting eye movement or dementia prevention training.

前庭障害のある患者(例えば慢性めまいの患者)の治療に運動を適用することが行われている。例えば非特許文献1には、前庭適用運動が姿勢の安定性の改善と平衡障害の症状の低下とをもたらすこと、及び、前庭適用運動として、頭を左右に動かしながら位置を固定したターゲットに視線を合わせ続けることが記載されている。また、非特許文献2には、前庭障害のリハビリテーションとして、視線をオブジェクトに固定した状態で頭を動かすことが記載されている。 Exercise has been applied in the treatment of patients with vestibular disorders (eg patients with chronic vertigo). For example, in Non-Patent Document 1, it is reported that vestibular-applied exercise improves postural stability and reduces symptoms of balance disorder, and that as vestibular-applied exercise, the head is moved left and right while looking at a target whose position is fixed. It is described to continue matching. In addition, Non-Patent Document 2 describes moving the head with the line of sight fixed on an object as rehabilitation for vestibular disorders.

SUSAN J. HERDMAN, PhD, et. al.,“Vestibular adaptation exercises and recovery: Acute stage after acoustic neuroma resection”, Otolaryngology - Head and Neck Surgery Volume 113, Issue 1, July 1995, Pages 77-87SUSAN J. HERDMAN, PhD, et. al., "Vestibular adaptation exercises and recovery: Acute stage after acoustic neuroma resection", Otolaryngology - Head and Neck Surgery Volume 113, Issue 1, July 1995, Pages 77-87 F. S. COOKSEY, O.B.E., M.D., “Rehabilitation in Vestibular Injuries”, Proc R Soc Med., 1946 Mar; 39(5): 273-278F. S. COOKSEY, O.B.E., M.D., "Rehabilitation in Vestibular Injuries", Proc R Soc Med., 1946 Mar; 39(5): 273-278

しかしながら、上述のような従来のリハビリテーションは、患者が医師や理学療法士等の医療従事者の指導の下に病院等で行うことが一般的である。そのため、患者がトレーニングを自分で行おうとしても、手順が分からなかったり患者が煩わしく感じたりする等により、トレーニングの継続が難しいという問題がある。また、病院等で専用の装置を用いて眼球運動のトレーニングを行う場合、高価な装置を用意する必要があるという問題、および、患者はトレーニングのたびに通院する必要があるという問題があった。 However, conventional rehabilitation as described above is generally performed in a hospital or the like by a patient under the guidance of a medical practitioner such as a doctor or a physical therapist. Therefore, even if the patient tries to do the training by himself, there is a problem that it is difficult to continue the training because the patient does not understand the procedure or feels troublesome. In addition, when eye movement training is performed using a dedicated device in a hospital or the like, there is a problem that it is necessary to prepare an expensive device, and a problem that the patient needs to go to the hospital for each training.

本発明の一態様は、対象者が眼球運動のトレーニングを従来と比べて容易に行うことを目的とする。 An object of one aspect of the present invention is to enable a subject to perform eye movement training more easily than in the past.

上記の課題を解決するために、本発明の態様1に係るトレーニング支援方法は、トレーニングを行う対象者が注視するオブジェクトを携帯型の表示部に表示する第1ステップと、前記表示部の回転角の変化量であって所定の回転軸における回転角の変化量に伴い、前記オブジェクトが背景画像に対して相対的に移動する第1アニメーション表示、及び、当該オブジェクトの背景画像が移動するスクロール表示、の一方又は両方を行う第2ステップと、前記回転角の変化量が閾値に達したか否かを判定する第3ステップと、を含む。 In order to solve the above problems, a training support method according to aspect 1 of the present invention provides a first step of displaying an object gazed at by a training subject on a portable display unit; a first animation display in which the object moves relative to the background image according to the amount of change in the rotation angle about the predetermined rotation axis, and a scroll display in which the background image of the object moves; and a third step of determining whether or not the amount of change in the rotation angle has reached a threshold value.

上記の構成によれば、表示部に表示されたオブジェクトを対象者が注視しながらトレーニングすることにより、対象者は、眼球運動のトレーニングを行うことができる。したがって、対象者は、1人でトレーニングを実施する場合であっても、トレーニングの手順を容易に理解することができるのでトレーニングを継続しやすい。また、本トレーニング支援方法は、携帯型の表示部を備えた携帯端末(例えばスマートフォン)においてプログラム(あるいはアプリケーション)を実行することにより実現可能である。したがって、対象者は、トレーニングのために高価な装置を用意する必要もないし、トレーニングのたびに通院する必要もない。このように、本トレーニング支援方法は、医療従事者の指導の下に病院等で行う従来のトレーニング(リハビリテーション)と比べて、対象者が容易に行うことができる。 According to the above configuration, the subject can perform eye movement training by training while the subject gazes at the object displayed on the display unit. Therefore, even if the subject performs the training alone, the subject can easily understand the training procedure and can easily continue the training. Also, this training support method can be realized by executing a program (or application) on a mobile terminal (for example, a smart phone) having a mobile display unit. Therefore, the subject does not need to prepare expensive equipment for training and does not need to go to the hospital for each training. In this manner, the subject can easily perform this training support method compared to conventional training (rehabilitation) performed at a hospital or the like under the guidance of a medical professional.

本発明の態様2に係るトレーニング支援方法は、前記態様1において、前記第3ステップにおいて前記変化量が前記閾値に達した場合に、少なくとも、前記第1アニメーション表示とは異なる、前記オブジェクトの第2アニメーション表示を行う第4ステップを更に含んでもよい。 In the training support method according to aspect 2 of the present invention, in aspect 1, when the amount of change reaches the threshold value in the third step, at least a second animation display of the object different from the first animation display is performed. A fourth step of performing animation display may be further included.

上記の構成によれば、回転角の変化量が閾値に達した場合に、オブジェクトの第2アニメーション表示が行われる。したがって、対象者は、第2アニメーション表示を見ることによって、回転角の変化量が閾値に達したこと容易に理解することができる。すなわち、第1アニメーション表示およびスクロール表示の一方又は両方が表示部に表示されているか、または、第2アニメーション表示が表示部に表示されているか、に応じて、対象者は、トレーニングにおいてどのような動作を次に行えばよいかを把握し易い。これにより、対象者が眼球運動のトレーニングを従来と比べて容易に行うことができる。 According to the above configuration, the second animation display of the object is performed when the amount of change in the rotation angle reaches the threshold. Therefore, the subject can easily understand that the amount of change in the rotation angle has reached the threshold by viewing the second animation display. That is, depending on whether one or both of the first animation display and the scroll display are displayed on the display unit, or whether the second animation display is displayed on the display unit, what kind of training is performed by the subject? It is easy to grasp whether the operation should be performed next. As a result, the subject can perform eye movement training more easily than before.

本発明の態様3に係るトレーニング支援方法は、前記態様1又は2において、前記第3ステップにおいて前記変化量が前記閾値に達した場合に、当該閾値の符号を反転させることによって当該閾値を更新する第5ステップを更に含んでもよい。 In the training support method according to aspect 3 of the present invention, in aspect 1 or 2, when the amount of change reaches the threshold in the third step, the threshold is updated by inverting the sign of the threshold. A fifth step may be further included.

上記の構成によれば、対象者が注視するオブジェクトを所定の回転角の変化量の範囲内で往復移動させることができる。したがって、対象者は、オブジェクトを注視し続けることにより、眼球の往復運動を連続的に行うことができる。 According to the above configuration, the object gazed at by the subject can be reciprocated within the range of the predetermined amount of change in the rotation angle. Therefore, the subject can continuously perform the reciprocating motion of the eyeball by continuing to gaze at the object.

本発明の態様4に係るトレーニング支援方法は、前記態様1~3において、前記第2ステップにおいては、前記表示部の回転速度に応じて前記第1アニメーション表示、及び、前記スクロール表示、の一方又は両方の表示態様を異ならせてもよい。 In the training support method according to aspect 4 of the present invention, in aspects 1 to 3, in the second step, one of the first animation display and the scroll display according to the rotation speed of the display unit, or Both display modes may be different.

上記の構成によれば、表示部に表示される第1アニメーション表示及びスクロール表示を対象者が見ることにより表示部の回転速度が速すぎたり遅すぎたりすることを把握することができる。これにより、対象者が眼球運動のトレーニングを従来と比べて容易に行うことができる。 According to the above configuration, when the target person sees the first animation display and the scroll display displayed on the display section, it is possible to grasp whether the rotation speed of the display section is too fast or too slow. As a result, the subject can perform eye movement training more easily than before.

本発明の態様5に係るトレーニング支援方法は、前記態様1~4において、前記第2ステップにおいては、前記対象者を撮影する撮影装置が生成する撮影画像に基づき特定される前記対象者の顔の向きと前記表示部の回転角の変化量との関係が所定の条件を満たさない場合、前記対象者に報知してもよい。 A training support method according to aspect 5 of the present invention is, in aspects 1 to 4, wherein, in the second step, the face of the subject identified based on a captured image generated by an imaging device that captures the subject. If the relationship between the orientation and the amount of change in the rotation angle of the display unit does not satisfy a predetermined condition, the subject may be notified.

上記の構成によれば、対象者の顔の向きが適切でない場合に対象者に報知することにより、対象者が眼球運動のトレーニングを従来と比べて容易に行うことができる。 According to the above configuration, by notifying the subject when the orientation of the subject's face is not appropriate, the subject can easily perform eye movement training compared to the conventional art.

本発明の態様6に係るトレーニング支援方法は、前記態様1~5において、前記第2ステップにおいては、前記対象者の視線が前記オブジェクトに向いていない場合、前記対象者に報知してもよい。 In the training support method according to aspect 6 of the present invention, in aspects 1 to 5, in the second step, if the subject's line of sight is not directed toward the object, the subject may be notified.

上記の構成によれば、対象者の視線がオブジェクトに向いていない場合に対象者に報知することにより、対象者がトレーニングを適切に行っていない場合に注意を促すことができる。これにより、対象者が眼球運動のトレーニングを従来と比べて容易に行うことができる。 According to the above configuration, by notifying the subject when the subject's line of sight is not directed toward the object, it is possible to call attention to the subject when the subject is not training appropriately. As a result, the subject can perform eye movement training more easily than before.

本発明の態様7に係るトレーニング支援方法は、トレーニングを行う対象者が注視するオブジェクトを光学的に提示し、当該オブジェクトを所定の軸方向に沿って往復移動させる第1ステップ、を含む。 A training support method according to aspect 7 of the present invention includes a first step of optically presenting an object gazed at by a training subject, and reciprocating the object along a predetermined axial direction.

上記の構成によれば、光学的に提示されたオブジェクトを対象者が注視しながらトレーニングすることにより、対象者が眼球運動のトレーニングを従来と比べて容易に行うことができる。 According to the above configuration, the target person can train while gazing at the optically presented object, thereby making it easier for the target person to perform eye movement training than in the past.

本発明の態様8に係るトレーニング支援方法は、前記態様7において、前記第1ステップにおいては、前記対象者を撮影する撮影装置が生成する撮影画像に基づき特定される前記対象者の顔の向きが移動している場合、前記対象者に警告を行ってもよい。 In the training support method according to aspect 8 of the present invention, in aspect 7, in the first step, the orientation of the face of the subject specified based on the captured image generated by the imaging device that captures the subject is If moving, the subject may be alerted.

上記の構成によれば、対象者の顔の向きが移動している場合に対象者に報知することにより、対象者がトレーニングを適切に行っていない場合に注意を促すことができる。これにより、対象者が眼球運動のトレーニングを従来と比べて容易に行うことができる。 According to the above configuration, by notifying the subject when the orientation of the subject's face is moving, it is possible to call attention to when the subject is not training appropriately. As a result, the subject can perform eye movement training more easily than before.

本発明の態様9に係るトレーニング支援方法は、前記態様7又は8において、前記第1ステップにおいては、前記対象者の視線が前記オブジェクトに向いていない場合、前記対象者に報知してもよい。 In the training support method according to aspect 9 of the present invention, in aspect 7 or 8, in the first step, if the subject's line of sight is not directed toward the object, the subject may be notified.

上記の構成によれば、対象者の視線がオブジェクトに向いていない場合に対象者に報知することにより、対象者がトレーニングを適切に行っていない場合に注意を促すことができる。これにより、対象者が眼球運動のトレーニングを従来と比べて容易に行うことができる。 According to the above configuration, by notifying the subject when the subject's line of sight is not directed toward the object, it is possible to call attention to the subject when the subject is not training appropriately. As a result, the subject can perform eye movement training more easily than before.

本発明の態様10に係るトレーニング支援方法は、前記態様1~9において、前記トレーニングは、認知症予防又は認知症改善のトレーニングであってもよい。 In the training support method according to aspect 10 of the present invention, in any one of aspects 1 to 9, the training may be training for dementia prevention or dementia improvement.

上記の構成によれば、表示部に表示されたオブジェクトを対象者が注視しながらトレーニングすることにより、対象者が認知症予防又は認知症改善のトレーニングを従来と比べて容易に行うことができる。 According to the above configuration, the subject can perform training for dementia prevention or dementia improvement more easily than before by performing training while the subject gazes at the object displayed on the display unit.

本発明の態様11に係るトレーニング支援装置は、携帯型の表示部と、オブジェクトを前記表示部に表示するオブジェクト表示部と、前記表示部の回転角の変化量であって所定の回転軸における回転角の変化量に伴い、前記オブジェクトが背景画像に対して相対的に移動する第1アニメーション表示、及び、当該オブジェクトの背景画像が移動するスクロール表示、の一方又は両方を行う移動実行部と、前記回転角の変化量が閾値に達したか否かを判定する判定部と、を備える。 A training support device according to aspect 11 of the present invention comprises a portable display unit, an object display unit that displays an object on the display unit, and a movement execution unit that performs one or both of a first animation display in which the object moves relative to a background image and a scroll display in which the background image of the object moves according to the change amount of the angle; a determination unit that determines whether or not the amount of change in the rotation angle has reached a threshold.

上記の構成によれば、表示部に表示されたオブジェクトを対象者が注視しながらトレーニングすることにより、対象者が眼球運動のトレーニングを従来と比べて容易に行うことができる。 According to the above configuration, the subject can perform eye movement training more easily than before by performing training while the subject gazes at the object displayed on the display unit.

本発明の態様12に係るトレーニング支援装置は、トレーニングを行う対象者が注視するオブジェクトを光学的に提示する提示部と、当該オブジェクトを所定の軸方向に沿って往復移動させる往復移動実行部と、を備える。 A training support device according to a twelfth aspect of the present invention includes a presentation unit that optically presents an object gazed at by a training subject, a reciprocation execution unit that reciprocates the object along a predetermined axial direction, Prepare.

上記の構成によれば、提示部が提示するオブジェクトを対象者が注視しながらトレーニングすることにより、対象者が眼球運動のトレーニングを従来と比べて容易に行うことができる。 According to the above configuration, the subject can train the eye movement more easily than in the past by training while the subject gazes at the object presented by the presentation unit.

本発明の態様13に係るプログラムは、コンピュータをトレーニング支援装置として機能させるプログラムであって、前記プログラムは、前記コンピュータを、オブジェクトを携帯型の表示部に表示するオブジェクト表示部と、前記表示部の回転角の変化量であって所定の回転軸における回転角の変化量に伴い、前記オブジェクトが背景画像に対して相対的に移動する第1アニメーション表示、及び、当該オブジェクトの背景画像が移動するスクロール表示、の一方又は両方を行う移動実行部と、前記回転角の変化量が閾値に達したか否かを判定する判定部と、として機能させることを特徴とする。 A program according to aspect 13 of the present invention is a program that causes a computer to function as a training support device, wherein the program causes the computer to display an object on a portable display unit; A first animation display in which the object moves relative to the background image according to the amount of change in the rotation angle, which is the amount of change in the rotation angle about a predetermined rotation axis, and scrolling in which the background image of the object moves. and a determination unit that determines whether or not the amount of change in the rotation angle has reached a threshold.

本発明の範疇には、態様13に係るプログラム及びおよびそれを記録したコンピュータ読み取り可能な記録媒体も含まれる。 The scope of the present invention also includes a program according to aspect 13 and a computer-readable recording medium recording it.

本発明の態様14に係るプログラムは、コンピュータをトレーニング支援装置として機能させるプログラムであって、前記プログラムは、前記コンピュータを、オブジェクトを光学的に提示する提示部と、当該オブジェクトを所定の軸方向に沿って往復移動させる往復移動実行部と、として機能させることを特徴とする。 A program according to aspect 14 of the present invention is a program that causes a computer to function as a training support device, the program comprising: a presentation unit that optically presents an object; It functions as a reciprocating movement execution unit that reciprocates along.

本発明の範疇には、態様14に係るプログラム及びおよびそれを記録したコンピュータ読み取り可能な記録媒体も含まれる。 The scope of the present invention also includes a program according to aspect 14 and a computer-readable recording medium recording it.

本発明の態様11または12に係るトレーニング支援装置は、コンピュータによって実現してもよい。この場合には、コンピュータを前記トレーニング支援装置が備える各部(ソフトウェア要素)として動作させることにより前記トレーニング支援装置をコンピュータにて実現させるトレーニング支援装置の制御プログラム(本発明の態様13または14)、及びそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。 The training support device according to aspect 11 or 12 of the present invention may be implemented by a computer. In this case, a control program for a training support device (embodiment 13 or 14 of the present invention) for realizing the training support device on a computer by operating a computer as each part (software element) included in the training support device, and A computer-readable recording medium recording it is also included in the scope of the present invention.

本発明の一態様によれば、対象者が眼球運動のトレーニングを従来と比べて容易に行うことができる。 ADVANTAGE OF THE INVENTION According to one aspect of the present invention, a subject can perform eye movement training more easily than before.

本発明の実施形態1に係るトレーニング支援装置の構成を示すブロック図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a block diagram which shows the structure of the training assistance apparatus which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係るトレーニング支援方法の流れを示すフロー図である。It is a flow chart showing a flow of a training support method concerning Embodiment 1 of the present invention. 本発明の実施形態1に係る眼球運動のトレーニング方法を概略的に示す図である。It is a figure which shows roughly the training method of the eyeball exercise|movement based on Embodiment 1 of this invention. 本発明の実施形態1に係るトレーニング支援方法の流れを示すフロー図である。It is a flow chart showing a flow of a training support method concerning Embodiment 1 of the present invention. 本発明の実施形態1に係る画面例を示す図である。It is a figure which shows the example of a screen which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る画面例を示す図である。It is a figure which shows the example of a screen which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る画面例を示す図である。It is a figure which shows the example of a screen which concerns on Embodiment 1 of this invention. 眼球運動のトレーニングの調査の対象として選定された対象者の属性を示す図である。FIG. 10 is a diagram showing the attributes of subjects selected as subjects for research on eye movement training. 介入群の対象者の年齢補正視覚依存度の算出結果を示す図である。FIG. 10 is a diagram showing the calculation results of the age-corrected visual dependence degree of subjects in the intervention group; 対照群の対象者の年齢補正視覚依存度の算出結果を示す図である。FIG. 10 is a diagram showing the calculation results of the age-corrected visual dependence of subjects in the control group; 介入群の対象者のTMT-Bの検査結果を示す図である。FIG. 10 shows TMT-B test results for subjects in the intervention group. 対照群の対象者のTMT-Bの検査結果を示す図である。FIG. 10 shows TMT-B test results of subjects in the control group. 本発明の実施形態2に係るトレーニング支援装置の構成を示すブロック図である。It is a block diagram which shows the structure of the training assistance apparatus which concerns on Embodiment 2 of this invention. 本発明の実施形態2に係るトレーニング支援方法の流れを示すフロー図である。FIG. 9 is a flowchart showing the flow of a training support method according to Embodiment 2 of the present invention; 本発明の実施形態2に係る画面例を示す図である。It is a figure which shows the example of a screen which concerns on Embodiment 2 of this invention. 本発明の実施形態2に係る画面例を示す図である。It is a figure which shows the example of a screen which concerns on Embodiment 2 of this invention. 本発明の実施形態2に係る画面例を示す図である。It is a figure which shows the example of a screen which concerns on Embodiment 2 of this invention. 本発明の実施形態3に係るトレーニング支援装置の発光素子アレイの外観を概略的に示す図である。FIG. 10 is a diagram schematically showing the appearance of a light-emitting element array of a training support device according to Embodiment 3 of the present invention; 本発明の実施形態3に係るトレーニング支援装置の構成を示すブロック図である。It is a block diagram which shows the structure of the training assistance apparatus which concerns on Embodiment 3 of this invention. 本発明の実施形態3に係るトレーニング支援方法の流れを示すフロー図である。FIG. 10 is a flowchart showing the flow of a training support method according to Embodiment 3 of the present invention;

〔実施形態1〕
<トレーニング支援装置10の概要>
図1は、本発明の実施形態1に係るトレーニング支援装置10の構成を示すブロック図である。トレーニング支援装置10は、対象者が行う眼球運動のトレーニングを支援する装置である。トレーニング支援装置10は例えば、スマートフォン、タブレット型PC(Personal Computer)である。本実施形態では、スマートフォンを用いてトレーニング支援装置10を実現する場合を例にする。トレーニングを行う対象者は、一例として、姿勢安定性における視覚依存度が低い人が挙げられる。姿勢安定性における視覚依存度が低い人には、発達障害を有する小児、軽度の認知障害の患者、前提障害の患者、および虚弱高齢者が含まれる。また、トレーニングを行う対象者は、健常者であってもよいし、スポーツ選手であってもよい。トレーニング支援装置10が支援するトレーニングは、眼球運動のトレーニングである。対象者がこのトレーニングを継続的に実施することにより、一例として、姿勢安定性における視覚依存度の改善や、めまいの改善や、認知症の改善または予防などが期待できる。
[Embodiment 1]
<Overview of Training Support Device 10>
FIG. 1 is a block diagram showing the configuration of a training support device 10 according to Embodiment 1 of the present invention. The training support device 10 is a device that supports eye movement training performed by a subject. The training support device 10 is, for example, a smart phone or a tablet PC (Personal Computer). In this embodiment, a case where the training support device 10 is realized using a smartphone is taken as an example. An example of a training subject is a person who is less dependent on vision for postural stability. People with low visual reliance for postural stability include children with developmental disabilities, patients with mild cognitive impairment, patients with comorbidities, and the frail elderly. Also, the target person for training may be a healthy person or an athlete. The training supported by the training support device 10 is eye movement training. Continuous implementation of this training by subjects can be expected to improve visual dependence in postural stability, improve dizziness, and improve or prevent dementia, for example.

トレーニング支援装置10は、オブジェクト表示部111、移動実行部112、判定部113、及びタッチパネル14を備える。タッチパネル14は、出力デバイスとして機能する表示パネルと、入力デバイスとして機能するタッチセンサとが一体化されたものである。タッチパネル14は、本明細書に係る携帯型の表示部の一例である。 The training support device 10 includes an object display section 111 , a movement execution section 112 , a determination section 113 and a touch panel 14 . The touch panel 14 is formed by integrating a display panel functioning as an output device and a touch sensor functioning as an input device. The touch panel 14 is an example of a portable display unit according to the present specification.

オブジェクト表示部111は、トレーニングを行う対象者が注視するオブジェクトを携帯型の表示部であるタッチパネル14に表示する。移動実行部112は、タッチパネル14の回転角の変化量であって所定の回転軸における回転角の変化量に伴い、オブジェクトが背景画像に対して相対的に移動する第1アニメーション表示、及び、当該オブジェクトの背景画像が移動するスクロール表示、の一方又は両方を行う。判定部113は、回転角の変化量が閾値に達したか否かを判定する。 The object display unit 111 displays on the touch panel 14, which is a portable display unit, an object that the subject of training is looking at. The movement execution unit 112 displays a first animation in which the object moves relative to the background image in accordance with the amount of change in the rotation angle of the touch panel 14, which is the amount of change in the rotation angle about a predetermined rotation axis, and One or both of scroll display in which the background image of the object moves is performed. A determination unit 113 determines whether or not the amount of change in the rotation angle has reached a threshold.

<トレーニング支援方法の流れ>
図2は、以上のように構成されたトレーニング支援装置10が実行するトレーニング支援方法S10の流れを示すフロー図である。図2に示すように、トレーニング支援方法S10は、オブジェクト表示ステップS11、移動実行ステップS12、及び判定ステップS13を含む。
<Flow of training support method>
FIG. 2 is a flowchart showing the flow of the training support method S10 executed by the training support apparatus 10 configured as described above. As shown in FIG. 2, the training support method S10 includes an object display step S11, a movement execution step S12, and a determination step S13.

オブジェクト表示ステップS11は、トレーニングを行う対象者が注視するオブジェクトを携帯型の表示部に表示するステップである。オブジェクト表示ステップS11は、本発明の態様1に係るトレーニング支援方法の第1ステップの一例である。オブジェクトは、一例として、人または動物等の生物を模したキャラクタ画像、又は、ボール等の物品を表す画像である。なお、対象者が注視するオブジェクトはこれらに限られず、他のものであってもよい。 The object display step S11 is a step of displaying on the portable display unit an object that the subject of training is looking at. The object display step S11 is an example of the first step of the training support method according to aspect 1 of the present invention. An object is, for example, a character image imitating a creature such as a person or an animal, or an image representing an article such as a ball. Note that the objects that the subject gazes at are not limited to these, and may be other objects.

移動実行ステップS12は、タッチパネル14の回転角の変化量であって所定の回転軸における回転角の変化量に伴い、前記オブジェクトが背景画像に対して相対的に移動する第1アニメーション表示、及び、当該オブジェクトの背景画像が移動するスクロール表示、の一方又は両方を行うステップである。移動実行ステップS12は本明細書に係る第2ステップの一例である。 A movement execution step S12 displays a first animation in which the object moves relative to the background image according to the amount of change in the rotation angle of the touch panel 14, which is about a predetermined rotation axis, and scroll display in which the background image of the object moves, or both. The movement execution step S12 is an example of a second step according to this specification.

所定の回転軸は、一例として、重力方向に平行な方向に延びる軸であってもよい。回転角の変化量は、一例として、慣性計測装置(IMU:Inertial Measurement Unit)が検出する回転角の変化量である。なお、回転角の変化量を検出する検出装置は上述したものに限られず、他の装置又は他のセンサであってもよい。 The predetermined rotation axis may be, for example, an axis extending in a direction parallel to the direction of gravity. The amount of change in the rotation angle is, for example, the amount of change in the rotation angle detected by an inertial measurement unit (IMU). It should be noted that the detection device for detecting the amount of change in the rotation angle is not limited to the one described above, and other devices or sensors may be used.

第1アニメーション表示は、一例として、対象者が注視するオブジェクトであるキャラクタが歩く動作をするアニメーション表示である。なお、第1アニメーション表示は上述したものに限られず、他のアニメーション表示であってもよい。 The first animation display is, for example, an animation display in which a character, which is an object that the target person is gazing at, makes a walking motion. Note that the first animation display is not limited to the one described above, and may be another animation display.

判定ステップS13は、回転角の変化量が閾値に達したか否かを判定するステップである。判定ステップS13は本明細書に係る第3ステップの一例である。 Determination step S13 is a step for determining whether or not the amount of change in the rotation angle has reached a threshold value. The determination step S13 is an example of a third step according to the present specification.

<本実施形態の効果>
対象者は、タッチパネル14に表示されたオブジェクトを注視しながらトレーニングを行う。これにより、本実施形態によれば、対象者は、1人でトレーニングを実施する場合であっても、トレーニングの手順を容易に理解することができるのでトレーニングを継続しやすい。また、本トレーニング支援方法は、携帯型の表示部を備えた携帯端末(例えばスマートフォン)においてプログラム(あるいはアプリケーション)を実行することにより実現可能である。したがって、対象者は、トレーニングのために高価な装置を用意する必要もないし、トレーニングのたびに通院する必要もない。このように、トレーニング支援方法S10は、医療従事者の指導の下に病院等で行う従来のトレーニング(リハビリテーション)と比べて、対象者が容易に行うことができる。
<Effects of this embodiment>
The subject performs training while gazing at the object displayed on the touch panel 14 . Thus, according to the present embodiment, the subject can easily understand the procedure of the training even when the subject performs the training alone, so that the subject can easily continue the training. Also, this training support method can be realized by executing a program (or application) on a mobile terminal (for example, a smart phone) having a mobile display unit. Therefore, the subject does not need to prepare expensive equipment for training and does not need to go to the hospital for each training. In this way, the training support method S10 can be easily performed by the subject, compared to conventional training (rehabilitation) performed at a hospital or the like under the guidance of a medical professional.

<トレーニング支援装置の構成>
次いで、トレーニング支援装置10の具体的構成について、図面を参照しつつ説明する。トレーニング支援装置10は、ネットワークN1を介して他の装置と通信可能に接続される。ネットワークN1は、一例として、有線LAN(Local Area Network)、無線LAN、インターネット、公衆回線網、モバイルデータ通信網、又はこれらの組み合わせである。
<Configuration of Training Support Device>
Next, a specific configuration of the training support device 10 will be described with reference to the drawings. The training support device 10 is communicably connected to other devices via a network N1. The network N1 is, for example, a wired LAN (Local Area Network), a wireless LAN, the Internet, a public line network, a mobile data communication network, or a combination thereof.

トレーニング支援装置10は、制御部11、記憶部12、通信部13、タッチパネル14、及びセンサ15を含む。制御部11は、トレーニング支援装置10の各部を制御する。記憶部12は、トレーニング支援装置10の処理に必要な各種のデータを記憶する記憶装置である。通信部13は、ネットワークN1を介して他の装置と通信する。センサ15は、トレーニング支援装置10の回転角の変化量を検出するためのセンサであり、一例として、慣性計測装置(IMU)、加速度センサ、又はジャイロセンサを含む。本実施形態において、タッチパネル14はトレーニング支援装置10に内蔵されているため、センサ15が検出する回転角の変化量は、タッチパネル14の回転角の変化量である。 The training support device 10 includes a control section 11 , a storage section 12 , a communication section 13 , a touch panel 14 and a sensor 15 . The control unit 11 controls each unit of the training support device 10 . The storage unit 12 is a storage device that stores various data necessary for processing of the training support device 10 . The communication unit 13 communicates with other devices via the network N1. The sensor 15 is a sensor for detecting the amount of change in the rotation angle of the training support device 10, and includes, for example, an inertial measurement unit (IMU), an acceleration sensor, or a gyro sensor. In the present embodiment, the touch panel 14 is built in the training support device 10 , so the amount of change in the rotation angle detected by the sensor 15 is the amount of change in the rotation angle of the touch panel 14 .

制御部11は、オブジェクト表示部111、移動実行部112、及び判定部113を備える。オブジェクト表示部111、移動実行部112、及び判定部113の説明は上述したため、ここではその説明を省略する。 The control unit 11 includes an object display unit 111 , a movement execution unit 112 and a determination unit 113 . Since the object display unit 111, the movement execution unit 112, and the determination unit 113 have been described above, the description thereof will be omitted here.

<眼球トレーニングの概要>
以上のように構成されたトレーニング支援装置10が実行する眼球運動のトレーニング支援方法について、図面を参照しつつ説明する。以下では、トレーニング支援装置10がスマートフォンであり、対象者がトレーニング支援装置10を把持しながら眼球運動のトレーニングを行う場合を説明する。
<Overview of eyeball training>
A training support method for eye movement executed by the training support device 10 configured as described above will be described with reference to the drawings. A case will be described below in which the training support device 10 is a smartphone, and the subject performs eye movement training while holding the training support device 10 .

図3は、対象者が行う眼球運動のトレーニング方法を概略的に示す図である。以下の例では、対象者は、トレーニング支援装置10を用いて水平方向の追跡眼球運動を行う。対象者は、利き手でトレーニング支援装置10を把持し、利き手を伸ばした状態でトレーニング支援装置10を肩を中心に左右に所定の回転角(例えば、30度)ずつ動かしながら、タッチパネル14に表示されるキャラクタを目で追う。このとき、利き手と反対側の手で顎を押さえ、利き手を左右に動かして、頭を動かさずに目だけを左右に動かす。この動作を所定回数(例えば、20回)繰り返す。 FIG. 3 is a diagram schematically showing an eye movement training method performed by a subject. In the following example, the subject performs horizontal tracking eye movements using the training support device 10 . The target person holds the training support device 10 with the dominant hand and moves the training support device 10 left and right about the shoulder by a predetermined rotation angle (for example, 30 degrees) with the dominant hand extended. Follow the character with your eyes. At this time, hold your chin with your non-dominant hand, move your dominant hand left and right, and move your eyes left and right without moving your head. This operation is repeated a predetermined number of times (for example, 20 times).

<眼球運動のトレーニング支援方法の流れ>
図4は、トレーニング支援装置10が実行するトレーニング支援方法S100の流れを示すフロー図である。トレーニング支援方法S100は、ステップS101~S113を含む。一部のステップは並行して、又は順序を替えて実行されてもよい。
<Flow of eye movement training support method>
FIG. 4 is a flowchart showing the flow of the training support method S100 executed by the training support device 10. As shown in FIG. The training support method S100 includes steps S101 to S113. Some steps may be performed in parallel or out of order.

対象者は、トレーニング支援装置10のタッチパネル14を用いて、眼球運動のトレーニングを開始するための操作を行う。対象者がその操作を行うことをトリガとして、トレーニング支援装置10の制御部11は、トレーニング支援方法S100を開始する。 The subject uses the touch panel 14 of the training support device 10 to perform an operation for starting eye movement training. Triggered by the subject's operation, the control unit 11 of the training support device 10 starts the training support method S100.

(ステップS101)
ステップS101において、制御部11は、操作方法を説明する画面をタッチパネル14に表示する。この画面は、一例として、「端末が床に対して垂直になるように端末を利き手で持ち、反対の手で顎を押さえて頭を動かさないように固定してください」といったメッセージ、「端末が床に対して垂直な状態のまま、ゆっくりと端末を左右に往復移動させ、端末に表示されるキャラクタを、頭を動かさずに目で追ってください」といったメッセージ、及び、「回転角を設定してください」といったメッセージを含む。
(Step S101)
In step S<b>101 , the control unit 11 displays a screen for explaining an operation method on the touch panel 14 . As an example, this screen displays a message such as "Hold the device with your dominant hand so that it is perpendicular to the floor, and hold your chin with your other hand to keep your head still." Keeping the terminal vertical to the floor, slowly move the terminal back and forth to the left and right, and follow the character displayed on the terminal with your eyes without moving your head" and "Set the rotation angle. Please include a message such as

対象者はタッチパネル14に表示される説明を確認し、タッチパネル14を用いて回転角を入力又は選択する操作を行う。回転角としてデフォルト値(例えば、30度、20度、15度、等)を用いる場合、対象者は回転角を設定する操作を行わなくてもよい。また、対象者は、利き手でトレーニング支援装置10を把持し、反対の手で顎を押さえて頭を固定する。 The subject confirms the explanation displayed on the touch panel 14 and uses the touch panel 14 to input or select a rotation angle. If a default value (for example, 30 degrees, 20 degrees, 15 degrees, etc.) is used as the rotation angle, the subject need not perform an operation to set the rotation angle. Also, the subject holds the training support device 10 with the dominant hand and holds the chin with the other hand to fix the head.

(ステップS102)
ステップS102において、制御部11は、対象者の操作に応じて回転角の閾値を設定する。なお、制御部11は、予め設定されたデフォルト値を閾値として設定してもよい。
(Step S102)
In step S102, the control unit 11 sets the threshold value of the rotation angle according to the operation of the subject. Note that the control unit 11 may set a preset default value as the threshold.

(ステップS103)
ステップS103において、制御部11は、センサ15の検出値に基づき、トレーニング支援装置10が床に対して垂直であるかを判定する。床に対して垂直である場合(ステップS103にてYES)、制御部11は、ステップS14の処理に進む。一方、垂直でない場合(ステップS103にてNO)、制御部11は、ステップS101の処理に戻り、操作方法を説明する画面の表示を継続する。このとき、制御部11は、一例として、「端末が床に対して垂直になるようにしてください」といった、トレーニング支援装置10を床に対して垂直にすることを促すメッセージをタッチパネル14に表示してもよい。
(Step S103)
In step S<b>103 , the control unit 11 determines whether the training support device 10 is perpendicular to the floor based on the detection value of the sensor 15 . If it is perpendicular to the floor (YES in step S103), control unit 11 proceeds to the process of step S14. On the other hand, if it is not vertical (NO in step S103), the control unit 11 returns to the process of step S101 and continues displaying the screen explaining the operation method. At this time, the control unit 11 displays on the touch panel 14, as an example, a message prompting the user to make the training support device 10 perpendicular to the floor, such as "Please make the terminal perpendicular to the floor." may

(ステップS104)
ステップS104において、制御部11は、スタートボタンを選択可能な状態にする。対象者は、眼球運動のトレーニングを開始する場合、タッチパネル14に表示されたスタートボタンを選択する操作を行う。
(Step S104)
In step S104, the control unit 11 makes the start button selectable. When starting eye movement training, the subject performs an operation of selecting a start button displayed on the touch panel 14 .

(ステップS105)
ステップS105において、制御部11は、スタートボタンが選択されたかを判定する。スタートボタンが選択された場合(ステップS105にてYES)、制御部11はステップS106の処理に進む。一方、スタートボタンが選択されていない場合(ステップS105にてNO)、制御部11はステップS101の処理に戻り、操作方法を説明する画面の表示を継続する。
(Step S105)
In step S105, the control unit 11 determines whether the start button has been selected. If the start button has been selected (YES in step S105), control unit 11 proceeds to the process of step S106. On the other hand, if the start button has not been selected (NO in step S105), the control unit 11 returns to the process of step S101 and continues displaying the screen explaining the operation method.

(ステップS106)
ステップS106において、制御部11は、センサ15の検出値が示す回転角を初期値とするとともに、眼球運動のトレーニング画面の表示を開始する。また、制御部11は、得点を示す変数にゼロを設定する。得点は、トレーニングが進むにつれて加算されていく値である。
(Step S106)
In step S106, the control unit 11 sets the rotation angle indicated by the detection value of the sensor 15 as an initial value, and starts displaying a training screen for eye movement. Also, the control unit 11 sets zero to the variable indicating the score. A score is a value that is added as training progresses.

図5は、タッチパネル14に表示される画面の一例である画面SC11を示す図である。画面SC11は、キャラクタC11、及び背景画像B11を含む。キャラクタC11は、人を模したキャラクタである。なお、制御部11がタッチパネル14に表示するキャラクタC11は、図5に例示するものに限られず、例えば、動物を模したキャラクタであってもよい。 FIG. 5 shows a screen SC11, which is an example of a screen displayed on the touch panel 14. As shown in FIG. The screen SC11 includes a character C11 and a background image B11. The character C11 is a character imitating a person. Note that the character C11 displayed on the touch panel 14 by the control unit 11 is not limited to the one illustrated in FIG. 5, and may be, for example, a character imitating an animal.

制御部11は、後述するように、タッチパネル14の回転角、すなわちトレーニング支援装置10の回転角に伴いキャラクタC11を第1アニメーション表示する。また、制御部11は、トレーニング支援装置10の回転角に伴い、背景画像B11をスクロール表示する。キャラクタC11の第1アニメーション表示及び背景画像B11のスクロール表示については、後述する。 As will be described later, the control unit 11 displays a first animation of the character C11 according to the rotation angle of the touch panel 14, that is, the rotation angle of the training support device 10. FIG. Further, the control unit 11 scrolls the background image B11 according to the rotation angle of the training support device 10 . The first animation display of the character C11 and the scroll display of the background image B11 will be described later.

(ステップS107)
ステップS107において、制御部11は、センサ15が検出した信号に基づきトレーニング支援装置10が回転したかを判定する。回転した場合(ステップS107にてYES)、制御部11は、ステップS108の処理に進む。一方、回転していない場合(ステップS107にてNO)、制御部11は、ステップS107の処理に戻る。
(Step S107)
In step S<b>107 , the control unit 11 determines whether the training support device 10 has rotated based on the signal detected by the sensor 15 . If rotated (YES in step S107), the control unit 11 proceeds to the process of step S108. On the other hand, if it is not rotating (NO in step S107), control unit 11 returns to the process of step S107.

(ステップS108)
ステップS108において、制御部11は、トレーニング支援装置10の回転角の変化量に伴い、キャラクタC11が背景画像B11に対して相対的に移動する第1アニメーション表示、および、背景画像B11のスクロール表示を行う。一例として、制御部11は、トレーニング支援装置10が回転した方向にキャラクタC11が歩いていく第1アニメーション表示及び背景画像B11のスクロール表示を行う。
(Step S108)
In step S108, the control unit 11 displays a first animation in which the character C11 moves relative to the background image B11 according to the amount of change in the rotation angle of the training support device 10, and scrolls the background image B11. conduct. As an example, the control unit 11 performs first animation display in which the character C11 walks in the direction in which the training support device 10 is rotated, and scroll display of the background image B11.

図6は、ステップS108においてタッチパネル14が表示する画面例である画面SC12を示す図である。対象者がトレーニング支援装置10を右手で把持し、トレーニング支援装置10を右手方向に移動させると、制御部11は、画面SC12において、キャラクタC11が矢印A1方向に歩くとともに、背景画像B11が矢印A1と反対方向にスクロールするアニメーション表示を行う。このように、制御部11は、画面SC12において、キャラクタC11が仮想空間において矢印A1方向に歩いて移動しているように、キャラクタC11と背景画像B11とを表示する。 FIG. 6 shows a screen SC12, which is an example of the screen displayed by the touch panel 14 in step S108. When the subject grips the training support device 10 with the right hand and moves the training support device 10 in the right direction, the controller 11 causes the character C11 to walk in the direction of the arrow A1 and the background image B11 to move in the direction of the arrow A1 on the screen SC12. Animate to scroll in the opposite direction. Thus, the control unit 11 displays the character C11 and the background image B11 on the screen SC12 as if the character C11 were walking in the direction of the arrow A1 in the virtual space.

画面SC12では、歩行しているキャラクタC11がほぼ中央に表示され、背景画像B11がトレーニング支援装置10の回転に伴いスクロールする。対象者は、画面SC12に表示されるキャラクタC11を、頭を動かさずに目で追いかけることにより、眼球運動を行う。 On the screen SC12, the walking character C11 is displayed substantially in the center, and the background image B11 scrolls as the training support device 10 rotates. The subject follows the character C11 displayed on the screen SC12 with his/her eyes without moving his/her head, thereby performing eye movements.

(ステップS109)
ステップS109において、制御部11は、センサ15の検出値が示す回転角の変化量が、ステップS102で設定した閾値に達したかを判定する。回転角の変化量が閾値に達した場合(ステップS109にてYES)、制御部11はステップS110の処理に進む。一方、回転角の変化量が閾値に達していない場合(ステップS109にてNO)、制御部11はステップS107の処理に戻り、回転の検出及びタッチパネル14のアニメーション表示を継続する。
(Step S109)
In step S109, the control unit 11 determines whether the amount of change in the rotation angle indicated by the detection value of the sensor 15 has reached the threshold set in step S102. When the amount of change in the rotation angle reaches the threshold (YES in step S109), the control unit 11 proceeds to the process of step S110. On the other hand, if the amount of change in the rotation angle has not reached the threshold (NO in step S109), the control unit 11 returns to the process of step S107 to continue detection of rotation and animation display on the touch panel .

(ステップS110)
回転角の変化慮が閾値に達した場合(ステップS109にてNO)、ステップS110において、制御部11は、少なくとも、前記第1アニメーション表示とは異なる、前記オブジェクトの第2アニメーション表示を行う。ステップS110は本明細書に係る第4ステップの一例である。第2アニメーション表示は、一例として、キャラクタが他のキャラクタとハイタッチするアニメーション表示である。なお、第2アニメーション表示は上述したものに限られず、第1アニメーション表示と異なるアニメーション表示であればどのようなものであってもよい。
(Step S110)
When the change in the rotation angle reaches the threshold (NO in step S109), in step S110, the control unit 11 displays at least the second animation of the object, which is different from the first animation. Step S110 is an example of a fourth step according to this specification. The second animation display is, for example, an animation display in which a character high-touches another character. The second animation display is not limited to the one described above, and any animation display different from the first animation display may be used.

図7は、タッチパネル14が表示する画面例である画面SC13を示す図である。制御部11は、画面SC13において、キャラクタC11が他のキャラクタC12とハイタッチするアニメーションを表示する。なお、回転角が設定値に達した場合に制御部11が表示する画像は、キャラクタC11が他のキャラクタC12とハイタッチする画像に限られず、他の画像であってもよい。 FIG. 7 is a diagram showing a screen SC13, which is an example of a screen displayed by the touch panel 14. As shown in FIG. The control unit 11 displays an animation in which the character C11 high-touches the other character C12 on the screen SC13. Note that the image displayed by the control unit 11 when the rotation angle reaches the set value is not limited to the image in which the character C11 high touches the other character C12, and may be another image.

(ステップS111)
ステップS111において、制御部11は、得点に所定の値(例えば、1)を加算する。また、ステップS111において、制御部11は、回転角の閾値の符号を反転させることによって当該閾値を更新する。換言すると、制御部11は、ステップS109において変化量が閾値に達した場合(ステップS109にてYES)、当該閾値の符号を反転させることによって当該閾値を更新する。ステップS111は本明細書に係る第5ステップの一例である。
(Step S111)
In step S111, the control unit 11 adds a predetermined value (for example, 1) to the score. Further, in step S111, the control unit 11 updates the threshold value by inverting the sign of the threshold value of the rotation angle. In other words, when the amount of change reaches the threshold in step S109 (YES in step S109), the control unit 11 updates the threshold by inverting the sign of the threshold. Step S111 is an example of a fifth step according to the present specification.

(ステップS112)
ステップS112において、制御部11は、得点が所定の閾値(例えば、20)に達したかを判定する。得点が閾値に達した場合(ステップS112にてYES)、制御部11はステップS113の処理に進む。一方、得点が閾値に達していない場合(ステップS112にてNO)、制御部11はステップS107の処理に戻り、回転の検出及びアニメーション表示を継続する。
(Step S112)
In step S112, the control unit 11 determines whether the score has reached a predetermined threshold (for example, 20). If the score reaches the threshold (YES in step S112), the control unit 11 proceeds to the process of step S113. On the other hand, if the score has not reached the threshold (NO in step S112), the control unit 11 returns to the process of step S107 to continue detection of rotation and animation display.

(ステップS113)
ステップS113において、制御部11は、眼球運動のトレーニングが完了した旨を示す完了画面をタッチパネル14に表示する。完了画面は、一例として、キャラクタC11が喜んでいるアニメーション画像を含んでいてもよい。ステップS113の処理を終えると、制御部11は、ステップS101の処理に戻る。
(Step S113)
In step S<b>113 , the control unit 11 displays on the touch panel 14 a completion screen indicating that eye movement training has been completed. The completion screen may include, for example, an animation image in which the character C11 is happy. After finishing the process of step S113, the control part 11 returns to the process of step S101.

制御部11が図4のトレーニング支援方法S100を実行することにより、トレーニング支援装置10の移動に伴いキャラクタC11が歩いたり、背景画像が変化したりする。対象者は頭を固定した状態でキャラクタC11を目で追うことにより、眼球運動のトレーニングを行う。 By executing the training support method S100 of FIG. 4 by the control unit 11, the character C11 walks and the background image changes as the training support device 10 moves. The subject performs eye movement training by following the character C11 with his eyes while his head is fixed.

〔実施例〕
<眼球運動のトレーニングによるバランス能力の改善と認知機能の改善>
ここで、本発明の一実施例として、トレーニング支援装置10およびトレーニング支援方法S100を用いて、複数の対象者に眼球運動のトレーニングを行ってもらった。以下に、眼球運動のトレーニングを行ったことによるバランス能力の改善及び認知機能の改善について、図面を参照しつつ説明する。
〔Example〕
<Improvement of balance ability and cognitive function through eye movement training>
Here, as an embodiment of the present invention, a plurality of subjects underwent eye movement training using the training support device 10 and the training support method S100. The improvement of balance ability and cognitive function due to eye movement training will be described below with reference to the drawings.

図8は、眼球運動のトレーニングの調査の対象として選定された対象者の属性を示す図である。発明者は、複数の健常者の中から、バランス能力の低い者を対象者として選定した。対象者は全部で10人であり、発明者はこれらの対象者を介入群と対照群との2つのグループにわけ、調査を行った。介入群の対象者は、以下の(1)と(2)の眼球運動のトレーニングのセットを、1日に3セット行うことを1ヵ月継続した。対照群は、眼球運動のトレーニングを行わず、1ヵ月間通常生活を送った。
(1)両手を前に伸ばし、親指を立て、両手の位置は肩幅で固定する。両手の親指を左右交互になるべく早く目で追う。
(2)利き手を前に伸ばし、利き手と反対側の手であごを固定する。利き手の親指を左右に15度程度ずつ動かし、頭を動かさずに目だけを左右に動かし、利き手の親指を目で追う。
FIG. 8 is a diagram showing the attributes of a subject selected as a research target for eye movement training. The inventor selected persons with low balance ability as subjects from among a plurality of healthy persons. There were 10 subjects in total, and the inventor divided these subjects into two groups, an intervention group and a control group, and conducted a survey. Subjects in the intervention group continued to perform three sets of the following eye movement training sets (1) and (2) a day for one month. The control group led a normal life for one month without eye movement training.
(1) Extend both hands forward, thumbs up, and fix the position of both hands at shoulder width. Follow the thumbs of both hands alternately left and right with your eyes as quickly as possible.
(2) Extend your dominant hand forward and fix your chin with your other hand. Move the thumb of the dominant hand to the left and right by about 15 degrees, move only the eyes left and right without moving the head, and follow the thumb of the dominant hand with the eyes.

図9は、介入群の対象者の年齢補正視覚依存度の算出結果を示す図である。図10は、対照群の対象者の年齢補正視覚依存度の算出結果を示す図である。図9及び図10において、縦軸は年齢補正視覚依存度を示す。 FIG. 9 is a diagram showing the calculation results of the age-corrected visual dependence of subjects in the intervention group. FIG. 10 is a diagram showing the calculation results of the age-corrected visual dependence of subjects in the control group. 9 and 10, the vertical axis indicates age-corrected visual dependence.

(年齢補正視覚依存度)
本実施例では、姿勢安定性における視覚依存度を補正することによって得られる年齢補正視覚依存度を用いた。視覚依存度あるいは年齢補正視覚依存度は、対象者のバランス能力を表す値である。視覚依存度あるいは年齢補正視覚依存度は、値が低いほど姿勢の安定性における視覚の依存度が低く、バランス能力が高いと考えられる。年齢補正視覚依存度は、一例として、視覚依存度と、対象者の年齢の適正年齢測定値との比を表す値である。視覚依存度は、第1mIPSと第2mIPSとの比を表す値である。なお、適正年齢測定値については後述する。
(Age-corrected visual dependence)
In this example, the age-corrected visual dependence obtained by correcting the visual dependence in postural stability was used. Visual dependence or age-corrected visual dependence is a value that represents a subject's balance ability. The lower the visual dependence or the age-corrected visual dependence, the lower the visual dependence in postural stability and the higher the balance ability. The age-corrected visual dependence is, for example, a value representing the ratio between the visual dependence and the appropriate age measurement value of the subject's age. The visual dependence is a value representing the ratio between the first mIPS and the second mIPS. The appropriate age measurement value will be described later.

第1mIPSは、弾性を有する弾性部材の上に立った対象者の開眼状態での重心動揺に基づく姿勢安定度の評価指標である。第1mIPSは、一例として、弾性を有する弾性部材の上に立った対象者の開眼状態での安定域面積a11と重心動揺面積a12とを用いた以下の(1)式で算出される。
log[(a11+a12)/a12] …(1)
The first mIPS is an evaluation index of posture stability based on the sway of the center of gravity of a subject standing on an elastic member with their eyes open. As an example, the first mIPS is calculated by the following equation (1) using the stability area area a11 and the center-of-gravity sway area a12 in the eye-open state of the subject standing on an elastic member having elasticity.
log[(a11+a12)/a12] (1)

第2mIPSは、弾性を有する弾性部材の上に立った対象者の閉眼状態での重心動揺に基づく姿勢安定度の評価指標である。第2mIPSは、一例として、弾性を有する弾性部材の上に立った対象者の閉眼状態での安定域面積a21と重心動揺面積a22とを用いた以下の(2)式で算出される。
log[(a21+a22)/a22] …(2)
The second mIPS is an evaluation index of posture stability based on the sway of the center of gravity of the subject standing on an elastic member with his or her eyes closed. As an example, the second mIPS is calculated by the following equation (2) using the stability area area a21 and the center-of-gravity sway area a22 in the eye-closed state of the subject standing on an elastic member having elasticity.
log[(a21+a22)/a22] (2)

適正年齢測定値は、一例として、第1年齢適正値av1と、第2年齢適正値av2との比を表す値である。第1年齢適正値av1は、年齢から推定される第1mIPSの値であり、第2年齢適正値av2は、年齢から推定される第2mIPSの値である。第1年齢適正値av1は、一例として、以下の(3)式で算出され、第2年齢適正値av2は、一例として、以下の(4)式で算出される。
av1=-0.0003×age+0.0145×age+1.1602 …(3)
av2=-0.00006×age-0.0037×age+0.8805…(4)
The age-appropriate measured value is, for example, a value representing the ratio between the first age-appropriate value av1 and the second age-appropriate value av2. The first age-appropriate value av1 is the first mIPS value estimated from age, and the second age-appropriate value av2 is the second mIPS value estimated from age. The first age-appropriate value av1 is calculated, for example, by the following formula (3), and the second age-appropriate value av2 is calculated, for example, by the following formula (4).
av1=−0.0003×age 2 +0.0145×age+1.1602 (3)
av2=−0.00006×age 2 −0.0037×age+0.8805 (4)

発明者は、介入群の対象者が眼球運動のトレーニングを開始してから1ヵ月後に、介入群と対照群の対象者について、重心動揺計等を用いて、弾性部材の上に立った対象者の開眼状態での重心動揺と閉眼状態での重心動揺を測定し、測定結果に基づき上記年齢補正視覚依存度を算出した。 One month after the subjects in the intervention group started eye movement training, the inventors used a stabilometer or the like for the subjects in the intervention group and the control group. We measured the sway of the center of gravity with the eyes open and the sway with the eyes closed, and calculated the above-mentioned age-corrected visual dependence based on the measurement results.

図9のグラフg13~g17は、介入群の対象者である5人の対象者のそれぞれの、眼球運動のトレーニングを開始する前(以下、「介入前」ともいう)の年齢補正視覚依存度と、眼球運動のトレーニングを開始してから1ヵ月が経過した後(以下、「介入後」ともいう)の年齢補正視覚依存度とを結んだグラフである。グラフg11は、介入群の対象者の介入前の年齢補正視覚依存度の平均値を示し、グラフg12は、介入群の対象者の年齢補正視覚依存度の介入後の平均値を示す。図10のグラフg23~g27は、対照群の対象者である5人の対象者のそれぞれの、介入前の年齢補正視覚依存度と介入後の年齢補正視覚依存度とを結んだグラフである。グラフg21は、対照群の対象者の年齢補正視覚依存度の介入前の平均値を示し、グラフg12は、対照群の対象者の年齢補正視覚依存度の介入後の平均値を示す。 Graphs g13 to g17 in FIG. 9 show the age-corrected visual dependence before starting eye movement training (hereinafter also referred to as “before intervention”) for each of the five subjects who are subjects in the intervention group. , and age-corrected visual dependence one month after the start of eye movement training (hereinafter also referred to as “post-intervention”). Graph g11 shows the average value of the age-corrected visual dependence degree of the subjects in the intervention group before intervention, and the graph g12 shows the average value of the age-corrected visual dependence degree of the subjects in the intervention group after intervention. Graphs g23 to g27 in FIG. 10 are graphs connecting the pre-intervention age-corrected visual dependence and the post-intervention age-corrected visual dependence for each of the five control group subjects. Graph g21 shows the pre-intervention average value of the age-corrected visual dependence degree of the control group subjects, and graph g12 shows the post-intervention average value of the age-corrected visual dependence degree of the control group subjects.

図9と図10とを比較すると、対照群の年齢補正視覚依存度は介入前と介入後とで変化が少ないのに対し、介入後の介入群の年齢補正視覚依存度は、介入前に比べて低くなっている。このように、介入群の対象者のバランス能力は、眼球運動のトレーニングにより改善している。 Comparing Figures 9 and 10, the age-corrected visual dependence of the control group showed little change before and after the intervention, while the age-corrected visual dependence of the intervention group after the intervention was higher than that before the intervention. is getting lower. Thus, the balance ability of the subjects in the intervention group improved with eye movement training.

図11は、介入群の対象者のTMT(Trail making test)-Bの検査結果を示す図である。図12は、対照群の対象者のTMT-Bの検査結果を示す図である。TMT-Bは、認知機能の検査方法のひとつであり、紙に記載された1~13の数字と「あ」から「し」のひらがなを、1→あ→2→い…、といったように数字とひらがなを交互に結び、作業完了までの所要時間を測る検査である。図11及び図12において、縦軸はTMT-Bの検査結果(秒)を示す。 FIG. 11 is a diagram showing the test results of TMT (Trail making test)-B of subjects in the intervention group. FIG. 12 shows the TMT-B test results of the subjects in the control group. TMT-B is one of the cognitive function test methods, and the numbers 1 to 13 written on paper and the hiragana from "a" to "shi" are written in the following order: 1 → A → 2 → E... It is a test to connect and hiragana alternately and measure the time required to complete the work. In FIGS. 11 and 12, the vertical axis indicates the TMT-B test results (seconds).

発明者は、介入群の対象者が眼球運動のトレーニングを開始してから1ヵ月後に、介入群と対照群の対象者について、TMT-Bの検査を行った。図11のグラフg33~g37は、介入群の対象者である5人の対象者のそれぞれの、介入前のTBT-Bの検査結果と介入後のTBT-Bの検査結果とを結んだグラフである。グラフg31は、介入前の介入群の対象者のTMT-Bの検査結果の平均値を示す。グラフg32は、介入後の介入群の対象者のTMT-Bの検査結果の平均値を示す。図12のグラフg43~g47は、対照群の対象者である5人の対象者のそれぞれの、介入前のTBT-Bの検査結果と介入後のTBT-Bの検査結果とを結んだグラフである。グラフg41は、対照群の対象者の介入前のTMT-Bの検査結果の平均値を示す。グラフg42は、対照群の対象者の介入後のTMT-Bの検査結果の平均値を示す。 The inventor examined TMT-B in the intervention group and control group subjects one month after the intervention group subjects started eye movement training. Graphs g33 to g37 in FIG. 11 are graphs connecting the TBT-B test results before intervention and the TBT-B test results after intervention for each of the five subjects in the intervention group. be. Graph g31 shows the average TMT-B test results of the intervention group subjects before intervention. Graph g32 shows the average TMT-B test results of the subjects in the intervention group after the intervention. Graphs g43 to g47 in FIG. 12 are graphs connecting the TBT-B test results before intervention and the TBT-B test results after intervention for each of the five control group subjects. be. Graph g41 shows the average TMT-B test results of the subjects in the control group before intervention. Graph g42 shows the mean values of TMT-B test results after the intervention of subjects in the control group.

図11に示されるように、介入後の介入群の対象者のTMT-Bの検査結果は、介入前に比べて小さくなっている。また、図11と図12とを比較すると、TMT-Bの検査結果の介入前と介入後の変化量は、介入群のほうが対照群よりも大きい。このように、対象者の認知機能は、眼球運動のトレーニングにより改善するといえる。 As shown in FIG. 11, the TMT-B test results of the intervention group subjects after the intervention are smaller than before the intervention. Also, comparing FIG. 11 and FIG. 12, the amount of change in TMT-B test results before and after intervention is greater in the intervention group than in the control group. Thus, it can be said that the subject's cognitive function is improved by eye movement training.

以上説明したように本実施形態によれば、トレーニング支援装置10が、トレーニングを行う対象者が注視するキャラクタをタッチパネル14に表示し、タッチパネル14の回転角の変化量に伴い、キャラクタが背景画像に対して相対的に移動する第1アニメーション表示、及び、キャラクタの背景画像が移動するスクロール表示を行う。対象者がタッチパネル14に表示されるキャラクタを目で追いながらトレーニングすることにより、対象者が眼球運動のトレーニングを従来と比べて容易に行うことができる。 As described above, according to the present embodiment, the training support device 10 displays the character that the subject of training is looking at on the touch panel 14, and the character changes to the background image according to the amount of change in the rotation angle of the touch panel 14. A first animation display in which the character moves relative to the character and a scroll display in which the background image of the character moves are performed. By training the target person while following the character displayed on the touch panel 14 with his or her eyes, the target person can easily perform eye movement training as compared with the conventional art.

特に、対象者は、病院などの特定の場所に限られず、対象者の自宅などの任意の場所で、トレーニング支援装置10を用いて眼球運動のトレーニングを手軽にかつ容易に行うことができる。また、トレーニング支援装置10が、回転角の変化量に伴って動くキャラクタと背景画像を表示することにより、対象者は、眼球運動のトレーニングを行うにあたってキャラクタを注視した状態でトレーニング支援装置10を回転させればよく、煩雑な操作等を行う必要がない。 In particular, the subject can easily and easily perform eye movement training using the training support device 10 not only at a specific place such as a hospital, but also at an arbitrary place such as the subject's home. In addition, the training support device 10 displays the character and the background image that move according to the amount of change in the rotation angle, so that the subject can rotate the training support device 10 while gazing at the character during eye movement training. There is no need to perform complicated operations or the like.

〔実施形態2〕
本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 2]
Other embodiments of the invention are described below. For convenience of description, members having the same functions as those of the members described in the above embodiments are denoted by the same reference numerals, and description thereof will not be repeated.

<装置の構成>
図13は、本発明の実施形態2に係るトレーニング支援装置10Bの構成を示すブロック図である。トレーニング支援装置10Bは例えば、パーソナルコンピュータ、テレビ受像機、又はゲーム機器である。なお、トレーニング支援装置10Bと表示装置40とが一体の装置として構成されていてもよい。本実施形態では、テレビ受像器を用いてトレーニング支援装置10Bを実現する場合を例にする。
<Device configuration>
FIG. 13 is a block diagram showing the configuration of a training support device 10B according to Embodiment 2 of the present invention. The training support device 10B is, for example, a personal computer, a television receiver, or a game machine. Note that the training support device 10B and the display device 40 may be configured as an integrated device. In the present embodiment, a case of realizing the training support device 10B using a television receiver is taken as an example.

トレーニング支援装置10Bは、制御部11B、記憶部12、通信部13、及び入出力部16Bを含む。制御部11Bは、トレーニング支援装置10Bの各部を制御する。制御部11Bは、提示部114B、及び往復移動実行部115Bを備える。提示部114Bは、トレーニングを行う対象者が注視するオブジェクトを光学的に提示する。往復移動実行部115Bは、提示部114Bが提示したオブジェクトを所定の軸方向に沿って往復移動させる。 The training support device 10B includes a control section 11B, a storage section 12, a communication section 13, and an input/output section 16B. The control section 11B controls each section of the training support device 10B. The control unit 11B includes a presentation unit 114B and a reciprocating movement execution unit 115B. The presentation unit 114B optically presents an object that the subject of training gazes at. The reciprocation execution unit 115B reciprocates the object presented by the presentation unit 114B along a predetermined axial direction.

入力装置30は、入出力部16Bに接続され、トレーニング支援装置10Bに情報を入力する。入力装置30は、例えばコントローラである。表示装置40は、入出力部16Bに接続され、トレーニング支援装置10Bが出力する情報に基づき各種の情報を表示する。 The input device 30 is connected to the input/output unit 16B and inputs information to the training support device 10B. The input device 30 is, for example, a controller. The display device 40 is connected to the input/output unit 16B and displays various information based on the information output by the training support device 10B.

<トレーニング支援方法の流れ>
図14は、トレーニング支援装置10Bが実行するトレーニング支援方法S200の流れを示すフロー図である。トレーニング支援方法S200は、ステップS201~S211を含む。なお、一部のステップは並行して、又は順序を替えて実行されてもよい。
<Flow of training support method>
FIG. 14 is a flowchart showing the flow of the training support method S200 executed by the training support apparatus 10B. The training support method S200 includes steps S201-S211. Note that some steps may be performed in parallel or out of order.

対象者は、入力装置30を用いて、眼球運動のトレーニングを開始するための操作を行う。対象者がその操作を行うことをトリガとして、トレーニング支援装置10Bの制御部11Bは、トレーニング支援方法S200を開始する。 The subject uses the input device 30 to perform an operation for starting eye movement training. Triggered by the subject's operation, the controller 11B of the training support device 10B starts the training support method S200.

(ステップS201)
ステップS201において、制御部11Bは、眼球運動のトレーニング方法を説明する画面を表示装置40に表示する。この画面は、一例として、「一方又は両方の手で顎を押さえて頭を動かさないように固定し、表示されるキャラクタを、頭を動かさずに目で追ってください」といったメッセージ、及び、「回転角を設定してください」といったメッセージを含む。
(Step S201)
In step S201, the control unit 11B displays a screen for explaining an eye movement training method on the display device 40. FIG. For example, this screen displays a message such as ``Hold your chin with one or both hands to fix your head so that it does not move, and follow the displayed character with your eyes without moving your head.'' Include a message such as "Please set the angle".

対象者は表示装置40に表示される説明を確認し、入力装置30を用いて回転角を入力又は選択する操作を行う。なお、回転角としてデフォルト値(例えば、30度、20度、15度、等)を用いる場合、対象者は回転角を設定する操作を行わなくてもよい。 The subject confirms the explanation displayed on the display device 40 and uses the input device 30 to input or select a rotation angle. When default values (for example, 30 degrees, 20 degrees, 15 degrees, etc.) are used as the rotation angles, the subject need not perform an operation to set the rotation angles.

(ステップS202)
ステップS202において、制御部11Bは、対象者の操作に応じて回転角を設定する。制御部11Bは、予め設定されたデフォルト値を回転角として設定してもよい。
(Step S202)
In step S202, the control unit 11B sets the rotation angle according to the operation of the subject. The control unit 11B may set a preset default value as the rotation angle.

(ステップS203)
ステップS203において、制御部11Bは、トレーニングを開始するかを判定する。制御部11Bは、一例として、トレーニングを開始するためのスタートボタンを表示装置40に表示し、対象者が入力装置30を用いてスタートボタンを選択する操作を行った場合に、トレーニングを開始すると判定してもよい。また、制御部11Bは、一例として、操作方法を説明する画面の表示を開始してから所定時間が経過した場合に、トレーニングを開始すると判定してもよい。トレーニングを開始する場合(ステップS203にてYES)、制御部11BはステップS204の処理に進む。一方、トレーニングを開始しない場合(ステップS203にてNO)、制御部11BはステップS201の処理に戻り、操作方法を説明する画面の表示を継続する。
(Step S203)
In step S203, the control unit 11B determines whether to start training. As an example, the control unit 11B displays a start button for starting training on the display device 40, and determines to start training when the subject performs an operation to select the start button using the input device 30. You may Further, as an example, the control unit 11B may determine to start training when a predetermined period of time has elapsed since the display of the screen explaining the operation method was started. If training is to be started (YES in step S203), control unit 11B proceeds to the process of step S204. On the other hand, if training is not to be started (NO in step S203), control unit 11B returns to the process of step S201 and continues to display the screen explaining the operation method.

(ステップS204)
ステップS204において、制御部11Bは、眼球運動のトレーニング画面の表示を開始する。換言すると、制御部11Bは、トレーニングを行う対象者が注視するオブジェクトを光学的に提示する。また、制御部11Bは、得点を示す変数にゼロを設定する。得点は、トレーニングが進むにつれて加算されていく値である。
(Step S204)
In step S204, the control unit 11B starts displaying a training screen for eye movement. In other words, the control unit 11B optically presents an object that the subject of training gazes at. Also, the control unit 11B sets the variable indicating the score to zero. A score is a value that is added as training progresses.

図15は、表示装置40に表示される画面の一例である画面SC21を示す図である。画面SC21は、光学的に提示されるオブジェクトの一例であるキャラクタC21を含む。キャラクタC21は、人を模したオブジェクトである。なお、制御部11Bが表示装置40に表示するキャラクタC21は、図15に例示するものに限られず、例えば、動物を模したキャラクタであってもよい。また、画面SC21は、背景画像を含んでいてもよい。 FIG. 15 is a diagram showing a screen SC21, which is an example of a screen displayed on the display device 40. As shown in FIG. The screen SC21 includes a character C21, which is an example of an optically presented object. The character C21 is a human-like object. Note that the character C21 displayed on the display device 40 by the control unit 11B is not limited to the one illustrated in FIG. 15, and may be, for example, a character imitating an animal. Also, the screen SC21 may include a background image.

(ステップS205)
ステップS205~S210において、制御部11Bは、キャラクタC21を所定の軸方向に沿って往復移動させる。ステップS205~S210は、本発明の態様7に係るトレーニング支援方法における第1ステップに対応する。まず、ステップS205において、制御部11Bは、キャラクタC21が移動する第1アニメーション表示を行う。換言すると、制御部11Bは、キャラクタC21を所定の移動速度で移動させる。
(Step S205)
In steps S205 to S210, the control section 11B reciprocates the character C21 along a predetermined axial direction. Steps S205 to S210 correspond to the first step in the training support method according to aspect 7 of the present invention. First, in step S205, the control unit 11B displays a first animation in which the character C21 moves. In other words, the control section 11B moves the character C21 at a predetermined moving speed.

図16は、ステップS205において表示装置40が表示する画面例である画面SC22を示す図である。制御部11Bは、画面SC22において、キャラクタC21が矢印A2方向に歩くアニメーション表示を行う。このように、制御部11Bは、画面SC22において、キャラクタC21が矢印A2方向に移動しているように、キャラクタC21を表示する。対象者は、画面SC21に表示されるキャラクタC21を、頭を動かさずに目で追いかけることにより、眼球運動を行う。 FIG. 16 shows a screen SC22, which is an example of the screen displayed by the display device 40 in step S205. The control unit 11B displays an animation in which the character C21 walks in the direction of the arrow A2 on the screen SC22. In this manner, the control unit 11B displays the character C21 on the screen SC22 as if the character C21 were moving in the direction of the arrow A2. The subject follows the character C21 displayed on the screen SC21 with his/her eyes without moving his/her head, thereby performing eye movement.

(ステップS206)
ステップS206において、制御部11Bは、キャラクタC21の移動量が、ステップS202で設定した回転角の変化量に対応する閾値に達したかを判定する。移動量が閾値に達した場合(ステップS206にてYES)、制御部11BはステップS207の処理に進む。一方、移動量が閾値に達していない場合(ステップS206にてNO)、制御部11BはステップS204の処理に戻り、キャラクタC21のアニメーション表示を継続する。
(Step S206)
In step S206, the control unit 11B determines whether the amount of movement of the character C21 has reached the threshold corresponding to the amount of change in the rotation angle set in step S202. If the movement amount reaches the threshold (YES in step S206), the control unit 11B proceeds to the process of step S207. On the other hand, if the amount of movement has not reached the threshold value (NO in step S206), the control unit 11B returns to the process of step S204 and continues the animation display of the character C21.

(ステップS207)
ステップS110において、制御部11Bは、第1アニメーション表示とは異なる、第2アニメーション表示を行う。第2アニメーション表示は、一例として、キャラクタC21が他のキャラクタとハイタッチするアニメーション表示である。なお、第2アニメーション表示は上述したものに限られず、他のアニメーション表示であってもよい。
(Step S207)
In step S110, the control unit 11B performs a second animation display different from the first animation display. The second animation display is, for example, an animation display in which the character C21 high touches another character. Note that the second animation display is not limited to the one described above, and may be another animation display.

図17は、ステップS207で表示装置40が表示する画面例である画面SC23を示す図である。画面SC23において、キャラクタC21が他のキャラクタC22とハイタッチするアニメーションを表示する。なお、移動量が閾値に達した場合に制御部11Bが表示する画像は、キャラクタC21が他のキャラクタC22とハイタッチする画像に限られず、他の画像であってもよい。 FIG. 17 is a diagram showing a screen SC23, which is an example of the screen displayed by the display device 40 in step S207. On the screen SC23, an animation is displayed in which the character C21 touches another character C22. Note that the image displayed by the control unit 11B when the amount of movement reaches the threshold is not limited to the image in which the character C21 touches another character C22, and may be another image.

(ステップS208・S209)
ステップS208において、制御部11Bは、キャラクタC21の移動方向を反対方向に設定する。ステップS209において、制御部11Bは、得点に所定の値(例えば、1)を加算する。
(Steps S208 and S209)
In step S208, the control unit 11B sets the moving direction of the character C21 to the opposite direction. In step S209, the control unit 11B adds a predetermined value (eg, 1) to the score.

(ステップS210)
ステップS210において、制御部11Bは、得点が所定の閾値(例えば、20)に達したかを判定する。得点が閾値に達した場合(ステップS210にてYES)、制御部11BはステップS211の処理に進む。一方、得点が閾値に達していない場合(ステップS210にてNO)、制御部11BはステップS205の処理に戻り、アニメーション表示を継続する。
(Step S210)
In step S210, the controller 11B determines whether the score has reached a predetermined threshold (for example, 20). If the score reaches the threshold (YES in step S210), control unit 11B proceeds to the process of step S211. On the other hand, if the score has not reached the threshold (NO in step S210), control unit 11B returns to the process of step S205 and continues the animation display.

(ステップS211)
ステップS211において、制御部11Bは、眼球運動のトレーニングが完了した旨を示す完了画面を表示装置40に表示する。ステップS211の処理を終えると、制御部11Bは、ステップS201の処理に戻る。
(Step S211)
In step S211, the control unit 11B displays on the display device 40 a completion screen indicating that eye movement training has been completed. After completing the process of step S211, the control unit 11B returns to the process of step S201.

制御部11Bが図14のトレーニング支援方法S200を実行することにより、表示装置40に表示されるキャラクタC21が画面内を水平方向に往復移動する。対象者は頭を固定した状態でキャラクタC21を目で追うことにより、眼球運動のトレーニングを行う。 The controller 11B executes the training support method S200 of FIG. 14, whereby the character C21 displayed on the display device 40 reciprocates in the horizontal direction within the screen. The subject performs eye movement training by following the character C21 with his eyes while his head is fixed.

以上説明したように本実施形態によれば、トレーニング支援装置10Bは、トレーニングを行う対象者が注視すべきオブジェクトを光学的に提示し、当該オブジェクトを所定の軸方向に沿って往復移動させる。提示されるオブジェクトを対象者が注視しながらトレーニングを行うことにより、対象者が眼球運動のトレーニングを手軽にかつ容易に行うことができる。 As described above, according to the present embodiment, the training support device 10B optically presents an object to be watched by the training subject, and reciprocates the object along a predetermined axial direction. By performing the training while the subject gazes at the presented object, the subject can easily and easily train the eye movement.

〔実施形態3〕
本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 3]
Other embodiments of the invention are described below. For convenience of description, members having the same functions as those of the members described in the above embodiments are denoted by the same reference numerals, and description thereof will not be repeated.

<装置の構成>
図18は、本発明の実施形態3に係るトレーニング支援装置10Cの外観を概略的に示す図である。トレーニング支援装置10Cは、一例として、直径1cmの筒状の形状を有する。トレーニング支援装置10Cの横幅(矢印A3方向の長さ)は、一例として、50cmである。トレーニング支援装置10Cは、矢印A3の方向において複数の区画a51、a52、a53、…(例えば、30の区画)に分割され、各区画に1又は複数の発光素子が配置されている。発光素子は、例えばLED(light emitting diode)である。
<Device configuration>
FIG. 18 is a diagram schematically showing the appearance of a training support device 10C according to Embodiment 3 of the present invention. 10 C of training assistance apparatuses have a cylindrical shape with a diameter of 1 cm as an example. The width (the length in the direction of arrow A3) of the training support device 10C is, for example, 50 cm. The training support device 10C is divided into a plurality of sections a51, a52, a53, . The light emitting element is, for example, an LED (light emitting diode).

トレーニング支援装置10Cは、所定の軸方向に配置された複数の発光素子を順に発光させる。換言すると、トレーニング支援装置10Cは、トレーニングを行う対象者が注視するオブジェクトを光学的に提示し、当該オブジェクトを所定の軸方向に沿って往復移動させる。本実施形態において、点灯している発光素子は、光学的に提示されるオブジェクトの一例である。 The training support device 10C sequentially causes a plurality of light emitting elements arranged in a predetermined axial direction to emit light. In other words, the training support device 10C optically presents an object that the subject of training gazes at, and reciprocates the object along a predetermined axial direction. In this embodiment, a lit light-emitting element is an example of an optically presented object.

トレーニング支援装置10Cは、第1のモード及び第2のモードを含む複数の動作モードで動作する。第1のモードは、トレーニング支援装置10Cの両端の区画が、所定時間(例えば、0.5秒)ごとに交互に点灯するモードである。一例として、点灯する発光素子が切り替わる間隔が0.5秒である場合、第1のモードにおいて点灯する発光素子が1往復するのに要する時間は1秒である。 The training support device 10C operates in multiple operation modes including a first mode and a second mode. The first mode is a mode in which the partitions at both ends of the training support device 10C alternately light up every predetermined time (for example, 0.5 seconds). As an example, if the interval at which the lit light emitting elements are switched is 0.5 seconds, the time required for the lit light emitting elements to make one round trip in the first mode is 1 second.

第2のモードは、区画が左右方向へそれぞれ、所定時間(例えば、0.3秒)ごとに移動して点灯していくモードである。一例として、点灯する発光素子が切り替わる間隔が0.3秒であり、区画の数が30である場合、第2のモードにおいて、点灯する発光素子が1往復するのに要する時間は18秒である。 The second mode is a mode in which the partitions move left and right at predetermined time intervals (for example, 0.3 seconds) and light up. As an example, if the switching interval of the lit light emitting elements is 0.3 seconds and the number of sections is 30, the time required for one round trip of the lit light emitting elements in the second mode is 18 seconds. .

図19は、トレーニング支援装置10Cの構成を示すブロック図である。トレーニング支援装置10Cは、制御部11C、記憶部12、通信部13、発光素子アレイ17、及び操作部18を含む。制御部11Cは、トレーニング支援装置10Cの各部を制御する。 FIG. 19 is a block diagram showing the configuration of the training support device 10C. The training support device 10C includes a control section 11C, a storage section 12, a communication section 13, a light emitting element array 17, and an operation section . 11 C of control parts control each part of 10 C of training support apparatuses.

制御部11Cは、提示部114C、及び往復移動実行部115Cを備える。提示部114Cは、発光素子アレイ17に含まれる1又は複数の発光素子を点灯させることにより、トレーニングを行う対象者が注視するオブジェクトを光学的に提示する。往復移動実行部115Cは、点灯させる発光素子を矢印A3方向において順に切り替えることにより、対象者が注視するオブジェクトを所定の軸方向に沿って往復移動させる。 11 C of control parts are provided with 114 C of presentation parts, and 115 C of reciprocating movement execution parts. The presentation unit 114</b>C optically presents an object gazed at by a training subject by lighting one or a plurality of light emitting elements included in the light emitting element array 17 . The reciprocation execution unit 115C reciprocates the object gazed at by the subject along a predetermined axial direction by sequentially switching the light-emitting elements to be lit in the direction of the arrow A3.

発光素子アレイ17は、複数の発光素子を含む。操作部18は、一例として、電源ボタン、眼球運動のトレーニング運動を開始するためのスタートボタン、及び、第1のモードと第2のモードとのいずれかを選択するためのモード選択ボタン、を含む。 The light emitting element array 17 includes a plurality of light emitting elements. The operation unit 18 includes, for example, a power button, a start button for starting eye movement training, and a mode selection button for selecting either the first mode or the second mode. .

<トレーニング支援方法の流れ>
図20は、トレーニング支援装置10Cが実行するトレーニング支援方法S300の流れを示すフロー図である。トレーニング支援方法S300は、ステップS301~S310を含む。なお、一部のステップは並行して、又は順序を替えて実行されてもよい。対象者は、眼球運動のトレーニングを開始するのに先立って、操作部18を用いてモードを選択する操作を行ってもよい。
<Flow of training support method>
FIG. 20 is a flowchart showing the flow of the training support method S300 executed by the training support apparatus 10C. The training assistance method S300 includes steps S301-S310. Note that some steps may be performed in parallel or out of order. The subject may perform an operation to select a mode using the operation unit 18 before starting eye movement training.

(ステップS301)
ステップS301において、制御部11Cは、トレーニングを開始するかを判定する。制御部11Cは、一例として、トレーニングを開始するためのスタートボタンを対象者が押した場合に、トレーニングを開始すると判定してもよい。トレーニングを開始する場合(ステップS301にてYES)、制御部11CはステップS302の処理に進む。一方、トレーニングを開始しない場合(ステップS301にてNO)、制御部11CはステップS301の処理に戻る。
(Step S301)
In step S301, the control unit 11C determines whether to start training. As an example, the control unit 11C may determine to start training when the subject presses a start button for starting training. If training is to be started (YES in step S301), control unit 11C proceeds to the process of step S302. On the other hand, if training is not to be started (NO in step S301), control unit 11C returns to the process of step S301.

(ステップS302)
ステップS302において、制御部11Cは、動作モードを判定する。動作モードが第1のモードである場合(ステップS302にて「第1のモード」)、制御部11CはステップS303の処理に進む。一方、動作モードが第2のモードである場合(ステップS302にて「第2のモード」)、制御部11CはステップS305の処理に進む。
(Step S302)
At step S302, the control unit 11C determines the operation mode. If the operation mode is the first mode ("first mode" in step S302), the controller 11C proceeds to the process of step S303. On the other hand, if the operation mode is the second mode ("second mode" in step S302), the controller 11C proceeds to the process of step S305.

(第1のモード:ステップS303~S305)
ステップS303において、制御部11Cは、発光素子の点灯を開始する。ステップS304において、制御部11Cは、点灯する発光素子を変更する。ステップS305において、制御部11Cは、往復回数が所定の閾値を超えたかを判定する。往復回数が閾値を超えた場合(ステップS304にてYES)、制御部11CはステップS301の処理に戻る。一方、往復回数が閾値を超えていない場合(ステップS305にてNO)、制御部11CはステップS304の処理に進む。
(First mode: steps S303 to S305)
In step S303, the control unit 11C starts lighting the light emitting elements. In step S304, the control unit 11C changes the light-emitting element to be lit. In step S305, the controller 11C determines whether the number of reciprocations exceeds a predetermined threshold. If the number of round trips exceeds the threshold (YES in step S304), control unit 11C returns to the process of step S301. On the other hand, if the number of reciprocations does not exceed the threshold (NO in step S305), control unit 11C proceeds to the process of step S304.

(第2のモード:ステップS306~S310)
ステップS306において、制御部11Cは、移動方向を設定する。ステップS307において、制御部11Cは、点灯させる発光素子を変更する制御を行う。換言すると、制御部11Cは、点灯させる発光素子をひとつ移動させる制御を行う。
(Second mode: steps S306 to S310)
In step S306, the control unit 11C sets the movement direction. In step S307, the control unit 11C performs control to change the light emitting element to be lit. In other words, the control unit 11C performs control to move one light-emitting element to be lit.

ステップS308において、制御部11Cは、一番端の区画の発光素子が点灯しているか、すなわち点灯させる発光素子が端部まで移動したかを判定する。一番端の区画の発光素子が点灯している場合(ステップS308にてYES)、制御部11CはステップS309の処理に進む。一方、一番端の区画の発光素子が点灯していない場合(ステップS308にてNO)、制御部11CはステップS309の処理に進む。 In step S308, the control unit 11C determines whether the light emitting element in the endmost section is lit, that is, whether the light emitting element to be lit has moved to the end. If the light-emitting element in the endmost section is lit (YES in step S308), the controller 11C proceeds to the process of step S309. On the other hand, if the light-emitting element in the endmost section is not lit (NO in step S308), the controller 11C proceeds to the process of step S309.

ステップS309において、制御部11Cは、点灯する発光素子の移動方向を判定方向に設定する。ステップS310において、制御部11Cは、往復回数が所定の閾値を超えたかを判定する。往復回数が閾値を超えた場合(ステップS310にてYES)、制御部11CはステップS301の処理に戻る。一方、往復回数が閾値を超えていない場合(ステップS310にてNO)、制御部11CはステップS307の処理に戻る。 In step S309, the control unit 11C sets the moving direction of the lit light emitting element as the determination direction. In step S310, the controller 11C determines whether the number of reciprocations exceeds a predetermined threshold. If the number of round trips exceeds the threshold (YES in step S310), control unit 11C returns to the process of step S301. On the other hand, if the number of reciprocations does not exceed the threshold (NO in step S310), control unit 11C returns to the process of step S307.

以上説明したように本実施形態によれば、トレーニングを行う対象者が注視するオブジェクトを光学的に提示し、オブジェクトを所定の軸方向に沿って往復移動させる。対象者がオブジェクトを注視しながらトレーニングを行うことにより、対象者が眼球運動のトレーニングを手軽にかつ容易に行うことができる。 As described above, according to the present embodiment, an object to be gazed at by a training subject is optically presented, and the object is reciprocated along a predetermined axial direction. By performing training while the subject gazes at the object, the subject can easily and easily perform eye movement training.

〔変形例〕
<変形例1>
上述の実施形態1において、制御部11は、オブジェクトの第1アニメーション表示および背景画像のスクロール表示を行うステップにおいて、タッチパネル14の回転速度に応じて第1アニメーション表示、及び、スクロール表示、の一方又は両方の表示態様を異ならせてもよい。一例として、制御部11は、タッチパネル14の回転速度が速いほどキャラクタの動作が速く、回転速度が遅いほどキャラクタの動作が遅いアニメーション表示を行ってもよい。また、一例として、制御部11は、タッチパネル14の回転速度が、好ましい回転速度の範囲の上限値以上である場合、すなわち回転速度が速すぎる場合、キャラクタがこけてしまうアニメーション表示を行ってもよい。また、一例として、制御部11は、タッチパネル14の回転速度が、好ましい回転速度の範囲の下限値未満である場合、すなわち回転速度が遅すぎる場合、キャラクタが眠ってしまうアニメーション表示を行ってもよい。また、本変形例において設定されている好ましい回転速度の範囲は、目的とする眼球運動のトレーニングに応じて、適宜設定することができる。眼球運動のトレーニングには、眼球(すなわち視線)を、(1)素早く往復運動させる態様と、(2)ゆっくり往復運動させる態様とがある。(1)の場合、オブジェクトの往復移動における周波数は、0.8Hz以上2.0Hz以下であることが好ましく、(2)の場合、当該周波数は、0.2Hz以上0.5Hz以下であることが好ましい。制御部11は、(1)および(2)の何れの態様のトレーニングを行うのかに応じて、オブジェクトの往復移動における周波数を上述した範囲内において設定することが好ましい。
[Modification]
<Modification 1>
In the first embodiment described above, in the step of performing the first animation display of the object and the scroll display of the background image, the control unit 11 performs one of the first animation display and the scroll display according to the rotation speed of the touch panel 14, or Both display modes may be different. As an example, the control unit 11 may display an animation in which the faster the rotation speed of the touch panel 14 is, the faster the character moves, and the slower the rotation speed is, the slower the character moves. Further, as an example, when the rotation speed of the touch panel 14 is equal to or higher than the upper limit value of the preferable rotation speed range, that is, when the rotation speed is too fast, the control unit 11 may perform an animation display in which the character collapses. . Further, as an example, when the rotation speed of the touch panel 14 is less than the lower limit value of the preferred rotation speed range, that is, when the rotation speed is too slow, the control unit 11 may display an animation in which the character falls asleep. . Moreover, the preferable rotation speed range set in this modified example can be appropriately set according to the target eye movement training. Eye movement training includes (1) a mode in which the eyeball (that is, line of sight) is (1) rapidly reciprocated and (2) a mode in which the eyeball is slowly reciprocated. In the case of (1), the frequency of the reciprocating movement of the object is preferably 0.8 Hz or more and 2.0 Hz or less, and in the case of (2), the frequency is preferably 0.2 Hz or more and 0.5 Hz or less. preferable. It is preferable that the control unit 11 sets the frequency of the reciprocating movement of the object within the range described above, depending on which mode of training (1) or (2) is to be performed.

また、制御部11は、タッチパネル14の回転速度に応じてアラート音等や警告メッセージ等を出力してもよい。一例として、制御部11は、タッチパネル14の回転速度が所定の範囲内でない場合、すなわち回転速度が速すぎたり遅すぎたりする場合、「もう少し速く動かしてください」といったメッセージ又は警告音を出力してもよい。メッセージ又は警告音の出力としては、一例として、制御部11は、内蔵スピーカ又は外部接続されたスピーカ等の音声出力装置にメッセージ又は警告音を出力したり、メッセージをタッチパネル14に表示したりしてもよい。 Further, the control unit 11 may output an alert sound or the like or a warning message or the like according to the rotational speed of the touch panel 14 . As an example, when the rotation speed of the touch panel 14 is out of a predetermined range, that is, when the rotation speed is too fast or too slow, the control unit 11 outputs a message such as "Move it a little faster" or a warning sound. good too. As an output of the message or warning sound, for example, the control unit 11 outputs the message or warning sound to an audio output device such as a built-in speaker or an externally connected speaker, or displays the message on the touch panel 14. good too.

<変形例2>
上述の実施形態1において、制御部11は、オブジェクトの第1アニメーション表示および背景画像のスクロール表示を行うステップにおいて、対象者を撮影する撮影装置が生成する撮影画像に基づき特定される対象者の顔の向きとトレーニング支援装置10の回転角の変化量との関係が所定の条件を満たさない場合、対象者に報知してもよい。所定の条件は、一例として、適切なトレーニングを行う場合の対象者の顔の向きとトレーニング支援装置10の回転角の変化量との相関関係と一致する、といった条件である。撮影装置は、トレーニング支援装置10に内蔵されていてもよく、また、外付けされる外部装置であってもよい。たとえば、実施形態1のように、スマートフォンを用いてトレーニング支援装置10を実現する場合には、撮影装置として、スマートフォンに内蔵されているインカメラを用いることができる。また、撮影装置は、トレーニング支援装置10とは別体の装置として、トレーニング支援装置10と異なる位置に設置されていてもよい。制御部11は、撮影装置が生成した撮影画像を画像解析し、対象者の顔の向きを特定する。
<Modification 2>
In the first embodiment described above, in the step of performing the first animation display of the object and the scrolling display of the background image, the control unit 11 controls the face of the target person specified based on the captured image generated by the imaging device that captures the target person. If the relationship between the orientation of the training support device 10 and the amount of change in the rotation angle of the training support device 10 does not satisfy a predetermined condition, the subject may be notified. The predetermined condition is, for example, a condition that matches the correlation between the orientation of the subject's face and the amount of change in the rotation angle of the training support device 10 when performing appropriate training. The imaging device may be built in the training support device 10 or may be an external device. For example, as in Embodiment 1, when the training support device 10 is implemented using a smartphone, an in-camera built into the smartphone can be used as the imaging device. Further, the imaging device may be installed at a position different from that of the training support device 10 as a separate device from the training support device 10 . The control unit 11 analyzes the photographed image generated by the photographing device and identifies the orientation of the subject's face.

上記実施形態1に係るトレーニングは、図3に示したように、対象者が肩を中心にトレーニング支援装置10を回転させて行う。そのため、トレーニング中は、トレーニング支援装置10が時計回りに回転した場合、トレーニング支援装置10の方向から撮影される対象者の顔は反時計回りに回転する。換言すると、トレーニング支援装置10の回転角の変化量と、トレーニング支援装置10に対する対象者の顔の向きとは所定の相関関係を有する。 As shown in FIG. 3, the training according to the first embodiment is performed by the subject rotating the training support device 10 around the shoulder. Therefore, during training, when the training support device 10 rotates clockwise, the subject's face photographed from the direction of the training support device 10 rotates counterclockwise. In other words, the amount of change in the rotation angle of the training support device 10 and the orientation of the subject's face with respect to the training support device 10 have a predetermined correlation.

一方、対象者が適切にトレーニングを行うことなく、トレーニング支援装置10を対象者の肩以外の位置を中心に回転させた場合、撮影装置の撮影範囲から対象者がはずれてしまったりする等、タッチパネル14の回転角の変化量と対象者の顔の向きとの関係は、適切なトレーニングを行う場合の関係と異なったものとなる。 On the other hand, if the target person does not properly train and rotates the training support device 10 around a position other than the target person's shoulder, the target person may be out of the imaging range of the imaging device. The relationship between the amount of change in the rotation angle of 14 and the orientation of the subject's face is different from the relationship in the case of appropriate training.

したがって、制御部11は、対象者の顔の向きとトレーニング支援装置10の回転角の変化量との関係が、適切なトレーニングを行う場合の関係と異なる場合、制御部11は、メッセージ又は警告音を出力して対象者に報知する。メッセージ又は警告音の出力としては、一例として、制御部11は、内蔵スピーカ又は外部接続されたスピーカ等の音声出力装置にメッセージ又は警告音を出力したり、メッセージをタッチパネル14に表示したりしてもよい。出力されるメッセージ又は警告音等により、トレーニングが適切に行われていない旨を通知することができる。 Therefore, when the relationship between the orientation of the subject's face and the amount of change in the rotation angle of the training support device 10 is different from the relationship when appropriate training is performed, the control unit 11 outputs a message or a warning sound. is output and notified to the target person. As an output of the message or warning sound, for example, the control unit 11 outputs the message or warning sound to an audio output device such as a built-in speaker or an externally connected speaker, or displays the message on the touch panel 14. good too. An output message, warning sound, or the like can notify that the training is not properly performed.

<変形例3>
上述の実施形態1~3において、制御部11、11B、および11C(以下、「制御部11等」という)は、オブジェクトの第1アニメーション表示および背景画像のスクロール表示を行うステップにおいて、対象者の視線がオブジェクトに向いていない場合、対象者に報知してもよい。
<Modification 3>
In the first to third embodiments described above, the control units 11, 11B, and 11C (hereinafter referred to as “control units 11, etc.”) perform the first animation display of the object and the scroll display of the background image. If the line of sight is not directed to the object, the subject may be notified.

この場合、一例として、制御部11等は、視線を検出する視線検出装置から検出結果を示す情報を受信する。視線検出装置は、一例として、メガネに眼球を撮影するための複数のカメラを設けた装置である。制御部11等は、視線検出装置が撮影した眼球の画像を画像解析し、対象者の眼球における黒目の位置に対応する視線を特定する。なお、対象者の視線を特定する手法は上述した手法に限られず、他の手法であってもよい。なお、この場合、視線検出装置は、トレーニング支援装置10、10B、および10Cの一部を構成する。 In this case, as an example, the control unit 11 or the like receives information indicating the detection result from the line-of-sight detection device that detects the line of sight. The line-of-sight detection device is, for example, a device provided with a plurality of cameras for photographing eyeballs on glasses. The control unit 11 or the like analyzes the image of the eyeball captured by the sight line detection device, and identifies the sight line corresponding to the position of the iris of the subject's eyeball. Note that the method of specifying the line of sight of the subject is not limited to the above-described method, and other methods may be used. In this case, the line-of-sight detection device forms part of the training support devices 10, 10B, and 10C.

制御部11等は、特定した対象者の視線がオブジェクトに向いているかを判定する。一例として、制御部11は、特定した対象者の視線と、オブジェクトと対象者の顔とを結ぶ直線とが平行または略平行である場合、視線がオブジェクトに向いていると判定してもよい。オブジェクトと対象者の顔とを結ぶ直線は、一例として、トレーニング支援装置10の回転角の変化量に基づき特定される。 The control unit 11 and the like determine whether the line of sight of the identified target person is directed toward the object. As an example, the control unit 11 may determine that the line of sight of the identified subject is directed toward the object when the line of sight of the identified subject is parallel or substantially parallel to the straight line connecting the object and the subject's face. A straight line connecting the object and the subject's face is specified based on the amount of change in the rotation angle of the training support device 10, for example.

制御部11等は、視線がオブジェクトに向いていない場合、制御部11は、メッセージ又は警告音を出力して対象者に報知する。メッセージ又は警告音の出力としては、一例として、制御部11は、内蔵スピーカ又は外部接続されたスピーカ等の音声出力装置にメッセージ又は警告音を出力したり、メッセージをタッチパネル14に表示したりしてもよい。出力されるメッセージ又は警告音等により、トレーニングが適切に行われていない旨を対象者に通知することができる。 When the line of sight is not directed toward the object, the control unit 11 or the like outputs a message or a warning sound to notify the subject. As an output of the message or warning sound, for example, the control unit 11 outputs the message or warning sound to an audio output device such as a built-in speaker or an externally connected speaker, or displays the message on the touch panel 14. good too. The subject can be notified that the training is not properly performed by the output message, warning sound, or the like.

<変形例4>
上述の実施形態2又は3において、制御部11等は、対象者を撮影する撮影装置が生成する撮影画像に基づき特定される前記対象者の顔の向きが移動している場合、前記対象者に警告を行ってもよい。撮影装置は、トレーニング支援装置10B又は10Cに内蔵されていてもよく、また、外付けされる外部装置であってもよい。また、撮影装置は、トレーニング支援装置10B又は10Cとは別体の装置として、トレーニング支援装置10と異なる位置に設置されていてもよい。
<Modification 4>
In Embodiment 2 or 3 described above, the control unit 11 or the like controls the subject to be identified based on the photographed image generated by the photographing device for photographing the subject, if the face orientation of the subject is moving. A warning may be given. The imaging device may be built in the training support device 10B or 10C, or may be an external device. Further, the photographing device may be installed at a position different from that of the training support device 10 as a separate device from the training support device 10B or 10C.

制御部11等は、撮影装置が生成した撮影画像を画像解析し、対象者の顔の向きを特定する。撮影装置がトレーニング支援装置10又は他の部材等に固定されて用いられることにより、制御部11等は、撮影画像を画像解析することで、対象者の顔の向きが変化しているかを判定できる。対象者の顔の向きが変化している場合、制御部11等は、メッセージ又は警告音を出力して対象者に報知する。メッセージ又は警告音の出力としては、一例として、制御部11は、内蔵スピーカ又は外部接続されたスピーカ等の音声出力装置にメッセージ又は警告音を出力したり、メッセージをタッチパネル14に表示したりしてもよい。出力されるメッセージ又は警告音等により、トレーニングが適切に行われていない旨を通知することができる。 The control unit 11 and the like perform image analysis on the captured image generated by the imaging device, and identify the orientation of the subject's face. By using the photographing device fixed to the training support device 10 or other members, the control unit 11 or the like can determine whether or not the orientation of the subject's face has changed by image analysis of the photographed image. . If the orientation of the subject's face has changed, the control unit 11 or the like outputs a message or a warning sound to notify the subject. As an output of the message or warning sound, for example, the control unit 11 outputs the message or warning sound to an audio output device such as a built-in speaker or an externally connected speaker, or displays the message on the touch panel 14. good too. An output message, warning sound, or the like can notify that the training is not properly performed.

<変形例5>
上述の実施形態2では、トレーニング支援装置10Bとしてパーソナルコンピュータ又はゲーム機器を例示したが、トレーニング支援装置10Bはこれらに限られず、他の装置であってもよい。トレーニング支援装置10Bは、一例として、オブジェクトおよび背景画像をスクリーン又は壁面等に投影するプロジェクタであってもよい。トレーニング支援装置10Bがプロジェクタである場合、プロジェクタにより投影されたオブジェクトは、光学的に提示されたオブジェクトの一例である。
<Modification 5>
In the above-described second embodiment, a personal computer or a game machine is exemplified as the training support device 10B, but the training support device 10B is not limited to these, and may be another device. The training support device 10B may be, for example, a projector that projects an object and a background image onto a screen, a wall surface, or the like. If the training support device 10B is a projector, the object projected by the projector is an example of an optically presented object.

また、トレーニング支援装置10Bは、仮想現実を提供するVR(virtual reality)機器、又は拡張現実を提供するAR(Augmented reality)機器であってもよい。この場合、トレーニング支援装置10Bは、一例として、仮想現実の映像を表示するVR用ゴーグルを含んでいてもよい。トレーニング支援装置10BがVR用ゴーグルである場合、仮想現実中に生成されるオブジェクトは、光学的に提示されたオブジェクトの一例である。 Also, the training support device 10B may be a VR (virtual reality) device that provides virtual reality or an AR (augmented reality) device that provides augmented reality. In this case, the training support device 10B may include, as an example, VR goggles that display virtual reality images. If the training support device 10B is VR goggles, an object generated during virtual reality is an example of an optically presented object.

<変形例6>
上述の実施形態3では、トレーニング支援装置10Cとして棒状の装置を例示したが、トレーニング支援装置10Cはこれに限られず、他の装置であってもよい。トレーニング支援装置10Cは、一例として、レーザ光をスクリーン又は壁面等に照射するレーザポインタであってもよい。本変形例において、レーザ光をスクリーン又は壁面等に照射することによって生成される輝点は、対象者が注視するオブジェクトの一例である。本変形例において、トレーニング支援装置10Cは、所定の軸方向にレーザ光の照射位置を、所定の軸方向に沿って往復移動させる。換言すると、トレーニング支援装置10Cは、レーザ光をスクリーン又は壁面等に照射することによって、トレーニングを行う対象者が注視するオブジェクトを光学的に提示し、レーザ光を所定の軸方向に沿って走査することにより、当該オブジェクトを所定の軸方向に沿って往復移動させる。
<Modification 6>
In the third embodiment described above, a bar-shaped device was exemplified as the training support device 10C, but the training support device 10C is not limited to this, and may be another device. The training support device 10C may be, for example, a laser pointer that irradiates a screen, a wall surface, or the like with laser light. In this modified example, a bright spot generated by irradiating a screen, a wall surface, or the like with a laser beam is an example of an object that the subject gazes at. In this modified example, the training support device 10C reciprocates the irradiation position of the laser light in the predetermined axial direction along the predetermined axial direction. In other words, the training support device 10C optically presents an object that the training subject gazes at by irradiating a screen, a wall surface, or the like with laser light, and scans the laser light along a predetermined axial direction. By doing so, the object is reciprocated along a predetermined axial direction.

〔ソフトウェアによる実現例〕
トレーニング支援装置10、10B、10Cの制御ブロック(特にオブジェクト表示部111、移動実行部112、判定部113、提示部114B、往復移動実行部115B、提示部114C、往復移動実行部115C)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of realization by software]
Control blocks of training support devices 10, 10B, and 10C (especially object display unit 111, movement execution unit 112, determination unit 113, presentation unit 114B, round-trip movement execution unit 115B, presentation unit 114C, and round-trip movement execution unit 115C) It may be implemented by a logic circuit (hardware) formed in a circuit (IC chip) or the like, or may be implemented by software.

後者の場合、トレーニング支援装置10、10B、10Cは、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, the training support devices 10, 10B, and 10C are provided with computers that execute program instructions, which are software that implements each function. This computer includes, for example, one or more processors, and a computer-readable recording medium storing the program. In the computer, the processor reads the program from the recording medium and executes it, thereby achieving the object of the present invention. As the processor, for example, a CPU (Central Processing Unit) can be used. As the recording medium, a "non-temporary tangible medium" such as a ROM (Read Only Memory), a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. In addition, a RAM (Random Access Memory) for developing the above program may be further provided. Also, the program may be supplied to the computer via any transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. Note that one aspect of the present invention can also be implemented in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

なお、図1、図13、図19においては、上記装置の各制御ブロックが1つのコンピュータにより構成されているように描かれている。ただし、上記装置の各制御ブロックは、複数のコンピュータにより分担されることにより実現されていてもよい。そして、各制御ブロックを複数のコンピュータ(例えばサーバ)により実現する場合においては、各コンピュータ(例えばサーバ)は、同じ事業者によって管理されていてもよいし、異なる事業者によって管理されていてもよい。 1, 13, and 19, each control block of the above apparatus is illustrated as being composed of one computer. However, each control block of the above device may be realized by being shared by a plurality of computers. When each control block is implemented by a plurality of computers (eg, servers), each computer (eg, servers) may be managed by the same operator or may be managed by different operators. .

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, but can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. is also included in the technical scope of the present invention.

10、10B、10C トレーニング支援装置
11、11B、11C 制御部
12 記憶部
13 通信部
14 タッチパネル
15 センサ
16B 入出力部
17 発光素子アレイ
18 操作部
30 入力装置
40 表示装置
S10、S100、S200、S300 トレーニング支援方法
S11 オブジェクト表示ステップ(第1ステップ)
S12 移動実行ステップ(第2ステップ)
S13 判定ステップ(第3ステップ)
10, 10B, 10C training support device 11, 11B, 11C control unit 12 storage unit 13 communication unit 14 touch panel 15 sensor 16B input/output unit 17 light emitting element array 18 operation unit 30 input device 40 display device S10, S100, S200, S300 training Support method S11 Object display step (first step)
S12 movement execution step (second step)
S13 decision step (third step)

Claims (14)

トレーニングを行う対象者が注視するオブジェクトを携帯型の表示部に表示する第1ステップと、
前記表示部の回転角の変化量であって所定の回転軸における回転角の変化量に伴い、前記オブジェクトが背景画像に対して相対的に移動する第1アニメーション表示、及び、当該オブジェクトの背景画像が移動するスクロール表示、の一方又は両方を行う第2ステップと、
前記回転角の変化量が閾値に達したか否かを判定する第3ステップと、
を含むトレーニング支援方法。
a first step of displaying, on a portable display, an object to be gazed at by a training subject;
a first animation display in which the object moves relative to a background image in accordance with the amount of change in the rotation angle of the display unit about a predetermined rotation axis; and a background image of the object. a second step of performing one or both of: a scrolling display in which the
a third step of determining whether or not the amount of change in the rotation angle has reached a threshold;
training aid methods, including;
前記第3ステップにおいて前記変化量が前記閾値に達した場合に、少なくとも、前記第1アニメーション表示とは異なる、前記オブジェクトの第2アニメーション表示を行う第4ステップを更に含む、
請求項1に記載のトレーニング支援方法。
A fourth step of performing at least a second animation display of the object different from the first animation display when the amount of change reaches the threshold value in the third step,
The training support method according to claim 1.
前記第3ステップにおいて前記変化量が前記閾値に達した場合に、当該閾値の符号を反転させることによって当該閾値を更新する第5ステップを更に含む、
請求項1又は2に記載のトレーニング支援方法。
Further comprising a fifth step of updating the threshold by reversing the sign of the threshold when the amount of change reaches the threshold in the third step;
The training support method according to claim 1 or 2.
前記第2ステップにおいては、前記表示部の回転速度に応じて前記第1アニメーション表示、及び、前記スクロール表示、の一方又は両方の表示態様を異ならせる、
請求項1から3の何れか1項に記載のトレーニング支援方法。
In the second step, the display mode of one or both of the first animation display and the scroll display is changed according to the rotation speed of the display unit,
The training support method according to any one of claims 1 to 3.
前記第2ステップにおいては、前記対象者を撮影する撮影装置が生成する撮影画像に基づき特定される前記対象者の顔の向きと前記表示部の回転角の変化量との関係が所定の条件を満たさない場合、前記対象者に報知する、
請求項1から4の何れか1項に記載のトレーニング支援方法。
In the second step, the relationship between the orientation of the subject's face identified based on the photographed image generated by the photographing device for photographing the subject and the amount of change in the rotation angle of the display unit satisfies a predetermined condition. If not satisfied, notify the subject,
The training support method according to any one of claims 1 to 4.
前記第2ステップにおいては、前記対象者の視線が前記オブジェクトに向いていない場合、前記対象者に報知する、
請求項1から5の何れか1項に記載のトレーニング支援方法。
In the second step, if the subject's line of sight is not directed toward the object, the subject is notified;
The training support method according to any one of claims 1 to 5.
トレーニングを行う対象者が注視するオブジェクトを光学的に提示し、当該オブジェクトを所定の軸方向に沿って往復移動させる第1ステップ、
を含むトレーニング支援方法。
A first step of optically presenting an object gazed at by a training subject and reciprocating the object along a predetermined axial direction;
training aid methods, including;
前記第1ステップにおいては、前記対象者を撮影する撮影装置が生成する撮影画像に基づき特定される前記対象者の顔の向きが移動している場合、前記対象者に警告を行う、
請求項7に記載のトレーニング支援方法。
In the first step, when the orientation of the face of the subject specified based on the captured image generated by the imaging device that captures the subject is moving, the subject is warned;
The training support method according to claim 7.
前記第1ステップにおいては、前記対象者の視線が前記オブジェクトに向いていない場合、前記対象者に報知する、
請求項7又は8に記載のトレーニング支援方法。
In the first step, if the subject's line of sight is not directed toward the object, the subject is notified;
The training support method according to claim 7 or 8.
前記トレーニングは、認知症予防又は認知症改善のトレーニングである、
請求項1から9の何れか1項に記載のトレーニング支援方法。
The training is dementia prevention or dementia improvement training,
The training support method according to any one of claims 1 to 9.
携帯型の表示部と、
オブジェクトを前記表示部に表示するオブジェクト表示部と、
前記表示部の回転角の変化量であって所定の回転軸における回転角の変化量に伴い、前記オブジェクトが背景画像に対して相対的に移動する第1アニメーション表示、及び、当該オブジェクトの背景画像が移動するスクロール表示、の一方又は両方を行う移動実行部と、
前記回転角の変化量が閾値に達したか否かを判定する判定部と、
を備えているトレーニング支援装置。
a portable display;
an object display section for displaying an object on the display section;
a first animation display in which the object moves relative to a background image in accordance with the amount of change in the rotation angle of the display unit about a predetermined rotation axis; and a background image of the object. a movement execution unit that performs one or both of a scroll display in which the
a determination unit that determines whether or not the amount of change in the rotation angle has reached a threshold;
A training aid device comprising:
トレーニングを行う対象者が注視するオブジェクトを光学的に提示する提示部と、
当該オブジェクトを所定の軸方向に沿って往復移動させる往復移動実行部と、
を備えているトレーニング支援装置。
a presentation unit that optically presents an object to be gazed at by a training subject;
a reciprocating movement execution unit that reciprocates the object along a predetermined axial direction;
A training aid device comprising:
コンピュータをトレーニング支援装置として機能させるプログラムであって、
前記プログラムは、前記コンピュータを、
オブジェクトを携帯型の表示部に表示するオブジェクト表示部と、
前記表示部の回転角の変化量であって所定の回転軸における回転角の変化量に伴い、前記オブジェクトが背景画像に対して相対的に移動する第1アニメーション表示、及び、当該オブジェクトの背景画像が移動するスクロール表示、の一方又は両方を行う移動実行部と、
前記回転角の変化量が閾値に達したか否かを判定する判定部と、として機能させることを特徴とするプログラム。
A program that causes a computer to function as a training support device,
The program causes the computer to:
an object display for displaying objects on a portable display;
a first animation display in which the object moves relative to a background image in accordance with the amount of change in the rotation angle of the display unit about a predetermined rotation axis; and a background image of the object. a movement execution unit that performs one or both of a scroll display in which the
and a determination unit that determines whether or not the amount of change in the rotation angle has reached a threshold value.
コンピュータをトレーニング支援装置として機能させるプログラムであって、
前記プログラムは、前記コンピュータを、
オブジェクトを光学的に提示する提示部と、
当該オブジェクトを所定の軸方向に沿って往復移動させる往復移動実行部と、として機能させることを特徴とするプログラム。
A program that causes a computer to function as a training support device,
The program causes the computer to:
a presentation unit for optically presenting an object;
and a reciprocating movement execution unit that reciprocates the object along a predetermined axial direction.
JP2021114877A 2021-07-12 2021-07-12 Training support method, training support device, and program Pending JP2023011184A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021114877A JP2023011184A (en) 2021-07-12 2021-07-12 Training support method, training support device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021114877A JP2023011184A (en) 2021-07-12 2021-07-12 Training support method, training support device, and program

Publications (1)

Publication Number Publication Date
JP2023011184A true JP2023011184A (en) 2023-01-24

Family

ID=85120268

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021114877A Pending JP2023011184A (en) 2021-07-12 2021-07-12 Training support method, training support device, and program

Country Status (1)

Country Link
JP (1) JP2023011184A (en)

Similar Documents

Publication Publication Date Title
Zhao et al. Designing AR visualizations to facilitate stair navigation for people with low vision
CN110914739B (en) Head mounted display with adjustment mechanism
JP6977134B2 (en) Field of view (FOV) aperture of virtual reality (VR) content on head-mounted display
JP2022540641A (en) Electronic devices and related methods for therapeutic intervention using virtual or augmented reality
JP2009511220A (en) Diversity therapy apparatus and method and interactive device
WO2013183506A1 (en) Head-mounted display device, image display system, program, and method for controlling head-mounted display device
WO2012160741A1 (en) Visual fatigue-measuring apparatus, method thereof, visual fatigue-measuring system and three-dimensional glasses
JP2006320424A (en) Action teaching apparatus and method
JP2018072992A (en) Information processing method and equipment and program making computer execute the information processing method
JPWO2007004680A1 (en) Vision recovery training device
JP2013066696A (en) Image processing system and image processing method
JP2019160033A (en) Display controller and program
US10747308B2 (en) Line-of-sight operation apparatus, method, and medical device
CN112272814A (en) Information processing apparatus, information processing method, and program
KR102133219B1 (en) Augmented reality glasses detecting movements
JP2023011184A (en) Training support method, training support device, and program
KR101847918B1 (en) Rehabilitation method and system for using motion sensing band
JP7029722B2 (en) AR equipment, methods and programs
Tada et al. Quantifying motor and cognitive function of the upper limb using mixed reality smartglasses
JP6630911B1 (en) Treatment support system and treatment support program
KR20160064890A (en) Treadmill system with running posture correction
JP2016154647A (en) Display device, display method, and program
KR20140139743A (en) Method for controlling display screen and display apparatus thereof
JP7313523B1 (en) Program and information processing system
JP6988030B1 (en) Rehabilitation equipment and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240527