JP6747925B2 - Rehabilitation support device - Google Patents

Rehabilitation support device Download PDF

Info

Publication number
JP6747925B2
JP6747925B2 JP2016190975A JP2016190975A JP6747925B2 JP 6747925 B2 JP6747925 B2 JP 6747925B2 JP 2016190975 A JP2016190975 A JP 2016190975A JP 2016190975 A JP2016190975 A JP 2016190975A JP 6747925 B2 JP6747925 B2 JP 6747925B2
Authority
JP
Japan
Prior art keywords
foot
rehabilitation
image
projection
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016190975A
Other languages
Japanese (ja)
Other versions
JP2018050989A (en
JP2018050989A5 (en
Inventor
栄太 平井
栄太 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Paramount Bed Co Ltd
Original Assignee
Paramount Bed Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Paramount Bed Co Ltd filed Critical Paramount Bed Co Ltd
Priority to JP2016190975A priority Critical patent/JP6747925B2/en
Publication of JP2018050989A publication Critical patent/JP2018050989A/en
Publication of JP2018050989A5 publication Critical patent/JP2018050989A5/ja
Application granted granted Critical
Publication of JP6747925B2 publication Critical patent/JP6747925B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Rehabilitation Tools (AREA)

Description

本発明は、リハビリテーション支援装置に関する。 The present invention relates to a rehabilitation support device.

従来、歩行に関するリハビリテーションの対象者が、歩行可能な無限軌道ベルトを備える装置の歩行面を歩行することにより、当該対象者のリハビリテーションを支援する技術が知られている(例えば、特許文献1参照)。 2. Description of the Related Art Conventionally, there is known a technique in which a target person for rehabilitation related to walking supports the rehabilitation of the target person by walking on a walking surface of an apparatus including a trackable endless track belt (for example, see Patent Document 1). ..

特開2002−345994号公報JP 2002-345994 A

ここで、従来の技術では、リハビリテーションの対象者は、無限軌道ベルト上の歩行面を歩行するため、歩行を行っても当該対象者の歩行環境には、変化が生じない。したがって、従来の技術では、リハビリテーションの対象者に歩行環境が変化することに伴い、廊下を歩行する等、日常生活に近い歩行練習を行うことが困難である場合があった。 Here, in the conventional technique, the target person for rehabilitation walks on the walking surface on the endless track belt, so that the walking environment of the target person does not change even when walking. Therefore, according to the conventional technique, it may be difficult to practice walking close to daily life such as walking in a corridor as the walking environment changes for the rehabilitation target person.

上記事情に鑑み、本発明は、リハビリテーションの対象者に歩行環境が変化することに伴い、日常生活に近い歩行練習を行うことができる仕組みの提供を目的としている。 In view of the above circumstances, an object of the present invention is to provide a mechanism that enables a rehabilitation target person to perform walking exercises close to daily life as the walking environment changes.

本発明の一態様は、自装置の移動を制御する移動制御部と、リハビリテーションの対象者の動作を誘導する誘導画像を含む投射画像を投射する投射部と、を備えるリハビリテーション支援装置である。 One aspect of the present invention is a rehabilitation assistance apparatus including a movement control unit that controls the movement of the device itself, and a projection unit that projects a projection image that includes a guidance image that guides the action of the person who is the subject of rehabilitation.

本発明の一態様は、上記のリハビリテーション支援装置であって、自装置が移動することに伴う自装置の位置の変化を相殺するように前記誘導画像の位置を制御する誘導画像制御部を更に備え、前記投射部は、前記誘導画像制御部によって制御される前記誘導画像の位置に前記誘導画像を投射する。 One aspect of the present invention is the above-mentioned rehabilitation assistance apparatus, further comprising a guide image control unit that controls the position of the guide image so as to cancel a change in the position of the own apparatus due to the movement of the own apparatus. The projection unit projects the guidance image at the position of the guidance image controlled by the guidance image control unit.

本発明の一態様は、上記のリハビリテーション支援装置であって、前記誘導画像制御部は、前記投射画像内の前記誘導画像の位置を、自装置が移動することに伴う自装置の位置の変化が相殺される位置に制御する。 One aspect of the present invention is the above-described rehabilitation assistance device, wherein the guide image control unit changes the position of the guide image in the projection image due to a change in the position of the device itself. Control to the offset position.

本発明の一態様は、上記のリハビリテーション支援装置であって、前記誘導画像制御部は、前記投射部が前記投射画像を投射する投射方向を制御し、前記誘導画像を、自装置が移動することに伴う自装置の位置の変化が相殺される位置に制御する。 One aspect of the present invention is the rehabilitation assistance apparatus described above, wherein the guidance image control unit controls a projection direction in which the projection unit projects the projection image, and the guidance image is moved by the device itself. The position is controlled so that the change in the position of the own device due to

本発明の一態様は、上記のリハビリテーション支援装置であって、前記対象者の空間位置を示す空間位置情報を出力するセンサ部と、前記センサ部が出力する前記空間位置情報に基づいて、前記対象者と自装置との距離を取得する距離取得部と、を更に備え、前記誘導画像制御部は、前記距離取得部が算出する前記距離に基づく位置に前記誘導画像の位置を制御する。 One aspect of the present invention is the rehabilitation assistance apparatus described above, wherein the target based on the spatial position information output by the sensor unit and the sensor unit that outputs spatial position information indicating the spatial position of the target person. The guide image control unit further includes a distance acquisition unit that acquires a distance between the person and the device, and the guide image control unit controls the position of the guide image to a position based on the distance calculated by the distance acquisition unit.

本発明の一態様は、上記のリハビリテーション支援装置であって、前記センサ部は、前記空間位置のうち、前記対象者の体の特定部位の空間位置を示す部位空間位置情報を出力し、前記距離取得部は、前記部位空間位置情報に基づいて、前記距離を算出する。 One aspect of the present invention is the rehabilitation assistance apparatus described above, wherein the sensor unit outputs, of the spatial positions, region spatial position information indicating a spatial position of a specific region of the subject's body, and the distance. The acquisition unit calculates the distance based on the part space position information.

本発明の一態様は、上記のリハビリテーション支援装置であって、前記特定部位は、前記対象者の踵であって、前記距離取得部は、前記対象者の踵に関する部位空間位置情報に基づいて、前記距離を算出する。 One aspect of the present invention is the rehabilitation support apparatus, wherein the specific site is the heel of the target person, the distance acquisition unit, based on the site space position information regarding the heel of the target person, The distance is calculated.

本発明の一態様は、上記のリハビリテーション支援装置であって、前記移動制御部は、前記距離取得部が算出する前記距離に基づいて、自装置の移動を制御する。 One mode of the present invention is the above-mentioned rehabilitation assistance apparatus, wherein the movement control unit controls the movement of the own device based on the distance calculated by the distance acquisition unit.

本発明の一態様は、上記のリハビリテーション支援装置であって、前記対象者の足の機能回復に応じた足用表示パラメータを取得するパラメータ取得部を更に備え、前記誘導画像制御部は、前記パラメータ取得部が取得する前記足用表示パラメータに基づく位置に前記誘導画像の位置を制御する。 One aspect of the present invention is the rehabilitation support apparatus, further comprising a parameter acquisition unit for acquiring a foot display parameter according to the functional recovery of the foot of the subject, the guide image control unit, the parameter The position of the guide image is controlled to a position based on the foot display parameter acquired by the acquisition unit.

本発明の一態様は、上記のリハビリテーション支援装置であって、前記誘導画像制御部は、前記対象者の足の移動距離に係る前記足用表示パラメータである足用距離パラメータ、前記対象者の足の移動時間に係る前記足用表示パラメータである足用時間パラメータ、及び前記対象者の足の移動方向に係る前記足用表示パラメータである足用ベクトルパラメータ、のうちの少なくとも1つに基づく位置に前記誘導画像の位置を制御する。 One aspect of the present invention is the rehabilitation support apparatus described above, wherein the guidance image control unit is a foot distance parameter that is the foot display parameter related to the movement distance of the foot of the subject, the foot of the subject. To a position based on at least one of a foot time parameter that is the foot display parameter related to the moving time of the foot, and a foot vector parameter that is the foot display parameter related to the moving direction of the subject's foot. The position of the guide image is controlled.

本発明の一態様は、上記のリハビリテーション支援装置であって、前記センサ部が出力する前記空間位置情報に基づいて、前記対象者の体の特定部位の空間位置に関する情報の表示を制御する表示制御部を更に備える。 One aspect of the present invention is the rehabilitation assistance apparatus described above, wherein display control for controlling display of information regarding a spatial position of a specific part of the body of the subject based on the spatial position information output by the sensor unit. Further comprises a section.

本発明の一態様は、上記のリハビリテーション支援装置であって、前記表示制御部は、前記センサ部が出力する前記空間位置情報に基づいて、前記対象者が前記センサ部に検出される検出位置から前記対象者が視認する範囲に前記空間位置情報に関する情報の表示を制御する。 One aspect of the present invention is the rehabilitation assistance apparatus described above, wherein the display control unit is based on the spatial position information output by the sensor unit, from a detection position at which the subject is detected by the sensor unit. The display of information related to the spatial position information is controlled within a range visually recognized by the subject.

本発明の一態様は、上記のリハビリテーション支援装置であって、前記表示制御部は、前記空間位置情報に関する情報を前記特定部位と同一の尺度において示す表示を制御する。 One aspect of the present invention is the rehabilitation assistance apparatus described above, wherein the display control unit controls display of information regarding the spatial position information on the same scale as the specific portion.

本発明の一態様は、上記のリハビリテーション支援装置であって、前記表示制御部は、前記センサ部が第1の時期に出力する前記空間位置情報である第1空間位置情報と、前記第1の時期よりも過去の第2の時期に出力した前記空間位置情報である第2空間位置情報とに関する情報の表示を制御する。 One aspect of the present invention is the rehabilitation assistance apparatus described above, wherein the display control unit includes first spatial position information that is the spatial position information that the sensor unit outputs at a first time, and the first spatial position information. The display of information regarding the second spatial position information, which is the spatial position information output at the second time earlier than the time, is controlled.

本発明により、リハビリテーションの対象者に歩行環境が変化することに伴リハビリテーションの対象者に歩行環境が変化することに伴い、日常生活に近い歩行練習を行うことができる仕組みを提供することが可能となる。 According to the present invention, it is possible to provide a mechanism that allows a rehabilitation target person to perform walking exercises similar to daily life along with a change in the walking environment to the rehabilitation target person as the walking environment changes. Become.

本発明の第1実施形態に係るリハビリテーション支援装置の構成を示す斜視図である。It is a perspective view showing the composition of the rehabilitation assistance device concerning a 1st embodiment of the present invention. 第1実施形態の投射画像の一例を示す平面図である。It is a top view which shows an example of the projection image of 1st Embodiment. 第1実施形態のリハビリテーション支援装置の移動方向の一例を示す斜視図である。It is a perspective view which shows an example of the moving direction of the rehabilitation assistance apparatus of 1st Embodiment. 第1実施形態のリハビリテーション支援装置の機能構成例を示すブロック図である。It is a block diagram which shows the functional structural example of the rehabilitation assistance apparatus of 1st Embodiment. 第1実施形態のリハビリテーション支援装置の動作の一例を示す流れ図である。It is a flow chart which shows an example of operation of the rehabilitation assistance device of a 1st embodiment. 本発明の第2実施形態に係るリハビリテーション支援装置の概要を示す斜視図であり、(a)がリハビリテーション支援装置の移動に伴う誘導画像の移動の一例を示し、(b)がリハビリテーション支援装置の移動に伴う位置の変化を相殺する位置に誘導画像が示される一例を示す。It is a perspective view which shows the outline|summary of the rehabilitation assistance apparatus which concerns on 2nd Embodiment of this invention, (a) shows an example of the movement of the guidance image accompanying the movement of a rehabilitation assistance apparatus, (b) moves a rehabilitation assistance apparatus. An example is shown in which a guide image is displayed at a position that cancels the change in position due to. 第2実施形態のリハビリテーション支援装置の機能構成例を示すブロック図である。It is a block diagram which shows the functional structural example of the rehabilitation assistance apparatus of 2nd Embodiment. 第2実施形態のリハビリテーション支援装置の、移動に伴う位置変化に応じた投射画像の位置変化の一例を示す平面図である。It is a top view which shows an example of the position change of the projection image according to the position change accompanying a movement of the rehabilitation assistance apparatus of 2nd Embodiment. 第2実施形態の誘導画像制御部の誘導画像の制御の一例を示す第1の図であって、(a)は、誘導画像制御部が誘導画像の位置を制御する前の投射画像を示し、(b)は、誘導画像制御部が誘導画像の位置を制御した後の投射画像を示す。It is a 1st figure which shows an example of control of the guidance image of the guidance image control part of 2nd Embodiment, Comprising: (a) shows the projection image before the guidance image control part controls the position of a guidance image, (B) shows a projection image after the guide image control unit controls the position of the guide image. 第2実施形態の誘導画像制御部の誘導画像の制御の一例を示す第2の図であって、(a)は、誘導画像制御部が誘導画像の位置を制御する前の投射画像を示し、(b)は、誘導画像制御部が誘導画像の位置を制御した後の投射画像を示す。It is a 2nd figure which shows an example of control of the guidance image of the guidance image control part of 2nd Embodiment, Comprising: (a) shows the projection image before the guidance image control part controls the position of a guidance image, (B) shows a projection image after the guide image control unit controls the position of the guide image. 本発明の第3実施形態に係るリハビリテーション支援装置の概要を示す斜視図であって、(a)は、リハビリテーション支援装置が移動することに伴うリハビリテーション支援装置の位置の変化を示し、(b)は、リハビリテーション支援装置が投射する誘導画像に応じて対象者が移動することに伴う当該対象者の位置の変化を示す。It is a perspective view which shows the outline|summary of the rehabilitation assistance apparatus which concerns on 3rd Embodiment of this invention, Comprising: (a) shows the change of the position of a rehabilitation assistance apparatus with a movement of a rehabilitation assistance apparatus, (b) shows , Shows a change in the position of the target person as the target person moves in accordance with the guidance image projected by the rehabilitation support device. 本発明の第3実施形態に係るリハビリテーション支援装置の機能構成例を示すブロック図である。It is a block diagram which shows the functional structural example of the rehabilitation assistance apparatus which concerns on 3rd Embodiment of this invention. 本発明の第4実施形態に係るリハビリテーション支援装置の機能構成例を示すブロック図である。It is a block diagram which shows the functional structural example of the rehabilitation assistance apparatus which concerns on 4th Embodiment of this invention. 第4実施形態の足用表示パラメータの一例を示す図である。It is a figure which shows an example of the display parameter for legs of 4th Embodiment. 本発明の第5実施形態に係るリハビリテーション支援装置の機能構成例を示すブロック図である。It is a block diagram which shows the functional structural example of the rehabilitation assistance apparatus which concerns on 5th Embodiment of this invention. 第5実施形態の対象者の部位空間位置情報の一例を示す平面図である。It is a top view showing an example of partial space position information on a subject of a 5th embodiment. 第5実施形態のエリア別結果画像の一例を示す第1の図である。It is a 1st figure which shows an example of the result image classified by area of 5th Embodiment. 第5実施形態のエリア別結果画像の一例を示す第2の図である。It is a 2nd figure which shows an example of the result image classified by area of 5th Embodiment. 第5実施形態の総合結果画像の一例を示す図である。It is a figure which shows an example of the comprehensive result image of 5th Embodiment.

[第1実施形態]
以下、図を参照して本発明の第1実施形態について説明する。
図1は、第1実施形態のリハビリテーション支援装置1の構成を示す斜視図である。リハビリテーション支援装置1は、リハビリテーションの対象者(図1では図示略。以下、対象者EPと記載する。)に対して、リハビリテーションの実施を支援する装置である。リハビリテーション支援装置1は、センサ部100、投射部200、制御装置300、駆動部400及び車輪500を備える。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a perspective view showing the configuration of a rehabilitation assistance device 1 according to the first embodiment. The rehabilitation support device 1 is a device that assists a rehabilitation target person (not shown in FIG. 1, hereinafter referred to as a target person EP) in performing rehabilitation. The rehabilitation support device 1 includes a sensor unit 100, a projection unit 200, a control device 300, a drive unit 400, and wheels 500.

センサ部100は、同センサ部100の検出範囲800内(図1の破線で囲った範囲)の対象者EPを検出する。
センサ部100は、例えば、画像センサ、赤外線センサ、レーザセンサ、サーモセンサなど、対象者EPにマーカを装着することなく対象者EPの動きが検出できるセンサである。本実施形態では、このようなセンサの例として、センサ部100に、距離センサと画像センサを組み込んだKinect(登録商標)を用いた場合を例に説明を行う。
センサ部100は、例えば、画像センサ(不図示)を備える。前記画像センサは、(1)自らの正面方向を撮像し、連続した複数枚の2次元画像(フレーム画像)を取得する動画カメラとしての機能と、(2)センサ部100から、前記2次元画像(フレーム画像)内の各位置に対応する実際の位置までの距離の情報(距離情報を表示した画像)を取得する距離センサ(デプスセンサ)としての機能と、を有している。前記距離センサが有する機能により、対象者EPを撮像した画像と、当該画像に撮像された対象者EPの3次元空間における座標情報である三次元座標情報とを取得する。センサ部100が検出する3次元空間とは、図1に示すXYZ直交座標系によって示される空間である。Y軸は、対象者EPが歩行する進行方向を示し、X軸は、対象者EPの進行方向に直交する方向を示す。また、Z軸は、リハビリテーション支援装置1が配置されるフロアFLからの高さ、すなわち鉛直方向を示す。
センサ部100は、検出した結果を示す空間位置情報を制御装置300に出力する。空間位置情報とは、センサ部100の検出対象における対象者EPの空間位置を示す情報である。
The sensor unit 100 detects the target person EP within the detection range 800 of the sensor unit 100 (the range surrounded by the broken line in FIG. 1).
The sensor unit 100 is, for example, a sensor such as an image sensor, an infrared sensor, a laser sensor, or a thermosensor that can detect the movement of the target person EP without attaching a marker to the target person EP. In the present embodiment, as an example of such a sensor, a case where Kinect (registered trademark) in which a distance sensor and an image sensor are incorporated is used in the sensor unit 100 will be described.
The sensor unit 100 includes, for example, an image sensor (not shown). The image sensor has (1) a function as a moving image camera that captures a plurality of continuous two-dimensional images (frame images) by imaging the front direction of itself, and (2) the two-dimensional image from the sensor unit 100. It has a function as a distance sensor (depth sensor) for acquiring information (image displaying distance information) on the distance to the actual position corresponding to each position in the (frame image). The function of the distance sensor acquires an image of the target person EP and three-dimensional coordinate information that is coordinate information of the target person EP captured in the image in the three-dimensional space. The three-dimensional space detected by the sensor unit 100 is a space represented by the XYZ orthogonal coordinate system shown in FIG. The Y-axis indicates the traveling direction of the subject EP, and the X-axis indicates the direction orthogonal to the traveling direction of the subject EP. Further, the Z axis indicates the height from the floor FL on which the rehabilitation support apparatus 1 is arranged, that is, the vertical direction.
The sensor unit 100 outputs spatial position information indicating the detection result to the control device 300. The spatial position information is information indicating the spatial position of the target person EP in the detection target of the sensor unit 100.

なお、センサ部100は、マーカを装着することなく対象者EPの動きが検出できるセンサに代えて、対象者EPにマーカを装着し、当該マーカの検出により対象者EPを検出するセンサであってもよい。 The sensor unit 100 is a sensor that mounts a marker on the target person EP and detects the target person EP by detecting the marker, instead of the sensor that can detect the movement of the target person EP without mounting the marker. Good.

投射部200は、対象者EPに対して行われるリハビリテーションに関する画像を投射する。投射部200は、例えば、プロジェクタ等の画像投射装置である。投射部200は、リハビリテーションを支援する画像を投射して、投射領域900に表示する。出力画像は、例えば、対象者EPの動作履歴を示す画像や対象者EPの動作目標位置を示す画像等である。例えば、歩行のリハビリテーションの場合、投射部200は、対象者EPの足の現在位置、対象者EPの足の位置の動作履歴、及び、対象者EPが足を動作させる目標位置のうち、少なくとも1つを表示してもよい。この一例では、投射部200は、投射領域900の大きさと一致する大きさの投射画像PPを当該投射領域900に投射する。投射画像PPとは、投射部200が投射する画像である。 The projection unit 200 projects an image related to rehabilitation performed on the subject EP. The projection unit 200 is, for example, an image projection device such as a projector. The projection unit 200 projects an image that supports rehabilitation and displays it in the projection area 900. The output image is, for example, an image showing the operation history of the target person EP, an image showing the target movement position of the target person EP, or the like. For example, in the case of walking rehabilitation, the projection unit 200 selects at least one of the current position of the foot of the subject EP, the operation history of the position of the foot of the subject EP, and the target position at which the subject EP moves the foot. You may display one. In this example, the projection unit 200 projects a projection image PP having a size that matches the size of the projection area 900 onto the projection area 900. The projection image PP is an image projected by the projection unit 200.

なお、投射画像PPの大きさは、投射領域900の大きさと一致する大きさに代えて、投射領域900より小さい大きさであってもよく、他の大きさであってもよい。例えば、投射画像PPが投射領域900より小さい画像である場合、投射部200は、投射領域900のうち、投射画像PPが投射される領域以外の領域に動作履歴に関する情報を表示してもよい。動作履歴に関する情報とは、例えば、対象者EPの歩行の履歴に基づいて算出された歩幅、歩隔及び歩行速度等である。 Note that the size of the projection image PP may be smaller than the projection region 900 or may be another size, instead of the size that matches the size of the projection region 900. For example, when the projection image PP is an image smaller than the projection region 900, the projection unit 200 may display the information regarding the operation history in a region other than the region where the projection image PP is projected in the projection region 900. The information on the motion history is, for example, a stride, a step, a walking speed, or the like calculated based on the walking history of the subject EP.

制御装置300は、情報処理装置を用いて構成される。すなわち、制御装置300は、バスで接続されたCPU(Central Processor Unit)、メモリ及び補助記憶装置を備える。制御装置300は、リハビリテーション支援プログラムを実行することによって動作する。 The control device 300 is configured using an information processing device. That is, the control device 300 includes a CPU (Central Processor Unit), a memory, and an auxiliary storage device connected by a bus. The control device 300 operates by executing a rehabilitation support program.

センサ部100、投射部200及び制御装置300は、脚部310によって支持される。脚部310は、上下方向に伸縮可能であり、センサ部100、投射部200の高さ位置を調整することができる。これにより、センサ部100による検出範囲の広さを調整することが可能である。また、投射部200が画像投射装置の場合、投射領域900の広さを調整することが可能である。 The sensor unit 100, the projection unit 200, and the control device 300 are supported by the legs 310. The leg portion 310 can be expanded and contracted in the vertical direction, and the height positions of the sensor portion 100 and the projection portion 200 can be adjusted. Accordingly, it is possible to adjust the width of the detection range of the sensor unit 100. Further, when the projection unit 200 is an image projection device, it is possible to adjust the size of the projection area 900.

また、脚部310は、車輪511、512、513、514を備えている。車輪511〜514は、駆動部400が駆動することによって回転し、リハビリテーション支援装置1をフロアFL上で移動させる。以降の説明において、車輪511〜514を区別しない場合には、総称して車輪500と記載する。駆動部400は、例えば、モータ駆動回路及びモータである。駆動部400は、制御装置300の制御に基づいて駆動し、車輪500を回転させる。これにより、リハビリテーション支援装置1は、フロアFL上を移動する。 The leg portion 310 also includes wheels 511, 512, 513, 514. The wheels 511 to 514 rotate when driven by the drive unit 400, and move the rehabilitation support apparatus 1 on the floor FL. In the following description, when the wheels 511 to 514 are not distinguished, they are collectively referred to as the wheel 500. The drive unit 400 is, for example, a motor drive circuit and a motor. The drive unit 400 is driven under the control of the control device 300 to rotate the wheels 500. Thereby, the rehabilitation support apparatus 1 moves on the floor FL.

なお、駆動部400は、車輪511〜514の全てを駆動する構成に代えて、車輪511〜514のうち、少なくとも1つを駆動する構成であってもよい。
また、リハビリテーション支援装置1は、既知の方法によって当該リハビリテーション支援装置1の周囲を監視し、衝突を防止するように移動する構成を有していてもよい。例えば、リハビリテーション支援装置1は、センサ部100又は他のセンサによって当該リハビリテーション支援装置1の周辺を監視し、当該リハビリテーション支援装置1が壁や障害物等に衝突することを防止するように移動する構成を有していてもよい。他のセンサとは、例えば、光学センサ、電磁波センサ及び音波センサ等である。
Note that the drive unit 400 may be configured to drive at least one of the wheels 511 to 514 instead of driving all of the wheels 511 to 514.
Further, the rehabilitation assistance device 1 may have a configuration that monitors the surroundings of the rehabilitation assistance device 1 by a known method and moves so as to prevent a collision. For example, the rehabilitation support apparatus 1 monitors the periphery of the rehabilitation support apparatus 1 by the sensor unit 100 or another sensor, and moves so as to prevent the rehabilitation support apparatus 1 from colliding with a wall, an obstacle, or the like. May have. The other sensor is, for example, an optical sensor, an electromagnetic wave sensor, a sound wave sensor, or the like.

<投射画像及び誘導画像について>
以下、図2を参照して、対象者EPに対して行われるリハビリテーションが歩行に関するリハビリテーションである場合の、対象者EPに提示されるべき誘導画像GP及び投射画像PPについて説明する。
図2は、第1実施形態の投射画像PP1の一例を示す図である。図2に示す通り、投射画像PP1には、複数の誘導画像GPが含まれる。誘導画像GPとは、対象者EPの動作を誘導する画像である。また、図2に示す通り、この一例では、投射画像PP1には、誘導画像GP1〜誘導画像GP5の5つの誘導画像GPが含まれる。
この一例では、誘導画像GPとは、対象者EPの足を進行方向(この一例では、Y軸の正の方向)に動作させることを誘導する画像である。具体的には、図2に示す通り、誘導画像GPとは、対象者EPの足の動作目標位置を示す足跡の画像である。投射画像PP1には、誘導画像GP1〜誘導画像GP5が所定の間隔で配置される。具体的には、投射画像PP1には、誘導画像GP1〜誘導画像GP5の間隔が所定の歩幅となるように配置される。所定の歩幅とは、歩行のリハビリテーションを行う対象者EPが歩行する際の一般的な歩幅である。
<About projection image and guidance image>
Hereinafter, with reference to FIG. 2, the guide image GP and the projection image PP to be presented to the target person EP when the rehabilitation performed on the target person EP is rehabilitation related to walking will be described.
FIG. 2 is a diagram showing an example of the projection image PP1 of the first embodiment. As shown in FIG. 2, the projection image PP1 includes a plurality of guide images GP. The guidance image GP is an image that guides the motion of the subject EP. Further, as shown in FIG. 2, in this example, the projection image PP1 includes five guidance images GP1 to GP5.
In this example, the guide image GP is an image that guides the subject EP to move his or her foot in the traveling direction (in this example, the positive direction of the Y axis). Specifically, as shown in FIG. 2, the guide image GP is an image of a footprint indicating the target motion position of the foot of the subject EP. The guidance image GP1 to the guidance image GP5 are arranged at a predetermined interval in the projection image PP1. Specifically, in the projection image PP1, the guide image GP1 to the guide image GP5 are arranged such that the interval between them is a predetermined stride. The predetermined stride is a general stride when the subject EP performing the walking rehabilitation walks.

以下、図3を参照して、対象者EPの移動方向と、リハビリテーション支援装置1との移動方向について説明する。図3は、第1実施形態のリハビリテーション支援装置1の移動方向の一例を示す図である。
この一例では、リハビリテーション支援装置1が、Y軸の正の方向に移動しつつ、進行方向とは逆の方向(この一例では、Y軸の負の方向)に投射画像PP1を投射する。対象者EPは、リハビリテーション支援装置1が投射する投射画像PP1の正面に正対し、誘導画像GP1に含まれる誘導画像GPを動作目標位置として当該対象者EPの足を移動する動作を行う。これにより、対象者EPは、リハビリテーション支援装置1を追従し、歩行訓練する。この一例では、リハビリテーション支援装置1が投射画像PPによって対象者EPの動作を誘導する方向(この一例では、Y軸の正の方向)と、当該対象者EPの移動方向とが一致する場合について説明する。
Hereinafter, the moving direction of the target person EP and the moving direction of the rehabilitation support apparatus 1 will be described with reference to FIG. FIG. 3 is a diagram illustrating an example of a moving direction of the rehabilitation support apparatus 1 according to the first embodiment.
In this example, the rehabilitation assistance apparatus 1 projects the projection image PP1 in the direction opposite to the traveling direction (in this example, the negative direction of the Y axis) while moving in the positive direction of the Y axis. The target person EP faces the front of the projection image PP1 projected by the rehabilitation support apparatus 1 and performs an operation of moving the foot of the target person EP with the guide image GP included in the guide image GP1 as the target operation position. As a result, the subject EP follows the rehabilitation support apparatus 1 to perform walking training. In this example, the case where the direction in which the rehabilitation support apparatus 1 guides the motion of the target person EP by the projection image PP (in this example, the positive direction of the Y axis) and the moving direction of the target person EP match will be described. To do.

なお、対象者EPがリハビリテーション支援装置1を追従し、歩行する構成に代えて、リハビリテーション支援装置1が対象者EPを追従し、対象者EPがリハビリテーション支援装置1の前方を歩行する構成であってもよい。この場合、リハビリテーション支援装置1は、当該リハビリテーション支援装置1が進行する方向の前方に投射画像PPを投射する。また、対象者EPがリハビリテーション支援装置1を追従し、歩行する構成に代えて、対象者EPと、リハビリテーション支援装置1とが、並走する構成であってもよい。この場合、リハビリテーション支援装置1は、当該リハビリテーション支援装置1が進行する方向と直交する方向を含む方向に投射画像PPを投射する。具体的には、対象者EPがリハビリテーション支援装置1の進行方向の右側を歩行する場合、リハビリテーション支援装置1は、投射画像PPを右方向、右前方向又は右後方向に投射する。また、対象者EPがリハビリテーション支援装置1の進行方向の左側を歩行する場合、リハビリテーション支援装置1は、投射画像PPを左方向、左前方向又は左後方向に投射する。 In addition, instead of the configuration in which the subject EP follows the rehabilitation assistance device 1 and walks, the rehabilitation assistance device 1 follows the subject EP, and the subject EP walks in front of the rehabilitation assistance device 1. Good. In this case, the rehabilitation support apparatus 1 projects the projection image PP in the forward direction in which the rehabilitation support apparatus 1 advances. Further, instead of the configuration in which the subject EP follows the rehabilitation assistance device 1 and walks, the subject EP and the rehabilitation assistance device 1 may run in parallel. In this case, the rehabilitation assistance apparatus 1 projects the projection image PP in a direction including a direction orthogonal to the direction in which the rehabilitation assistance apparatus 1 advances. Specifically, when the target person EP walks on the right side in the traveling direction of the rehabilitation support apparatus 1, the rehabilitation support apparatus 1 projects the projection image PP in the right direction, the right front direction, or the right rear direction. Moreover, when the subject EP walks on the left side in the traveling direction of the rehabilitation support apparatus 1, the rehabilitation support apparatus 1 projects the projection image PP in the left direction, the front left direction, or the rear left direction.

<リハビリテーション支援装置の構成>
図4は、第1実施形態のリハビリテーション支援装置1の機能構成例を示す図である。
図4に示す通り、制御装置300は、入力部31、制御部32、記憶部33、及び出力部34を備える。
入力部31とは、外部からの情報を入力するインタフェースである。例えば、入力部31は、センサ部100から空間位置情報を取得する。
出力部34とは、制御部32によって生成された画像を投射部200に対して出力するインタフェースである。また、出力部34とは、制御部32が示す駆動部400の駆動指示を当該駆動部400に出力するインタフェースである。
<Structure of rehabilitation support device>
FIG. 4 is a diagram illustrating a functional configuration example of the rehabilitation support apparatus 1 according to the first embodiment.
As shown in FIG. 4, the control device 300 includes an input unit 31, a control unit 32, a storage unit 33, and an output unit 34.
The input unit 31 is an interface for inputting information from the outside. For example, the input unit 31 acquires spatial position information from the sensor unit 100.
The output unit 34 is an interface that outputs the image generated by the control unit 32 to the projection unit 200. The output unit 34 is an interface that outputs a drive instruction of the drive unit 400 indicated by the control unit 32 to the drive unit 400.

記憶部33は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。記憶部33は、キャリブレーション情報記憶部331、プログラム情報記憶部332及び投射画像情報記憶部333として機能する。 The storage unit 33 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The storage unit 33 functions as a calibration information storage unit 331, a program information storage unit 332, and a projection image information storage unit 333.

<プログラム情報記憶部及び誘導画像情報記憶部について>
プログラム情報記憶部332は、リハビリテーション支援プログラムを記憶する。投射画像情報記憶部333は、投射画像PP及び誘導画像GPを記憶する。
<Regarding the program information storage unit and the guide image information storage unit>
The program information storage unit 332 stores a rehabilitation support program. The projection image information storage unit 333 stores the projection image PP and the guide image GP.

<キャリブレーション情報記憶部について>
キャリブレーション情報記憶部331は、キャリブレーション情報を記憶する。キャリブレーション情報とは、センサ部100の検出結果を示す座標の座標系と、投射部200が投射する画像面の座標系とを対応付ける情報である。制御装置300におけるキャリブレーションとは、センサ部100による検出範囲800と、投射部200による画像の投射領域900との位置関係を把握し、両者に共通の座標系を設定する処理である。この一例では、図1に示す通り、検出範囲800のある端点と、投射領域900のある端点とが、共通の座標系にキャリブレーション(対応付け)される。ここでは、検出範囲800のある端点と、投射領域900のある端点とが端点901としてキャリブレーション(対応付け)される。この一例では、図1に示す通り、検出範囲800と、投射領域900とが一致する場合について説明する。
<About the calibration information storage section>
The calibration information storage unit 331 stores the calibration information. The calibration information is information that associates the coordinate system of the coordinates indicating the detection result of the sensor unit 100 with the coordinate system of the image surface projected by the projection unit 200. The calibration in the control device 300 is a process of grasping the positional relationship between the detection range 800 of the sensor unit 100 and the image projection area 900 of the projection unit 200, and setting a coordinate system common to both. In this example, as shown in FIG. 1, an end point of the detection range 800 and an end point of the projection area 900 are calibrated (correlated) to a common coordinate system. Here, an end point of the detection range 800 and an end point of the projection area 900 are calibrated (correlated) as an end point 901. In this example, as shown in FIG. 1, a case where the detection range 800 and the projection area 900 match will be described.

なお、センサ部100が検出できる検出範囲は、図示する検出範囲800より広くてもよい。本実施形態における検出範囲800とは、投射領域900上で行われる対象者EPの動作において、当該対象者EPの空間位置情報を取得するのに必要な検出範囲のことである。なお、投射領域900上とは、投射領域900で規定される平面の領域だけではなく、その領域において、投射領域900を基準面とする所定高さまでの空間も含む。 The detection range that can be detected by the sensor unit 100 may be wider than the illustrated detection range 800. The detection range 800 in the present embodiment is a detection range necessary to acquire the spatial position information of the target person EP in the motion of the target person EP performed on the projection area 900. The term “on the projection area 900” includes not only a flat area defined by the projection area 900 but also a space up to a predetermined height with the projection area 900 as a reference plane in that area.

また、キャリブレーション情報は、例えば、リハビリテーションが開始される前にキャリブレーションを実施することによって取得してもよい。以下、制御装置300が事前にキャリブレーションを実施し、キャリブレーション情報を取得する構成について説明する。
投射部200は、キャリブレーション用のマーカ画像を、画像面(画像の投射領域900)の四隅など、複数箇所に投射する。投射部200の座標系における座標は、制御装置300が既知の座標である。
投射部200がマーカ画像を投射することに応じて、センサ部100は、各マーカ画像の位置を、センサ部100の座標系(センサ部100が検出位置を示すのに用いる座標系)における座標にて制御装置300へ出力する。これにより、制御装置300(制御部32)は、各マーカの位置を、センサ部100の座標系における座標、及び、投射部200の座標系における座標の両方で取得する。また、制御装置300(制御部32)は、四隅等に投射されたマーカ画像により、投射部200の座標系における投射領域900の範囲を示す座標を把握する。
制御装置300(制御部32)は、得られた座標に基づいて、センサ部100の座標系を補正するための情報をキャリブレーション情報として取得する。センサ部100が座標系調整機能を有している場合、制御装置300(制御部32)は、この機能を利用してセンサ部100の座標系を投射部200の座標系に合わせるためのキャリブレーション情報を生成する。
Further, the calibration information may be acquired, for example, by performing the calibration before the rehabilitation is started. Hereinafter, a configuration in which the control device 300 performs calibration in advance and acquires calibration information will be described.
The projection unit 200 projects the calibration marker image at a plurality of locations such as four corners of the image surface (image projection area 900). The coordinates in the coordinate system of the projection unit 200 are coordinates known to the control device 300.
In response to the projection unit 200 projecting the marker image, the sensor unit 100 sets the position of each marker image to the coordinates in the coordinate system of the sensor unit 100 (the coordinate system used by the sensor unit 100 to indicate the detection position). Output to the control device 300. Thereby, the control device 300 (control unit 32) acquires the position of each marker by both the coordinates in the coordinate system of the sensor unit 100 and the coordinates in the coordinate system of the projection unit 200. Further, the control device 300 (control unit 32) grasps the coordinates indicating the range of the projection area 900 in the coordinate system of the projection unit 200 from the marker images projected on the four corners and the like.
The control device 300 (control unit 32) acquires, as calibration information, information for correcting the coordinate system of the sensor unit 100 based on the obtained coordinates. When the sensor unit 100 has a coordinate system adjustment function, the control device 300 (control unit 32) uses this function to perform calibration for adjusting the coordinate system of the sensor unit 100 to the coordinate system of the projection unit 200. Generate information.

また、投射部200が座標系調整機能を有している場合、制御装置300(制御部32)が、この機能を利用して投射部200の座標系をセンサ部100の座標系に合わせるためのキャリブレーション情報を生成する構成であってもよい。 When the projection unit 200 has a coordinate system adjustment function, the control device 300 (control unit 32) uses this function to adjust the coordinate system of the projection unit 200 to the coordinate system of the sensor unit 100. It may be configured to generate the calibration information.

また、フロアFLの光が散乱することによってマーカ画像がぼやける場合など、センサ部100によるマーカ画像の検出が困難な場合は、マーカ画像を用いた位置検出の代わりに理学療法士等の操作者が手動で位置検出を行うようにしてもよい。この場合、投射部200が投射領域900の全体に画像を投射している状態で、センサ部100が画像センサで投射画像全体を含む領域を撮像する。制御装置300は、センサ部100による撮像画像を表示画面に表示する。リハビリテーション支援装置1の操作者は、モニタ画面に表示されている投射領域900の四隅の各々をタッチ操作にて指定する。モニタ画面に表示されている画像とは、センサ部100が撮像した画像である。このため、操作者が指定した位置は、センサ部100の座標系における座標によって取得することが可能な位置である。制御装置300(制御部32)は、センサ部100の座標系における座標と、投射部200の座標系における投射領域900の四隅の座標とに基づいて、キャリブレーション情報を取得する。 When it is difficult to detect the marker image by the sensor unit 100, such as when the marker image is blurred due to the scattering of the light on the floor FL, an operator such as a physical therapist replaces the position detection using the marker image. You may make it detect a position manually. In this case, in a state where the projection unit 200 projects an image on the entire projection area 900, the sensor unit 100 captures an area including the entire projection image by the image sensor. The control device 300 displays the image captured by the sensor unit 100 on the display screen. The operator of the rehabilitation assistance apparatus 1 specifies each of the four corners of the projection area 900 displayed on the monitor screen by touch operation. The image displayed on the monitor screen is an image captured by the sensor unit 100. Therefore, the position designated by the operator is a position that can be acquired by the coordinates in the coordinate system of the sensor unit 100. The control device 300 (control unit 32) acquires the calibration information based on the coordinates in the coordinate system of the sensor unit 100 and the coordinates of the four corners of the projection area 900 in the coordinate system of the projection unit 200.

ここで、センサ部100とフロアFLとの位置関係、及び投射部200とフロアFLとの位置関係がいずれも変わらない場合、リハビリテーション支援装置1は、初回使用時に得られたキャリブレーション情報を2回目以降の使用時にも使用することができる。これにより、リハビリテーション支援装置1は、2回目の使用時以降においてキャリブレーションを行う手間を省くことができる。 Here, when the positional relationship between the sensor unit 100 and the floor FL and the positional relationship between the projection unit 200 and the floor FL are not changed, the rehabilitation assistance apparatus 1 uses the calibration information obtained during the first use for the second time. It can also be used in subsequent uses. As a result, the rehabilitation support apparatus 1 can save the trouble of performing calibration after the second use.

なお、リハビリテーション支援装置1は、所定の時間毎にキャリブレーションを行い、検出範囲800と、投射領域900とに共通に設定される座標系を更新してもよい。例えば、リハビリテーション支援装置1が勾配のあるフロアFLを移動することによって、検出範囲800及び投射領域900の形状が変化する場合がある。この場合、リハビリテーション支援装置1は、所定の時間毎にキャリブレーションを行い、検出範囲800と、投射領域900とに設定される座標系を更新することによって、より精度高く対象者EPを検出することができる。
また、リハビリテーション支援装置1は、所定のタイミングにキャリブレーションを行い、検出範囲800と、投射領域900とに共通に設定される座標系を更新してもよい。所定のタイミングとは、例えば、リハビリテーションが開始される際や対象者EPが変更される際等である。
Note that the rehabilitation support apparatus 1 may perform calibration every predetermined time to update the coordinate system commonly set for the detection range 800 and the projection area 900. For example, the shape of the detection range 800 and the projection area 900 may change when the rehabilitation support apparatus 1 moves on the floor FL having a slope. In this case, the rehabilitation assistance apparatus 1 performs the calibration every predetermined time and updates the coordinate system set in the detection range 800 and the projection area 900 to detect the target person EP with higher accuracy. You can
In addition, the rehabilitation support apparatus 1 may perform calibration at a predetermined timing to update the coordinate system commonly set for the detection range 800 and the projection area 900. The predetermined timing is, for example, when rehabilitation is started or when the target person EP is changed.

<制御部について>
図4に戻り、制御部32は、CPUを用いて構成される。制御部32はリハビリテーション支援プログラムを実行することによって、移動制御部321として機能する。
<About the control unit>
Returning to FIG. 4, the control unit 32 is configured by using a CPU. The control unit 32 functions as the movement control unit 321 by executing the rehabilitation support program.

移動制御部321は、所定の速度によってリハビリテーション支援装置1が移動するように、駆動部400の駆動を制御する制御信号を当該駆動部400に出力する。所定の速度とは、対象者EPがリハビリテーションを行うことによって移動する際の基準の速度である。駆動部400は、移動制御部321から出力される制御信号に基づいて駆動し、車輪500を回転させる。これにより、リハビリテーション支援装置1は、所定の速度で移動する。 The movement control unit 321 outputs a control signal for controlling the driving of the drive unit 400 to the drive unit 400 so that the rehabilitation support apparatus 1 moves at a predetermined speed. The predetermined speed is a reference speed when the subject EP moves by performing rehabilitation. The drive unit 400 is driven based on the control signal output from the movement control unit 321 to rotate the wheels 500. Thereby, the rehabilitation assistance apparatus 1 moves at a predetermined speed.

<リハビリテーション支援装置の動作について>
以下、図5を参照し、リハビリテーション支援装置1が備える制御装置300の動作について説明する。
図5は、第1実施形態のリハビリテーション支援装置1の動作の一例を示す流れ図である。
移動制御部321は、リハビリテーション支援装置1の移動を制御する(ステップS110)。また、出力部34は、投射画像情報記憶部333に記憶される投射画像PPを投射部200に出力し、当該投射画像PPを投射部200に投射させる(ステップS120)。制御装置300は、リハビリテーションが終了するまでの間(ステップS130;NO)、ステップS110からステップS120までの処理を繰り返す。制御装置300は、リハビリテーションが終了する場合(ステップS130;YES)、処理を終了する。
<Operation of rehabilitation support device>
Hereinafter, the operation of the control device 300 included in the rehabilitation support apparatus 1 will be described with reference to FIG.
FIG. 5 is a flowchart showing an example of the operation of the rehabilitation support apparatus 1 according to the first embodiment.
The movement control unit 321 controls the movement of the rehabilitation support apparatus 1 (step S110). The output unit 34 also outputs the projection image PP stored in the projection image information storage unit 333 to the projection unit 200, and causes the projection unit 200 to project the projection image PP (step S120). The control device 300 repeats the processing from step S110 to step S120 until the rehabilitation is completed (step S130; NO). When the rehabilitation ends (step S130; YES), the control device 300 ends the process.

<第1実施形態のまとめ>
以上説明したように、本実施形態のリハビリテーション支援装置1は、投射画像PPに含まれる誘導画像GPによって対象者EPの動作を誘導しつつ、移動する。
これにより、本実施形態のリハビリテーション支援装置1は、当該リハビリテーション支援装置1が停止している場合と比較して、対象者EPに長い距離の歩行を促すことができる。本実施形態のリハビリテーション支援装置1は、対象者EPに歩行環境が変化することに伴い、リハビリテーションの対象者に歩行環境が変化し、日常生活に近い歩行練習を行うことができる。
<Summary of First Embodiment>
As described above, the rehabilitation support apparatus 1 of the present embodiment moves while guiding the motion of the target person EP by the guide image GP included in the projection image PP.
Thereby, the rehabilitation assistance apparatus 1 of this embodiment can urge the subject EP to walk a long distance as compared with the case where the rehabilitation assistance apparatus 1 is stopped. The rehabilitation support apparatus 1 of the present embodiment changes the walking environment for the rehabilitation target person as the walking environment changes for the target person EP, and can perform walking exercises similar to daily life.

[第2実施形態]
以下、図を参照して、本発明の第2実施形態について説明する。
図6は、第2実施形態のリハビリテーション支援装置2の概要を示す図である。
図6(a)は、リハビリテーション支援装置2の移動に伴う誘導画像GPの移動の一例を示す図である。図(b)は、リハビリテーション支援装置2の移動に伴う位置の変化を相殺する位置に誘導画像GPが示される一例を示す図である。
図6(a)に示す通り、リハビリテーション支援装置2が移動する場合、当該移動に伴って投射領域900も移動する。したがって、リハビリテーション支援装置2の移動に伴って、投射部200が投射する投射画像PP(この一例では、投射画像PP1)も移動する。ここで、リハビリテーション支援装置2が所定の時間において移動する場合、誘導画像GPが対象者EPの動作目標位置を適切に示すことが困難である場合がある。所定の時間とは、例えば、対象者EPが右足を着地させてから左足を着地させるまでの時間である。
図6に示す通り、この一例では、所定の時間において、リハビリテーション支援装置2が移動する距離が距離d1である。この場合、投射画像PPに含まれる誘導画像GPは、Y軸の正の方向に距離d1だけ移動する。上述したように、対象者EPは、誘導画像GPが距離d1移動することによって、動作目標位置が定まらず、適切な動作を行うことが困難である場合がある。したがって、図6(b)に示す通り、リハビリテーション支援装置2が移動する場合、リハビリテーション支援装置2は、当該リハビリテーション支援装置2の移動によって生じる位置の変化が相殺される位置に誘導画像GPを投射することが求められる。
以下、リハビリテーション支援装置2が当該リハビリテーション支援装置2の位置の変化が相殺される位置に誘導画像GPを投射する構成について説明する。
なお、以降の説明において、上述した第1実施形態と同様の構成を有する場合には、同一の符号を付して説明を省略する。
[Second Embodiment]
Hereinafter, a second embodiment of the present invention will be described with reference to the drawings.
FIG. 6 is a diagram showing an outline of the rehabilitation support apparatus 2 of the second embodiment.
FIG. 6A is a diagram showing an example of movement of the guidance image GP accompanying movement of the rehabilitation support apparatus 2. FIG. 2B is a diagram showing an example in which the guide image GP is shown at a position that cancels out the position change due to the movement of the rehabilitation support apparatus 2.
As shown in FIG. 6A, when the rehabilitation support apparatus 2 moves, the projection area 900 also moves with the movement. Therefore, the projection image PP (projection image PP1 in this example) projected by the projection unit 200 also moves as the rehabilitation support apparatus 2 moves. Here, when the rehabilitation support apparatus 2 moves in a predetermined time, it may be difficult for the guidance image GP to appropriately indicate the target movement position of the target person EP. The predetermined time is, for example, the time from the landing of the right foot of the subject EP to the landing of the left foot.
As shown in FIG. 6, in this example, the distance that the rehabilitation support apparatus 2 moves at a predetermined time is the distance d1. In this case, the guide image GP included in the projection image PP moves in the positive direction of the Y axis by the distance d1. As described above, the target person EP may have difficulty in performing an appropriate motion because the motion target position is not fixed due to the movement of the guidance image GP by the distance d1. Therefore, as shown in FIG. 6B, when the rehabilitation support apparatus 2 moves, the rehabilitation support apparatus 2 projects the guide image GP at a position where the change in the position caused by the movement of the rehabilitation support apparatus 2 is offset. Is required.
Hereinafter, a configuration in which the rehabilitation support apparatus 2 projects the guide image GP at a position where the change in the position of the rehabilitation support apparatus 2 is offset will be described.
In the following description, when the same configuration as that of the above-described first embodiment is provided, the same reference numerals are given and the description is omitted.

<リハビリテーション支援装置の構成>
図7は、第2実施形態のリハビリテーション支援装置2の機能構成例を示す図である。
リハビリテーション支援装置2は、センサ部100、投射部200、制御装置301、駆動部400及び車輪500を備える。
図7に示す通り、制御装置301は、入力部31、記憶部33、出力部34及び制御部35を備える。
制御部35は、CPUを用いて構成される。制御部35はリハビリテーション支援プログラムを実行することによって、移動制御部321及び誘導画像制御部351として機能する。
<Structure of rehabilitation support device>
FIG. 7 is a diagram showing a functional configuration example of the rehabilitation support apparatus 2 of the second embodiment.
The rehabilitation support device 2 includes a sensor unit 100, a projection unit 200, a control device 301, a drive unit 400, and wheels 500.
As shown in FIG. 7, the control device 301 includes an input unit 31, a storage unit 33, an output unit 34, and a control unit 35.
The control unit 35 is configured by using a CPU. The control unit 35 functions as the movement control unit 321 and the guide image control unit 351 by executing the rehabilitation support program.

<誘導画像制御部について>
ここで、リハビリテーション支援装置2の移動に伴う位置の変化に応じた投射画像PPの位置の変化について説明する。
図8は、リハビリテーション支援装置2の移動に伴う位置の変化に応じた投射画像PPの位置の変化の一例を示す図である。
上述したように、リハビリテーション支援装置2が移動し、当該リハビリテーション支援装置2の位置が変化することに伴って、当該リハビリテーション支援装置2が備える投射部200がフロアFLに投射する投射画像PPの位置が変化する。この一例では、リハビリテーション支援装置2の位置の変化と、フロアFL上の投射画像PPの位置の変化とは、当該変化の方向及び距離が一致する。
図8に示す通り、この一例では、リハビリテーション支援装置2が所定の時間において現在の位置からY軸の正の方向の位置に距離d1だけ移動する。したがって、投射部200がフロアFLに投射する投射画像PP1及び投射画像PP1に含まれる誘導画像GP1〜誘導画像GP5の位置は、投射画像PP1が投射されるフロアFL上の現在の位置からY軸の正の方向の位置に距離d1だけ移動する。
誘導画像制御部351は、リハビリテーション支援装置2が移動し、当該リハビリテーション支援装置2の位置が変化することに応じた位置の変化が相殺される位置に投射部200が誘導画像GPを投射するように誘導画像GPの位置を制御する。
以下、誘導画像制御部351の具体的な例について説明する。
<Guide image control unit>
Here, the change of the position of the projection image PP according to the change of the position accompanying the movement of the rehabilitation support apparatus 2 will be described.
FIG. 8 is a diagram showing an example of changes in the position of the projection image PP according to changes in the position accompanying the movement of the rehabilitation support apparatus 2.
As described above, the position of the projection image PP projected onto the floor FL by the projection unit 200 included in the rehabilitation support apparatus 2 is changed as the position of the rehabilitation support apparatus 2 changes as the rehabilitation support apparatus 2 moves. Change. In this example, the change in the position of the rehabilitation support apparatus 2 and the change in the position of the projection image PP on the floor FL have the same direction and the same distance.
As shown in FIG. 8, in this example, the rehabilitation assistance apparatus 2 moves from the current position to the position in the positive direction of the Y axis by a distance d1 at a predetermined time. Therefore, the positions of the projection image PP1 projected by the projection unit 200 on the floor FL and the guidance images GP1 to GP5 included in the projection image PP1 are on the Y axis from the current position on the floor FL onto which the projection image PP1 is projected. Move to a position in the positive direction by a distance d1.
The guidance image control unit 351 causes the projection unit 200 to project the guidance image GP at a position where the position change corresponding to the movement of the rehabilitation support device 2 and the position change of the rehabilitation support device 2 is offset. The position of the guidance image GP is controlled.
Hereinafter, a specific example of the guide image control unit 351 will be described.

<誘導画像制御部:投射画像に含まれる誘導画像の位置を制御する場合>
以下、図9を参照して誘導画像制御部351が投射画像PP内の誘導画像GPの位置を制御する構成について説明する。
図9は、第2実施形態の誘導画像制御部351の誘導画像GPの制御の一例を示す第1の図である。具体的には、図9(a)は、誘導画像制御部351が誘導画像GPの位置を制御する前の投射画像PP1を示す図である。また、図9(b)は、誘導画像制御部351が誘導画像GPの位置を制御した後の投射画像PPである投射画像PP12を示す図である。
この一例では、誘導画像制御部351は、投射画像PP内の誘導画像GPの位置をリハビリテーション支援装置2が移動することに伴う当該リハビリテーション支援装置2の位置の変化(この一例では、距離d1)が相殺される位置に投射画像PP内の誘導画像GPの位置を制御する。具体的には、投射画像PP12内の誘導画像GPの位置は、投射画像PP1内の誘導画像GPの位置よりも距離d1だけY軸の負の方向の位置に配置される。
<Guide image control unit: When controlling the position of the guide image included in the projection image>
Hereinafter, a configuration in which the guide image control unit 351 controls the position of the guide image GP in the projection image PP will be described with reference to FIG. 9.
FIG. 9 is a first diagram showing an example of control of the guide image GP by the guide image control unit 351 of the second embodiment. Specifically, FIG. 9A is a diagram showing the projection image PP1 before the guide image control unit 351 controls the position of the guide image GP. Further, FIG. 9B is a diagram showing a projection image PP12 which is the projection image PP after the guidance image control unit 351 controls the position of the guidance image GP.
In this example, the guide image control unit 351 determines that the change in the position of the rehabilitation support apparatus 2 (distance d1 in this example) due to the movement of the rehabilitation support apparatus 2 to the position of the guide image GP in the projection image PP. The position of the guidance image GP in the projection image PP is controlled to the offset position. Specifically, the position of the guide image GP in the projection image PP12 is arranged at a position in the negative direction of the Y axis by a distance d1 from the position of the guide image GP in the projection image PP1.

具体的には、誘導画像制御部351は、投射画像PP1に含まれる誘導画像GP1〜誘導画像GP5の位置をリハビリテーション支援装置2の位置の変化の方向とは逆の方向(この一例では、Y軸の負の方向)に当該変化に応じた距離だけ移動する制御を行う。
誘導画像制御部351は、投射画像PPを構成する画素の画素数と、キャリブレーション情報記憶部331と、投射領域900の大きさを示す情報とに基づいて、投射領域900の単位長さに対応する誘導画像GPの画素数を算出する。また、誘導画像制御部351は、既知の方法によって、リハビリテーション支援装置2が所定の時間に移動した距離(図8の例では、距離d1)を算出する。以降の説明において、リハビリテーション支援装置2が所定の時間に移動した距離を、所定時間移動距離と記載する。誘導画像制御部351は、例えば、センサ部100から取得した基準となる物体の空間位置の座標と、所定の時間経過した後の当該物体の空間位置の座標との変位に基づいて、リハビリテーション支援装置2が移動した距離を算出する。
誘導画像制御部351は、算出した画素数及びリハビリテーション支援装置2の所定時間移動距離に基づいて、リハビリテーション支援装置2が移動する方向とは逆の方向(この一例では、Y軸の負の方向)であって、所定時間移動距離に応じた画素数だけ、投射画像PP(この一例では投射画像PP1)内における誘導画像GP(この一例では、誘導画像GP1〜誘導画像GP5)の位置を移動させる制御を行う。
Specifically, the guide image control unit 351 sets the positions of the guide images GP1 to GP5 included in the projection image PP1 in a direction opposite to the direction of the change in the position of the rehabilitation support apparatus 2 (in this example, the Y-axis). In the negative direction of), control is performed to move a distance corresponding to the change.
The guide image control unit 351 corresponds to the unit length of the projection region 900 based on the number of pixels forming the projection image PP, the calibration information storage unit 331, and information indicating the size of the projection region 900. The number of pixels of the guide image GP to be calculated is calculated. Further, the guide image control unit 351 calculates a distance (distance d1 in the example of FIG. 8) that the rehabilitation support apparatus 2 has moved in a predetermined time by a known method. In the following description, the distance that the rehabilitation support apparatus 2 has moved in a predetermined time is referred to as a predetermined time moving distance. The guidance image control unit 351 may, for example, based on the displacement between the coordinates of the spatial position of the reference object acquired from the sensor unit 100 and the coordinates of the spatial position of the object after a predetermined time has elapsed, the rehabilitation assistance device. Calculate the distance traveled by 2.
The guide image control unit 351 is based on the calculated number of pixels and the moving distance of the rehabilitation support apparatus 2 for a predetermined time, the direction opposite to the direction in which the rehabilitation support apparatus 2 moves (in this example, the negative direction of the Y axis). That is, the control for moving the position of the guide image GP (in this example, the guide image GP1 to the guide image GP5) in the projection image PP (in this example, the projection image PP1) by the number of pixels corresponding to the movement distance for a predetermined time. I do.

なお、上述では、誘導画像制御部351が投射画像PPを構成する画素の画素数と、キャリブレーション情報記憶部331と、投射領域900の大きさを示す情報とに基づいて、投射領域900の単位長さに対応する誘導画像GPの画素数を算出する場合について説明したが、誘導画像GPの位置の制御方法は、これに限られない。リハビリテーション支援装置2は、当該画素数と、リハビリテーション支援装置2の移動距離とを対応付けて予め記憶する構成であってもよい。この場合、誘導画像制御部351は、予め記憶される当該画素数と、リハビリテーション支援装置2が所定の時間に移動した距離とに基づいて、当該移動とは逆の方向であって、当該距離に応じた画素数だけ、投射画像PP内における誘導画像GPの位置を移動させる制御を行う。 In the above description, the unit of the projection area 900 is based on the number of pixels of the pixels forming the projection image PP by the guide image control section 351, the calibration information storage section 331, and the information indicating the size of the projection area 900. The case where the number of pixels of the guide image GP corresponding to the length is calculated has been described, but the method of controlling the position of the guide image GP is not limited to this. The rehabilitation support apparatus 2 may be configured to store the number of pixels and the moving distance of the rehabilitation support apparatus 2 in association with each other in advance. In this case, the guide image control unit 351 is based on the number of pixels stored in advance and the distance that the rehabilitation support apparatus 2 has moved at a predetermined time, in the opposite direction to the movement, and at the distance. Control is performed to move the position of the guide image GP in the projection image PP by the corresponding number of pixels.

図9(b)に示す通り、誘導画像制御部351が誘導画像GP1〜誘導画像GP5の位置を制御する。これにより、投射画像PP12内の誘導画像GP1〜誘導画像GP5の位置は、投射画像PP1の位置からリハビリテーション支援装置2の位置の変化に応じた位置に変化する。
誘導画像制御部351は、投射画像PP(この一例では、投射画像PP1)内の誘導画像GP(この一例では、誘導画像GP1〜誘導画像GP5)の位置を移動させる制御を行った投射画像PP(この一例では、投射画像PP12)を投射部200に供給する。
投射部200は、誘導画像制御部351が誘導画像GP(この一例では、誘導画像GP1〜誘導画像GP5)の位置を制御した投射画像PP(この一例では、投射画像PP12)をフロアFLに投射する。
As shown in FIG. 9B, the guide image control unit 351 controls the positions of the guide images GP1 to GP5. As a result, the positions of the guidance images GP1 to GP5 in the projection image PP12 change from the positions of the projection image PP1 to the positions corresponding to the changes in the position of the rehabilitation assistance device 2.
The guidance image control unit 351 performs control to move the positions of the guidance images GP (in this example, the guidance images GP1 to GP5) in the projection image PP (in this example, the projection image PP1), and the projection image PP( In this example, the projection image PP12) is supplied to the projection unit 200.
The projection unit 200 projects a projection image PP (in this example, the projection image PP12) in which the position of the guidance image GP (in this example, the guidance image GP1 to the guidance image GP5) is controlled by the guidance image control unit 351 onto the floor FL. ..

<誘導画像制御部:投射部の投射方向を制御する場合>
以下、図を参照して誘導画像制御部351が投射画像PPを投射する投射方向を制御することによって、誘導画像GPの位置を制御する場合について説明する。
図10は、第2実施形態の誘導画像制御部351の誘導画像GPの制御の一例を示す第2の図である。具体的には、図10(a)は、誘導画像制御部351が誘導画像GPの位置を制御する前の投射画像PP1を示す図である。また、図10(b)は、誘導画像制御部351が誘導画像GPの位置を制御した後の投射画像PP1を示す図である。
この一例では、誘導画像制御部351は、投射部200が投射画像PPを投射する投射方向を制御する。具体的には、誘導画像制御部351は、当該投射方向を制御し、投射画像PPに含まれる誘導画像GPが投射される位置を、リハビリテーション支援装置2が移動することに伴うリハビリテーション支援装置2の位置の変化が相殺される位置に制御する。
<Guide image control unit: When controlling the projection direction of the projection unit>
Hereinafter, a case will be described with reference to the drawings in which the guide image control unit 351 controls the position of the guide image GP by controlling the projection direction in which the projection image PP is projected.
FIG. 10 is a second diagram showing an example of control of the guide image GP by the guide image control unit 351 of the second embodiment. Specifically, FIG. 10A is a diagram showing the projection image PP1 before the guide image control unit 351 controls the position of the guide image GP. 10B is a diagram showing the projection image PP1 after the guide image control unit 351 controls the position of the guide image GP.
In this example, the guide image control unit 351 controls the projection direction in which the projection unit 200 projects the projection image PP. Specifically, the guidance image control unit 351 controls the projection direction, and the rehabilitation assistance device 2 moves as the rehabilitation assistance device 2 moves to a position where the guidance image GP included in the projection image PP is projected. The position is controlled so that the change in position is offset.

この一例では、投射部200は、当該投射部200が画像を投射する方向を変化させることが可能なモータM(不図示)を備えており、誘導画像制御部351は、当該モータMを制御し、投射部200が画像を投射する投射方向を制御する。また、誘導画像制御部351は、当該投射方向を制御することによって、投射領域900が投射する投射光と、投射面であるフロアFLとのなす角度を変化させる。以降の説明において、投射領域900が投射する投射光と、投写面であるフロアFLとのなす角を、投射角度PAと記載する。 In this example, the projection unit 200 includes a motor M (not shown) that can change the direction in which the projection unit 200 projects an image, and the guide image control unit 351 controls the motor M. The projection unit 200 controls the projection direction in which the image is projected. Further, the guide image control unit 351 changes the angle formed by the projection light projected by the projection area 900 and the floor FL that is the projection surface by controlling the projection direction. In the following description, the angle formed by the projection light projected by the projection area 900 and the floor FL which is the projection surface will be referred to as the projection angle PA.

誘導画像制御部351は、投射角度PAに対応する距離であって、投射部200が投射する投射画像PPの位置からリハビリテーション支援装置2の位置までの距離を投射領域900が駆動可能な投射角度PA毎に算出する。以降の説明において、投射角度PAに対応する距離であって、投射画像PPの位置からリハビリテーション支援装置2の位置までの距離を基準距離と記載する。具体的には、誘導画像制御部351は、投射部200がある投射角度PAに制御される際の、リハビリテーション支援装置2と、投射画像PPとの距離を、当該ある投射角度PAに対応する基準距離として算出する。誘導画像制御部351は、投射領域900が駆動可能な投射角度PA毎に、当該投射角度PAに対応する基準距離を算出する。 The guidance image control unit 351 is a distance corresponding to the projection angle PA, and the projection angle PA at which the projection area 900 can drive the distance from the position of the projection image PP projected by the projection unit 200 to the position of the rehabilitation support apparatus 2. Calculate for each. In the following description, the distance corresponding to the projection angle PA and the distance from the position of the projection image PP to the position of the rehabilitation assistance device 2 will be referred to as a reference distance. Specifically, the guide image control unit 351 sets the distance between the rehabilitation support device 2 and the projection image PP when the projection unit 200 is controlled to a certain projection angle PA as a reference corresponding to the certain projection angle PA. Calculate as distance. The guidance image control unit 351 calculates a reference distance corresponding to the projection angle PA for each projection angle PA that can drive the projection region 900.

また、誘導画像制御部351は、上述した既知の方法によって、リハビリテーション支援装置2の所定時間移動距離(図8の例では、距離d1)を算出する。
誘導画像制御部351は、投射角度PAに対応する基準距離と、リハビリテーション支援装置2の所定時間移動距離とに基づいて、リハビリテーション支援装置2の移動する方向とは逆の方向(この一例では、Y軸の負の方向)であって、投射角度PAが所定時間移動距離と一致する基準距離に対応する投射角度PAとなるようにモータMを制御する。投射部200は、誘導画像制御部351によって制御された投射方向によって投射画像PPを投射する。
誘導画像制御部351は、投射部200が投射画像PP(この一例では、投射画像PP1)を投射する投射方向をリハビリテーション支援装置2の位置の変化に応じた方向(この一例では、Y軸の負の方向)に変化させる制御を行い、誘導画像GP(この一例では、誘導画像GP1〜誘導画像GP5)の位置を制御する。
Further, the guide image control unit 351 calculates the moving distance of the rehabilitation support apparatus 2 for a predetermined time (distance d1 in the example of FIG. 8) by the known method described above.
Based on the reference distance corresponding to the projection angle PA and the moving distance of the rehabilitation support apparatus 2 for a predetermined time, the guide image control unit 351 moves in the opposite direction to the moving direction of the rehabilitation support apparatus 2 (Y in this example). In the negative direction of the axis), the motor M is controlled so that the projection angle PA becomes the projection angle PA corresponding to the reference distance that matches the moving distance for a predetermined time. The projection unit 200 projects the projection image PP in the projection direction controlled by the guidance image control unit 351.
The guide image control unit 351 sets the projection direction in which the projection unit 200 projects the projection image PP (projection image PP1 in this example) in the direction corresponding to the change in the position of the rehabilitation assistance device 2 (in this example, the negative Y-axis direction). The position of the guide image GP (in this example, the guide image GP1 to the guide image GP5) is controlled.

なお、誘導画像制御部351が投射角度PAに対応する基準距離を投射角度PA毎に算出する構成に代えて、投射角度PAに対応する基準距離を投射角度PA毎に示す情報が予め記憶部33に記憶される構成であってもよい。この場合、誘導画像制御部351は、当該投射角度PA毎の基準距離と、リハビリテーション支援装置2の所定時間移動距離とに基づいて、当該移動とは逆の方向であって、投射角度PAが所定時間移動距離と基準距離とが一致する基準距離に対応する投射角度PAとなるように投射方向を制御する。 Instead of the guide image control unit 351 calculating the reference distance corresponding to the projection angle PA for each projection angle PA, information indicating the reference distance corresponding to the projection angle PA for each projection angle PA is stored in advance in the storage unit 33. May be stored in. In this case, the guide image control unit 351 is in the opposite direction to the movement based on the reference distance for each projection angle PA and the movement distance of the rehabilitation support apparatus 2 for the predetermined time, and the projection angle PA is the predetermined distance. The projection direction is controlled so that the projection angle PA corresponds to the reference distance where the time movement distance and the reference distance match.

図10(b)に示す通り、誘導画像制御部351が、投射角度PAをリハビリテーション支援装置2が移動する前の位置に応じた投射角度PA1から、リハビリテーション支援装置2の位置の変化に応じた投射角度PA2に変化させる。これに伴い、誘導画像GPは、リハビリテーション支援装置2の位置の変化を相殺する位置に示される。 As shown in FIG. 10B, the guide image control unit 351 projects the projection angle PA from the projection angle PA1 according to the position before the rehabilitation support apparatus 2 moves to the projection angle PA according to the change in the position of the rehabilitation support apparatus 2. The angle is changed to PA2. Along with this, the guide image GP is shown at a position that offsets the change in the position of the rehabilitation support apparatus 2.

なお、誘導画像制御部351は、投射角度PAを変化させることによって、誘導画像GPの位置を制御する場合について説明したが、これに限られない。誘導画像制御部351は、投射部200が投射する投射光と、フロアFLに直交する軸とのなす角度を変化させることによって、誘導画像GPの位置を制御してもよい。ここで、投射角度PAとは、投射部200の投射方向の一例である。 Although the guide image control unit 351 has described the case of controlling the position of the guide image GP by changing the projection angle PA, the present invention is not limited to this. The guidance image control unit 351 may control the position of the guidance image GP by changing the angle formed by the projection light projected by the projection unit 200 and the axis orthogonal to the floor FL. Here, the projection angle PA is an example of the projection direction of the projection unit 200.

また、誘導画像制御部351が投射角度PAを変化させることによって、誘導画像GPの位置を制御する構成に代えて、投射部200を移動させることによって、誘導画像GPの位置を制御する構成であってもよい。この場合、リハビリテーション支援装置2は、投射部200を支持する稼働可能なアームを備えていてもよい。誘導画像制御部351は、リハビリテーション支援装置2の移動に伴う位置の変化を相殺する位置に投射部200が位置するようにアームを稼働する制御を行ってもよい。なお、投射部200の位置を制御することができれば、稼働可能なアームに代えて、他の構成であってもよい。 Further, instead of the configuration in which the guidance image control unit 351 changes the projection angle PA to control the position of the guidance image GP, the projection unit 200 is moved to control the position of the guidance image GP. May be. In this case, the rehabilitation support device 2 may include an operable arm that supports the projection unit 200. The guide image control unit 351 may perform control to operate the arm so that the projection unit 200 is located at a position that cancels the change in position due to the movement of the rehabilitation support apparatus 2. If the position of the projection unit 200 can be controlled, another structure may be used instead of the operable arm.

また、上述では、誘導画像制御部351は、投射画像PPに含まれる誘導画像GPの位置を制御する方法と、投射部200の投射方向を制御する方法とのうち、一方によって誘導画像GPの位置を制御する場合について説明したが、これに限られない。誘導画像制御部351は、投射画像PPに含まれる誘導画像GPの位置を制御する方法と、投射部200の投射方向を制御する方法とのうち、少なくとも1つの方法によって誘導画像GPの位置を制御してもよい。この場合、誘導画像制御部351は、リハビリテーション支援装置2の移動に伴う位置の変化のうち、所定の割合の変化分だけ投射画像PPに含まれる誘導画像GPの位置を制御する方法によって誘導画像GPの位置を制御し、当該所定の割合を除く変化分だけ投射部200の投射方向を制御する方法によって誘導画像GPの位置を制御してもよい。 In addition, in the above description, the guide image control unit 351 controls the position of the guide image GP by one of the method of controlling the position of the guide image GP included in the projection image PP and the method of controlling the projection direction of the projection unit 200. Although the case of controlling is described, the present invention is not limited to this. The guidance image control unit 351 controls the position of the guidance image GP by at least one of a method of controlling the position of the guidance image GP included in the projection image PP and a method of controlling the projection direction of the projection unit 200. You may. In this case, the guide image control unit 351 controls the position of the guide image GP included in the projection image PP by a predetermined proportion of the change in the position accompanying the movement of the rehabilitation support apparatus 2 by a method. The position of the guide image GP may be controlled by a method of controlling the position of the guide image GP and controlling the projection direction of the projection unit 200 by a change amount other than the predetermined ratio.

上述したように、投射部200は、誘導画像制御部351によって制御される誘導画像GPが投射される位置であって、リハビリテーション支援装置2の移動に伴う位置の変化が相殺される位置に誘導画像GPを投射する。なお、上述した構成によって誘導画像制御部351が誘導画像GPの位置を制御する場合、誘導画像GPを制御する時間間隔の間に対象者EPが検出範囲800外に移動しない位置に対象者EPが位置するようにリハビリテーション支援装置2の移動が制御されることが好ましい。 As described above, the projection unit 200 is a position where the guidance image GP controlled by the guidance image control unit 351 is projected, and a position where the change in the position due to the movement of the rehabilitation support apparatus 2 is offset is a guidance image. Project GP. Note that when the guide image control unit 351 controls the position of the guide image GP with the above-described configuration, the target person EP moves to a position where the target person EP does not move outside the detection range 800 during the time interval for controlling the guide image GP. The movement of the rehabilitation assistance device 2 is preferably controlled so that the rehabilitation assistance device 2 is positioned.

<第2実施形態のまとめ>
以上説明したように、本実施形態のリハビリテーション支援装置2は、誘導画像制御部351を備える。誘導画像制御部351は、リハビリテーション支援装置2が移動することに伴う当該リハビリテーション支援装置2の位置の変化が相殺される位置に誘導画像GPの位置を制御する。
具体的には、誘導画像制御部351は、投射画像PP内の誘導画像GPの位置をリハビリテーション支援装置2が移動することに伴う位置の変化が相殺される位置に制御する。また、誘導画像制御部351は、投射部200が投射画像PPを投射する投射方向を制御し、誘導画像GPの位置をリハビリテーション支援装置2が移動することに伴う位置の変化が相殺される位置に制御する。
これにより、本実施形態のリハビリテーション支援装置2は、当該リハビリテーション支援装置2が移動する場合であっても、適切な位置に誘導画像GPを対象者EPの動作目標位置として適切に示すことができる。
<Summary of Second Embodiment>
As described above, the rehabilitation support device 2 of this embodiment includes the guide image control unit 351. The guide image control unit 351 controls the position of the guide image GP to a position where the change in the position of the rehabilitation support apparatus 2 due to the movement of the rehabilitation support apparatus 2 is offset.
Specifically, the guide image control unit 351 controls the position of the guide image GP in the projection image PP to a position where the change in the position due to the movement of the rehabilitation support apparatus 2 is offset. In addition, the guide image control unit 351 controls the projection direction in which the projection unit 200 projects the projection image PP, and the position of the guide image GP is set to a position where a change in the position due to the movement of the rehabilitation assistance apparatus 2 is offset. Control.
As a result, the rehabilitation support apparatus 2 of the present embodiment can properly show the guide image GP as an operation target position of the target person EP even at a position where the rehabilitation support apparatus 2 moves.

[第3実施形態]
以下、図を参照して、本発明の第3実施形態について説明する。
図11は、第3実施形態のリハビリテーション支援装置3の概要を示す図である。具体的には、図11(a)は、リハビリテーション支援装置3が移動することに伴うリハビリテーション支援装置3の位置の変化を示す図である。また、図11(b)は、リハビリテーション支援装置3が投射する誘導画像GPに応じて対象者EPが移動することに伴う当該対象者EPの位置の変化を示す図である。
[Third Embodiment]
Hereinafter, a third embodiment of the present invention will be described with reference to the drawings.
FIG. 11 is a diagram showing an outline of the rehabilitation support apparatus 3 of the third embodiment. Specifically, FIG. 11A is a diagram showing changes in the position of the rehabilitation support apparatus 3 as the rehabilitation support apparatus 3 moves. Further, FIG. 11B is a diagram showing a change in the position of the target person EP as the target person EP moves in accordance with the guide image GP projected by the rehabilitation support apparatus 3.

上述したように、投射画像PPが複数の誘導画像GPが所定の歩幅によって配置される画像である場合、対象者EPは、当該所定の歩幅によって移動することが求められる。ここで、対象者EPの足の機能回復の程度によっては、当該所定の歩幅によって歩行することが困難である場合がある。この場合、対象者EPには、当該対象者EPの歩行に適した位置に誘導画像GPを示すことが好ましい。
図11に示す通り、本実施形態のリハビリテーション支援装置3は、投射画像PPである投射画像PP2を投射する。投射画像PP2には、対象者EPの着地した一方の足の位置に基づいて、当該一方の足とは異なる足の動作を誘導する誘導画像GP22が1つ示される。
As described above, when the projection image PP is an image in which the plurality of guide images GP are arranged with a predetermined stride, the subject EP is required to move with the predetermined stride. Here, depending on the degree of the functional recovery of the foot of the subject EP, it may be difficult to walk with the predetermined stride. In this case, it is preferable to show the guidance image GP to the subject EP at a position suitable for walking of the subject EP.
As shown in FIG. 11, the rehabilitation support device 3 of this embodiment projects a projection image PP2 that is the projection image PP. In the projection image PP2, one guide image GP22 that guides the motion of the foot different from the one foot on the basis of the position of the one foot of the subject EP landed is shown.

また、上述した実施形態と同様、所定の時間においてリハビリテーション支援装置3が移動しつつ、かつ対象者EPが移動する場合、誘導画像GPが対象者EPの動作目標位置を適切に示すことが困難である場合がある。所定の時間とは、例えば、対象者EPが右足を着地させてから左足を着地させるまでの時間である。図11に示す通り、この一例では、当該所定の時間において、リハビリテーション支援装置3が移動する距離が距離d1である。この場合、投射画像PPに含まれる誘導画像GPは、Y軸の正の方向に距離d1だけ移動する。また、この一例では、当該所定の時間において、対象者EPが移動する距離が距離d2である。この場合、投射画像PPに含まれる誘導画像GPは、リハビリテーション支援装置3の移動を相殺する位置であって、対象者EPの現在の位置に応じた位置に示されることが好ましい。ここで、対象者EPの現在の位置に応じた位置とは、当該所定の時間が経過する前に着地していた足の位置に応じた位置であって、当該着地していた足の位置から所定の歩幅(この一例では、距離d2)だけ離れた位置である。
本実施形態のリハビリテーション支援装置3は、対象者EPの位置に基づく位置であって、リハビリテーション支援装置3の移動に伴う位置の変化を相殺する位置に当該誘導画像GPの位置を制御する。
なお、以降の説明において、上述した第1実施形態及び第2実施形態と同様の構成を有する場合には、同一の符号を付して説明を省略する。
Further, similarly to the above-described embodiment, when the rehabilitation support apparatus 3 moves at a predetermined time and the target person EP moves, it is difficult for the guidance image GP to properly indicate the target operation position of the target person EP. There may be. The predetermined time is, for example, the time from the landing of the right foot of the subject EP to the landing of the left foot. As shown in FIG. 11, in this example, the distance that the rehabilitation support apparatus 3 moves at the predetermined time is the distance d1. In this case, the guide image GP included in the projection image PP moves in the positive direction of the Y axis by the distance d1. Further, in this example, the distance that the target person EP moves at the predetermined time is the distance d2. In this case, it is preferable that the guide image GP included in the projection image PP is a position that offsets the movement of the rehabilitation support apparatus 3 and that is displayed at a position corresponding to the current position of the target person EP. Here, the position corresponding to the current position of the target person EP is a position corresponding to the position of the foot that has landed before the predetermined time elapses, and It is a position separated by a predetermined stride (distance d2 in this example).
The rehabilitation assistance device 3 of the present embodiment controls the position of the guidance image GP to a position that is based on the position of the target person EP and that cancels the change in position due to the movement of the rehabilitation assistance device 3.
In addition, in the following description, when the same configuration as that of the above-described first and second embodiments is provided, the same reference numerals are given and the description thereof is omitted.

<リハビリテーション支援装置の構成>
図12は、第3実施形態のリハビリテーション支援装置3の機能構成例を示す図である。
リハビリテーション支援装置3は、センサ部100、投射部200、制御装置302、駆動部400及び車輪500を備える。
図12に示す通り、制御装置302は、入力部31、記憶部33、出力部34及び制御部36を備える。
制御部36は、CPUを用いて構成される。制御部36はリハビリテーション支援プログラムを実行することによって、移動制御部321、誘導画像制御部351及び距離取得部361として機能する。
<Structure of rehabilitation support device>
FIG. 12 is a diagram showing a functional configuration example of the rehabilitation support device 3 of the third embodiment.
The rehabilitation support device 3 includes a sensor unit 100, a projection unit 200, a control device 302, a drive unit 400, and wheels 500.
As shown in FIG. 12, the control device 302 includes an input unit 31, a storage unit 33, an output unit 34, and a control unit 36.
The control unit 36 is configured by using a CPU. The control unit 36 functions as the movement control unit 321, the guide image control unit 351, and the distance acquisition unit 361 by executing the rehabilitation support program.

<距離取得部について>
距離取得部361は、センサ部100が出力する空間位置情報に基づいて、対象者EPの位置を認識し、認識した当該対象者EPと、リハビリテーション支援装置3との距離を取得する。
例えば、距離取得部361は、空間位置情報に基づいて、検出範囲800に存在する人体又は当該人体の部位の一部(各部位)、テーブル、床、壁等の位置を認識する。センサ部100がKinect(登録商標)である場合、距離取得部361は、センサ部100が出力する空間位置情報を用いることにより、対象者EPの人体上の複数の部位の位置を認識することができる。
具体的には、距離取得部361は、空間位置情報が示す対象物の形状と人の骨格モデルとの比較を行って対象物が人と認識し、人体又は当該人体の各部位の位置を認識する機能を有する。これにより、距離取得部361は、人体又は当該人体の各部位の位置情報を、その部位に対応付けて認識することができる。
より具体的には、対象者EPがセンサ部100の前で直立する場合、距離取得部361は、センサ部100によって検出された空間位置情報と人の骨格モデルとの比較を行う。距離取得部361は、当該比較の結果、空間位置情報に人の形状の対象物が含まれる場合には、当該対象物が人(対象者EP)であると認識する。また、距離取得部361は、対象者EPの左のつま先とその位置情報、右のつま先とその位置情報、左の踵とその位置情報、右の踵とその位置情報等、対象者EPの体の各部位の位置情報をそれぞれの部位に対応付けて認識する。上述したように、骨格モデルによる各部位の位置を認識する機能(以下「骨格トラッキング機能」という。)を用いることにより、距離取得部361は、対象者EPの各部位の位置を認識する。
なお、距離取得部361が骨格トラッキング機能を有しており、空間位置情報に基づいて、対象者EPの各部位の位置を認識する場合について説明したが、これに限られない。例えば、センサ部100が骨格トラッキング機能を有していてもよい。この場合、センサ部100は、空間位置情報として対象者EPの各部位の位置をリハビリテーション支援装置3に供給する。
<About the distance acquisition unit>
The distance acquisition unit 361 recognizes the position of the target person EP based on the spatial position information output by the sensor unit 100, and acquires the distance between the recognized target person EP and the rehabilitation support apparatus 3.
For example, the distance acquisition unit 361 recognizes the positions of the human body existing in the detection range 800 or a part of each part of the human body (each part), the table, the floor, the wall, and the like based on the spatial position information. When the sensor unit 100 is Kinect (registered trademark), the distance acquisition unit 361 can recognize the positions of a plurality of parts on the human body of the target person EP by using the spatial position information output by the sensor unit 100. it can.
Specifically, the distance acquisition unit 361 compares the shape of the object indicated by the spatial position information with the human skeleton model, recognizes the object as a person, and recognizes the position of the human body or each part of the human body. Have the function to Thereby, the distance acquisition unit 361 can recognize the position information of the human body or each part of the human body in association with the part.
More specifically, when the subject EP stands upright in front of the sensor unit 100, the distance acquisition unit 361 compares the spatial position information detected by the sensor unit 100 with the human skeleton model. As a result of the comparison, the distance acquisition unit 361 recognizes that the target object is a person (target person EP) when the spatial position information includes the target object in the shape of a person. In addition, the distance acquisition unit 361 determines the left toe of the subject EP and its position information, the right toe and its position information, the left heel and its position information, the right heel and its position information, and the body of the subject EP. The position information of each part is recognized in association with each part. As described above, the distance acquisition unit 361 recognizes the position of each part of the target person EP by using the function of recognizing the position of each part by the skeleton model (hereinafter referred to as “skeleton tracking function”).
Although the distance acquisition unit 361 has a skeleton tracking function and recognizes the position of each part of the target person EP based on the spatial position information, the present invention is not limited to this. For example, the sensor unit 100 may have a skeleton tracking function. In this case, the sensor unit 100 supplies the position of each part of the subject EP as the spatial position information to the rehabilitation support device 3.

距離取得部361は、上述の方法によって認識する対象者EPの位置に基づいて、当該対象者EPからリハビリテーション支援装置3までの距離を取得する。以降の説明において、距離取得部361が取得するリハビリテーション支援装置3と、対象者EPとの距離を対装置距離AGと記載する。距離取得部361は、取得した対装置距離AGを示す情報を誘導画像制御部351に供給する。 The distance acquisition unit 361 acquires the distance from the target person EP to the rehabilitation support apparatus 3 based on the position of the target person EP recognized by the above method. In the following description, the distance between the rehabilitation assistance device 3 acquired by the distance acquisition unit 361 and the target person EP will be referred to as a device distance AG. The distance acquisition unit 361 supplies the guide image control unit 351 with information indicating the acquired device-to-device distance AG.

<誘導画像制御部について>
誘導画像制御部351は、距離取得部361から対装置距離AGを示す情報を取得する。また、誘導画像制御部351は、上述した既知の方法によって、リハビリテーション支援装置3の所定時間移動距離を算出する。誘導画像制御部351は、リハビリテーション支援装置3の移動に伴う当該リハビリテーション支援装置3の位置の変化が相殺される位置であって、リハビリテーション支援装置3及び対象者EPの位置に応じた位置に誘導画像GPの位置を制御する。
例えば、誘導画像制御部351は、所定時間移動距離から対装置距離AGを差し引いた値が正の値である場合、投射画像PP内の誘導画像GPの位置をリハビリテーション支援装置3の移動方向とは逆の方向(この一例では、Y軸の負の方向)に移動する制御を行う。また、誘導画像制御部351は、所定時間移動距離から対装置距離AGを差し引いた値が負の値である場合、投射画像PP内の誘導画像GPの位置をリハビリテーション支援装置3の移動方向(この一例では、Y軸の正の方向)に移動する制御を行う。
<Guide image control unit>
The guide image control unit 351 acquires information indicating the device distance AG from the distance acquisition unit 361. In addition, the guide image control unit 351 calculates the moving distance of the rehabilitation support apparatus 3 for a predetermined time by the known method described above. The guide image control unit 351 is a position at which a change in the position of the rehabilitation support device 3 due to the movement of the rehabilitation support device 3 is offset, and the guide image is located at a position corresponding to the positions of the rehabilitation support device 3 and the target person EP. Control the position of the GP.
For example, when the value obtained by subtracting the device distance AG from the moving distance for a predetermined time is a positive value, the guide image control unit 351 defines the position of the guide image GP in the projection image PP as the moving direction of the rehabilitation assistance device 3. Control is performed to move in the opposite direction (in this example, the negative direction of the Y axis). In addition, when the value obtained by subtracting the device distance AG from the movement distance for a predetermined time is a negative value, the guide image control unit 351 determines the position of the guide image GP in the projection image PP as the moving direction of the rehabilitation support apparatus 3 (this In one example, control to move in the positive direction of the Y axis) is performed.

<誘導画像制御部:投射画像に含まれる誘導画像の位置を制御する場合>
誘導画像制御部351は、投射画像PP内の誘導画像GPの位置をリハビリテーション支援装置3が移動することに伴う当該リハビリテーション支援装置3の位置の変化が相殺される位置であって、リハビリテーション支援装置3及び対象者EPの距離に基づく位置に投射画像PP内の誘導画像GPの位置を制御する。
具体的には、誘導画像制御部351は、投射画像PP(この一例では、投射画像PP2)内の誘導画像GP(この一例では、誘導画像GP22)の位置を、所定時間移動距離と、対装置距離AGとの差分に応じた距離だけ移動する制御を行う。より具体的には、誘導画像制御部351は、上述した構成によって、当該差分に応じた距離の画素数だけ投射画像PP2内における誘導画像GP22の位置を移動させる制御を行う。
以降の構成は、第2実施形態と同様であるため、説明を省略する。
<Guide image control unit: When controlling the position of the guide image included in the projection image>
The guidance image control unit 351 is a position at which the change in the position of the rehabilitation assistance device 3 due to the movement of the rehabilitation assistance device 3 in the projection image PP is offset, and the rehabilitation assistance device 3 And the position of the guidance image GP in the projection image PP is controlled to a position based on the distance of the target person EP.
Specifically, the guide image control unit 351 sets the position of the guide image GP (in this example, the guide image GP22) in the projection image PP (in this example, the projection image PP2) to the device moving distance for a predetermined time. Control is performed to move a distance according to the difference from the distance AG. More specifically, the guide image control unit 351 performs control to move the position of the guide image GP22 in the projection image PP2 by the number of pixels having a distance according to the difference, with the above-described configuration.
Since the subsequent configuration is the same as that of the second embodiment, the description is omitted.

<誘導画像制御部:投射部の投射方向を制御する場合>
また、誘導画像制御部351は、投射角度PAを制御し、投射画像PPに含まれる誘導画像GPの位置を、リハビリテーション支援装置3が移動することに伴う当該リハビリテーション支援装置3の位置の変化が相殺される位置であって、リハビリテーション支援装置3及び対象者EPの距離に基づく位置に制御する。
具体的には、誘導画像制御部351は、所定時間移動距離と、対装置距離AGとの差分に応じた距離に対応する投射角度PAとなるようにモータMを制御する。誘導画像制御部351は、上述した構成によって、当該差分に応じた距離に対応する投射方向に投射画像PP(この一例では、投射画像PP2)の投射方向を制御する。これにより、誘導画像制御部351は、誘導画像GP(この一例では、誘導画像GP22)が投射される位置を移動させる制御を行う。
以降の構成は、第2実施形態と同様であるため、説明を省略する。
<Guide image control unit: When controlling the projection direction of the projection unit>
Further, the guidance image control unit 351 controls the projection angle PA, and the change in the position of the rehabilitation assistance device 3 due to the movement of the rehabilitation assistance device 3 cancels the position of the guidance image GP included in the projection image PP. The rehabilitation assistance device 3 and the target person EP are controlled to a position based on the distance between them.
Specifically, the guide image control unit 351 controls the motor M so that the projection angle PA corresponds to a distance according to the difference between the moving distance for a predetermined time and the device distance AG. With the configuration described above, the guide image control unit 351 controls the projection direction of the projection image PP (projection image PP2 in this example) in the projection direction corresponding to the distance according to the difference. Accordingly, the guide image control unit 351 performs control to move the position where the guide image GP (in this example, the guide image GP22) is projected.
Since the subsequent configuration is the same as that of the second embodiment, the description is omitted.

<第3実施形態のまとめ>
以上説明したように、本実施形態のリハビリテーション支援装置3は、制御装置302を備える。制御装置302は、制御部36を備える。制御部36は、距離取得部361を備えており、センサ部100が出力する対象者EPの空間位置を示す空間情報に基づいて、対象者EPと、リハビリテーション支援装置3との対装置距離AGを算出する。
誘導画像制御部351は、距離取得部361が取得する対装置距離AGに基づく位置であって、リハビリテーション支援装置3の移動に伴う位置の変化を相殺する位置に誘導画像GPの位置を制御する。
<Summary of Third Embodiment>
As described above, the rehabilitation support device 3 of this embodiment includes the control device 302. The control device 302 includes a control unit 36. The control unit 36 includes a distance acquisition unit 361, and based on the spatial information indicating the spatial position of the target person EP output by the sensor unit 100, calculates the device distance AG between the target person EP and the rehabilitation support apparatus 3. calculate.
The guidance image control unit 351 controls the position of the guidance image GP to a position that is based on the device distance AG acquired by the distance acquisition unit 361 and that cancels the change in position due to the movement of the rehabilitation support apparatus 3.

本実施形態のリハビリテーション支援装置3によれば、リハビリテーション支援装置3の移動に伴う位置の変化に応じた位置であって、対象者EPの位置に応じた位置に誘導画像GPを示すことができる。これにより、本実施形態のリハビリテーション支援装置3は、リハビリテーション支援装置3が移動し、かつ対象者EPが移動する場合であっても、誘導画像GPを対象者EPの位置に応じた動作目標位置として適切に示すことができる。 According to the rehabilitation support device 3 of the present embodiment, the guide image GP can be displayed at a position corresponding to the change in position due to the movement of the rehabilitation support device 3 and a position corresponding to the position of the target person EP. Thereby, even if the rehabilitation support apparatus 3 moves and the target person EP moves, the rehabilitation support apparatus 3 of the present embodiment sets the guide image GP as the operation target position according to the position of the target person EP. Can be properly presented.

<変形例1:対象者の特定の部位に基づく位置の認識について>
以下、第3実施形態に係る変形例1について説明する。
上述では、センサ部100が対象者EPの空間位置を空間位置情報として取得する構成について説明した。変形例1では、センサ部100が対象者EPの体の特定部位の空間位置を空間位置情報として取得する構成である場合について説明する。
以降の説明において、対象者EPの体の特定部位の空間位置示す空間位置情報を部位空間位置情報と記載する。対象者EPの体の特定部位とは、例えば、対象者EPの頭、肩、腕、腰、手、足及び各関節部等の位置である。
センサ部100は、検出した結果を示す部位空間位置情報を制御装置302に出力する。制御装置302が備える距離取得部361は、対象者EPの部位空間位置情報に基づいて、リハビリテーション支援装置3と対象者EPとの距離を算出する。
また、対象者EPの体の特定部位が踵である場合、リハビリテーション支援装置3は、対象者EPの踵の部位空間位置情報に基づいて、リハビリテーション支援装置3と対象者EPとの距離を算出する。
<Modification 1: Regarding Recognition of Position Based on Specific Part of Target Person>
Hereinafter, the modification 1 which concerns on 3rd Embodiment is demonstrated.
In the above, the configuration in which the sensor unit 100 acquires the spatial position of the target person EP as the spatial position information has been described. In the first modification, a case will be described in which the sensor unit 100 is configured to acquire the spatial position of the specific part of the body of the subject EP as the spatial position information.
In the following description, the spatial position information indicating the spatial position of the specific part of the body of the subject EP will be referred to as part spatial position information. The specific parts of the body of the subject EP are, for example, positions of the head, shoulders, arms, hips, hands, legs, joints and the like of the subject EP.
The sensor unit 100 outputs the site spatial position information indicating the detection result to the control device 302. The distance acquisition unit 361 included in the control device 302 calculates the distance between the rehabilitation support device 3 and the target person EP based on the part space position information of the target person EP.
In addition, when the specific part of the body of the target person EP is the heel, the rehabilitation support device 3 calculates the distance between the rehabilitation support device 3 and the target person EP based on the part spatial position information of the heel of the target person EP. ..

<変形例1のまとめ>
以上説明したように、変形例1のリハビリテーション支援装置3は、センサ部100が
出力する対象者EPの体の特定部位の空間位置を示す部位空間位置情報を取得する。リハビリテーション支援装置3が備える距離取得部361は、取得した当該部位空間位置情報に基づいて、対装置距離AGを算出する。
また、部位空間位置情報が、対象者EPの踵の空間位置情報である場合、リハビリテーション支援装置3が備える距離取得部361は、取得した対象者EPの踵の部位空間位置情報に基づいて、対装置距離AGを算出する。
<Summary of Modification 1>
As described above, the rehabilitation assistance device 3 of the first modification acquires the part spatial position information that is output by the sensor unit 100 and indicates the spatial position of the specific part of the body of the target person EP. The distance acquisition unit 361 included in the rehabilitation support device 3 calculates the device distance AG based on the acquired part space position information.
Further, when the part space position information is the space position information of the heel of the target person EP, the distance acquisition unit 361 included in the rehabilitation support device 3 performs pairing based on the acquired part space position information of the heel of the target person EP. The device distance AG is calculated.

ここで、リハビリテーション支援装置3は、センサ部100から空間位置情報を取得すし、当該空間位置情報に基づいて、対象者EPの位置及び位置の変化を算出する場合、当該空間位置情報は、ある特定部位に設定されていることが好ましい。
例えば、リハビリテーション支援装置3は、ある時刻においては、センサ部100が取得した対象者EPの頭部の空間位置情報に基づいて対象者EPの位置を認識する。また、リハビリテーション支援装置3は、当該ある時刻とは異なる時刻においては、センサ部100が取得した右手の空間位置情報に基づいて対象者EPの位置を認識する。この場合、リハビリテーション支援装置3が認識する対象者EPの位置及び位置の変化の精度は、ある特定部位に設定されている場合と比較して、精度が落ちる場合がある。
Here, when the rehabilitation assistance apparatus 3 acquires the spatial position information from the sensor unit 100 and calculates the position of the target person EP and the change in the position based on the spatial position information, the spatial position information is a certain identification. It is preferably set in the region.
For example, the rehabilitation support apparatus 3 recognizes the position of the target person EP based on the spatial position information of the head of the target person EP acquired by the sensor unit 100 at a certain time. In addition, the rehabilitation support apparatus 3 recognizes the position of the target person EP based on the spatial position information of the right hand acquired by the sensor unit 100 at a time different from the certain time. In this case, the accuracy of the position and the change in the position of the target person EP recognized by the rehabilitation support apparatus 3 may be lower than that in the case where the position is set to a certain specific part.

変形例1のリハビリテーション支援装置3によれば、より精度高く対象者EPの位置を認識することができる。また、より精度高く対象者EPの位置を認識することにより、変形例1のリハビリテーション支援装置3は、対象者EPの位置により応じた位置に誘導画像GPを示すことができる。
また、部位空間位置情報が対象者EPの踵である場合、変形例1のリハビリテーション支援装置3は、より精度高く対象者EPの足の位置を認識することができる。また、より精度高く対象者EPの足の位置を認識することにより、変形例1のリハビリテーション支援装置3は、対象者EPの足の位置の変化により応じた位置に誘導画像GPを示すことができる。
According to the rehabilitation support device 3 of Modification 1, the position of the target person EP can be recognized with higher accuracy. Further, by recognizing the position of the target person EP with higher accuracy, the rehabilitation support apparatus 3 of the first modification can show the guide image GP at a position corresponding to the position of the target person EP.
When the part space position information is the heel of the target person EP, the rehabilitation support device 3 of the first modification can more accurately recognize the position of the foot of the target person EP. Further, by recognizing the foot position of the target person EP with higher accuracy, the rehabilitation support apparatus 3 of the first modification can show the guide image GP at a position corresponding to the change in the position of the foot of the target person EP. ..

<変形例2:変位に基づく移動の制御について>
以下、第3実施形態に係る変形例2について説明する。
上述した第1実施形態、第2実施形態、第3実施形態及び変形例1では、移動制御部321が所定の速度によってリハビリテーション支援装置1、リハビリテーション支援装置2及びリハビリテーション支援装置3が移動するように駆動部400を制御する場合について説明した。
変形例2では、リハビリテーション支援装置3と、対象者EPとの距離に基づいて、当該リハビリテーション支援装置3の移動が制御される構成について説明する。
上述したように、距離取得部361は、リハビリテーション支援装置3と対象者EPとの対装置距離AGを取得する。距離取得部361は、取得した対装置距離AGを移動制御部321に供給する。
移動制御部321は、距離取得部361が取得した対装置距離AGに基づいて、リハビリテーション支援装置3の移動を制御する。具体的には、移動制御部321は、距離取得部361が取得した対装置距離AGが閾値より長い距離である場合には、リハビリテーション支援装置3が対象者EPに近づく方向に移動するように制御する。また、距離取得部361は、距離取得部361が取得した対装置距離AGが閾値より短い距離である場合には、リハビリテーション支援装置3が対象者EPから遠ざかる方向に移動するように制御する。ここで、閾値とは、リハビリテーション支援装置3と対象者EPとの距離の閾値であって、対象者EPに対するリハビリテーション支援装置3の位置が、リハビリテーションの妨げにならない程度の離隔が確保できる距離を示す閾値である。閾値とは、例えば、1m〜5m程度の距離である。
<Modification 2: Control of movement based on displacement>
Hereinafter, the modification 2 which concerns on 3rd Embodiment is demonstrated.
In the above-described first embodiment, second embodiment, third embodiment, and modification 1, the movement control unit 321 moves the rehabilitation assistance device 1, the rehabilitation assistance device 2, and the rehabilitation assistance device 3 at a predetermined speed. The case of controlling the drive unit 400 has been described.
In the second modification, a configuration in which the movement of the rehabilitation support device 3 is controlled based on the distance between the rehabilitation support device 3 and the target person EP will be described.
As described above, the distance acquisition unit 361 acquires the device distance AG between the rehabilitation support device 3 and the target person EP. The distance acquisition unit 361 supplies the acquired device-to-device distance AG to the movement control unit 321.
The movement control unit 321 controls the movement of the rehabilitation support device 3 based on the device distance AG acquired by the distance acquisition unit 361. Specifically, when the device-to-device distance AG acquired by the distance acquisition unit 361 is longer than the threshold value, the movement control unit 321 controls the rehabilitation support device 3 to move in a direction toward the target person EP. To do. Further, the distance acquisition unit 361 controls the rehabilitation assistance device 3 to move in a direction away from the target person EP when the device-to-device distance AG acquired by the distance acquisition unit 361 is a distance shorter than a threshold value. Here, the threshold value is a threshold value of the distance between the rehabilitation support apparatus 3 and the target person EP, and indicates a distance at which the position of the rehabilitation support apparatus 3 with respect to the target person EP can secure a distance that does not hinder the rehabilitation. It is a threshold. The threshold value is, for example, a distance of about 1 m to 5 m.

<変形例2まとめ>
以上説明したように、変形例2のリハビリテーション支援装置3が備える移動制御部321は、空間位置情報に基づいて、当該リハビリテーション支援装置3の移動を制御する。
したがって、変形例2のリハビリテーション支援装置3は、リハビリテーション支援装置3と対象者EPとの距離を保つことができる。これにより、変形例2のリハビリテーション支援装置3は、対象者EPにリハビリテーション支援装置3が接近しすぎたり、離れすぎたりすることによって、当該対象者EPの歩行を急かしたり、歩行の妨げになったりすることを抑制することができる。
<Summary of Modification 2>
As described above, the movement control unit 321 included in the rehabilitation assistance device 3 of the modified example 2 controls the movement of the rehabilitation assistance device 3 based on the spatial position information.
Therefore, the rehabilitation assistance device 3 of the modification 2 can maintain the distance between the rehabilitation assistance device 3 and the target person EP. Thereby, the rehabilitation support apparatus 3 of the modification 2 hastens or obstructs the walking of the target person EP by causing the rehabilitation support apparatus 3 to be too close to or too far from the target person EP. Can be suppressed.

なお、リハビリテーション支援装置3は、対象者EPのリハビリテーションの状況に応じて当該対象者EPに音声で動作を促す構成を有していてもよい。例えば、対象者EPの歩行が遅れている、又は対象者EPがリハビリテーション支援装置3が促す動作を行えていない場合がある。この場合、リハビリテーション支援装置3は、当該対象者EPを励ます音声を出力してもよい。また、リハビリテーション支援装置3は、対象者EPを励ます画像を出力してもよい。 Note that the rehabilitation support device 3 may have a configuration that prompts the target person EP to perform an action by voice according to the rehabilitation situation of the target person EP. For example, the walking of the subject EP may be delayed, or the subject EP may not be able to perform the action that the rehabilitation support apparatus 3 prompts. In this case, the rehabilitation support device 3 may output a voice that encourages the subject EP. Further, the rehabilitation support device 3 may output an image that encourages the subject EP.

[第4実施形態]
以下、図を参照して本発明の第4実施形態について説明する。
第3実施形態では、誘導画像GPを対象者EPの足の位置に応じた位置であって、当該足の位置から所定の歩幅だけ離れた位置に示す場合について説明した。
第4実施形態では、対象者EPの足の位置に応じた位置であって、当該足の位置から対象者EPの足の特性に応じた位置に誘導画像GPを示す場合について説明する。
[Fourth Embodiment]
Hereinafter, a fourth embodiment of the present invention will be described with reference to the drawings.
In the third embodiment, a case has been described in which the guide image GP is shown at a position that corresponds to the position of the foot of the subject EP and that is separated from the position of the foot by a predetermined stride.
In the fourth embodiment, a case will be described in which the guide image GP is displayed at a position corresponding to the position of the foot of the target person EP, and from the position of the target foot EP to the position corresponding to the characteristic of the target subject EP's foot.

<リハビリテーション支援装置の構成>
図13は、第4実施形態のリハビリテーション支援装置4の機能構成例を示す図である。
リハビリテーション支援装置4は、センサ部100、投射部200、制御装置303、駆動部400及び車輪500を備える。
図13に示す通り、制御装置303は、入力部31、出力部34、制御部37、記憶部38、操作部39及び表示部40を備える。
制御部37は、CPUを用いて構成される。制御部37はリハビリテーション支援プログラムを実行することによって、移動制御部321、誘導画像制御部351、距離取得部361及びパラメータ取得部371として機能する。
<Structure of rehabilitation support device>
FIG. 13 is a diagram illustrating a functional configuration example of the rehabilitation support device 4 according to the fourth embodiment.
The rehabilitation support device 4 includes a sensor unit 100, a projection unit 200, a control device 303, a drive unit 400, and wheels 500.
As shown in FIG. 13, the control device 303 includes an input unit 31, an output unit 34, a control unit 37, a storage unit 38, an operation unit 39, and a display unit 40.
The control unit 37 is configured by using a CPU. The control unit 37 functions as the movement control unit 321, the guide image control unit 351, the distance acquisition unit 361, and the parameter acquisition unit 371 by executing the rehabilitation support program.

表示部40は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、CRT(Cathode Ray Tube)ディスプレイ等の画像表示装置である。表示部40は、画像や文字を表示する。表示部40は、画像表示装置を制御装置303に接続するためのインタフェースであってもよい。この場合、表示部40は、画像や文字を表示するための映像信号を生成し、自身に接続されている画像表示装置に映像信号を出力する。 The display unit 40 is an image display device such as a liquid crystal display, an organic EL (Electro Luminescence) display, and a CRT (Cathode Ray Tube) display. The display unit 40 displays images and characters. The display unit 40 may be an interface for connecting the image display device to the control device 303. In this case, the display unit 40 generates a video signal for displaying an image or a character and outputs the video signal to the image display device connected to itself.

操作部39は、キーボード、ポインティングデバイス(マウス、タブレット等)、ボタン、タッチパネル等の既存の入力装置を用いて構成される。操作部39は、理学療法士等の指示を制御装置303に入力する際に理学療法士等によって操作される。操作部39は、入力装置を制御装置303に接続するためのインタフェースであってもよい。この場合、操作部39は、入力装置において理学療法士等の入力に応じ生成された入力信号を制御装置303に入力する。操作部39は、表示部40と一体のタッチパネルとして構成されてもよい。 The operation unit 39 is configured using an existing input device such as a keyboard, pointing device (mouse, tablet, etc.), button, touch panel and the like. The operation unit 39 is operated by a physical therapist or the like when inputting an instruction from the physical therapist or the like to the control device 303. The operation unit 39 may be an interface for connecting the input device to the control device 303. In this case, the operation unit 39 inputs the input signal generated by the input device according to the input of the physical therapist or the like to the control device 303. The operation unit 39 may be configured as a touch panel integrated with the display unit 40.

例えば、制御装置303が専用アプリケーションを実行し、理学療法士等が表示部40の表示に基づき、操作部39に対して種々の情報を入力する。パラメータ取得部371は、操作部39に入力された情報に応じて、足用表示パラメータを設定する。足用表示パラメータとは、対象者EPの足の機能回復に応じたパラメータであって、当該対象者EPが足を移動させるときの誘導画像GPの制御に用いられるパラメータである。 For example, the control device 303 executes a dedicated application, and a physical therapist or the like inputs various information to the operation unit 39 based on the display on the display unit 40. The parameter acquisition unit 371 sets the foot display parameter according to the information input to the operation unit 39. The foot display parameter is a parameter according to the functional recovery of the foot of the target person EP, and is a parameter used for controlling the guide image GP when the target person EP moves the foot.

記憶部38は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。記憶部38は、キャリブレーション情報記憶部331、プログラム情報記憶部332、投射画像情報記憶部333及びパラメータ情報記憶部334として機能する。
パラメータ情報記憶部334は、操作部39に入力される足用表示パラメータを記憶する。
The storage unit 38 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The storage unit 38 functions as a calibration information storage unit 331, a program information storage unit 332, a projection image information storage unit 333, and a parameter information storage unit 334.
The parameter information storage unit 334 stores the foot display parameters input to the operation unit 39.

<足用表示パラメータについて>
以下、図14を参照して、足用表示パラメータの詳細について説明する。なお、以降の説明において、上述した第1実施形態と同様の構成を有する場合には、同一の符号を付して説明を省略する。
図14は、第4実施形態の足用表示パラメータの一例を示す図である。
図14に示す通り、リハビリテーション支援装置4、既知の方法によって、足用表示パラメータ取得画像FPを表示する。足用表示パラメータ取得画像FPとは、操作部39の操作者(この一例では、理学療法士)に足用表示パラメータの入力を促す画像である。
理学療法士は、表示部40に表示される足用表示パラメータ取得画像FPに応じて、操作部39に足用表示パラメータを入力する。
この一例では、足用表示パラメータとは、足用距離パラメータ、足用時間パラメータ、足用ベクトルパラメータ、足用位置パラメータ、足用移動数パラメータ、足用タイミングパラメータ及び足用速度パラメータである。操作部39は、入力された足用表示パラメータを示す情報をパラメータ取得部371に供給する。
<About foot display parameters>
Hereinafter, details of the foot display parameters will be described with reference to FIG. 14. In the following description, when the same configuration as that of the above-described first embodiment is provided, the same reference numerals are given and the description is omitted.
FIG. 14 is a diagram showing an example of foot display parameters of the fourth embodiment.
As shown in FIG. 14, the rehabilitation support apparatus 4 displays the foot display parameter acquisition image FP by a known method. The foot display parameter acquisition image FP is an image that prompts the operator of the operation unit 39 (in this example, a physical therapist) to input the foot display parameter.
The physical therapist inputs the foot display parameters into the operation unit 39 according to the foot display parameter acquisition image FP displayed on the display unit 40.
In this example, the foot display parameter is a foot distance parameter, a foot time parameter, a foot vector parameter, a foot position parameter, a foot movement number parameter, a foot timing parameter, and a foot speed parameter. The operation unit 39 supplies information indicating the input foot display parameter to the parameter acquisition unit 371.

<足用表示パラメータ設定の詳細について>
パラメータ取得部371は、足用距離パラメータ設定部、足用時間パラメータ設定部、足用ベクトルパラメータ設定部、足用位置パラメータ設定部、足用移動数パラメータ設定部、足用タイミングパラメータ設定部及び足用速度パラメータ設定部を備える。
<Details of foot display parameter settings>
The parameter acquisition unit 371 includes a foot distance parameter setting unit, a foot time parameter setting unit, a foot vector parameter setting unit, a foot position parameter setting unit, a foot movement number parameter setting unit, a foot timing parameter setting unit, and a foot. A speed parameter setting unit is provided.

足用距離パラメータ設定部は、足用距離パラメータを設定する。足用距離パラメータは、対象者EPの足の移動距離に係る足用表示パラメータの1つである。
足用時間パラメータ設定部は、足用時間パラメータを設定する。足用時間パラメータは、対象者EPの足の移動時間に係る足用表示パラメータの1つである。
足用ベクトルパラメータ設定部は、足用ベクトルパラメータを設定する。足用ベクトルパラメータは、対象者EPの足の移動方向に係る足用表示パラメータの1つである。
足用位置パラメータ設定部は、足用位置パラメータを設定する。足用位置パラメータは、対象者EPの足の移動位置に係る足用表示パラメータの1つである。
足用移動数パラメータ設定部は、足用移動数パラメータを設定する。足用移動数パラメータは、対象者EPの足の移動数に係る足用表示パラメータの1つである。
足用タイミングパラメータ設定部は、足用タイミングパラメータを設定する。足用タイミングパラメータは、対象者EPの足の移動タイミングに係る足用表示パラメータの1つである。足用タイミングパラメータは、足用時間パラメータと同様に時間軸に沿って設定するパラメータである。
足用速度パラメータ設定部は、足用速度パラメータを設定する。足用速度パラメータは、対象者EPの足の移動速度に係る足用表示パラメータの1つである。足用速度パラメータは、足用時間パラメータと足用距離パラメータとを組み合わせ、距離を時間で除算して移動速度を算出し、設定するパラメータである。
The foot distance parameter setting unit sets a foot distance parameter. The foot distance parameter is one of the foot display parameters related to the movement distance of the foot of the subject EP.
The foot time parameter setting unit sets a foot time parameter. The foot time parameter is one of the foot display parameters related to the movement time of the foot of the subject EP.
The foot vector parameter setting unit sets a foot vector parameter. The foot vector parameter is one of the foot display parameters related to the moving direction of the foot of the subject EP.
The foot position parameter setting unit sets a foot position parameter. The foot position parameter is one of the foot display parameters related to the movement position of the foot of the subject EP.
The foot movement number parameter setting unit sets a foot movement number parameter. The foot movement number parameter is one of the foot display parameters related to the foot movement number of the target person EP.
The foot timing parameter setting unit sets a foot timing parameter. The foot timing parameter is one of the foot display parameters related to the movement timing of the foot of the subject EP. The foot timing parameter is a parameter that is set along the time axis like the foot time parameter.
The foot speed parameter setting unit sets a foot speed parameter. The foot speed parameter is one of the foot display parameters related to the moving speed of the foot of the subject EP. The foot speed parameter is a parameter that combines the foot time parameter and the foot distance parameter, divides the distance by time to calculate the moving speed, and sets the moving speed.

パラメータ取得部371は、誘導画像GPが、対象者EPが足を移動させるリハビリテーションの場合に、操作部39に入力された足用表示パラメータを示す情報に応じて、足用表示パラメータを設定する。 The parameter acquisition unit 371 sets the foot display parameter according to the information indicating the foot display parameter input to the operation unit 39 when the guide image GP is the rehabilitation in which the subject EP moves the foot.

<足用表示パラメータを用いた誘導画像の制御:足用距離パラメータ設定部>
足用距離パラメータ設定部は、誘導画像GPが示す対象者EPの歩幅を決定するために用いられる第1足用距離パラメータ(図14で示したステップの値)を指定し、指定した足用距離パラメータをパラメータ情報記憶部334に書き込む。
誘導画像制御部351は、パラメータ情報記憶部334に記憶される第1足用距離パラメータを用いて、リハビリテーションにおける歩幅を示す位置に誘導画像GPを示す制御を行う。
<Control of guide image using foot display parameters: foot distance parameter setting unit>
The foot distance parameter setting unit specifies the first foot distance parameter (the value of the step shown in FIG. 14) used to determine the stride of the target person EP indicated by the guide image GP, and specifies the specified foot distance. The parameter is written in the parameter information storage unit 334.
The guide image control unit 351 uses the first foot distance parameter stored in the parameter information storage unit 334 to perform control to display the guide image GP at the position indicating the stride in rehabilitation.

また、足用距離パラメータ設定部は、誘導画像GPが示す左右の足のスタンスを決定するために用いられる第2足用距離パラメータ(図14で示した歩隔)を指定し、指定した足用距離パラメータをパラメータ情報記憶部334に書き込む。
誘導画像制御部351は、パラメータ情報記憶部334に記憶される第2足用距離パラメータを用いて、リハビリテーションにおける左右の足のスタンスを示す位置に誘導画像GPを示す制御を行う。
In addition, the foot distance parameter setting unit specifies the second foot distance parameter (step interval shown in FIG. 14) used to determine the stance of the left and right feet indicated by the guide image GP, and specifies the specified foot distance. The distance parameter is written in the parameter information storage unit 334.
The guidance image control unit 351 uses the second foot distance parameter stored in the parameter information storage unit 334 to perform control to show the guidance image GP at the position indicating the stance of the left and right feet in rehabilitation.

また、足用距離パラメータ設定部は、誘導画像GPが表示される距離の範囲を決定するために用いられる第3足用距離パラメータを指定し、指定した足用距離パラメータをパラメータ情報記憶部334に書き込む。
誘導画像制御部351は、パラメータ情報記憶部334に記憶される第3足用距離パラメータを用いて、リハビリテーションにおいて設定した距離の範囲内の位置に誘導画像GPを示す制御を行う。
In addition, the foot distance parameter setting unit specifies the third foot distance parameter used to determine the range of the distance in which the guide image GP is displayed, and the specified foot distance parameter is stored in the parameter information storage unit 334. Write.
The guidance image control unit 351 uses the third foot distance parameter stored in the parameter information storage unit 334 to perform control to show the guidance image GP at a position within the range of the distance set in the rehabilitation.

<足用距離パラメータのまとめ>
リハビリテーション支援装置4は、誘導画像制御部351が上述の位置に誘導画像GPを示す制御を行うことにより、リハビリテーションの難易度を変更することができる。例えば、対象者EPの足のスタンスが狭くなるほど支持基底面が狭くなり、対象者EPの姿勢が不安定になる。この場合、リハビリテーションの難易度が高くなる。また、対象者EPの足の移動距離が長くなるほど、対象者EPの姿勢が不安定になる。この場合、リハビリテーションの難易度が高くなる。このように、誘導画像GPの位置を制御し、リハビリテーションの難易度を変えることで、対象者EPは、当該対象者EPの難易度に合ったリハビリテーションを受けることができる。
<Summary of foot distance parameters>
The rehabilitation support apparatus 4 can change the difficulty level of the rehabilitation by the guide image control unit 351 performing the control of displaying the guide image GP at the above-mentioned position. For example, the narrower the stance of the foot of the subject EP is, the narrower the supporting base surface is, and the posture of the subject EP becomes unstable. In this case, the difficulty of rehabilitation becomes high. In addition, the longer the movement distance of the foot of the subject EP, the more unstable the posture of the subject EP. In this case, the difficulty of rehabilitation becomes high. In this way, by controlling the position of the guidance image GP and changing the difficulty level of rehabilitation, the subject EP can undergo rehabilitation that matches the difficulty level of the subject EP.

<足用表示パラメータを用いた誘導画像の制御:足用時間パラメータ設定部>
足用時間パラメータ設定部は、誘導画像GPが表示されてから所定時間内に対象者EPの足が誘導画像GPの位置に移動されないときに誘導画像GPの表示を停止させると判定するために用いられる所定時間を示す第1足用時間パラメータを指定し、パラメータ情報記憶部334に書き込む。
誘導画像制御部351は、パラメータ情報記憶部334に記憶される第1足用時間パラメータを用いて、リハビリテーションにおける誘導画像GPの表示時間の間、誘導画像GPを表示する制御を行う。
<Control of guide image using foot display parameters: foot time parameter setting unit>
The foot time parameter setting unit is used to determine that the display of the guidance image GP is stopped when the foot of the subject person EP is not moved to the position of the guidance image GP within a predetermined time after the guidance image GP is displayed. The first foot time parameter indicating the predetermined time to be set is designated and written in the parameter information storage unit 334.
The guide image control unit 351 uses the time parameter for the first foot stored in the parameter information storage unit 334 to perform control to display the guide image GP during the display time of the guide image GP in rehabilitation.

また、足用時間パラメータ設定部は、誘導画像GPが表示されリハビリテーションが行われる総時間を示す第2足用時間パラメータを指定し、パラメータ情報記憶部334に書き込む。
誘導画像制御部351は、パラメータ情報記憶部334に記憶される第2足用時間パラメータを用いて、リハビリテーションの総時間の間、誘導画像GPを表示する制御を行う。
In addition, the foot time parameter setting unit specifies the second foot time parameter indicating the total time during which the guidance image GP is displayed and the rehabilitation is performed, and writes the second foot time parameter in the parameter information storage unit 334.
The guide image control unit 351 uses the time parameter for the second foot stored in the parameter information storage unit 334 to perform control to display the guide image GP during the total rehabilitation time.

また、足用時間パラメータ設定部は、現在表示されている誘導画像GPが表示されてから次の誘導画像GPが表示される次のタイミングまでの時間を示す足用表示パラメータを指定し、パラメータ情報記憶部334に書き込む。
誘導画像制御部351は、パラメータ情報記憶部334に記憶される足用表示パラメータを用いて、リハビリテーションにおいて次の表示タイミングに次の誘導画像GPを表示する制御を行う。
In addition, the foot time parameter setting unit specifies a foot display parameter indicating a time from the time when the currently displayed guide image GP is displayed to the next timing when the next guide image GP is displayed, and the parameter information is set. Write to the storage unit 334.
The guide image control unit 351 uses the foot display parameters stored in the parameter information storage unit 334 to perform control to display the next guide image GP at the next display timing in rehabilitation.

<足用時間パラメータのまとめ>
リハビリテーション支援装置4は、誘導画像制御部351が上述のように誘導画像GPを示す制御を行うことにより、「すくみ足」などの足を上手に出せない疾患の対象者EPに、足を出す時間間隔やタイミングなどを知らせることができる。これにより、対象者EPは、リハビリテーションにおいて、足の出しやすい時間間隔やタイミングなどを習得することができる。
<Summary of foot time parameters>
In the rehabilitation support device 4, the guide image control unit 351 performs the control to display the guide image GP as described above, and thus the time to put the foot on the target person EP having a disease such as "freezing foot" that cannot put out the foot well. You can inform the interval and timing. Accordingly, the subject EP can learn the time interval and the timing at which the feet can be easily put out in the rehabilitation.

<足用表示パラメータを用いた誘導画像の制御:足用ベクトルパラメータ設定部>
足用ベクトルパラメータ設定部は、現在表示されている誘導画像GPを基準とした次のタイミングに表示される次の誘導画像GPの表示方向を決定するために用いられる第1足用ベクトルパラメータを指定し、パラメータ情報記憶部334に書き込む。
誘導画像制御部351は、パラメータ情報記憶部334に記憶される第1足用ベクトルパラメータを用いて、リハビリテーションにおいて直線的に足を移動させる目標位置を示す誘導画像GPの制御を行う。また、誘導画像制御部351は、パラメータ情報記憶部334に記憶される第1足用ベクトルパラメータを用いて、リハビリテーションにおいて曲線的に足を移動させる誘導画像GPの制御を行う。
<Control of guide image using foot display parameters: foot vector parameter setting unit>
The foot vector parameter setting unit specifies the first foot vector parameter used to determine the display direction of the next guidance image GP displayed at the next timing with reference to the currently displayed guidance image GP. Then, the information is written in the parameter information storage unit 334.
The guide image control unit 351 uses the first foot vector parameter stored in the parameter information storage unit 334 to control the guide image GP indicating the target position to linearly move the foot in rehabilitation. In addition, the guide image control unit 351 uses the first foot vector parameter stored in the parameter information storage unit 334 to control the guide image GP in which the foot is curvedly moved during rehabilitation.

また、足用ベクトルパラメータ設定部は、誘導画像GPが示す右足の踵からつま先に向かう方向と、左足の踵からつま先に向かう方向と、を決定するために用いられる第2足用ベクトルパラメータを指定する。また、足用ベクトルパラメータ設定部は、設定した第2足用ベクトルパラメータをパラメータ情報記憶部334に書き込む。
誘導画像制御部351は、パラメータ情報記憶部334に記憶される第2足用ベクトルパラメータを用いて、リハビリテーションにおける誘導画像GPの左右の足の向きを同一にするか異なる向きにするかを示す誘導画像GPの制御を行う。
In addition, the foot vector parameter setting unit specifies the second foot vector parameter used for determining the direction from the heel of the right foot to the toe and the direction from the heel of the left foot to the toe indicated by the guide image GP. To do. In addition, the foot vector parameter setting unit writes the set second foot vector parameter in the parameter information storage unit 334.
The guide image control unit 351 uses the vector parameter for the second foot stored in the parameter information storage unit 334 to show whether the left and right feet of the guide image GP in rehabilitation have the same orientation or different orientations. The image GP is controlled.

<足用ベクトルパラメータのまとめ>
リハビリテーション支援装置4は、誘導画像制御部351が上述のように誘導画像GPを制御することにより、左右にふらつく対象者EPに直線的に足を移動させるための指示を出すことできる。これにより、対象者EPは、より明確に直線的に移動するリハビリテーションを実施することができる。
また、誘導画像制御部351が誘導画像GPを制御することにより、直線的な移動を行える対象者EPが、今度は曲線的な移動を行うなど、より難易度の高いリハビリテーションを行うことができる。したがって、対象者EPは、日常生活の足の移動に近いリハビリテーションを実施することができる。
<Summary of vector parameters for feet>
The rehabilitation support apparatus 4 can issue an instruction to move the foot linearly to the subject person EP who sways to the left and right by the guidance image control unit 351 controlling the guidance image GP as described above. As a result, the subject EP can perform rehabilitation in which the subject EP moves more clearly and linearly.
In addition, the guidance image control unit 351 controls the guidance image GP, so that the target person EP who can move linearly can perform rehabilitation with a higher degree of difficulty, such as performing a curved movement this time. Therefore, the subject EP can perform rehabilitation similar to the movement of the foot in daily life.

<足用表示パラメータを用いた誘導画像の制御:足用位置パラメータ設定部>
足用位置パラメータ設定部は、誘導画像GPが表示されるエリアを決定するために用いられる足用位置パラメータを指定し、パラメータ情報記憶部334に書き込む。
誘導画像制御部351は、パラメータ情報記憶部334に記憶される足用位置パラメータを用いて、リハビリテーションにおいて表示されるエリアに誘導画像GPを示す制御を行う。
<Control of guide image using foot display parameters: foot position parameter setting unit>
The foot position parameter setting unit specifies the foot position parameter used to determine the area in which the guide image GP is displayed, and writes the foot position parameter in the parameter information storage unit 334.
The guide image control unit 351 uses the foot position parameter stored in the parameter information storage unit 334 to perform control to show the guide image GP in the area displayed in the rehabilitation.

<足用位置パラメータのまとめ>
リハビリテーション支援装置4は、誘導画像制御部351が上述のように足用位置パラメータを用いてリハビリテーションにおける誘導画像GPを示す制御を行う。これにより、リハビリテーション支援装置4は、操作部39の操作者がかわっても、正しいパラメータ設定が可能となる。
<Summary of foot position parameters>
In the rehabilitation support device 4, the guide image control unit 351 performs control to show the guide image GP in the rehabilitation using the foot position parameter as described above. As a result, the rehabilitation support apparatus 4 can set correct parameters even if the operator of the operation unit 39 changes.

<足用表示パラメータを用いた誘導画像の制御:足用位置パラメータ設定部>
足用タイミングパラメータ設定部は、連続した右足の移動目標または連続した左足の移動目標を示す誘導画像GPが表示されるタイミングを決定するために用いられる第1足用タイミングパラメータを指定し、パラメータ情報記憶部334に書き込む。
誘導画像制御部351は、パラメータ情報記憶部334に記憶される第1足用タイミングパラメータを用いて、左右の足の動作目標である誘導画像GPを同時に示す制御を行う。また、誘導画像制御部351は、パラメータ情報記憶部334に記憶される第1足用タイミングパラメータを用いて、左右の足の動作目標である誘導画像GPを左右交互に示す制御を行う。また、誘導画像制御部351は、パラメータ情報記憶部334に記憶される第1足用タイミングパラメータを用いて、左右の足の動作目標である誘導画像GPを右または左を連続して示す制御を行う。また、誘導画像制御部351は、パラメータ情報記憶部334に記憶される第1足用タイミングパラメータを用いて、左右の足の動作目標である誘導画像GPを、足を交差させて移動するクロスステップの動作を誘導する位置に示す制御を行う。
<Control of guide image using foot display parameters: foot position parameter setting unit>
The foot timing parameter setting unit specifies the timing parameter for the first foot used to determine the timing at which the guide image GP showing the continuous moving target of the right foot or the continuous moving target of the left foot is displayed, and the parameter information is set. Write to the storage unit 334.
The guidance image control unit 351 uses the first foot timing parameter stored in the parameter information storage unit 334 to perform control to simultaneously show the guidance image GP that is the motion target of the left and right feet. Further, the guide image control unit 351 uses the first foot timing parameter stored in the parameter information storage unit 334 to perform control to alternately show the guide image GP, which is the motion target of the left and right feet, to the left and right. In addition, the guide image control unit 351 uses the timing parameter for the first foot stored in the parameter information storage unit 334 to control the guide image GP, which is the motion target of the left and right feet, continuously on the right or left. To do. In addition, the guidance image control unit 351 uses the timing parameter for the first foot stored in the parameter information storage unit 334 to move the guidance image GP, which is the motion target of the left and right feet, with the feet crossing and moving. The control shown in the position for inducing the operation of is performed.

また、足用タイミングパラメータ設定部は、連続した右足の移動目標、連続した左足の移動目標、又は右足の移動目標及び左足の移動目標の総数のうち、少なくとも1つの数であって、誘導画像GPが表示される回数を決定するために用いられる第2足用タイミングパラメータを指定し、パラメータ情報記憶部334に書き込む。
誘導画像制御部351は、パラメータ情報記憶部334に記憶される第2足用タイミングパラメータを用いて、当該第2足用タイミングパラメータが示す回数だけ誘導画像GPを示す制御を行う。
Further, the foot timing parameter setting unit is at least one of the total number of consecutive right foot movement targets, consecutive left foot movement targets, or right foot movement targets and left foot movement targets, and the guide image GP The second foot timing parameter used to determine the number of times the is displayed is written and written in the parameter information storage unit 334.
The guide image control unit 351 uses the timing parameter for the second foot stored in the parameter information storage unit 334 to perform the control of displaying the guide image GP the number of times indicated by the timing parameter for the second foot.

<足用タイミングパラメータのまとめ>
リハビリテーション支援装置4は、誘導画像制御部351が上述のように誘導画像GPを示す制御を行うことにより、左右の足を交互に移動させるだけではなく、右足または左足を複数回、連続して移動させるリハビリテーションを行うことができる。そのため、対象者EPは、足の移動が困難にならないように予防のリハビリテーションとして足の移動を行うことができる。また、誘導画像制御部351が上述のように誘導画像GPを示す制御を行うことにより、持久力が無い対象者EP等に安全な回数の範囲でリハビリテーションを行うことができる。また、誘導画像制御部351が上述のように誘導画像GPを示す制御を行うことにより、日常生活を想定して、トイレまで10歩などという具体的な自宅復帰を想定したリハビリテーションが可能となる。
<Summary of foot timing parameters>
The rehabilitation support device 4 not only moves the left and right feet alternately but also moves the right foot or the left foot a plurality of times continuously by the guidance image control unit 351 performing the control indicating the guidance image GP as described above. Rehabilitation can be performed. Therefore, the subject EP can move the foot as preventive rehabilitation so that the movement of the foot does not become difficult. In addition, the guide image control unit 351 performs the control showing the guide image GP as described above, so that the target person EP or the like having no endurance can be rehabilitated within a safe number of times. In addition, the guide image control unit 351 performs the control showing the guide image GP as described above, so that it is possible to perform rehabilitation assuming a specific home return of 10 steps to the toilet, assuming daily life.

<足用表示パラメータを用いた誘導画像の制御:足用速度パラメータ設定部>
足用速度パラメータ設定部は、右足の移動目標または左足の移動目標を示す誘導画像GPが表示され単位時間当たりに誘導画像GPの表示位置が変化する変化率を決定するために用いられる足用速度パラメータを指定する。足用速度パラメータ設定部は、指定した足用速度パラメータをパラメータ情報記憶部334に書き込む。
例えば、足用速度パラメータを指定することにより、指定した足の移動速度を満足する距離と時間との複数の組み合わせの中からランダムに組み合わせが選択され、足用速度パラメータと共に、選択された距離と時間のそれぞれに対応する足用距離パラメータと足用時間パラメータとが、パラメータ情報記憶部334に書き込まれる。
誘導画像制御部351は、パラメータ情報記憶部334に記憶される足用速度パラメータを用いて、リハビリテーションにおいて、足用距離パラメータや足用時間パラメータを用いた場合と同様に誘導画像GPを示す制御を行う。
<Control of guidance image using foot display parameters: foot speed parameter setting unit>
The foot speed parameter setting unit is used to determine the rate of change at which the guide image GP indicating the moving target of the right foot or the moving target of the left foot is displayed and the display position of the guiding image GP changes per unit time. Specify the parameter. The foot speed parameter setting unit writes the specified foot speed parameter in the parameter information storage unit 334.
For example, by specifying the foot speed parameter, a combination is randomly selected from a plurality of combinations of distance and time that satisfy the specified moving speed of the foot, and the foot speed parameter and the selected distance are selected. The foot distance parameter and the foot time parameter corresponding to each time are written in the parameter information storage unit 334.
The guide image control unit 351 uses the foot velocity parameter stored in the parameter information storage unit 334 to perform control for indicating the guide image GP in the rehabilitation in the same manner as when using the foot distance parameter or the foot time parameter. To do.

<足用速度パラメータのまとめ>
リハビリテーション支援装置4は、誘導画像制御部351が上述のように誘導画像GPを示す制御を行う。これにより、リハビリテーション支援装置4は、対象者EPに当該対象者EPの歩行速度に適した速度によって歩行するリハビリテーションを受けさせることができる。
<Summary of foot speed parameters>
In the rehabilitation support device 4, the guide image control unit 351 controls the guide image GP as described above. Accordingly, the rehabilitation support device 4 can cause the subject EP to undergo rehabilitation to walk at a speed suitable for the walking speed of the subject EP.

<第4実施形態のまとめ>
本実施形態のリハビリテーション支援装置4は、対象者EPの足の機能回復に応じた足用表示パラメータを取得するパラメータ取得部371を更に備え、誘導画像制御部351は、パラメータ取得部371が取得する前記足用表示パラメータに基づく位置に誘導画像GPの位置を制御する。
本実施形態のリハビリテーション支援装置4は、対象者EPの足の機能回復に応じた位置や時間に誘導画像GPを示す制御を行う。これにより、対象者EPは、当該対象者EPの足の機能回復に応じたリハビリテーションを受けることができる。
<Summary of Fourth Embodiment>
The rehabilitation support apparatus 4 of the present embodiment further includes a parameter acquisition unit 371 that acquires a foot display parameter according to the recovery of the function of the foot of the subject EP, and the guide image control unit 351 acquires the parameter acquisition unit 371. The position of the guide image GP is controlled to the position based on the foot display parameter.
The rehabilitation support device 4 of the present embodiment performs control to show the guide image GP at a position and time according to the functional recovery of the foot of the subject EP. As a result, the subject EP can receive rehabilitation according to the functional recovery of the legs of the subject EP.

また、本実施形態のリハビリテーション支援装置4では、誘導画像制御部351は、対象者EPの足の移動距離に係る足用表示パラメータである足用距離パラメータ、対象者EPの足の移動時間に係る足用表示パラメータである足用時間パラメータ、及び対象者EPの足の移動方向に係る足用表示パラメータである足用ベクトルパラメータ、のうちの少なくとも1つに基づく位置に誘導画像GPの位置を制御する。これにより、対象者EPは、当該対象者EPの足の機能回復に応じた複数の種類のリハビリテーションを受けることができる。 Further, in the rehabilitation support device 4 of the present embodiment, the guide image control unit 351 relates to the foot distance parameter which is a foot display parameter related to the foot moving distance of the target person EP and the foot moving time of the target person EP. The position of the guide image GP is controlled at a position based on at least one of a foot time parameter that is a foot display parameter and a foot vector parameter that is a foot display parameter related to the moving direction of the foot of the subject EP. To do. Thereby, the subject EP can undergo a plurality of types of rehabilitation according to the functional recovery of the legs of the subject EP.

[第5実施形態]
以下、図を参照して本発明の第5実施形態について説明する。
第5実施形態では、第1実施形態、第2実施形態、変形例1、変形例2、第3実施形態及び第4実施形態において、位置が制御された誘導画像GPに応じて対象者EPがリハビリテーションを行った当該リハビリテーションの結果の表示について説明する。
[Fifth Embodiment]
Hereinafter, a fifth embodiment of the present invention will be described with reference to the drawings.
In the fifth embodiment, in the first embodiment, the second embodiment, the modification 1, the modification 2, the third embodiment, and the fourth embodiment, the target person EP corresponds to the position-controlled guidance image GP. The display of the result of the rehabilitation performed after the rehabilitation will be described.

<リハビリテーション支援装置の構成>
図15は、第5実施形態のリハビリテーション支援装置5の機能構成例を示す図である。
リハビリテーション支援装置5は、センサ部100、投射部200、制御装置304、駆動部400及び車輪500を備える。
図15に示す通り、制御装置304は、入力部31、出力部34、操作部39、表示部40、制御部41及び記憶部42、を備える。
制御部41は、CPUを用いて構成される。制御部41は、リハビリテーション支援プログラムを実行することによって、移動制御部321及び誘導画像制御部351、距離取得部361、パラメータ取得部371、及び表示制御部411として機能する。
<Structure of rehabilitation support device>
FIG. 15 is a diagram showing an example of the functional configuration of the rehabilitation support apparatus 5 according to the fifth embodiment.
The rehabilitation support device 5 includes a sensor unit 100, a projection unit 200, a control device 304, a drive unit 400, and wheels 500.
As shown in FIG. 15, the control device 304 includes an input unit 31, an output unit 34, an operation unit 39, a display unit 40, a control unit 41, and a storage unit 42.
The control unit 41 is configured by using a CPU. The control unit 41 functions as the movement control unit 321, the guide image control unit 351, the distance acquisition unit 361, the parameter acquisition unit 371, and the display control unit 411 by executing the rehabilitation support program.

記憶部42は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。記憶部42は、キャリブレーション情報記憶部331、プログラム情報記憶部332、投射画像情報記憶部333、パラメータ情報記憶部334及び検出履歴情報記憶部335として機能する。
検出履歴情報記憶部335は、センサ部100が対象者EPの体を検出した空間位置情報、又は対象者EPの特定部位を検出した部位空間位置情報を記憶する。上述したように、この一例では、センサ部100が対象者EPの踵を検出し、部位空間位置情報を出力する。これにより、検出履歴情報記憶部335には、対象者EPの踵の部位空間位置情報が記憶される。
The storage unit 42 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The storage unit 42 functions as a calibration information storage unit 331, a program information storage unit 332, a projected image information storage unit 333, a parameter information storage unit 334, and a detection history information storage unit 335.
The detection history information storage unit 335 stores the spatial position information in which the sensor unit 100 detects the body of the target person EP or the spatial position information in which the specific part of the target person EP is detected. As described above, in this example, the sensor unit 100 detects the heel of the target person EP and outputs the site space position information. As a result, the detection history information storage unit 335 stores the region spatial position information of the heel of the subject EP.

<表示制御部の例>
以下、図16を参照して、リハビリテーション内容が歩行である場合の部位空間位置情報について説明する。
図16は、第5実施形態の対象者EPの部位空間位置情報の一例を示す平面図である。
上述したように、センサ部100は、人体の各部位の位置情報を、その部位に対応付けて認識することができる。また、上述したように、センサ部100は、対象者EPの体の一部(検出対象の部位)の検出データである部位空間位置情報を表示制御部411に供給する。以降の説明において、センサ部100が認識する対象者EPの体の一部(検出対象部位)をリハビリ対象部位TPと記載する。センサ部100は、認識した対象者EPのリハビリ対象部位TPの位置を示す部位空間位置情報を表示制御部411に供給する。
上述したように、この一例では、リハビリ対象部位TPが、踵である。具体的には、リハビリ対象部位TPが、右足の踵及び左足の踵である。したがって、センサ部100は、対象者EPの位置のうち、対象者EPの右足の踵及び左足の踵の位置を認識する。
センサ部100は、対象者EPの歩行に伴い、右足の踵が着地するフロアFL上の位置の座標を示す右足位置RFLを部位空間位置情報として表示制御部411に供給する。また、センサ部100は、対象者EPの歩行に伴い、左足の踵が着地するフロアFL上の位置の座標を示す左足位置LFLを部位空間位置情報として表示制御部411に供給する。
<Example of display control unit>
Hereinafter, with reference to FIG. 16, the site space position information when the rehabilitation content is walking will be described.
FIG. 16 is a plan view showing an example of part space position information of the target person EP of the fifth embodiment.
As described above, the sensor unit 100 can recognize the positional information of each part of the human body in association with the part. In addition, as described above, the sensor unit 100 supplies the part spatial position information, which is the detection data of a part of the body of the target person EP (part to be detected), to the display control unit 411. In the following description, a part of the body of the target person EP recognized by the sensor unit 100 (target detection site) will be referred to as a rehabilitation target site TP. The sensor unit 100 supplies the region spatial position information indicating the position of the recognized rehabilitation target region TP of the target person EP to the display control unit 411.
As described above, in this example, the rehabilitation target site TP is the heel. Specifically, the rehabilitation target parts TP are the heel of the right foot and the heel of the left foot. Therefore, the sensor unit 100 recognizes the positions of the heel of the right foot and the heel of the left foot of the subject EP among the positions of the subject EP.
The sensor unit 100 supplies the right foot position RFL indicating the coordinates of the position on the floor FL at which the heel of the right foot lands with the walking of the subject EP to the display control unit 411 as the site space position information. Further, the sensor unit 100 supplies the left foot position LFL, which indicates the coordinates of the position on the floor FL where the heel of the left foot lands, with the walking of the subject EP to the display control unit 411 as the site space position information.

図16に示す通り、この一例では、右足の踵及び左足の踵がそれぞれ5回ずつ着地する。センサ部100は、右足の踵の1回目の着地の右足位置RFLである右足位置RFL1から5回目の着地の右足位置RFLである右足位置RFL5までを認識する。以降の説明において、右足位置RFL1から右足位置RFL5までを区別しない場合には、総称して右足位置RFLと記載する。センサ部100は、左足の踵の1回目の着地の左足位置LFLである左足位置LFL1から5回目の着地の左足位置LFLである左足位置LFL5までを認識する。以降の説明において、左足位置LFL1から左足位置LFL5までを区別しない場合には、総称して左足位置LFLと記載する。 As shown in FIG. 16, in this example, the heel of the right foot and the heel of the left foot land five times each. The sensor unit 100 recognizes the right foot position RFL1 which is the right foot position RFL of the first landing on the heel of the right foot to the right foot position RFL5 which is the right foot position RFL of the fifth landing. In the following description, when the right foot position RFL1 to the right foot position RFL5 are not distinguished, they are collectively referred to as the right foot position RFL. The sensor unit 100 recognizes the left foot position LFL1 which is the left foot position LFL of the first landing of the heel of the left foot to the left foot position LFL5 which is the left foot position LFL of the fifth landing. In the following description, if the left foot position LFL1 to the left foot position LFL5 are not distinguished, they are collectively referred to as the left foot position LFL.

センサ部100は、対象者EPの歩行に伴い、右足の踵が空中を移動する軌跡の座標を示す右足軌跡RFTを部位空間位置情報として表示制御部411に供給する。また、部位空間位置情報は、対象者EPの歩行に伴い、左足が空中を移動する軌跡の座標を示す左足軌跡LFTを部位空間位置情報として表示制御部411に供給する。
図16に示す通り、この一例では、右足の踵及び左足の踵がそれぞれ4回空中を移動する。センサ部100は、右足の踵の1回目の右足軌跡RFTである右足軌跡RFT1から4回目の右足軌跡RFTである右足軌跡RFT4までを認識する。以降の説明において、右足軌跡RFT1から右足軌跡RFT4までを区別しない場合には、総称して右足軌跡RFTと記載する。センサ部100は、左足の踵の1回目の左足軌跡LFTである左足軌跡LFT1から4回目の左足軌跡LFTである左足軌跡LFT1までを認識する。以降の説明において、左足軌跡LFT1から左足軌跡LFT4までを区別しない場合には、総称して左足軌跡LFTと記載する。
The sensor unit 100 supplies the right foot locus RFT indicating the coordinates of the locus of the heel of the right foot moving in the air with the walking of the subject EP to the display control unit 411 as the site space position information. The part space position information is supplied to the display control unit 411 as the part space position information, which is the left foot locus LFT indicating the coordinates of the locus of the left foot moving in the air as the target person EP walks.
As shown in FIG. 16, in this example, the heel of the right foot and the heel of the left foot each move four times in the air. The sensor unit 100 recognizes the right foot locus RFT1 that is the first right foot locus RFT of the heel of the right foot to the right foot locus RFT4 that is the fourth right foot locus RFT. In the following description, when the right foot locus RFT1 to the right foot locus RFT4 are not distinguished, they are collectively referred to as the right foot locus RFT. The sensor unit 100 recognizes a left foot locus LFT1 which is the first left foot locus LFT of the heel of the left foot to a left foot locus LFT1 which is the fourth left foot locus LFT. In the following description, when the left foot locus LFT1 to the left foot locus LFT4 are not distinguished, they are collectively referred to as the left foot locus LFT.

表示制御部411は、センサ部100から部位空間位置情報を取得する。表示制御部411は、部位空間位置情報に基づいて、投射部200が出力する結果画像RPを生成する。結果画像RPとは、対象者EPがリハビリテーションを行った結果を示す画像である。結果画像RPには、リハビリテーションのうち一部の結果を示す画像であるエリア別結果画像ARPと、当該リハビリテーションの総合の結果を示す画像である総合結果画像TRPとが含まれる。表示制御部411は、エリア別結果画像ARPと、総合結果画像TRPとのうち、少なくとも1つを生成する。この一例では、表示制御部411は、ある一部の結果を示す画像であるエリア別結果画像ARP1と、当該ある一部とは異なる他の一部の結果を示す画像であるエリア別結果画像ARP2と、総合結果画像TRPとを生成する。
表示制御部411は、生成した結果画像RPを出力部34を介して投射部200に供給する。投射部200は、表示制御部411が生成した結果画像RPをフロアFLに投射する。具体的には、投射部200は、表示制御部411が生成した結果画像RPを投射領域900の範囲であって、対象者EPが視認することができる範囲に投射する。この一例では、投射部200は、結果画像RPを投射領域900と同一の大きさによって投射する。また、投射部200は、結果画像RPの縦方向と、リハビリテーション支援装置5が移動する方向(この一例では、Y軸の方向)とが平行する位置に結果画像RPを投射する。
The display control unit 411 acquires the site space position information from the sensor unit 100. The display control unit 411 generates the result image RP output by the projection unit 200 based on the part space position information. The result image RP is an image showing the result of the rehabilitation performed by the subject EP. The result image RP includes an area-specific result image ARP that is an image showing a part of the rehabilitation results, and a total result image TRP that is an image showing the total result of the rehabilitation. The display control unit 411 generates at least one of the area-based result image ARP and the total result image TRP. In this example, the display control unit 411 causes the area-specific result image ARP1 which is an image showing a part of the result, and the area-specific result image ARP2 which is an image showing another part of the result different from the part. And a total result image TRP are generated.
The display control unit 411 supplies the generated result image RP to the projection unit 200 via the output unit 34. The projection unit 200 projects the result image RP generated by the display control unit 411 on the floor FL. Specifically, the projection unit 200 projects the result image RP generated by the display control unit 411 within a range of the projection region 900, which is visible to the target person EP. In this example, the projection unit 200 projects the result image RP in the same size as the projection region 900. In addition, the projection unit 200 projects the result image RP at a position where the vertical direction of the result image RP and the direction in which the rehabilitation support device 5 moves (in this example, the Y axis direction) are parallel to each other.

<結果画像について>
以下、図17〜図19を参照して、表示制御部411が制御する結果画像RPのより具体的な例について説明する。
図17は、第5実施形態のエリア別結果画像ARP1の一例を示す第1の図である。
図18は、第5実施形態のエリア別結果画像ARP2の一例を示す第2の図である。
図19は、第5実施形態の総合結果画像TRPの一例を示す図である。
この一例では、対象者EPは、60m歩行するリハビリテーションを行う。表示制御部411は、結果画像RPとして、総合結果画像TRPと、エリア別結果画像ARPとを生成する。総合結果画像TRPとは、リハビリテーションの総合結果を示す画像である。また、エリア別結果画像ARPとは、リハビリテーションのうち、一部のリハビリテーションの結果画像RPを示す画像である。
以降の説明において、対象者EPの60mの歩行のリハビリテーションのうち、10〜20mの当該リハビリテーションの結果を示す結果画像RPをエリア別結果画像ARP1と記載する。また、対象者EPの60mの歩行のリハビリテーションのうち、20〜30mの当該リハビリテーションの結果を示す結果画像RPをエリア別結果画像ARP2と記載する。また、対象者EPの歩行のリハビリテーションのうち、10〜60mの当該リハビリテーションの結果を示す結果画像RPを結果画像RP3と記載する。
<About the result image>
Hereinafter, a more specific example of the result image RP controlled by the display control unit 411 will be described with reference to FIGS. 17 to 19.
FIG. 17 is a first diagram showing an example of area-based result image ARP1 of the fifth embodiment.
FIG. 18 is a second diagram showing an example of the area-based result image ARP2 of the fifth embodiment.
FIG. 19 is a diagram showing an example of the overall result image TRP of the fifth embodiment.
In this example, the subject EP performs rehabilitation by walking for 60 m. The display control unit 411 generates the total result image TRP and the area-specific result image ARP as the result image RP. The overall result image TRP is an image showing the overall result of rehabilitation. The area-based result image ARP is an image showing a part of rehabilitation result images RP of the rehabilitation.
In the following description, the result image RP showing the result of the rehabilitation of 10 to 20 m among the rehabilitation of the walking of the subject EP of 60 m will be referred to as area-based result image ARP1. In addition, the result image RP showing the result of the rehabilitation of 20 to 30 m out of the rehabilitation of the walking of the subject EP of 60 m will be referred to as area-specific result image ARP2. Further, of the walking rehabilitation of the subject EP, the result image RP showing the result of the rehabilitation of 10 to 60 m is described as the result image RP3.

<結果画像について:10〜20m>
図17に示す通り、エリア別結果画像ARP1には、60mのうち、10〜20mにおけるリハビリ対象部位TPである足の位置に関する情報として、経路情報RT1、軌跡情報TC1、着地タイミング情報GT1、着地リズム情報GR1、平均歩幅情報ALS1、平均歩隔情報AFD1、所要時間情報TR1及び立脚時間比較情報STD1が含まれる。
<About result image: 10-20m>
As shown in FIG. 17, in the result image ARP1 for each area, the route information RT1, the trajectory information TC1, the landing timing information GT1, and the landing rhythm are included as the information on the position of the foot that is the rehabilitation target site TP in 10 to 20 m of 60 m. The information GR1, the average stride information ALS1, the average stride information AFD1, the required time information TR1, and the standing time comparison information STD1 are included.

<経路情報について>
経路情報RTとは、対象者EPがリハビリテーションにおいて歩行した経路の軌跡を示す情報である。また、経路情報RT1とは、経路情報RTのうち、対象者EPが10〜20mを歩行した経路の履歴を示す情報である。
表示制御部411は、部位空間位置情報に含まれる右足位置RFL、左足位置LFL、右足軌跡RFT及び左足軌跡LFTに基づいて、対象者EPの歩行軌跡の表示を制御する。
例えば、表示制御部411は、部位空間位置情報に含まれる所定時間毎の右足位置RFLと、左足位置LFLとが示す座標を交互に結ぶ表示の制御を行う。これにより、表示制御部411は、経路情報RTを表示する制御を行う。また、表示制御部411は、上述の構成によって表示を制御した経路情報RTのうち、経路情報RT1の箇所を明示する表示の制御を行う。
図17に示す通り、表示制御部411は、経路情報RTに示される対象者EPの歩行の方向と、エリア別結果画像ARP1の縦方向(この一例では、Y軸の方向)とを合わせて経路情報RTを表示するように制御する。
<About route information>
The route information RT is information indicating the trajectory of the route that the subject EP has walked in rehabilitation. In addition, the route information RT1 is information indicating the history of the route in which the subject EP walks 10 to 20 m in the route information RT.
The display control unit 411 controls the display of the walking locus of the subject EP based on the right foot position RFL, the left foot position LFL, the right foot locus RFT, and the left foot locus LFT included in the part space position information.
For example, the display control unit 411 controls the display in which the coordinates indicated by the right foot position RFL and the left foot position LFL that are included in the body part spatial position information at predetermined time intervals are alternately connected. Thereby, the display control unit 411 performs control to display the route information RT. In addition, the display control unit 411 performs display control that clearly indicates the location of the route information RT1 in the route information RT whose display is controlled by the above-described configuration.
As shown in FIG. 17, the display control unit 411 combines the walking direction of the target person EP indicated in the route information RT and the vertical direction of the area-based result image ARP1 (in this example, the Y-axis direction). Control to display the information RT.

<軌跡情報について>
軌跡情報TCとは、対象者EPが歩行することに伴う足の軌跡を示す情報である。また、軌跡情報TC1とは、対象者EPが10〜20mを歩行する際の軌跡情報TCを示す情報である。
表示制御部411は、部位空間位置情報に含まれる右足位置RFL、左足位置LFL、右足軌跡RFT及び左足軌跡LFTに基づいて、足の移動に伴う足の軌跡の表示を制御する。
例えば、表示制御部411は、部位空間位置情報に含まれる所定時間毎の右足位置RFL及び右足軌跡RFTが示す座標を結ぶ表示の制御を行う。これにより、表示制御部411は、軌跡情報TC(この一例では、軌跡情報TC1)として右足の軌跡を表示する制御を行う。また、表示制御部411は、例えば、部位空間位置情報に示される所定時間毎の、左足位置LFL及び左足軌跡LFTが示す座標を結ぶ表示の制御を行う。これにより、表示制御部411は、軌跡情報TC(この一例では、軌跡情報TC1)として左足の軌跡を表示する制御を行う。
<About trajectory information>
The locus information TC is information indicating the locus of the foot as the subject EP walks. The trajectory information TC1 is information indicating trajectory information TC when the subject EP walks 10 to 20 m.
The display control unit 411 controls the display of the locus of the foot accompanying the movement of the foot, based on the right foot position RFL, the left foot position LFL, the right foot locus RFT, and the left foot locus LFT included in the part space position information.
For example, the display control unit 411 controls the display connecting the coordinates indicated by the right foot position RFL and the right foot locus RFT included in the part space position information at predetermined time intervals. Accordingly, the display control unit 411 performs control to display the trajectory of the right foot as the trajectory information TC (trajectory information TC1 in this example). The display control unit 411 also controls, for example, a display connecting the coordinates of the left foot position LFL and the left foot locus LFT at predetermined time intervals indicated by the part space position information. As a result, the display control unit 411 performs control to display the locus of the left foot as the locus information TC (trajectory information TC1 in this example).

また、図17に示す通り、軌跡情報TC1は、対象者EPの歩行の方向を示す歩行方向軸axd1に沿って示される。
表示制御部411は、右足位置RFL、左足位置LFL、右足軌跡RFT及び左足軌跡LFTに基づいて、歩行方向軸axdを算出する。この一例では、表示制御部411は、10〜20mにおける右足位置RFL、左足位置LFL、右足軌跡RFT及び左足軌跡LFTに基づいて、歩行方向軸axd1を算出する。表示制御部411は、歩行方向軸axd1に沿って軌跡情報TC1を表示する制御を行う。
また、表示制御部411は、歩行方向軸axdと、エリア別結果画像ARPの縦方向(この一例では、Y軸の方向)とを合わせて軌跡情報TCを表示するように制御する。この一例では、表示制御部411は、歩行方向軸axd1と、エリア別結果画像ARP1の縦方向とが一致するように軌跡情報TC1を表示する制御を行う。
Further, as shown in FIG. 17, the trajectory information TC1 is shown along the walking direction axis axd1 indicating the walking direction of the subject EP.
The display control unit 411 calculates the walking direction axis axd based on the right foot position RFL, the left foot position LFL, the right foot locus RFT, and the left foot locus LFT. In this example, the display control unit 411 calculates the walking direction axis axd1 based on the right foot position RFL, the left foot position LFL, the right foot locus RFT, and the left foot locus LFT at 10 to 20 m. The display control unit 411 controls to display the trajectory information TC1 along the walking direction axis axd1.
Further, the display control unit 411 controls to display the trajectory information TC by combining the walking direction axis axd and the vertical direction of the area-specific result image ARP (in this example, the Y-axis direction). In this example, the display control unit 411 performs control to display the trajectory information TC1 so that the walking direction axis axd1 and the vertical direction of the area-based result image ARP1 match.

なお、上述では、表示制御部411は、歩行方向軸axdと、エリア別結果画像ARPの縦方向とを合わせて表示する制御を行う場合について説明したが、これに限られない。表示制御部411は、ある直線方向を示す軸と、歩行方向軸axdとの方向が一致するように表示する制御を行ってもよい。ある直線方向を示す軸とは、例えば、エリア別結果画像ARPの横方向(この一例では、X軸の方向)であってもよく、エリア別結果画像ARPの横方向及び縦方向を合成した方向を示す軸であってもよい。 In addition, although the display control part 411 demonstrated the case where the walking direction axis axd and the vertical direction of the area-specific result image ARP are displayed together, the present invention is not limited to this. The display control unit 411 may perform control such that the axis indicating a certain straight line direction and the walking direction axis axd are displayed so that the directions thereof match. The axis indicating a certain linear direction may be, for example, the lateral direction of the area-based result image ARP (in this example, the direction of the X axis), or the direction in which the lateral and vertical directions of the area-based result image ARP are combined. May be an axis indicating.

また、上述では、軌跡情報TCが結果画像RPとして表示される場合について説明したが、これに限られない。表示制御部411は、軌跡情報TCを示す結果画像RPを単位時間毎につなぎ合わせた動画として表示してもよい。 Moreover, although the case where the trajectory information TC is displayed as the result image RP has been described above, the present invention is not limited to this. The display control unit 411 may display the result image RP indicating the trajectory information TC as a moving image that is connected for each unit time.

<着地タイミング情報について>
着地タイミング情報GTとは、対象者EPが歩行することに伴う足の着地タイミング示す情報である。また、着地タイミング情報GT1とは、対象者EPが10〜20mを歩行する際の着地タイミング情報GTを示す情報である。
表示制御部411は、部位空間位置情報に含まれる右足位置RFL及び左足位置LFLに基づいて、足の着地に伴う着地タイミングの表示を制御する。
例えば、表示制御部411は、部位空間位置情報に含まれる右足位置RFLが検出された時刻と、位置とに基づいて、時間経過に伴う右足の踵の位置の移動を着地タイミング情報GT(この一例では、着地タイミング情報GT1)として表示する制御を行う。また、表示制御部411は、部位空間位置情報に含まれる左足位置LFLが検出された時刻と、位置とに基づいて、時間経過に伴う左足の踵の位置の移動を着地タイミング情報GT(この一例では、着地タイミング情報GT1)として表示する制御を行う。
<About landing timing information>
The landing timing information GT is information indicating the foot landing timing when the subject EP walks. The landing timing information GT1 is information indicating the landing timing information GT when the subject EP walks 10 to 20 m.
The display control unit 411 controls the display of the landing timing accompanying the landing of the foot based on the right foot position RFL and the left foot position LFL included in the part space position information.
For example, the display control unit 411 indicates the movement of the position of the heel of the right foot over time based on the time and the position at which the right foot position RFL included in the part space position information is detected and the landing timing information GT (an example of this). Then, control for displaying as landing timing information GT1) is performed. In addition, the display control unit 411 changes the position of the heel of the left foot over time based on the time and the position at which the left foot position LFL included in the body part spatial position information is detected. Then, control for displaying as landing timing information GT1) is performed.

また、図17に示す通り、着地タイミング情報GTは、対象者EPの歩行の方向を示す歩行方向軸axdに沿って示される。
表示制御部411は、歩行方向軸axdと、エリア別結果画像ARPの縦方向(この一例では、Y軸の方向)とを合わせて着地タイミング情報GTを表示するように制御する。この一例では、表示制御部411は、歩行方向軸axd1と、エリア別結果画像ARP1の縦方向とが一致するように着地タイミング情報GT1を表示する制御を行う。
Further, as shown in FIG. 17, the landing timing information GT is shown along the walking direction axis axd indicating the walking direction of the target person EP.
The display control unit 411 controls to display the landing timing information GT by combining the walking direction axis axd and the vertical direction of the area-based result image ARP (in this example, the Y-axis direction). In this example, the display control unit 411 performs control to display the landing timing information GT1 so that the walking direction axis axd1 and the vertical direction of the area-based result image ARP1 match.

また、上述では、着地タイミング情報GTが結果画像RPとして表示される場合について説明したが、これに限られない。表示制御部411は、着地タイミング情報GTを示す結果画像RPを単位時間毎につなぎ合わせた動画として表示してもよい。 Further, although the case where the landing timing information GT is displayed as the result image RP has been described above, the present invention is not limited to this. The display control unit 411 may display the result image RP indicating the landing timing information GT as a moving image that is connected for each unit time.

<着地リズム情報について>
着地リズム情報GRとは、対象者EPが歩行する際、足がフロアFLに着地する着地リズムを示す情報である。また、着地リズム情報GR1とは、着地リズム情報GRのうち、対象者EPが10〜20mの着地リズムを示す情報である。
表示制御部411は、部位空間位置情報に含まれる右足位置RFL及び左足位置LFLに基づいて、足の着地に伴う着地リズムの表示を制御する。
例えば、表示制御部411は、部位空間位置情報に含まれる右足位置RFL及び左足位置LFLが検出された時刻を、時間経過を示す時間軸axtに並べて着地リズム情報GRとして表示する制御を行う。また、表示制御部411は、上述の構成によって表示を制御した着地リズム情報GRのうち、着地リズム情報GR1の箇所を明示する表示の制御を行う。
<About landing rhythm information>
The landing rhythm information GR is information indicating the landing rhythm that the foot lands on the floor FL when the subject EP walks. Further, the landing rhythm information GR1 is information indicating the landing rhythm of the target person EP of 10 to 20 m in the landing rhythm information GR.
The display control unit 411 controls the display of the landing rhythm associated with the landing of the foot, based on the right foot position RFL and the left foot position LFL included in the part space position information.
For example, the display control unit 411 performs control such that the times at which the right foot position RFL and the left foot position LFL included in the part space position information are detected are arranged on the time axis axt indicating the elapsed time and displayed as the landing rhythm information GR. Further, the display control unit 411 controls the display for clearly indicating the place of the landing rhythm information GR1 in the landing rhythm information GR whose display is controlled by the above-described configuration.

また、図17に示す通り、表示制御部411は、時間軸axtと、エリア別結果画像ARP(この一例では、エリア別結果画像ARP1)の縦方向(この一例では、Y軸の方向)とを合わせて着地リズム情報GRを表示するように制御する。表示制御部411は、例えば、時間軸axtと、エリア別結果画像ARPの横方向(この一例では、X軸の方向)とが一致するように着地リズム情報GRを表示する制御を行う。
また、図17に示す通り、表示制御部411は、着地リズム情報GRのうち、10〜20mを歩行する際の着地リズム情報GRである着地リズム情報GR1の部分を明示する表示を制御する。
Further, as illustrated in FIG. 17, the display control unit 411 sets the time axis axt and the vertical direction (the Y-axis direction in this example) of the area-specific result image ARP (in this example, the area-specific result image ARP1). The landing rhythm information GR is also controlled to be displayed. The display control unit 411 performs control to display the landing rhythm information GR so that the time axis axt and the horizontal direction of the area-specific result image ARP (in this example, the X-axis direction) match, for example.
In addition, as shown in FIG. 17, the display control unit 411 controls the display that clearly indicates a part of the landing rhythm information GR1 which is the landing rhythm information GR when walking 10 to 20 m, of the landing rhythm information GR.

なお、上述では、表示制御部411が、時間軸axtと、エリア別結果画像ARPの横方向が一致するように表示する制御を行う場合について説明したが、これに限られない。表示制御部411は、ある直線方向を示す軸と、時間軸axtとの方向が一致するように表示する制御を行ってもよい。ある直線方向を示す軸とは、例えば、エリア別結果画像ARPの縦方向であってもよく、エリア別結果画像ARPの横方向と、縦方向とを合成した方向であってもよい。 In the above description, the case where the display control unit 411 performs control so that the time axis axt and the horizontal direction of the area-specific result image ARP are displayed has been described, but the present invention is not limited to this. The display control unit 411 may perform control such that the axis indicating a certain straight line direction and the time axis axt are displayed so that the directions thereof match. The axis indicating a certain linear direction may be, for example, the vertical direction of the area-specific result image ARP, or may be the direction in which the horizontal direction and the vertical direction of the area-specific result image ARP are combined.

また、上述では、着地リズム情報GRがエリア別結果画像ARPとして表示される場合について説明したが、これに限られない。表示制御部411は、着地リズム情報GRを示す結果画像RPを単位時間毎につなぎ合わせた動画として表示してもよい。 Moreover, although the case where the landing rhythm information GR is displayed as the area-based result image ARP has been described above, the present invention is not limited to this. The display control unit 411 may display the result image RP indicating the landing rhythm information GR as a moving image that is connected for each unit time.

<平均歩幅情報について>
平均歩幅情報ALSとは、対象者EPが歩行する際の足の歩幅の平均を示す情報である。具体的には、平均歩幅情報ALSには、対象者EPの右足の歩幅の平均を示す情報と、左足の歩幅の平均を示す情報とが含まれる。また、平均歩幅情報ALS1とは、対象者EPが10〜20mを歩行する際の平均歩幅情報ALSを示す情報である。
表示制御部411は、部位空間位置情報に含まれる右足位置RFLに基づいて、右足の着地位置間の距離である右足の歩幅を算出する。また、表示制御部411は、右足位置RFLを複数取得した場合、右足位置RFLに基づいて算出される右足の歩幅の平均を算出する。また、表示制御部411は、部位空間位置情報に含まれる左足位置LFLに基づいて、左足の着地位置間の距離である左足の歩幅を算出する。また、表示制御部411は、左足位置LFLを複数取得した場合、左足位置LFLに基づいて算出される左足の歩幅の平均を算出する。表示制御部411は、右足の歩幅の平均と、左足の歩幅の平均とを算出し、エリア別結果画像ARPに平均歩幅情報ALSとして表示する制御を行う。この一例では、表示制御部411は、10〜20mにおける右足の歩幅の平均と、左足の歩幅の平均とを算出し、エリア別結果画像ARP1に平均歩幅情報ALS1として表示する制御を行う。
<About average stride information>
The average stride information ALS is information indicating the average stride of the foot when the subject EP walks. Specifically, the average stride information ALS includes information indicating the average stride of the right foot of the subject EP and information indicating the average stride of the left foot. The average stride information ALS1 is information indicating the average stride information ALS when the subject EP walks 10 to 20 m.
The display control unit 411 calculates the stride of the right foot, which is the distance between the landing positions of the right foot, based on the right foot position RFL included in the part space position information. Further, when a plurality of right foot positions RFL are acquired, the display control unit 411 calculates an average stride of the right foot calculated based on the right foot position RFL. Further, the display control unit 411 calculates the stride of the left foot, which is the distance between the landing positions of the left foot, based on the left foot position LFL included in the part space position information. In addition, when a plurality of left foot positions LFL are acquired, the display control unit 411 calculates the average stride of the left foot calculated based on the left foot position LFL. The display control unit 411 performs control to calculate the average stride of the right foot and the average stride of the left foot, and display the average stride information ALS in the area-based result image ARP. In this example, the display control unit 411 performs control to calculate the average stride length of the right foot and the average stride length of the left foot in 10 to 20 m, and display the average stride information ALS1 in the area-based result image ARP1.

なお、上述では、表示制御部411が対象者EPの歩幅に関する情報を平均歩幅情報ALSとして表示を制御する一例について説明したが、これに限られない。表示制御部411は、右足位置RFL及び左足位置LFLに基づいて、対象者EPの歩幅の最大値を表示する制御を行ってもよい。また、表示制御部411は、右足位置RFL及び左足位置LFLに基づいて、対象者EPの歩幅の最小値を表示する制御を行ってもよい。
また、上述では、対象者EPの平均歩幅情報ALSには、右足の歩幅の平均と、左足の歩幅の平均とが含まれる一例について説明したが、これに限られない。表示制御部411は、対象者EPの右足と、左足との歩幅の平均を平均歩幅情報ALSとして表示する制御を行ってもよい。
In addition, although the display control part 411 demonstrated the example which controls the display regarding the information regarding the stride of the subject EP as the average stride information ALS in the above, the present invention is not limited to this. The display control unit 411 may perform control to display the maximum value of the stride of the subject EP based on the right foot position RFL and the left foot position LFL. In addition, the display control unit 411 may perform control to display the minimum value of the stride of the subject EP based on the right foot position RFL and the left foot position LFL.
Moreover, although the example in which the average stride information ALS of the subject EP includes the average stride of the right foot and the average stride of the left foot has been described above, the present invention is not limited to this. The display control unit 411 may perform control to display the average stride of the right foot and the left foot of the subject EP as the average stride information ALS.

<平均歩隔情報について>
平均歩隔情報AFDとは、対象者EPが歩行する際の右足と左足との歩行時のスタンスを示す情報である。また、平均歩隔情報AFD1とは、対象者EPが10〜20mを歩行する際の平均歩隔情報AFDを示す情報である。
例えば、表示制御部411は、部位空間位置情報に含まれる右足位置RFLが示す座標を結び、右足が進行する方向を示す右足軸を算出する。また、表示制御部411は、部位空間位置情報に含まれる左足位置LFLが示す座標を結び、左足が進行する方向を示す左足軸を算出する。表示制御部411は、右足軸及び左足軸と、直交又は略直交する方向における右足軸から左足軸までの距離である歩隔の平均を算出する。
表示制御部411は、歩隔の平均を算出し、エリア別結果画像ARPに平均歩隔情報AFDとして表示する制御を行う。この一例では、表示制御部411は、10〜20mにおける歩隔の平均を算出し、エリア別結果画像ARP1に平均歩隔情報AFD1として表示する制御を行う。
<About average step information>
The average stride information AFD is information indicating the stance of the right foot and the left foot when the subject EP walks. The average step information AFD1 is information indicating the average step information AFD when the subject EP walks 10 to 20 m.
For example, the display control unit 411 connects the coordinates indicated by the right foot position RFL included in the body part spatial position information, and calculates the right foot axis indicating the direction in which the right foot advances. The display control unit 411 also connects the coordinates indicated by the left foot position LFL included in the body part spatial position information, and calculates the left foot axis indicating the direction in which the left foot advances. The display control unit 411 calculates the average of the steps, which is the distance from the right foot axis to the left foot axis in the direction orthogonal or substantially orthogonal to the right foot axis and the left foot axis.
The display control unit 411 performs control to calculate the average of the steps and display the averaged step information AFD on the area-based result image ARP. In this example, the display control unit 411 performs control to calculate the average of the steps in 10 to 20 m and display it as the average step information AFD1 in the area-based result image ARP1.

なお、上述では、表示制御部411が対象者EPの歩隔に関する情報を平均歩隔情報AFDとして表示を制御する一例について説明したが、これに限られない。表示制御部411は、右足位置RFL及び左足位置LFLに基づいて、対象者EPの歩隔の最大値を表示する制御を行ってもよい。また、表示制御部411は、右足位置RFL及び左足位置LFLに基づいて、対象者EPの歩隔の最小値を表示する制御を行ってもよい。 In the above description, the example in which the display control unit 411 controls the display by using the information regarding the step of the subject EP as the average step information AFD has been described, but the present invention is not limited to this. The display control unit 411 may perform control to display the maximum value of the step of the subject EP based on the right foot position RFL and the left foot position LFL. Further, the display control unit 411 may perform control to display the minimum value of the step of the subject EP based on the right foot position RFL and the left foot position LFL.

<所要時間情報について>
所要時間情報TRとは、対象者EPが目標画像に応じて動作されるリハビリ対象部位TPの動作開始から動作終了までの時間を示す情報である。また、所要時間情報TR1とは、対象者EPが10〜20mを歩行する際の所要時間情報TRを示す情報である。
例えば、表示制御部411は、部位空間位置情報のうち、10mの位置において右足位置RFL又は左足位置LFLが検出された時刻と、部位空間位置情報のうち、10mの位置において最新の右足位置RFL又は左足位置LFLが検出された時刻との時間差を所要時間情報TR1として表示する制御を行う。
<About time required information>
The required time information TR is information indicating the time from the operation start to the operation end of the rehabilitation target site TP in which the subject EP operates according to the target image. The required time information TR1 is information indicating required time information TR when the subject EP walks 10 to 20 m.
For example, the display control unit 411 detects the time when the right foot position RFL or the left foot position LFL is detected at the position of 10 m in the part space position information, and the latest right foot position RFL or 10 L of the part space position information at the position of 10 m. The control for displaying the time difference from the time when the left foot position LFL is detected as required time information TR1 is performed.

<結果画像について:20〜30m>
図18に示す通り、エリア別結果画像ARP2には、20〜30mにおけるリハビリ対象部位TPである足の位置に関する情報として、経路情報RT2、軌跡情報TC2、着地タイミング情報GT2、着地リズム情報GR2、平均歩幅情報ALS2、平均歩隔情報AFD2、所要時間情報TR2及び立脚時間比較情報STD2が含まれる。
<About result image: 20-30m>
As shown in FIG. 18, in the area-based result image ARP2, route information RT2, trajectory information TC2, landing timing information GT2, landing rhythm information GR2, and average as information regarding the position of the foot that is the rehabilitation target site TP in 20 to 30 m. The step information ALS2, the average step information AFD2, the required time information TR2, and the standing time comparison information STD2 are included.

なお、上述では、表示制御部411がエリア別結果画像ARPとして10〜20mのエリア別結果画像ARP1と、20〜30mのエリア別結果画像ARP2とを出力部34に供給する場合について説明したが、これに限られない。表示制御部411は、リハビリテーションの一部の結果を示すエリア別結果画像ARPとして、他の部分のエリア別結果画像ARPを生成してもよい。また、表示制御部411は、10mより短い間隔によってエリア別結果画像ARPを生成してもよい。10mより短い間隔とは、例えば、2m〜5m間隔であってもよい。 In the above description, the case where the display control unit 411 supplies the area-based result image ARP1 of 10 to 20 m and the area-based result image ARP2 of 20 to 30 m as the area-based result image ARP to the output unit 34 has been described. It is not limited to this. The display control unit 411 may generate the area-based result image ARP of the other part as the area-based result image ARP that shows a part of the result of the rehabilitation. The display control unit 411 may also generate the area-specific result image ARP at intervals shorter than 10 m. The interval shorter than 10 m may be, for example, 2 m to 5 m.

<総合結果画像について:総合結果>
上述したように、総合結果画像TRPには、リハビリテーションの総合結果が示される。具体的には、図19に示す通り、総合結果画像TRPには、リハビリテーションの開始から終了まで(この一例では、10m〜60mまで)のリハビリ対象部位TPである足の位置に関する情報として、平均歩幅情報ALS3、平均歩隔情報AFD3、所要時間情報TR3、立脚時間比較情報STD3及び比較情報CRが含まれる。
比較情報CRとは、リハビリテーションの一部における対象者EPの足の位置に関する情報を比較する情報である。図19に示すように、この一例では、比較情報CRには、10〜20mの対象者EPのリハビリ対象部位TPに関する情報と、20〜30mの対象者EPのリハビリ対象部位TPに関する情報と、30〜40mの対象者EPのリハビリ対象部位TPに関する情報と、40〜50mの対象者EPのリハビリ対象部位TPに関する情報と、50〜60mの対象者EPのリハビリ対象部位TPに関する情報との比較を示す情報とが含まれる。比較情報CRに示される対象者EPのリハビリ対象部位TPに関する情報とは、例えば、平均歩幅情報ALS、平均歩隔情報AFD、及び対象者EPの歩行速度である。
<About the overall result image: Overall result>
As described above, the comprehensive result image TRP shows the overall result of rehabilitation. Specifically, as shown in FIG. 19, in the overall result image TRP, as the information on the position of the foot which is the rehabilitation target site TP from the start to the end of rehabilitation (in this example, from 10 m to 60 m), the average stride length is set. Information ALS3, average stride information AFD3, required time information TR3, stance time comparison information STD3, and comparison information CR are included.
The comparison information CR is information for comparing information regarding the position of the foot of the subject EP in part of the rehabilitation. As shown in FIG. 19, in this example, the comparison information CR includes information about the rehabilitation target site TP of the subject EP of 10 to 20 m, information about the rehabilitation target site TP of the subject EP of 20 to 30 m, and 30. The information regarding the rehabilitation target site TP of the subject EP of -40 m, the information regarding the rehabilitation target site TP of the subject EP of 40-50 m, and the information regarding the rehabilitation target site TP of the subject EP of 50-60 m are shown. Information and are included. The information on the rehabilitation target site TP of the subject EP indicated in the comparison information CR is, for example, the average stride information ALS, the average stride information AFD, and the walking speed of the subject EP.

<表示制御部の具体例:過去と現在との比較>
なお、上述では、センサ部100が出力する部位空間位置情報に基づいて、表示制御部411が結果画像RP及びエリア別結果画像ARPを生成する場合について説明したが、これに限られない。表示制御部411は、検出履歴情報記憶部335に記憶される部位空間位置情報に基づいて、結果画像RP及びエリア別結果画像ARPを生成してもよい。
以降の説明において、センサ部100がある時期(この一例では、現在)に検出する空間位置情報及び部位空間位置情報を総称して第1空間位置情報と記載する。また、センサ部100が第1空間位置情報よりも過去に出力した空間位置情報及び部位空間位置情報を総称して第2空間位置情報と記載する。この一例では、検出履歴情報記憶部335には、第2空間位置情報が予め記憶される。表示制御部411は、第1空間位置情報に基づくリハビリ対象部位TPに関する情報と、第2空間位置情報に基づくリハビリ対象部位TPに関する情報とを結果画像RPとして表示する制御を行ってもよい。
<Specific example of display control unit: comparison between past and present>
In the above description, the case where the display control unit 411 generates the result image RP and the area-specific result image ARP based on the region spatial position information output by the sensor unit 100 has been described, but the present invention is not limited to this. The display control unit 411 may generate the result image RP and the area-specific result image ARP based on the region spatial position information stored in the detection history information storage unit 335.
In the following description, the spatial position information and the part spatial position information detected at a certain time (currently in this example) of the sensor unit 100 are collectively referred to as the first spatial position information. Further, the spatial position information and the part spatial position information output by the sensor unit 100 earlier than the first spatial position information are collectively referred to as the second spatial position information. In this example, the detection history information storage unit 335 stores the second spatial position information in advance. The display control unit 411 may perform control such that information about the rehabilitation target site TP based on the first spatial position information and information about the rehabilitation target site TP based on the second spatial position information are displayed as the result image RP.

具体的には、表示制御部411は、第1空間位置情報に基づく軌跡情報TCと、第2空間位置情報位置情報に基づく軌跡情報TCとを重ねて示す結果画像RPの表示を制御してもよい。また、表示制御部411は、第1空間位置情報に基づく着地タイミング情報GTと、第2空間位置情報に基づく着地タイミング情報GTとを重ねて示す結果画像RPの表示を制御してもよい。また、表示制御部411は、第1空間位置情報に基づく平均歩幅情報ALSと、第2空間位置情報に基づく平均歩幅情報ALSとを比較する結果画像RPの表示を制御してもよい。平均歩幅情報ALSを比較する結果画像RPの表示とは、例えば、第1空間位置情報に基づく平均歩幅情報ALSと、第2空間位置情報に基づく平均歩幅情報ALSとの差分を示す表示であってもよい。また、平均歩幅情報ALSを比較する結果画像RPの表示とは、例えば、第1空間位置情報に基づく平均歩幅情報ALSと、第2空間位置情報に基づく平均歩幅情報ALSとを並べて示す表示であってもよい。また、表示制御部411は、第1空間位置情報に基づく平均歩隔情報AFD及び所要時間情報TRと、第2空間位置情報に基づく平均歩隔情報AFD及び所要時間情報TRとについても、平均歩幅情報ALSと同様に、各情報を並べて比較する結果画像RPの表示を制御してもよい。 Specifically, the display control unit 411 also controls the display of the result image RP that shows the track information TC based on the first spatial position information and the track information TC based on the second spatial position information position information in an overlapping manner. Good. The display control unit 411 may also control the display of the result image RP that shows the landing timing information GT based on the first spatial position information and the landing timing information GT based on the second spatial position information in an overlapping manner. Further, the display control unit 411 may control the display of the result image RP that compares the average stride information ALS based on the first spatial position information with the average stride information ALS based on the second spatial position information. The display of the result image RP for comparing the average stride information ALS is, for example, a display showing the difference between the average stride information ALS based on the first spatial position information and the average stride information ALS based on the second spatial position information. Good. The display of the result image RP for comparing the average stride information ALS is, for example, a display in which the average stride information ALS based on the first spatial position information and the average stride information ALS based on the second spatial position information are shown side by side. May be. In addition, the display control unit 411 also averages the average stride information AFD and the required time information TR based on the first spatial position information and the average stride information AFD and the required time information TR based on the second spatial position information. Similar to the information ALS, the display of the result image RP for side by side comparison of each information may be controlled.

<第5実施形態のまとめ>
以上説明したように、本実施形態のリハビリテーション支援装置5が備える表示制御部411は、センサ部100が出力する空間位置情報に基づいて、対象者EPの体の特定部位の空間位置情報である部位空間位置情報に関する情報(この一例では、結果画像RP、エリア別結果画像ARP)の表示を制御する。投射部200は、リハビリテーション支援装置5が制御する表示を出力する。対象者EPは、当該表示を確認することによって、リハビリテーションに応じて当該対象者EPの体の一部が動作した結果を客観的に確認することができる。対象者EPは、当該対象者EPの体の一部が動作した結果を客観的に確認することによって、当該結果を以降のリハビリテーションの参考にすることができる。また、本実施形態のリハビリテーション支援装置5によれば、当該リハビリテーション支援装置5が移動することによって比較的長距離のリハビリテーションの結果を対象者EPに示すことができる。
したがって、本実施形態のリハビリテーション支援装置5によれば、対象者EPのリハビリテーションを支援することができる。
<Summary of Fifth Embodiment>
As described above, the display control unit 411 included in the rehabilitation support apparatus 5 of the present embodiment is a part that is the spatial position information of the specific part of the body of the target person EP based on the spatial position information output by the sensor unit 100. The display of information on the spatial position information (result image RP, area-specific result image ARP in this example) is controlled. The projection unit 200 outputs a display controlled by the rehabilitation support device 5. By checking the display, the target person EP can objectively check the result of the movement of a part of the body of the target person EP in response to the rehabilitation. The target person EP can refer to the result for subsequent rehabilitation by objectively confirming the result of movement of a part of the body of the target person EP. Further, according to the rehabilitation support apparatus 5 of the present embodiment, the result of the rehabilitation for a relatively long distance can be shown to the target person EP by moving the rehabilitation support apparatus 5.
Therefore, according to the rehabilitation support device 5 of the present embodiment, it is possible to support the rehabilitation of the subject EP.

また、本実施形態のリハビリテーション支援装置5が備える表示制御部411は、空間位置情報に関する情報を特定部位と同一の尺度において示す表示を制御する。具体的には、具体的には、本実施形態のリハビリテーション支援装置5は、リハビリテーションに応じて対象者EPの体の一部が動作した際の結果(この一例では、結果画像RP、エリア別結果画像ARP)を投射部200の投影範囲に実寸大で表示する制御を行う。また、本実施形態のリハビリテーション支援装置5によれば、当該リハビリテーション支援装置5が移動することによって比較的長距離のリハビリテーションの結果を対象者EPに示すことができる。
したがって、本実施形態のリハビリテーション支援装置5によれば、投射部200がディスプレイ等である場合と比較して、比較的長距離の動作結果をより詳細に表示することができる。
In addition, the display control unit 411 included in the rehabilitation support apparatus 5 of the present embodiment controls the display of information regarding the spatial position information on the same scale as the specific part. Specifically, the rehabilitation support apparatus 5 of the present embodiment specifically shows the result when a part of the body of the subject EP moves in response to the rehabilitation (in this example, the result image RP, the result by area). Control is performed to display the image ARP) in the projection range of the projection unit 200 at an actual size. Further, according to the rehabilitation support apparatus 5 of the present embodiment, the result of the rehabilitation for a relatively long distance can be shown to the target person EP by moving the rehabilitation support apparatus 5.
Therefore, according to the rehabilitation support apparatus 5 of the present embodiment, it is possible to display the operation result of a relatively long distance in more detail as compared with the case where the projection unit 200 is a display or the like.

また、本実施形態のリハビリテーション支援装置5では、表示制御部411は、対象者EPの体を検出するセンサ部100が出力する部位空間位置情報に基づいて、対象者EPの特定部位がセンサ部100に検出される検出位置(本実施形態の一例では、検出範囲800)から対象者EPが視認する範囲(本実施形態の一例では、投射領域900)に位置に関する情報(この一例では、結果画像RP、エリア別結果画像ARP)の表示を制御する。 Further, in the rehabilitation support device 5 of the present embodiment, the display control unit 411 determines that the specific part of the target person EP is the sensor part 100 based on the part spatial position information output by the sensor part 100 that detects the body of the target person EP. Information on the position (in this example, the result image RP) from the detection position (detection range 800 in the example of this embodiment) detected by the target person EP to the range (projection area 900 in the example of this embodiment) visually recognized by , Control display of area-based result image ARP).

本実施形態のリハビリテーション支援装置5は、リハビリテーションに応じて対象者EPの特定部位が動作した際の動作した際の結果を投射部200の投射領域900に出力する表示の制御を行う。
ここで、対象者EP及び対象者EPの親族等複数の人がリハビリテーションの結果を確認する場合がある。この場合、本実施形態のリハビリテーション支援装置5によれば、対象者EP及び対象者EPの親族等は、投射部200がディスプレイ等である場合と比較して、結果画像RPを容易に確認することができる。
The rehabilitation support device 5 of the present embodiment controls the display of outputting the result of the operation when the specific part of the target person EP operates according to the rehabilitation to the projection area 900 of the projection unit 200.
Here, a plurality of persons such as the target person EP and the relatives of the target person EP may check the rehabilitation result. In this case, according to the rehabilitation support apparatus 5 of the present embodiment, the target person EP and the relatives of the target person EP can easily confirm the result image RP as compared with the case where the projection unit 200 is a display or the like. You can

また、本実施形態のリハビリテーション支援装置5は、センサ部100が第1の時期に出力する空間位置情報である第1空間位置情報と、前記第1の時期よりも過去の第2の時期に出力した空間位置情報である第2空間位置情報とに関する情報の表示を制御する。 In addition, the rehabilitation assistance device 5 of the present embodiment outputs the first spatial position information, which is the spatial position information that the sensor unit 100 outputs at the first time, and the second spatial time that is earlier than the first time. The display of information regarding the second spatial position information, which is the spatial position information that has been set, is controlled.

ここで、対象者EPは、当該対象者EPのリハビリテーションの経過を客観的に確認することが困難である場合があった。
本実施形態のリハビリテーション支援装置5は、対象者EPの体の位置が過去に検出された部位空間位置情報と、当該部位空間位置情報が検出されたよりも後に検出された部位空間位置情報とに基づいて、リハビリテーションの効果を客観的に確認することができる。
Here, there are cases where it is difficult for the subject EP to objectively confirm the progress of rehabilitation of the subject EP.
The rehabilitation support device 5 of the present embodiment is based on the part space position information in which the position of the body of the subject EP is detected in the past and the part space position information detected after the part space position information is detected. Therefore, the effect of rehabilitation can be confirmed objectively.

なお、上述では、リハビリテーション支援装置5は、対象者EPの過去の部位空間位置情報と、当該対象者EPの現在の部位空間位置情報とに基づいて結果画像RPの表示を制御する場合について説明したが、これに限られない。
リハビリテーション支援装置5は、対象者EPの特定部位の動作の基準を示す基準情報と、当該対象者EPの現在の部位空間位置情報とに基づいて結果画像RPの表示を制御してもよい。
In addition, above, the rehabilitation assistance apparatus 5 demonstrated the case where the display of the result image RP was controlled based on the past part space position information of the subject EP and the current part space position information of the subject EP. However, it is not limited to this.
The rehabilitation support apparatus 5 may control the display of the result image RP based on the reference information indicating the reference of the operation of the specific part of the target person EP and the current part space position information of the target person EP.

ここで、対象者EPは、当該対象者EPのリハビリテーションの結果と、リハビリテーションの目標との乖離を客観的に確認することが困難である場合があった。
本実施形態のリハビリテーション支援装置5は、対象者EPの特定部位が検出された部位空間位置情報と、当該対象者EPのリハビリテーションの目標を示す基準情報とに基づいて、リハビリテーションの目標までの乖離を客観的に確認することができる。
Here, there are cases where it is difficult for the subject EP to objectively confirm the difference between the rehabilitation result of the subject EP and the rehabilitation goal.
The rehabilitation support device 5 of the present embodiment, based on the site spatial position information where the specific site of the target person EP is detected and the reference information indicating the target of rehabilitation of the target person EP, the deviation to the target of rehabilitation. It can be confirmed objectively.

また、上述では、リハビリテーション支援装置5は、対象者EPの過去の部位空間位置情報と、当該対象者EPの現在の部位空間位置情報とに基づいて結果画像RPの表示を制御する場合について説明したが、これに限られない。
リハビリテーション支援装置5は、対象者EPの特定部位の動作の過去の部位空間位置情報に基づく予測を示す予測情報と、当該対象者EPの現在の部位空間位置情報とに基づいて結果画像RPの表示を制御してもよい。
Moreover, in the above, the case where the rehabilitation support apparatus 5 controls the display of the result image RP based on the past part space position information of the target person EP and the current part space position information of the target person EP has been described. However, it is not limited to this.
The rehabilitation support apparatus 5 displays the result image RP based on the prediction information indicating the prediction of the motion of the specific part of the target person EP based on the past part spatial position information and the current part spatial position information of the target person EP. May be controlled.

ここで、対象者EPは、当該対象者EPのリハビリテーションの結果と、リハビリテーションの目標との乖離を客観的に確認することが困難である場合があった。
本実施形態のリハビリテーション支援装置5は、対象者EPの特定部位が検出された部位空間位置情報と、当該対象者EPのリハビリテーションの目標を示す予測情報とに基づいて、リハビリテーションの目標との乖離を客観的に確認することができる。
Here, there are cases where it is difficult for the subject EP to objectively confirm the difference between the rehabilitation result of the subject EP and the rehabilitation goal.
The rehabilitation support device 5 of the present embodiment, based on the site spatial position information in which the specific site of the target person EP is detected, and the prediction information indicating the target of rehabilitation of the target person EP, the deviation from the target of rehabilitation. It can be confirmed objectively.

本実施形態のリハビリテーション支援装置5は、対象者EPの特定部位が検出された部位空間位置情報と、他の情報とに基づいて、結果画像RPの表示の制御を行う。これにより、対象者EPは、リハビリテーションの結果と他の情報とを比較することによって、当該リハビリテーションの結果の程度を認識することができる。 The rehabilitation support apparatus 5 of the present embodiment controls the display of the result image RP based on the site spatial position information in which the specific site of the subject EP is detected and other information. Thereby, the subject EP can recognize the degree of the result of the rehabilitation by comparing the result of the rehabilitation with other information.

なお、表示制御部411は、対象者EPの特定部位が検出された部位空間位置情報に基づいて、結果画像RPの表示を制御する構成に代えて、対象者EPの体が検出された空間位置情報に基づいて、結果画像RPの表示を制御する構成を有していてもよい。 The display control unit 411 is configured to control the display of the result image RP based on the part spatial position information in which the specific part of the target person EP is detected, instead of the spatial position where the body of the target person EP is detected. You may have the structure which controls the display of the result image RP based on information.

上述した各装置が備える各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。上述した各装置が実行するプログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。各プログラムは、電気通信回線を介して送信されてもよい。 All or a part of each function provided in each device described above may be realized by hardware such as ASIC (Application Specific Integrated Circuit), PLD (Programmable Logic Device), or FPGA (Field Programmable Gate Array). The program executed by each device described above may be recorded in a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in a computer system. Each program may be transmitted via a telecommunication line.

1、2、3、4、5…リハビリテーション支援装置、300、301、302、303、304…制御装置、32、35、36、37、41…制御部、321…移動制御部、351…誘導画像制御部、361…距離取得部、411…表示制御部、371…パラメータ取得部、33、38、42…記憶部、331…キャリブレーション情報記憶部、332…プログラム情報記憶部、333…投射画像情報記憶部、334…パラメータ情報記憶部、335…検出履歴情報記憶部、31…入力部、34…出力部、39…操作部、40…表示部、310…脚部、100…センサ部、200…投射部、400…駆動部、500、511、512、513、514…車輪、800…検出範囲、900…投射領域、901…端点、FL…フロア、EP…対象者、TP…リハビリ対象部位、GP、GP1、GP22、GP5…誘導画像、PP、PP1、PP12、PP2…投射画像、RP、RP3…結果画像、TRP…総合結果画像 1, 2, 3, 4, 5... Rehabilitation support device, 300, 301, 302, 303, 304... Control device, 32, 35, 36, 37, 41... Control unit, 321... Movement control unit, 351... Guidance image Control unit, 361... Distance acquisition unit, 411... Display control unit, 371... Parameter acquisition unit, 33, 38, 42... Storage unit, 331... Calibration information storage unit, 332... Program information storage unit, 333... Projection image information Storage section, 334... Parameter information storage section, 335... Detection history information storage section, 31... Input section, 34... Output section, 39... Operation section, 40... Display section, 310... Leg section, 100... Sensor section, 200... Projection unit, 400... Drive unit, 500, 511, 512, 513, 514... Wheels, 800... Detection range, 900... Projection area, 901... End point, FL... Floor, EP... Target person, TP... Rehabilitation target site, GP , GP1, GP22, GP5... Guided image, PP, PP1, PP12, PP2... Projected image, RP, RP3... Result image, TRP... Overall result image

Claims (5)

本体と、
リハビリテーションの対象者の動作に応じて変化する前記対象者の位置を取得するセンサ部と、
前記位置の取得結果に基づいて前記本体を移動させることが可能な駆動部と、
前記対象者の進行方向の前方の投射範囲に前記動作を誘導する誘導画像を投射する投射部と、
記憶部と、
を備え、
1つの前記リハビリテーションは、第1部分と第2部分とを含み、
前記投射部は、前記第1部分及び前記第2部分におけるリハビリテーションの結果の比較情報を前記投射範囲に投射することが可能であり、
前記投射部は、異なる時期の前記リハビリテーションの結果の比較情報を前記投射範囲に投射することが可能であ
前記投射部は、前記誘導画像を投射する投射方向を変更するモータを含み、
前記記憶部は、前記誘導画像の投射位置から前記本体までの基準距離に対応する投射角度を保持し、
前記モータは、前記本体の移動距離と、前記基準距離と、に基づいて、前記本体の移動する方向とは逆の方向であって、前記移動距離に応じた投射角度となるように、前記投射角度を変更する、リハビリテーション支援装置。
Body,
A sensor unit that acquires the position of the subject who changes according to the motion of the subject of rehabilitation,
A drive unit capable of moving the main body based on the acquisition result of the position;
A projection unit that projects a guide image that guides the operation in a projection range in the forward direction of the subject.
Storage part,
Equipped with
One said rehabilitation comprises a first part and a second part,
The projection unit is capable of projecting comparison information of results of rehabilitation in the first portion and the second portion onto the projection range,
The projection portion is Ri can der be projected comparative information of the results of the rehabilitation of different times in the projection range,
The projection unit includes a motor that changes a projection direction for projecting the guidance image,
The storage unit holds a projection angle corresponding to a reference distance from the projection position of the guide image to the main body,
Based on the moving distance of the main body and the reference distance, the motor is in a direction opposite to the moving direction of the main body, and the projection angle is set according to the moving distance. Rehabilitation support device that changes the angle .
本体と、
リハビリテーションの対象者の動作に応じて変化する前記対象者の位置を取得するセンサ部と、
前記位置の取得結果に基づいて前記本体を移動させることが可能な駆動部と、
前記対象者の進行方向の前方の投射範囲に前記動作を誘導する誘導画像を投射する投射部と、
前記誘導画像の位置を制御する制御部と、
前記対象者の足の機能回復に応じた足用表示パラメータを取得するパラメータ取得部と、
を備え、
1つの前記リハビリテーションは、第1部分と第2部分とを含み、
前記投射部は、前記第1部分及び前記第2部分におけるリハビリテーションの結果の比較情報を前記投射範囲に投射することが可能であり、
前記投射部は、異なる時期の前記リハビリテーションの結果の比較情報を前記投射範囲に投射することが可能であ
前記制御部は、前記対象者のリハビリテーションの難易度を高くするときに、前記対象者の足のスタンスが狭くなるよう前記誘導画像の位置を変更し、
前記制御部は、リハビリテーションの難易度に応じて、直線的に足を移動させるような前記誘導画像の位置と、曲線的に足を移動させるような前記誘導画像の位置と、を切り替え、
前記投射部は、前記足用表示パラメータに基づく位置に前記誘導画像を投射する、リハビリテーション支援装置。
Body,
A sensor unit that acquires the position of the subject who changes according to the motion of the subject of rehabilitation,
A drive unit capable of moving the main body based on the acquisition result of the position;
A projection unit that projects a guide image that guides the operation in a projection range in the forward direction of the subject.
A control unit for controlling the position of the guide image,
A parameter acquisition unit for acquiring display parameters for the foot according to the functional recovery of the foot of the subject,
Equipped with
One said rehabilitation comprises a first part and a second part,
The projection unit is capable of projecting comparison information of results of rehabilitation in the first portion and the second portion onto the projection range,
The projection portion is Ri can der be projected comparative information of the results of the rehabilitation of different times in the projection range,
The control unit changes the position of the guide image so that the stance of the subject's foot becomes narrower when the difficulty level of rehabilitation of the subject is increased,
The control unit switches between the position of the guide image that moves the foot linearly and the position of the guide image that moves the foot curvedly, according to the difficulty level of rehabilitation,
The rehabilitation assistance device , wherein the projection unit projects the guidance image at a position based on the foot display parameter .
前記本体が第1位置にあるときに、前記投射部は第2位置に前記誘導画像を投射し、前記本体が前記第1位置とは異なる第3位置にあるときに、前記投射部は前記第2位置に前記誘導画像を投射する、請求項1または請求項2に記載のリハビリテーション支援装置。 When the main body is in the first position, the projection unit projects the guide image to the second position, and when the main body is in the third position different from the first position, the projection unit is The rehabilitation assistance device according to claim 1, wherein the guidance image is projected at two positions. 前記誘導画像の位置を制御する制御部と、
前記対象者の足の機能回復に応じた足用表示パラメータを取得するパラメータ取得部と、
を更に備え、
前記制御部は、前記対象者のリハビリテーションの難易度を高くするときに、前記対象者の足のスタンスが狭くなるよう前記誘導画像の位置を変更し、
前記制御部は、リハビリテーションの難易度に応じて、直線的に足を移動させるような前記誘導画像の位置と、曲線的に足を移動させるような前記誘導画像の位置と、を切り替え、
前記投射部は、前記足用表示パラメータに基づく位置に前記誘導画像を投射する、請求項1に記載のリハビリテーション支援装置。
A control unit for controlling the position of the guide image,
A parameter acquisition unit for acquiring a foot display parameter according to the functional recovery of the foot of the subject,
Further equipped with,
The control unit changes the position of the guide image so that the stance of the subject's foot becomes narrower when the difficulty level of rehabilitation of the subject is increased,
The control unit switches between the position of the guide image that moves the foot linearly and the position of the guide image that moves the foot in a curved line according to the difficulty level of rehabilitation,
The rehabilitation assistance device according to claim 1, wherein the projection unit projects the guidance image at a position based on the foot display parameter.
前記投射部は、前記対象者の足の移動距離に係る前記足用表示パラメータである足用距離パラメータ、前記対象者の足の移動時間に係る前記足用表示パラメータである足用時間パラメータ、及び前記対象者の足の移動方向に係る前記足用表示パラメータである足用ベクトルパラメータ、のうちの少なくとも1つに基づく位置に前記誘導画像を投射する、請求項2または請求項4に記載のリハビリテーション支援装置。 The projection unit is a foot distance parameter that is the foot display parameter related to the movement distance of the foot of the target person, a foot time parameter that is the foot display parameter related to the movement time of the foot of the target person, and The rehabilitation according to claim 2 or 4, wherein the guidance image is projected at a position based on at least one of the foot vector parameter that is the foot display parameter related to the moving direction of the foot of the subject. Support device.
JP2016190975A 2016-09-29 2016-09-29 Rehabilitation support device Active JP6747925B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016190975A JP6747925B2 (en) 2016-09-29 2016-09-29 Rehabilitation support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016190975A JP6747925B2 (en) 2016-09-29 2016-09-29 Rehabilitation support device

Publications (3)

Publication Number Publication Date
JP2018050989A JP2018050989A (en) 2018-04-05
JP2018050989A5 JP2018050989A5 (en) 2019-04-04
JP6747925B2 true JP6747925B2 (en) 2020-08-26

Family

ID=61832633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016190975A Active JP6747925B2 (en) 2016-09-29 2016-09-29 Rehabilitation support device

Country Status (1)

Country Link
JP (1) JP6747925B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102125254B1 (en) * 2018-05-15 2020-06-22 (주)블루클라우드 User-recognized walking motion measurement system and method for measuring walking motion using the same
JP2021074066A (en) * 2019-11-06 2021-05-20 花王株式会社 Walking guidance system
KR102317196B1 (en) * 2019-11-19 2021-10-25 대한민국 Virtual Reality Based Overground Walking Training System and Method
JP7179364B2 (en) * 2020-06-15 2022-11-29 株式会社mediVR Rehabilitation support system, rehabilitation support method and rehabilitation support program
CN114366563B (en) * 2022-01-17 2023-12-22 山东科技大学 Parallel ankle rehabilitation robot system based on machine vision

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004089355A (en) * 2002-08-30 2004-03-25 Taito Corp Walking exercise device
JP2006296714A (en) * 2005-04-20 2006-11-02 Hitachi Plant Technologies Ltd Standing posture training device
JP4749897B2 (en) * 2006-03-15 2011-08-17 ニッタ株式会社 Walking training support device
JP5633779B2 (en) * 2010-04-30 2014-12-03 国立大学法人九州工業大学 Self-supporting walking support device
TWI535432B (en) * 2014-09-01 2016-06-01 國立臺灣大學 Rehabilitation device with pace pattern projecting function and seat structure and control method thereof
JP6645658B2 (en) * 2014-10-03 2020-02-14 国立大学法人豊橋技術科学大学 Mobile training support device
US9675515B2 (en) * 2015-04-27 2017-06-13 Chimei Medical Center Mobility aid with rehabilitative and guiding functions and rehabilitation and guiding method thereof

Also Published As

Publication number Publication date
JP2018050989A (en) 2018-04-05

Similar Documents

Publication Publication Date Title
JP6747925B2 (en) Rehabilitation support device
US10366617B2 (en) Walking training apparatus and walking training method
KR20190029175A (en) Rehabilitation training system and rehabilitation training method using the same
US8532841B2 (en) Rehabilitation device
EP3407152B1 (en) Method of controlling a cleaner
CN114845785A (en) Intelligent running machine
US10105028B2 (en) Cleaner
US10993871B2 (en) Walking support robot and walking support method
KR101461201B1 (en) Swing exercise system of golf and exercise method thereof
JP7052762B2 (en) Balance training device and control program for balance training device
JP2016136916A (en) Injurious insect expelling device, and injurious insect expelling method
KR20160084672A (en) A health apparatus and a controlling method thererof
KR101579382B1 (en) A balance keeping apparatus using soccer game
JP4311355B2 (en) Self-propelled device and its program
JP6623122B2 (en) Rehabilitation support control device and computer program
JP2017217277A (en) Rehabilitation support control apparatus and computer program
KR20170099755A (en) Head mount display for walking simulator
JP6744139B2 (en) Rehabilitation support control device and computer program
JP6891803B2 (en) Walking aid
KR20130042844A (en) Indoor exercise compensating position system
JP6441417B2 (en) Rehabilitation support system and computer program
JP2020146324A (en) Balance training apparatus
JP2017217275A (en) Rehabilitation support control apparatus and computer program
TW201838579A (en) Method for operating a self-traveling floor treatment apparatus
JP2019177053A (en) Walking assistance device and control program thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190225

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190225

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20190424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200806

R150 Certificate of patent or registration of utility model

Ref document number: 6747925

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250