WO2018123293A1 - 出力制御装置、出力制御方法、およびプログラム - Google Patents

出力制御装置、出力制御方法、およびプログラム Download PDF

Info

Publication number
WO2018123293A1
WO2018123293A1 PCT/JP2017/040601 JP2017040601W WO2018123293A1 WO 2018123293 A1 WO2018123293 A1 WO 2018123293A1 JP 2017040601 W JP2017040601 W JP 2017040601W WO 2018123293 A1 WO2018123293 A1 WO 2018123293A1
Authority
WO
WIPO (PCT)
Prior art keywords
output control
output
difference
unit
stimulus
Prior art date
Application number
PCT/JP2017/040601
Other languages
English (en)
French (fr)
Inventor
伊藤 鎮
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201780079285.4A priority Critical patent/CN110099727B/zh
Priority to JP2018558879A priority patent/JP6984613B2/ja
Priority to EP17888695.8A priority patent/EP3563911B1/en
Priority to US16/467,340 priority patent/US20200074880A1/en
Publication of WO2018123293A1 publication Critical patent/WO2018123293A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B6/00Tactile signalling systems, e.g. personal calling systems
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B2071/0655Tactile feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/62Time or time measurement used for time reference, time stamp, master time or clock signal
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/803Motion sensors
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/83Special sensors, transducers or devices therefor characterised by the position of the sensor
    • A63B2220/836Sensors arranged on the body of the user
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/0015Dancing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • G09B19/0038Sports

Definitions

  • the present disclosure relates to an output control device, an output control method, and a program.
  • Patent Document 1 discloses a technique for identifying an action similar to an action performed by a user based on sensor information collected from a sensor device attached to a sports equipment, and providing feedback to the user according to the action. Has been.
  • Patent Document 1 only provides feedback for actions similar to the actions performed by the user, and the user intuitively grasps the difference between the target action and the action performed by the user. Is difficult.
  • the above-described processing is realized using sensor information collected from a single sensor device attached to an instrument. For this reason, in the technique described in Patent Document 1, it may be difficult to support the progress of a complicated technique that requires a plurality of operations at the same time.
  • the present disclosure proposes a new and improved output control device, output control method, and program that can more intuitively support the acquisition of complicated technology by the user.
  • a calculation unit that calculates a difference between master data and motion data collected by a plurality of sensor units included in the device, and output control related to a plurality of output units included in the device based on the difference.
  • An output control unit that performs output control, and the output control unit causes a target output unit arranged at a position corresponding to the sensor unit that collected the motion data to output a tactile stimulus based on the difference.
  • the processor calculates the difference between the master data and the motion data collected by the plurality of sensor units included in the device, and the plurality of output units included in the device based on the difference.
  • Performing the output control includes outputting a tactile stimulus to a target output unit arranged at a position corresponding to the sensor unit that collected the motion data based on the difference.
  • the output control method is further provided.
  • the computer includes a calculation unit that calculates a difference between master data and motion data collected by a plurality of sensor units included in the device, and a plurality of output units included in the device based on the difference.
  • An output control unit that performs output control according to the method, wherein the output control unit applies a tactile stimulus to a target output unit arranged at a position corresponding to the sensor unit that collected the motion data based on the difference.
  • a program for causing an output to function as an output control device is provided.
  • FIG. 2 is a functional block diagram of a device and an output control apparatus according to the embodiment.
  • FIG. It is a figure for demonstrating the guide stimulus which concerns on the same embodiment. It is a figure which shows the structure of the device and output control apparatus which are used for the dance practice which concerns on the same embodiment. It is a figure which shows the example of the output control of the 1st time in the learning stage which concerns on the embodiment. It is a figure which shows the example of the 2nd output control in the learning stage which concerns on the same embodiment. It is a figure which shows the example of the Nth output control in the learning stage which concerns on the embodiment.
  • Embodiment 1.1 Outline of Embodiment 1.2.
  • Functional configuration example of device 10 1.3.
  • Functional configuration example of output control device 20 1.4. Specific example of output control by the output control unit 240 1.5.
  • Example of master data generation 1.6.
  • 1. Flow of operation of output control device 20 2.
  • Patent Document 1 discloses a technique for determining a shot type based on sensor information collected from a sensor device attached to a tennis racket and presenting feedback to the user according to the shot type.
  • a motion like a tennis shot not only the dominant hand handling a tennis racket but also the movement of the opposite hand for balancing and the movement of the center of gravity of both legs are very important factors. For this reason, with the technique described in Patent Document 1, it is difficult for the user to determine which part of his / her part contributed even when it is determined that the shot was successful.
  • Patent Document 1 the user can recognize whether the operation performed by himself / herself has been successful or at what level, but what kind of improvement can be made in order to perform the target operation. It is difficult to perceive what to do.
  • the output control device, the output control method, and the program according to the present embodiment calculate a difference between master data corresponding to the target motion and motion data acquired from a plurality of sensor units.
  • the output control device, the output control method, and the program according to the present embodiment cause the target output unit arranged at a position corresponding to the sensor unit that collected the motion data to output a tactile stimulus based on the difference. Is one of the characteristics.
  • FIG. 1 is a diagram for explaining the outline of the present embodiment.
  • an advanced person P0 wearing four sensor devices 910a to 910d is shown.
  • a target user U0 wearing the device 10 according to the present embodiment is shown.
  • FIG. 1 shows an example in which the device 10 according to the present embodiment includes four sensor units 110a to 110d and four output units 120a to 120d.
  • the output control device 20 is characterized by calculating the difference between the master data and the motion data.
  • the master data according to the present embodiment may be data corresponding to an operation targeted by the target user.
  • the master data is generated based on sensor information collected by the sensor devices 910a to 910d worn by the advanced person P0.
  • the advanced person according to the present embodiment may be a professional or an instructor who has superior technology compared to the target user.
  • the output control device 20 processes the collected sensor information based on the action of the advanced user P0 based on the physical characteristics of the target user to generate master data.
  • the output control device 20 may perform the above processing based on data relating to the height Hp of the advanced user P0 and the height Hu of the target user.
  • the motion data according to the present embodiment may be sensor information collected by the sensor units 110a to 110d included in the device 10. That is, the motion data according to the present embodiment is sensor information collected based on an operation performed by the target user.
  • the output control device 20 can calculate the difference between the master data and the motion data for each corresponding position or part. For example, in the example illustrated in FIG. 1, the output control device 20 calculates a difference between the master data generated based on the sensor device 910a and the motion data collected by the sensor unit 110a. Similarly, the output control device 20 may calculate the difference by associating the sensor device 910b with the sensor unit 110b, the sensor device 910c with the sensor unit 110c, and the sensor device 910d with the sensor unit 110d.
  • the output control device 20 when the output control device 20 according to the present embodiment detects a difference between the master data and the motion data, the output control device 20 causes the target output unit to output a tactile stimulus.
  • the target output unit refers to an output unit disposed at a position corresponding to a sensor unit that collects motion data in which a difference from master data is detected.
  • FIG. 1 illustrates a case where a difference is detected between master data based on sensor information collected by the sensor device 910a and motion data collected by the sensor unit 110a.
  • the output control device 20 may cause the output unit 120a arranged in the upper right arm portion to output the tactile stimulus T1 as in the sensor unit 110a.
  • the output control device 20 can cause the target output unit to output a tactile stimulus based on the difference between the master data and the motion data. At this time, the output control device 20 according to the present embodiment can control the haptic stimulus to be output to the target output unit based on the type or size of the difference.
  • functional configurations of the device 10 and the output control apparatus 20 for realizing the above functions will be described.
  • FIG. 2 is a functional block diagram of the device 10 and the output control apparatus 20 according to the present embodiment.
  • the device 10 according to the present embodiment includes a sensor unit 110, an output unit 120, and a server communication unit 130.
  • the device 10 according to the present embodiment may be an apparatus including a plurality of sensor units 110 and a plurality of output units 120.
  • the number and arrangement of each component included in the device 10 according to the present embodiment can be appropriately designed according to the characteristics of the applied technical field.
  • each configuration included in the device 10 according to the present embodiment is not necessarily physically connected.
  • the sensor units 110a to 110d and the output units 120a to 120d in FIG. 1 are arranged in independent wearable devices for each pair, and the device 10 according to the present embodiment has a combination of the plurality of wearable devices described above. It may be realized.
  • the device 10 according to the present embodiment may include a plurality of server communication units 130. The configuration of the device 10 according to the present embodiment can be changed as appropriate.
  • the sensor unit 110 has a function of collecting motion data.
  • the motion data according to the present embodiment may be sensor information based on the operation of the target user.
  • the sensor unit 110 according to the present embodiment may be configured to include various types of acceleration sensors, gyro sensors, geomagnetic sensors, pressure sensors, and the like, for example.
  • the output unit 120 has a function of performing output based on control by an output control unit 240 of the output control device 20 described later.
  • the output unit 120 according to the present embodiment may output a tactile stimulus based on the control by the output control unit 240.
  • the output unit 120 according to the present embodiment may be configured to include a vibration generator such as a linear vibrator, a piezoelectric (piezoelectric) element, an eccentric motor, or the like.
  • the output unit 120 according to the present embodiment may output acoustic information and optical information based on control by the output control unit 240.
  • the output unit 120 includes a speaker, a light emitting element, and the like.
  • the output unit 120 is arranged in the vicinity of the corresponding sensor unit 110 , but the arrangement of the output unit 120 according to the present embodiment is not limited to the example.
  • the output unit 120 according to the present embodiment may be arranged independently of the arrangement of the corresponding sensor unit 110.
  • the output unit 120 is a position suitable for tactile presentation and can be appropriately arranged at a position effective for correcting the motion.
  • the server communication unit 130 has a function of performing information communication with the output control device 20. Specifically, the server communication unit 130 according to the present embodiment transmits the motion data collected by the sensor unit 110 to the output control device 20. In addition, the server communication unit 130 according to the present embodiment receives an output control signal used for output control of the output unit 120 from the output control device 20.
  • the functional configuration example of the device 10 according to the present embodiment has been described above.
  • the functional configuration described above is merely an example, and the functional configuration of the device 10 according to the present embodiment is not limited to the example.
  • the device 10 according to the present embodiment may be configured to further include a configuration other than those described above.
  • the device 10 may further include an input unit that receives a user input operation.
  • the case where the device 10 and the output control device 20 are realized as independent devices has been described as an example.
  • the system configuration example according to the present embodiment is limited to the example.
  • the device 10 and the output control apparatus 20 according to the present embodiment may be realized as an integrated apparatus.
  • the system configuration according to the present embodiment can be flexibly modified according to characteristics of information to be handled, system specifications, operating conditions, and the like.
  • the output control apparatus 20 includes a data processing unit 210, a calculation unit 220, a storage unit 230, an output control unit 240, and a device communication unit 250.
  • the data processing unit 210 has a function of generating master data based on sensor information.
  • the data processing unit 210 may generate master data from sensor information collected based on operations performed by advanced users.
  • the data processing unit 210 processes the sensor information based on the physical characteristics of the target user wearing the device 10 to generate master data.
  • the data processing unit 210 may perform the above processing using physical features such as height and weight, arm length, and leg length, for example. Further, for example, the data processing unit 210 may generate master data based on information such as the dominant hand of the target user. That is, the data processing unit 210 according to the present embodiment has a function of processing sensor information so that the difference in physical characteristics between the advanced user and the target user is eliminated.
  • the data processing unit 210 may generate master data based on the difference in setting operation given to the advanced user and the target user. For example, when the advanced user and the target user should perform symmetrical operations, or when the advanced user and the target user should perform the same operation with a predetermined time difference, for example, Is assumed. According to the above function of the data processing unit 210 according to the present embodiment, it is possible to generate master data that matches the physical characteristics and setting operations of the target user, and the difference from the target operation can be more accurately determined. Can be presented to the target user. Further, according to the above-described function of the data processing unit 210 according to the present embodiment, sensor information collected from one advanced user can be used for a plurality of target users.
  • the data processing unit 210 may generate master data based on sensor information collected from a plurality of sensor devices.
  • the data processing unit 210 can calculate the center of gravity from pressure information collected from a plurality of pressure sensors, and can use the center of gravity as master data.
  • the arithmetic unit 220 to be described later can calculate motion data based on sensor information collected from the plurality of sensor units 110 and compare it with the master data.
  • the calculation unit 220 has a function of calculating a difference between master data and motion data.
  • the motion data according to the present embodiment may be sensor information collected by the sensor unit 110 of the device 10.
  • the data processing unit 210 generates master data based on the physical characteristics of the target user has been described, but the correction function based on the physical characteristics is performed by the calculation unit 220. It may be realized as a function of In this case, the master data is used in common for a plurality of target users, and when the calculation unit 220 calculates the difference, it is possible to perform a calculation in consideration of physical characteristics.
  • the storage unit 230 has a function of storing a program and data used by each component of the output control device 20.
  • the storage unit 230 according to the present embodiment stores master data generated by the data processing unit 210 and motion data collected by the device 10.
  • the storage unit 230 stores physical characteristics of the target user and advanced users, difference information calculated by the calculation unit 220, and the like.
  • each of the storage units 230 holds both master data generated based on the operation of the advanced user and motion data of the target user.
  • the advanced user and the target user may share the single output control device 20, or each output control assigned to the target user from the storage unit 230 of the output control device 20 assigned to the advanced user.
  • Master data may be copied to the storage unit 230 of the device 20.
  • the master data may be copied via information communication via the device communication unit 250 or various storage media.
  • the output control unit 240 has a function of performing output control related to the plurality of output units 120 included in the device 10 based on the difference calculated by the calculation unit 220.
  • the output control unit 240 according to the present embodiment causes the target output unit disposed at a position corresponding to the sensor unit 110 that collected the motion data to output a tactile stimulus based on the above difference. That is, the output control unit 240 according to the present embodiment generates a control signal for controlling the output unit 120 corresponding to the sensor unit 110 that collected the motion data, based on the difference between the master data and the motion data. .
  • the output control unit 240 may control the haptic stimulus to be output to the target output unit based on, for example, the type or size of the difference.
  • the output control unit 240 when the difference related to the operation start timing is calculated by the calculation unit 220, the output control unit 240 according to the present embodiment outputs the tactile stimulus to be output to the target output unit based on the difference related to the operation start timing.
  • the timing may be controlled.
  • the output control unit 240 when the difference related to the magnitude of the motion is calculated by the calculation unit 220, the output control unit 240 according to the present embodiment causes the target output unit to output based on the difference related to the magnitude of the motion.
  • the intensity and frequency of the tactile stimulus may be controlled.
  • the output control unit 240 when the difference related to the duration of the operation is calculated by the calculation unit 220, the output control unit 240 according to the present embodiment causes the target output unit to output based on the difference related to the duration of the operation.
  • the duration and intensity of the tactile stimulus may be controlled.
  • the tactile stimulus that the output control unit 240 according to the present embodiment outputs to the target output unit may include a guide stimulus that guides an operation corresponding to the master data.
  • the output control unit 240 can control the guide stimulus to be output to the target output unit based on the difference between the master data and the motion data.
  • the guide stimulus according to the present embodiment is a stimulus that guides the target user so that the operation of the advanced user can be imitated.
  • the output control unit 240 according to the present embodiment may cause the target output unit to output the guide stimulus before the timing at which the target user should perform the operation corresponding to the master data.
  • the target user can grasp the start timing and size of the action to be performed by the target user.
  • the guide stimulus according to the present embodiment may be generated based on a difference tendency between the action of the advanced user and the action of the target user. For this reason, when the target user repeatedly practices, the calculation unit 220 calculates the previous difference between the master data and the motion data collected during the previous operation, and the output control unit 240 uses the previous difference based on the previous difference. The output of the guide stimulus can be controlled. According to the above-described function of the output control unit 240 according to the present embodiment, the effect of gradually reducing the difference between the advanced user's action and the target user's action is expected by repeated practice.
  • FIG. 3 is a diagram for explaining the guide stimulus according to the present embodiment.
  • FIG. 3 shows master data M0a to M0c generated based on the action of the advanced user and motion data S0a to S0c collected based on the action of the target user.
  • the motion data S0a to S0c shown in FIG. 3 may be motion data collected during the previous operation.
  • FIG. 3 shows guide stimuli G0a to G0c that are output by the output control unit 240 based on the difference between the master data M0a to M0c and the motion data S0a to S0c.
  • the vertical axis indicates the size of the motion or tactile stimulus
  • the horizontal axis indicates time.
  • the motion data S0a is larger than the master data Ma. This indicates that the operation performed by the target user during the previous operation was larger than that of the advanced user.
  • the output control unit 240 may cause the target output unit to output a weaker guide stimulus G0a than the default guide stimulus. The target user can intuitively suppress the size of the operation by perceiving the guide stimulus G0a.
  • the motion data S0b is delayed compared to the master data M0b.
  • the output control unit 240 may cause the target output unit to output the guide stimulus G0b at a timing earlier than the default guide stimulus.
  • the target user can perceive the start timing of the operation intuitively by perceiving the guide stimulus G0b.
  • the motion data S0c is shorter than the master data M0c. This indicates that the duration of the action performed by the target user during the previous action was shorter than that of the advanced user.
  • the output control unit 240 may cause the target output unit to output the guide stimulus G0c with a longer duration than the default guide stimulus. By perceiving the guide stimulus G0c, the target user can intuitively increase the duration of the operation.
  • the device communication unit 250 has a function of performing information communication with the device 10. Specifically, the device communication unit 250 according to the present embodiment receives motion data from the device 10. In addition, the device communication unit 250 according to the present embodiment transmits a control signal used for output control of the output unit 120 to the device 10.
  • the function configuration example of the output control device 20 according to the present embodiment has been described above.
  • the functional configuration described above is merely an example, and the functional configuration of the output control device 20 according to the present embodiment is not limited to the example.
  • the output control device 20 according to the present embodiment may be configured to further include a configuration other than those described above.
  • the output control device 20 may further include, for example, an input unit that accepts user input operations, a display unit that displays various types of information, and the like.
  • the device 10 and the output control apparatus 20 according to the present embodiment may be realized as an integrated apparatus.
  • the output control device 20 may further include a sensor unit 110 and an output unit 120.
  • the functional configuration of the output control device 20 according to the present embodiment can be flexibly modified.
  • FIG. 4 is a diagram showing the configuration of the device 10 and the output control apparatus 20 used for the dance practice according to the present embodiment.
  • the device 10 used for dance practice includes four sensor units 110a to 110d and four output units 120a to 120d.
  • the sensor units 110a to 110d and the output units 120a to 120d may be mounted on both the wrists and both ankles of the target user, for example.
  • the sensor units 110a to 110d include a triaxial acceleration sensor, a triaxial gyro sensor, and the like.
  • the server communication unit 130 (not shown) transmits the motion data collected by the sensor units 110a to 110d to the output control device 20, and delivers the control signal received from the output control device 20 to the output units 120a to 120d.
  • FIG. 5 is a diagram illustrating an example of the first output control in the learning stage of the present embodiment.
  • FIG. 5 shows master data M1a to M1d, guide stimuli G1a to G1d corresponding to the master data M1a to M1d, and first motion data S1a to S1d collected based on the action of the target user.
  • the vertical axis indicates the magnitude of the motion or tactile stimulus
  • the horizontal axis indicates the passage of time.
  • the guide stimuli G1a to G1d shown in FIG. 5 are default guide stimuli controlled corresponding to the master data M1a to M1d, respectively. It may be.
  • the default guide stimulus according to the present embodiment can be controlled as a tactile stimulus corresponding to the size, start timing, and duration of the master data.
  • the guide stimulus according to the present embodiment may include auxiliary stimuli r1 and r2 for presenting the start timing of the operation to the target user.
  • the auxiliary stimulus may play a role such as a countdown in accordance with the operation start timing.
  • the target user when attention is paid to the motion data S1a to S1d in FIG. 5, it can be seen that the target user was performing an action after the presentation of the guide stimuli G1a to G1d. In such a case, first, the instructor instructs the target user about the relationship between the guide stimulus and the start timing of the operation. When attention is paid to the motion data S1a to S1d, it can be seen that the target user performs an operation larger than the operation corresponding to the masters M1a to M1d. In such a case, the output control unit 240 according to the present embodiment performs control to weaken the guide stimulus to be output next time based on the difference calculated by the calculation unit 220.
  • FIG. 6 is a diagram illustrating an example of the second output control in the learning stage of the present embodiment.
  • FIG. 6 shows the same master data M1a to M1d as the first time, the guide stimuli G2a to G2d adjusted by the first motion data S1a to S1d, and the second motion data collected based on the motion of the target user. S2a to S2d are shown.
  • the output control unit 240 uses the guide stimuli G2a to G2a to be output to the target output unit based on the difference between the master data M1a to M1d and the motion data S1a to S1d collected during the previous operation. G2d can be controlled.
  • the output control unit 240 can independently control the guide stimuli to be output next time based on the above tendency.
  • FIG. 7 is a diagram illustrating an example of the Nth output control in the learning stage of the present embodiment.
  • the second motion data SNa to SNd are shown.
  • the guide stimuli GNa to GNd are independently controlled according to the movement tendency of the target user as compared with the default guide stimuli G1a to G1d shown in FIG.
  • the target user can perform an operation corresponding to the master data M1a to M1d by the Nth practice.
  • the output control part 240 which concerns on this embodiment has, by adjusting the output start timing, intensity
  • the output control unit 240 may stop the output of the tactile stimulus when the total sum of the output of the tactile stimulus reaches a predetermined threshold in order to reduce the burden on the target user.
  • the output control unit 240 can also stop the tactile stimulation and music when the movement deviation reaches a predetermined value or when the target user stops the movement.
  • the check stage according to the present embodiment is a stage for the purpose of making the target user perceive the difference from the master data. Further, in the check stage according to the present embodiment, the target user matches the master data even when the tactile stimulus is no longer presented or the tactile stimulus common to other users is used. Also includes the purpose of enabling operation.
  • the output control unit 240 causes the target output unit to output a feedback stimulus that presents the above difference to the target user in addition to the guide stimulus.
  • the output control unit 240 may control the feedback stimulus based on the type of difference calculated by the calculation unit 220 or the magnitude of the difference.
  • examples of the difference type include the magnitude of the operation, the start timing, and the duration.
  • the output control unit 240 according to the present embodiment may control the feedback stimulus intensity, duration, frequency, waveform pattern, and the like based on the type of difference and the magnitude of the difference as described above.
  • the target user may be informed in advance which frequency and waveform pattern corresponds to which type. It is also possible for the target user to select an intuitive combination for himself.
  • the check stage is started after the Nth learning stage shown in FIG. 7, that is, in a state where the target user can perform an operation corresponding to the master data when there is a guide stimulus controlled for himself / herself.
  • the check stage according to the present embodiment may be started at an arbitrary time point.
  • FIG. 8 is a diagram for explaining an example of output control in the check stage according to the present embodiment.
  • the left side of FIG. 8 shows master data M11 and an example of output control in the first to third check stages. Further, the right side of FIG. 8 shows an example of the master data M11 and output control at the N, T, and Z times of the check stage.
  • the output control unit 240 may output the same guide stimulus as the guide stimulus output in the Nth time in the learning stage. That is, the guide stimulus G11 in FIG. 8 is controlled to be output at a timing earlier than the default guide stimulus based on the movement tendency of the target user. Further, focusing on the motion data S11, when the guide stimulus G11 controlled as described above is output, it is understood that the target user is performing an operation that matches the master data M11.
  • the output control unit 240 outputs the guide stimulus G12 at a timing later than the first guide stimulus G11 so as to approach the default guide stimulus.
  • the operation start timing of the target user is delayed with the control of the guide stimulus G12.
  • the output control unit 240 causes the target output unit to output the feedback stimulus F12 based on the difference in the operation start timing, that is, the difference between the master data M11 and the motion data S12.
  • the feedback stimulus F12 a frequency or a waveform pattern that is recognized in advance by the target user as a stimulus corresponding to a delay in start timing is used.
  • the target user can grasp that the start timing of his own operation is delayed.
  • the output control unit 240 may output a feedback stimulus within a predetermined time after the target user performs an operation corresponding to the master data M11. Thereby, confusion between the guide stimulus and the feedback stimulus can be avoided.
  • the output control unit 240 may output the guide stimulus G13 at the same timing as the second guide stimulus G12. In this manner, the output control unit 240 fixes the output timing of the guide stimulus until the target user voluntarily advances the operation start timing and can perform an operation that matches the master data M11 again. When attention is paid to the motion data S13, it can be seen that the operation start timing of the target user is closer to the master data M11 than the second time. For this reason, the output control unit 240 outputs the third feedback stimulus F13 with a lower intensity than the second feedback stimulus F12.
  • the guide stimulus G1N at the Nth time is output at a fixed timing in the same way as the guide stimulus G13 at the third time.
  • the target user can start the operation at the timing coincident with the master data M11.
  • the output control unit 240 causes the target output unit to output a feedback stimulus based on the difference from the master data M11 together with the above control.
  • the output control unit 240 according to the present embodiment performs the above-described control, as shown in FIG. 8, the user is the same as the master data M11 even when the default guide stimulus G1Z is output for the Zth time. Improve to be able to perform the operation. That is, according to the function of the output control unit 240 according to the present embodiment, the target user is the master even when no tactile stimulus is presented or when a tactile stimulus common to other users is used. An operation that matches the data can be performed.
  • the output control unit 240 can correct the movement tendency of the target user by gradually bringing the guide stimulus adjusted for the target user closer to the default state. At this time, the output control unit 240 may repeat the control while suppressing the amount of change to be adjusted at a time so that the target user does not feel uncomfortable. By the output control unit 240 performing the above-described control, an effect that the target user can unintentionally correct the operation start timing is also expected.
  • the output control unit 240 uses the same method as described above, It is also possible to correct a shift related to the magnitude and duration of the operation. Further, the output control unit 240 may perform the above-described control on the plurality of output units 120 at the same time. The output control unit 240 controls the output of the tactile stimulus based on the difference type stepwise or in parallel, so that the target user can finally perform the same operation as the master data. .
  • the output control unit 240 may select the output unit 120 that outputs the tactile stimulus according to the importance of the operation part. For example, the output control unit 240 may output the haptic stimulus in preference to the output unit 120 arranged at a more important location when motion deviation is detected at a plurality of locations. Moreover, the output control part 240 may limit the number of the output parts 120 which output a tactile stimulus simultaneously. On the other hand, the output control unit 240 can cause the output unit 120 to output tactile stimuli in the order in which the movement deviation is detected.
  • Example of generating master data >> Next, a generation example of master data according to the present embodiment will be described in detail. In the above description, an example has been described in which master data is collected and generated in advance based on the actions of advanced users such as professionals and instructors. On the other hand, generation of master data according to the present embodiment is not limited to such an example.
  • the master data according to the present embodiment may be generated based on motion data collected based on the operation of another user wearing the device 10, for example. Further, the motion data collected based on the operation of the other user may be collected simultaneously with the motion data collected based on the operation performed by the target user wearing the device 10.
  • FIG. 9 is a diagram for explaining generation of master data based on the motion data of another user according to the present embodiment.
  • FIG. 9 shows a target user U1 wearing the device 10-1, another user U2 wearing the device 10-2, and the output control apparatus 20.
  • the other user U2 may be an expert such as a professional or a leader.
  • the target user U1 and the other user U2 simultaneously perform the same choreographic dance according to the same music. That is, the data processing unit 210 according to the present embodiment can process the motion data of another user U2 collected simultaneously with the motion data of the target user U1, and generate master data. In this case, the calculation unit 220 may calculate the difference by comparing the master data generated by the data processing unit 210 with the motion data of the target user U2 in real time. The output control unit 240 can cause the device 10-1 worn by the target user U1 to output a tactile stimulus based on the difference sequentially calculated by the calculation unit 220.
  • the master data according to the present embodiment may be collected and generated simultaneously with the motion data of the target user.
  • the output control device 20 according to the present embodiment generates master data in real time and compares it with the motion data of the target user, so that the target user can more intuitively understand the difference in operation with the advanced user (other users). Can perceive.
  • the output control unit 240 can output the same tactile stimulus to the device 10-1 worn by the target user U1 and the device 10-2 worn by the other user U2.
  • another user who is an advanced user can also perceive the deviation of the operation of U2 from the target user U1, and can give advice to improve the deviation of the operation verbally.
  • FIG. 9 shows a case where the target user and one other user are each one, but there may be a plurality of target users and other users according to the present embodiment.
  • the other users described above may be target users at the same time.
  • the output control apparatus 20 according to the present embodiment may present tactile stimulation to each of a plurality of target users based on motion data of one senior person (another user). Further, the output control device 20 can generate master data by averaging motion data collected from a plurality of other users and compare the master data with each motion data. In this case, the target user can perceive the difference between the averaged motion and his / her own motion, for example, in a group dance or marching, and can realize a more unified overall behavior. .
  • the master data according to the present embodiment is generated in real time has been described above.
  • the master data according to the present embodiment may be generated based on image information recorded in the past, for example.
  • the data processing unit 210 according to the present embodiment can detect the motion by tracking the feature points extracted from the image.
  • FIG. 10 is a diagram for explaining generation of master data based on image information according to the present embodiment.
  • two images IM1 and IM2 are shown.
  • the images IM1 and IM2 may be image information continuous in time series.
  • FIG. 10 also shows a feature point F1 1 extracted from the image IM1 by the data processing unit 210 and a feature point F1 2 extracted from the image IM2.
  • the data processing unit 210 matches the corresponding two feature points F1 1 and F1 2, by calculating the moving distance of the pixel, it is possible to detect the activity.
  • the data processing unit 210 can also calculate the speed of the above operation from the recording times of the images IM1 and IM2.
  • the data processing unit 210 may realize the above processing using a technique such as an optical flow used in the field of image identification.
  • the generation of master data based on image information according to the present embodiment has been described above. According to the above function of the data processing unit 210 according to the present embodiment, it becomes possible to generate master data from image information recorded in the past. For example, operations and targets performed by successive good record holders It is also possible to compare the operation with the good play that the user has performed in the past.
  • the image information according to the present embodiment may include a three-dimensional moving image, a two-dimensional moving image, and the like.
  • FIG. 11 is a flowchart showing an operation flow of the output control apparatus 20 according to the present embodiment.
  • the device communication unit 250 of the output control apparatus 20 acquires sensor information or image information (S1101).
  • the data processing unit 210 generates master data based on the information acquired in step S1101 and the physical characteristics of the target user (S1102).
  • the device communication unit 250 acquires motion data collected from the device 10 based on the operation of the subject (S1103).
  • the arithmetic unit 220 compares the master data generated in step S1102 with the motion data acquired in step S1103 (S1104).
  • the output control unit 240 causes the device 10 to output a guide stimulus based on the type and magnitude of the detected difference (S1105: YES). 1106).
  • the output control unit 240 causes the device 10 to output a feedback stimulus based on the type and size of the detected difference (S1107).
  • Step S1106 and Step S1107 After completion of the operations of Step S1106 and Step S1107, or when the difference between the master data and the motion data is not detected (S1105: No), the output control device 20 ends the process related to the output control of the tactile stimulus.
  • FIG. 12 is a block diagram illustrating a hardware configuration example of the output control device 20 according to the present disclosure.
  • the output control device 20 according to the present disclosure includes, for example, a CPU 871, a ROM 872, a RAM 873, a host bus 874, a bridge 875, an external bus 876, an interface 877, an input device 878, An output device 879, a storage 880, a drive 881, a connection port 882, and a communication device 883 are included.
  • the hardware configuration shown here is an example, and some of the components may be omitted. Moreover, you may further include components other than the component shown here.
  • the CPU 871 functions as, for example, an arithmetic processing unit or a control unit, and controls the overall operation or a part of each component based on various programs recorded in the ROM 872, RAM 873, storage 880, or removable recording medium 901.
  • the ROM 872 is a means for storing programs read by the CPU 871, data used for calculations, and the like.
  • the RAM 873 for example, a program read by the CPU 871, various parameters that change as appropriate when the program is executed, and the like are temporarily or permanently stored.
  • the CPU 871, the ROM 872, and the RAM 873 are connected to each other via, for example, a host bus 874 capable of high-speed data transmission.
  • the host bus 874 is connected to an external bus 876 having a relatively low data transmission speed via a bridge 875, for example.
  • the external bus 876 is connected to various components via an interface 877.
  • Input device 8708 For the input device 878, for example, a mouse, a keyboard, a touch panel, a button, a switch, a lever, or the like is used. Furthermore, as the input device 878, a remote controller (hereinafter referred to as a remote controller) capable of transmitting a control signal using infrared rays or other radio waves may be used.
  • a remote controller capable of transmitting a control signal using infrared rays or other radio waves may be used.
  • the output device 879 is a display device such as a CRT (Cathode Ray Tube), LCD, or organic EL, an audio output device such as a speaker or a headphone, a printer, a mobile phone, or a facsimile. It is a device that can be notified visually or audibly.
  • the output device 879 according to the present disclosure includes various devices that output tactile stimulation.
  • the storage 880 is a device for storing various data.
  • a magnetic storage device such as a hard disk drive (HDD), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like is used.
  • the drive 881 is a device that reads information recorded on a removable recording medium 901 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, or writes information to the removable recording medium 901.
  • a removable recording medium 901 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory
  • the removable recording medium 901 is, for example, a DVD medium, a Blu-ray (registered trademark) medium, an HD DVD medium, or various semiconductor storage media.
  • the removable recording medium 901 may be, for example, an IC card on which a non-contact IC chip is mounted, an electronic device, or the like.
  • connection port 882 is a port for connecting an external connection device 902 such as a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface), an RS-232C port, or an optical audio terminal. is there.
  • an external connection device 902 such as a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface), an RS-232C port, or an optical audio terminal. is there.
  • the external connection device 902 is, for example, a printer, a portable music player, a digital camera, a digital video camera, or an IC recorder.
  • the communication device 883 is a communication device for connecting to a network.
  • the output control device 20 has a function of comparing the master data generated based on the operation of the advanced user and the motion data collected based on the operation of the target person. Further, the output control device 20 according to the present disclosure has a function of causing the target output unit to output a tactile stimulus based on the difference between the master data and the motion data. According to such a configuration, it is possible to more intuitively support the acquisition of complicated technology by the user.
  • the output control device 20 may output visual information and auditory information in addition to tactile stimulation.
  • the output control device 20 can cause the target output unit to output a tactile stimulus and simultaneously cause the display device or the speaker to output a message related to the above difference. Further, the output control device 20 may cause the target output unit to output sound, light, or the like.
  • the output control device 20 outputs the tactile stimulus only based on the difference between the master data and the motion data has been described as an example. It is also possible to output haptic stimuli independently of the. For example, the output control device 20 alerts the target user, for example, by causing the output unit 120 arranged at a location where the target user should be careful, such as a fingertip, to output a tactile stimulus independent of the above difference. It is also possible to prompt.
  • the present technology is not limited to such an example.
  • the present technology can also be applied to device operations that require advanced technology, such as driving a vehicle.
  • this technique is applicable also to the field
  • each step in the processing of the output control device 20 of the present specification does not necessarily have to be processed in time series in the order described as a flowchart.
  • each step in the processing of the output control device 20 may be processed in an order different from the order described as the flowchart, or may be processed in parallel.
  • a calculation unit that calculates a difference between master data and motion data collected by a plurality of sensor units included in the device; An output control unit that performs output control according to a plurality of output units included in the device based on the difference; and With The output control unit outputs a haptic stimulus to a target output unit arranged at a position corresponding to the sensor unit that collected the motion data based on the difference.
  • Output control device The output control unit controls the haptic stimulus to be output to the target output unit based on the type of the difference or the size of the difference.
  • the difference includes a difference related to operation start timing, The output control unit controls the output timing of the haptic stimulus to be output to the target output unit based on a difference related to the operation start timing.
  • the output control device according to (1) or (2).
  • the difference includes a difference related to the size of the action, The output control unit controls the intensity of the haptic stimulus to be output to the target output unit based on a difference relating to the magnitude of the motion.
  • the output control device according to any one of (1) to (3).
  • the difference includes a difference related to the duration of the operation, The output control unit controls the duration of the haptic stimulus to be output to the target output unit based on a difference related to the duration of the operation.
  • the output control device according to any one of (1) to (4).
  • the tactile stimulus includes a guide stimulus for guiding an operation corresponding to the master data
  • the output control unit controls the guide stimulus to be output to the target output unit based on the difference.
  • the output control device according to any one of (1) to (5).
  • the calculation unit calculates the previous difference between the master data and the motion data collected during the previous operation, The output control unit controls the output of the guide stimulus based on the previous difference.
  • the output control unit causes the target output unit to output the guide stimulus before a timing at which a target user wearing the device should perform an operation corresponding to the master data.
  • the output control device according to (7).
  • the tactile stimulus includes a feedback stimulus that presents the difference to a target user wearing the device,
  • the output control unit controls the feedback stimulus to be output to the target output unit based on the difference.
  • the output control device according to any one of (1) to (8).
  • the output control unit controls the feedback stimulus based on the type of the difference or the magnitude of the difference.
  • (11) The output control unit causes the target output unit to output the feedback stimulus within a predetermined time after the target user wearing the device performs an operation corresponding to the master data.
  • the master data is data processed based on the physical characteristics of the target user wearing the device.
  • the output control device according to any one of (1) to (11).
  • the master data is generated based on motion data collected based on operations performed by other users.
  • the output control device according to any one of (1) to (12).
  • Motion data collected based on an operation performed by the other user is collected simultaneously with motion data collected based on an operation performed by a target user wearing the device.
  • the master data is generated based on image information.
  • (16) A data processing unit for generating master data based on the physical characteristics of the target user; Further comprising The output control device according to any one of (1) to (15).
  • Computer A calculation unit that calculates a difference between master data and motion data collected by a plurality of sensor units included in the device; An output control unit that performs output control according to a plurality of output units included in the device based on the difference; and With The output control unit outputs a haptic stimulus to a target output unit arranged at a position corresponding to the sensor unit that collected the motion data based on the difference.
  • Output control device Program to function as.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザによる複雑な技術の取得をより直観的に支援する。 【解決手段】マスターデータとデバイスが備える複数のセンサ部により収集されるモーションデータとの差分を算出する演算部と、前記差分に基づいて前記デバイスが備える複数の出力部に係る出力制御を行う出力制御部と、を備え、前記出力制御部は、前記差分に基づいて、前記モーションデータを収集した前記センサ部と対応する位置に配置される対象出力部に触覚刺激を出力させる、出力制御装置が提供される。

Description

出力制御装置、出力制御方法、およびプログラム
 本開示は、出力制御装置、出力制御方法、およびプログラムに関する。
 近年、収集したセンサ情報を利用し、ユーザの技術取得や技術向上を支援する技術が開発されている。例えば、特許文献1には、スポーツ器具に装着したセンサ装置から収集したセンサ情報に基づいてユーザが行った動作と類似するアクションを特定し、当該アクションに応じたフィードバックをユーザに提供する技術が開示されている。
特開2016-47207号公報
 しかし、特許文献1に記載の技術では、ユーザが行った動作と類似するアクションに対するフィードバックが提供されるに留まり、ユーザは目標とするアクションと自身が行った動作との差を直観的に把握することが困難である。また、特許文献1に記載の技術では、器具に装着した単一のセンサ装置から収集されるセンサ情報を用いて上記のような処理を実現している。このため、特許文献1に記載の技術では、同時に複数の動作が求められる複雑な技術の上達を支援することが困難な場合もある。
 そこで、本開示では、ユーザによる複雑な技術の取得をより直観的に支援することが可能な、新規かつ改良された出力制御装置、出力制御方法、およびプログラムを提案する。
 本開示によれば、マスターデータとデバイスが備える複数のセンサ部により収集されるモーションデータとの差分を算出する演算部と、前記差分に基づいて前記デバイスが備える複数の出力部に係る出力制御を行う出力制御部と、を備え、前記出力制御部は、前記差分に基づいて、前記モーションデータを収集した前記センサ部と対応する位置に配置される対象出力部に触覚刺激を出力させる、出力制御装置が提供される。
 また、本開示によれば、プロセッサが、マスターデータとデバイスが備える複数のセンサ部により収集されるモーションデータとの差分を算出することと、前記差分に基づいて前記デバイスが備える複数の出力部に係る出力制御を行うことと、を含み、出力制御を行うことは、前記差分に基づいて、前記モーションデータを収集した前記センサ部と対応する位置に配置される対象出力部に触覚刺激を出力させること、をさらに含む、出力制御方法が提供される。
 また、本開示によれば、コンピュータを、マスターデータとデバイスが備える複数のセンサ部により収集されるモーションデータとの差分を算出する演算部と、前記差分に基づいて前記デバイスが備える複数の出力部に係る出力制御を行う出力制御部と、を備え、前記出力制御部は、前記差分に基づいて、前記モーションデータを収集した前記センサ部と対応する位置に配置される対象出力部に触覚刺激を出力させる、出力制御装置、として機能させるためのプログラムが提供される。
 以上説明したように本開示によれば、ユーザによる複雑な技術の取得をより直観的に支援することが可能となる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施形態の概要について説明するための図である。 同実施形態に係るデバイスおよび出力制御装置の機能ブロック図である。 同実施形態に係るガイド刺激について説明するための図である。 同実施形態に係るダンスの練習に用いられるデバイスおよび出力制御装置の構成を示す図である。 同実施形態に係る学習段階における1回目の出力制御の例を示す図である。 同実施形態に係る学習段階における2回目の出力制御の例を示す図である。 同実施形態に係る学習段階におけるN回目の出力制御の例を示す図である。 同実施形態に係るチェック段階における出力制御の例について説明するための図である。 同実施形態に係る他のユーザのモーションデータに基づくマスターデータの生成について説明するための図である。 同実施形態に係る画像情報に基づくマスターデータの生成について説明するための図である。 同実施形態に係る出力制御装置の動作の流れを示すフローチャートである。 本開示に係るハードウェア構成例である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.実施形態
  1.1.実施形態の概要
  1.2.デバイス10の機能構成例
  1.3.出力制御装置20の機能構成例
  1.4.出力制御部240による出力制御の具体例
  1.5.マスターデータの生成例
  1.6.出力制御装置20の動作の流れ
 2.ハードウェア構成例
 3.まとめ
 <1.実施形態>
 <<1.1.実施形態の概要>>
 まず、本開示の一実施形態の概要について説明する。上述したとおり、近年では、収集されたセンサ情報を利用し、ユーザの技術取得や技術向上を支援する技術が開発されている。上記のような技術には、例えば、センサ装置から収集されたセンサ情報に基づく解析を行い、当該解析の結果に応じたフィードバックをユーザに提示するものがあり、スポーツ分野などにおいて用いられている。
 しかし、多くの場合、上記のような解析には、単一のセンサ装置から収集されたセンサ情報が用いられているため、複雑な動作の解析を行うことが困難な場合もある。例えば、特許文献1には、テニスラケットに装着したセンサ装置から収集したセンサ情報に基づいてショット種別を判別し、当該ショット種別に応じたフィードバックをユーザに提示する技術が開示されている。しかし、本来、テニスショットのような動作では、テニスラケットを扱う利き手の動作のみではなく、バランスを取る反対側の手の動きや、両脚の重心移動なども非常に重要な要素となる。このため、特許文献1に記載の技術では、ユーザは、ショットが成功したと判定された場合であっても、自身のどの部位のどの動作が寄与したかを判別することが困難である。
 また、特許文献1に記載の技術では、ユーザは自身が行った動作が成功したか、あるいはどのレベルに達しているかを認識することはできるが、目標の動作を行うために、どのような改善をすればよいのかを知覚することが困難である。
 本開示に係る技術思想は、上記の点に着目して発想されたものであり、ユーザに対し、より直観的かつより効果の高い技術取得支援を行うことを可能とする。このために、本実施形態に係る出力制御装置、出力制御方法、およびプログラムは、目標動作に該当するマスターデータと、複数のセンサ部から取得されたモーションデータとの差分を算出することを特徴の一つとする。また、本実施形態に係る出力制御装置、出力制御方法、およびプログラムは、上記の差分に基づいて、モーションデータを収集したセンサ部と対応する位置に配置される対象出力部に触覚刺激を出力させること、を特徴の一つとする。
 図1は、本実施形態の概要について説明するための図である。図1の左側には、4つのセンサ装置910a~910dを装着した上級者P0が示されている。また、図1の右側には、本実施形態に係るデバイス10を装着した対象ユーザU0が示されている。なお、図1には、本実施形態に係るデバイス10が、4つのセンサ部110a~110d、および4つの出力部120a~120dを備える場合の例が示されている。
 上述したように、本実施形態に係る出力制御装置20は、マスターデータとモーションデータとの差分を算出することを特徴の一つとする。ここで、本実施形態に係るマスターデータとは、対象ユーザが目標とする動作に対応するデータであってよい。マスターデータは、例えば、図1に示すように、上級者P0が装着するセンサ装置910a~910dにより収集されるセンサ情報に基づいて生成される。なお、本実施形態に係る上級者とは、対象ユーザと比較して優れた技術を有するプロフェッショナルや指導者などであってよい。
 この際、本実施形態に係る出力制御装置20は、収集した上級者P0の動作に基づくセンサ情報を、対象ユーザの身体的特徴に基づいて加工し、マスターデータを生成する。出力制御装置20は、例えば、上級者P0の身長Hpと対象ユーザの身長Huに係るデータに基づいて上記の加工を行ってもよい。
 また、本実施形態に係るモーションデータとは、デバイス10が備えるセンサ部110a~110dにより収集されるセンサ情報であってよい。すなわち、本実施形態に係るモーションデータとは、対象ユーザが行う動作に基づいて収集されるセンサ情報である。
 以上、本実施形態に係るマスターデータおよびモーションデータの概要を説明した。本実施形態に係る出力制御装置20は、上記のマスターデータとモーションデータとの差分を対応する位置や部位ごとに算出することができる。例えば、図1に示す一例の場合、出力制御装置20は、センサ装置910aに基づいて生成されたマスターデータと、センサ部110aにより収集されたモーションデータとの差分を算出する。同様に、出力制御装置20は、センサ装置910bとセンサ部110b、センサ装置910cとセンサ部110c、またセンサ装置910dとセンサ部110dをそれぞれ対応付けて上記の差分を算出してよい。
 また、本実施形態に係る出力制御装置20は、マスターデータとモーションデータとの差分を検出した場合、対象出力部に触覚刺激を出力させる。ここで、上記の対象出力部は、マスターデータとの差分が検出されたモーションデータを収集したセンサ部と対応する位置に配置される出力部を指す。図1の一例では、センサ装置910aが収集したセンサ情報に基づくマスターデータと、センサ部110aが収集したモーションデータとに差異が検出された場合を示している。この場合、本実施形態に係る出力制御装置20は、図1に示すように、センサ部110aと同じく右上腕部に配置される出力部120aに触覚刺激T1を出力させてよい。
 以上説明したように、本実施形態に係る出力制御装置20は、マスターデータとモーションデータとの差分に基づいて対象出力部に触覚刺激を出力させることができる。また、この際、本実施形態に係る出力制御装置20は、差分の種別や大きさに基づいて、対象出力部に出力させる触覚刺激を制御することができる。以下、上記の機能を実現するための、デバイス10および出力制御装置20の機能構成について説明する。
 <<1.2.デバイス10の機能構成例>>
 まず、本実施形態に係るデバイス10の機能構成例について説明する。図2は、本実施形態に係るデバイス10および出力制御装置20の機能ブロック図である。図2を参照すると、本実施形態に係るデバイス10は、センサ部110、出力部120、およびサーバ通信部130を備える。ここで、本実施形態に係るデバイス10は、複数のセンサ部110および複数の出力部120を備える装置であってよい。本実施形態に係るデバイス10が備える各構成の数や配置は、適用される技術分野の特性に応じて適宜設計され得る。
 また、本実施形態に係るデバイス10が備える各構成は、必ずしも、物理的に接続される必要はない。例えば、図1におけるセンサ部110a~110d、および出力部120a~120dは、それぞれペアごとに独立したウェアラブル装置などに配置され、本実施形態に係るデバイス10は、上記の複数のウェアラブル装置の組み合わせにより実現されてもよい。この場合、本実施形態に係るデバイス10は、複数のサーバ通信部130を備えてもよい。本実施形態に係るデバイス10の構成は、適宜変更され得る。
 (センサ部110)
 センサ部110は、モーションデータを収集する機能を有する。上述したとおり、本実施形態に係るモーションデータは、対象ユーザの動作に基づくセンサ情報であってよい。このために、本実施形態に係るセンサ部110は、例えば、各種の加速度センサやジャイロセンサ、地磁気センサ、圧力センサなどを含んで構成され得る。
 (出力部120)
 出力部120は、後述する出力制御装置20の出力制御部240による制御に基づく出力を行う機能を有する。特に、本実施形態に係る出力部120は、出力制御部240による制御に基づいて、触覚刺激を出力してよい。このために、本実施形態に係る出力部120は、リニア・バイブレータ、ピエゾ(圧電)素子、偏心モーターなどの振動生成装置を含んで構成され得る。また、本実施形態に係る出力部120は、出力制御部240による制御に基づいて音響情報や光情報を出力してもよい。この場合、出力部120は、スピーカや発光素子などを含んで構成される。
 また、図1の例では、出力部120が対応するセンサ部110の近傍に配置される場合を示したが、本実施形態に係る出力部120の配置は係る例に限定されない。本実施形態に係る出力部120は、対応するセンサ部110の配置とは独立して配置されてもよい。出力部120は、触覚提示に適した位置であり、かつ動作の修正に効果的な位置に適宜配置され得る。
 (サーバ通信部130)
 サーバ通信部130は、出力制御装置20との情報通信を行う機能を有する。具体的には、本実施形態に係るサーバ通信部130は、センサ部110が収集したモーションデータを出力制御装置20に送信する。また、本実施形態に係るサーバ通信部130は、出力部120の出力制御に用いられる出力制御信号を出力制御装置20から受信する。
 以上、本実施形態に係るデバイス10の機能構成例について説明した。なお、上記で述べた機能構成はあくまで一例であり、本実施形態に係るデバイス10の機能構成は係る例に限定されない。例えば、本実施形態に係るデバイス10は、上記で述べた以外の構成をさらに備えるように構成されてもよい。デバイス10は、ユーザの入力操作を受け付ける入力部などをさらに備えてもよい。
 また、図2を用いた上記の説明では、デバイス10と出力制御装置20とがそれぞれ独立した装置として実現される場合を例に述べたが、本実施形態に係るシステム構成例は係る例に限定されない。本実施形態に係るデバイス10および出力制御装置20は、一体の装置として実現されてもよい。本実施形態に係るシステム構成は、扱われる情報の特性や、システムの仕様、運用条件などに応じて柔軟に変形され得る。
 <<1.3.出力制御装置20の機能構成例>>
 次に、引き続き図2を用いて、本実施形態に係る出力制御装置20の機能構成例について詳細に説明する。図2を参照すると、本実施形態に係る出力制御装置20は、データ加工部210、演算部220、記憶部230、出力制御部240、およびデバイス通信部250を備える。
 (データ加工部210)
 データ加工部210は、センサ情報に基づいてマスターデータを生成する機能を有する。本実施形態に係るデータ加工部210は、例えば、図1を用いて説明したように、上級者が行う動作に基づいて収集されるセンサ情報から、マスターデータを生成してもよい。
 また、この際、本実施形態に係るデータ加工部210は、デバイス10を装着する対象ユーザの身体的特徴に基づいて上記のセンサ情報を加工し、マスターデータを生成する。データ加工部210は、例えば、身長体重、腕の長さ、脚の長さなどの身体的特徴を用いて上記の加工を行ってよい。また、例えば、データ加工部210は、対象ユーザの利き腕などの情報に基づいて、マスターデータを生成してもよい。すなわち、本実施形態に係るデータ加工部210は、上級者と対象ユーザとの間における身体的特徴の差が解消されるようにセンサ情報を加工する機能を有する。
 また、データ加工部210は、上級者と対象ユーザとに与えられた設定動作の違いに基づいて、マスターデータを生成してもよい。上記の設定動作の違いには、例えば、上級者と対象ユーザとが左右対称の動作を行うべき場合や、上級者と対象ユーザとが所定の時間差を以って同一の動作を行うべき場合などが想定される。本実施形態に係るデータ加工部210が有する上記の機能によれば、対象ユーザの身体的特徴や設定動作の違いに合わせたマスターデータを生成することが可能となり、目標動作との差をより正確に対象ユーザに提示することができる。また、本実施形態に係るデータ加工部210が有する上記の機能によれば、1名の上級者から収集したセンサ情報を、複数の対象ユーザに用いることが可能となる。
 さらには、本実施形態に係るデータ加工部210は、複数のセンサ装置から収集されたセンサ情報に基づいて、マスターデータを生成してもよい。例えば、データ加工部210は、複数の圧力センサから収集された圧力情報から重心などを算出し、当該重心をマスターデータとすることもできる。この場合、後述する演算部220は、同様に複数のセンサ部110から収集されたセンサ情報に基づいてモーションデータを算出し、上記のマスターデータと比較することができる。
 (演算部220)
 演算部220は、マスターデータとモーションデータとの差分を算出する機能を有する。上述したように、本実施形態に係るモーションデータは、デバイス10のセンサ部110により収集されるセンサ情報であってよい。
 なお、上記の説明では、本実施形態に係るデータ加工部210が、対象ユーザの身体的特徴に基づいたマスターデータを生成する場合について述べたが、身体的特徴に基づく補正機能は、演算部220の機能として実現されてよい。この場合、マスターデータは、複数の対象ユーザに共通で用いられ、演算部220が上記の差分を算出する際に、身体的特徴を考慮した演算を行うことができる。
 (記憶部230)
 記憶部230は、出力制御装置20の各構成が用いるプログラムやデータを記憶する機能を有する。特に、本実施形態に係る記憶部230は、データ加工部210により生成されたマスターデータや、デバイス10により収集されたモーションデータを記憶する。また、記憶部230は、対象ユーザや上級者の身体的特徴、演算部220により算出される差分情報などを記憶する。
 なお、出力制御装置20が複数設置される場合にあっては、記憶部230のそれぞれは、上級者の動作に基づいて生成されたマスターデータと対象ユーザのモーションデータとの両方を保持する。この際、上級者と対象ユーザは単一の出力制御装置20を共有してもよいし、上級者に割り当てられた出力制御装置20の記憶部230から、対象ユーザに割り当てられたそれぞれの出力制御装置20の記憶部230に、マスターデータがコピーされてもよい。この際、マスターデータは、デバイス通信部250を介する情報通信や種々の記憶媒体などを介してコピーされてよい。
 (出力制御部240)
 出力制御部240は、演算部220が算出した差分に基づいて、デバイス10が備える複数の出力部120に係る出力制御を行う機能を有する。この際、本実施形態に係る出力制御部240は、上記の差分に基づいて、モーションデータを収集したセンサ部110と対応する位置に配置される対象出力部に触覚刺激を出力させる。すなわち、本実施形態に係る出力制御部240は、マスターデータとモーションデータとの差分に基づいて、当該モーションデータを収集したセンサ部110と対応する出力部120を制御するための制御信号を生成する。
 この際、本実施形態に係る出力制御部240は、例えば、上記差分の種別または大きさに基づいて、対象出力部に出力させる触覚刺激を制御してよい。
 例えば、演算部220により動作開始タイミングに係る差分が算出された場合、本実施形態に係る出力制御部240は、当該動作開始タイミングに係る差分に基づいて、対象出力部に出力させる触覚刺激の出力タイミングを制御してもよい。
 また、例えば、演算部220により動作の大きさに係る差分が算出された場合、本実施形態に係る出力制御部240は、当該動作の大きさに係る差分に基づいて、対象出力部に出力させる触覚刺激の強度や周波数を制御してもよい。
 また、例えば、演算部220により動作の継続時間に係る差分が算出された場合、本実施形態に係る出力制御部240は、当該動作の継続時間に係る差分に基づいて、対象出力部に出力させる触覚刺激の継続時間や強度を制御してもよい。
 また、本実施形態に係る出力制御部240が対象出力部に出力させる触覚刺激には、マスターデータに対応する動作をガイドするガイド刺激が含まれてよい。出力制御部240は、マスターデータとモーションデータとの差分に基づいて、対象出力部に出力させるガイド刺激を制御することができる。ここで、本実施形態に係るガイド刺激は、対象ユーザが上級者の動作を模倣できるようにガイドする刺激である。このため、本実施形態に係る出力制御部240は、対象ユーザがマスターデータに対応する動作を行うべきタイミングよりも前に、ガイド刺激を対象出力部に出力させてもよい。対象ユーザは、出力されるガイド刺激を知覚することで、自身が行うべき動作の開始タイミングや大きさを把握することが可能となる。
 また、本実施形態に係るガイド刺激は、上級者の動作と対象ユーザの動作との差分の傾向に基づいて生成されてよい。このため、対象ユーザが反復して練習を行う場合、演算部220は、マスターデータと、前回動作時に収集されたモーションデータとの前回差分を算出し、出力制御部240は、当該前回差分に基づいてガイド刺激の出力を制御することができる。本実施形態に係る出力制御部240が有する上記の機能によれば、反復練習により、上級者の動作と対象ユーザの動作との差分が徐々に小さくなっていく効果が期待される。
 図3は、本実施形態に係るガイド刺激について説明するための図である。図3には、上級者の動作に基づいて生成されたマスターデータM0a~M0c、および対象ユーザの動作に基づいて収集されたモーションデータS0a~S0cが示されている。上述したとおり、図3に示されるモーションデータS0a~S0cは、前回動作時に収集されたモーションデータであってよい。また、図3には、マスターデータM0a~M0cとモーションデータS0a~S0cとの差分に基づいて、出力制御部240が出力させるガイド刺激G0a~G0cが示されている。なお、図3では、縦軸に動作または触覚刺激の大きさが示され、横軸に時間経過が示されている。
 ここで、図3を参照すると、モーションデータS0aがマスターデータMaと比較して大きいことがわかる。これは、すなわち、前回動作時に対象ユーザが行った動作が上級者の動作と比較して大きかったことを示している。この場合、出力制御部240は、デフォルトのガイド刺激よりも弱めのガイド刺激G0aを対象出力部に出力させてよい。対象ユーザは、ガイド刺激G0aを知覚することで、直観的に動作の大きさを抑えることができる。
 また、図3を参照すると、モーションデータS0bがマスターデータM0bと比較して遅れていることがわかる。これは、すなわち、前回動作時に対象ユーザが行った動作の開始タイミングが上級者の動作と比較して遅れていたことを示している。この場合、出力制御部240は、デフォルトのガイド刺激よりも早いタイミングでガイド刺激G0bを対象出力部に出力させてよい。対象ユーザは、ガイド刺激G0bを知覚することで、直観的に動作の開始タイミングを早めることができる。
 また、図3を参照すると、モーションデータS0cがマスターデータM0cと比較して短いことがわかる。これは、すなわち、前回動作時に対象ユーザが行った動作の継続時間が上級者の動作と比較して短かったことを示している。この場合、出力制御部240は、デフォルトのガイド刺激よりも長い継続時間でガイド刺激G0cを対象出力部に出力させてよい。対象ユーザは、ガイド刺激G0cを知覚することで、直観的に動作の継続時間を長くとることができる。
 (デバイス通信部250)
 デバイス通信部250は、デバイス10との情報通信を行う機能を有する。具体的には、本実施形態に係るデバイス通信部250は、デバイス10からモーションデータを受信する。また、本実施形態に係るデバイス通信部250は、出力部120の出力制御に用いられる制御信号をデバイス10に送信する。
 以上、本実施形態に係る出力制御装置20の機能構成例について説明した。なお、上記で述べた機能構成はあくまで一例であり、本実施形態に係る出力制御装置20の機能構成は係る例に限定されない。例えば、本実施形態に係る出力制御装置20は、上記で述べた以外の構成をさらに備えるように構成されてもよい。出力制御装置20は、例えば、ユーザの入力操作を受け付ける入力部や、各種の情報を表示する表示部などをさらに備えてもよい。また、上述したとおり、本実施形態に係るデバイス10と出力制御装置20は、一体の装置として実現されてもよい。この場合、出力制御装置20は、センサ部110および出力部120をさらに備えてよい。本実施形態に係る出力制御装置20の機能構成は、柔軟に変形され得る。
 <<1.4.出力制御部240による出力制御の具体例>>
 次に、本実施形態に係る出力制御部240による出力制御の具体例について説明する。以下では、本実施形態に係るデバイス10および出力制御装置20がダンスの練習に適用される場合を例に挙げて説明する。このように、本実施形態に係るデバイス10および出力制御装置20は、スポーツにおける技術取得の他、ダンスなどの練習にも利用可能である。また、本実施形態に係るデバイス10および出力制御装置20がダンスの練習などに用いられる場合、フォームの取得に限らず、音楽に合わせたリズムの取得にも触覚刺激は有効に作用する。さらには、団体で練習が行われる場合、聴覚情報や視覚情報による情報は個人ごとに提示することが困難であるため、本実施形態に係る差分に基づいた触覚刺激の提示はより有効な手段となり得る。
 図4は、本実施形態に係るダンスの練習に用いられるデバイス10および出力制御装置20の構成を示す図である。図4に示すように、ダンスの練習に用いられるデバイス10は、4つのセンサ部110a~110d、および4つの出力部120a~120dを備える。また、センサ部110a~110dおよび出力部120a~120dは、例えば、対象ユーザの両手首と両足首にそれぞれ装着されてよい。また、センサ部110a~110dは、3軸加速度センサ、3軸ジャイロセンサなどを含んで構成される。また、サーバ通信部130(図示しない)は、センサ部110a~110dが収集したモーションデータを出力制御装置20に送信し、出力制御装置20から受信した制御信号を出力部120a~120dに引き渡す。
 なお、以下の説明においては、マスターデータがプロフェッショナルである上級者の動作に基づいて収集、生成され、音楽と同期されている場合を例に説明する。また、以下では、ダンスの練習における段階を、学習段階とチェック段階との2つの段階に分けて説明する。
 (学習段階)
 本実施形態に係る学習段階では、対象ユーザがマスターデータに対応する動作を習得するための練習が行われる。図5は、本実施形態の学習段階における1回目の出力制御の例を示す図である。
 図5には、マスターデータM1a~M1d、マスターデータM1a~M1dに対応するガイド刺激G1a~G1d、および対象ユーザの動作に基づいて収集される1回目のモーションデータS1a~S1dが示されている。なお、図5、および以降に示す図6~8では、図3の場合と同様に、縦軸に動作または触覚刺激の大きさが示され、横軸に時間経過が示されている。
 ここで、学習段階の1回目では、前回動作時におけるモーションデータが存在しないため、図5に示すガイド刺激G1a~G1dは、マスターデータM1a~M1dにそれぞれ対応して制御されるデフォルトのガイド刺激であってよい。図5に示すように、本実施形態に係るデフォルトのガイド刺激は、マスターデータの大きさ、開始タイミング、継続時間に対応した触覚刺激として制御され得る。また、本実施形態に係るガイド刺激は、図5に示すように、動作の開始タイミングを対象ユーザに提示するための補助刺激r1およびr2を含んでよい。上記の補助刺激は、動作の開始タイミングに合わせたカウントダウンなどの役割を担うものであってもよい。
 ここで、図5におけるモーションデータS1a~S1dに着目すると、対象ユーザがガイド刺激G1a~G1dの提示が終わったあとに、動作を行っていたことがわかる。このような場合、まず、指導者は、ガイド刺激と動作の開始タイミングとの関係を対象ユーザに指導する。また、モーションデータS1a~S1dに着目すると、対象ユーザがマスターM1a~M1dに対応する動作よりも大きい動作を行っていることがわかる。このような場合、本実施形態に係る出力制御部240は、演算部220により算出された差分に基づいて、次回に出力させるガイド刺激を弱める制御を行う。
 図6は、本実施形態の学習段階における2回目の出力制御の例を示す図である。図6には、1回目と同一のマスターデータM1a~M1d、1回目のモーションデータS1a~S1dにより調整されたガイド刺激G2a~G2d、および対象ユーザの動作に基づいて収集される2回目のモーションデータS2a~S2dが示されている。
 ここで、図6におけるガイド刺激G2a~G2dに着目すると、1回目におけるガイド刺激G1a~G1dに比べ、強度が小さいことがわかる。このように、本実施形態に係る出力制御部240は、マスターデータM1a~M1dと、前回動作時に収集されたモーションデータS1a~S1dとの差分に基づいて、対象出力部に出力させるガイド刺激G2a~G2dを制御することできる。
 また、モーションデータS2a~S2dに着目すると、動作の大きさや動作の開始タイミングがマスターデータM1a~M1dに近づいていることがわかる。一方、モーションデータS2aが示すように、対象ユーザは、弱いガイド刺激G2aに対し、動作の開始が遅くなる傾向があることがわかる。また、モーションデータS2cに示すように、対象ユーザは、緩やかに弱くなるガイド刺激G2cに対し、動作の継続時間が長くなる傾向があることがわかる。このような場合、本実施形態に係る出力制御部240は、上記のような傾向に基づいて、次回に出力させるガイド刺激をそれぞれ独立的に制御することができる。
 図7は、本実施形態の学習段階におけるN回目の出力制御の例を示す図である。図7には、1~N-1回目と同一のマスターデータM1a~M1d、N-1回目までのモーションデータにより調整されたガイド刺激GNa~GNd、および対象ユーザの動作に基づいて収集されるN回目のモーションデータSNa~SNdが示されている。
 ここで、図7におけるガイド刺激GNa~GNdに着目すると、ガイド刺激GNa~GNdは、図5に示したデフォルトのガイド刺激G1a~G1dと比べ、対象ユーザの動作傾向に応じてそれぞれ独立に制御されていることがわかる。また、モーションデータSNa~SNdに着目すると、対象ユーザがN回目の練習によりマスターデータM1a~M1dと一致する動作を行えるようになったことがわかる。このように、本実施形態に係る出力制御部240が有する機能によれば、対象ユーザの動作傾向に応じてガイド刺激の出力開始タイミング、強度、継続時間などを調整することで、対象ユーザごとの技術取得を補助することが可能である。
 なお、出力制御部240は、対象ユーザの負担を低減するために、触覚刺激の出力の総和が所定の閾値に達した場合には、触覚刺激の出力を停止させてもよい。また、出力制御部240は、動作のずれが所定以上に達した場合や、対象ユーザが動作を止めた際には、触覚刺激や音楽を停止させることもできる。
 (チェック段階)
 次に、本実施形態に係るチェック段階における出力制御例について説明する。ここで、本実施形態に係るチェック段階は、マスターデータとの差分を対象ユーザに知覚させることを目的とする段階である。また、本実施形態に係るチェック段階は、今後、触覚刺激の提示が行われなくなった場合や、他のユーザと共通の触覚刺激が用いられる場合であっても、対象ユーザがマスターデータと一致する動作を行えるようにする目的も含む。
 このため、本実施形態に係るチェック段階では、出力制御部240は、ガイド刺激に加え、上記の差分を対象ユーザに提示するフィードバック刺激を対象出力部に出力させる。この際、出力制御部240は、演算部220により算出された差分の種別または当該差分の大きさに基づいて、フィードバック刺激を制御してよい。ここで、上記の差分の種別には、例えば、動作の大きさ、開始タイミング、継続時間などが挙げられる。本実施形態に係る出力制御部240は、上記のような差分の種別や当該差分の大きさに基づいて、フィードバック刺激の強度や、継続時間、周波数、波形パターンなどを制御してよい。なお、どの種別にどの周波数や波形パターンが対応するかについては、事前に対象ユーザに知らされてよい。また、対象ユーザが自身にとって直観的な組み合わせを選択することも可能である。
 以下、本実施形態に係るチェック段階における出力制御例について具体例を挙げながら説明する。なお、以下では、出力制御部240が、単一動作の開始タイミングの差分に係る出力制御を行う場合を例に説明する。また、以下では、図7に示した学習段階のN回目の後、すなわち対象ユーザが自身向けに制御されたガイド刺激がある場合にはマスターデータと一致する動作を行える状態においてチェック段階が開始される場合を例に説明するが、本実施形態に係るチェック段階は任意の時点において開始されてもよい。
 図8は、本実施形態に係るチェック段階における出力制御の例について説明するための図である。図8の左側には、マスターデータM11と、チェック段階の1~3回目における出力制御の例が示されている。また、図8の右側には、マスターデータM11と、チェック段階のN、T、およびZ回目における出力制御の例が示されている。
 まず、チェック段階の1回目における出力制御の例について説明する。チェック段階における1回目では、出力制御部240は、学習段階のN回目に出力したガイド刺激と同一のガイド刺激を出力してよい。すなわち、図8におけるガイド刺激G11は、対象ユーザの動作傾向に基づいて、デフォルトのガイド刺激よりも早いタイミングで出力されるように制御されている。また、モーションデータS11に着目すると、上記のように制御されるガイド刺激G11が出力される場合には、対象ユーザは、マスターデータM11と一致する動作を行えていることがわかる。
 次に、チェック段階の2回目における出力制御の例について説明する。チェック段階の2回目では、出力制御部240は、デフォルトのガイド刺激に近づくように、1回目のガイド刺激G11よりも遅れたタイミングでガイド刺激G12を出力させる。ここで、モーションデータS12に着目すると、上記のガイド刺激G12の制御に伴い、対象ユーザの動作開始タイミングが遅れていることがわかる。
 この際、出力制御部240は、上記の動作開始タイミングのずれ、すなわち、マスターデータM11とモーションデータS12との差分に基づいて、フィードバック刺激F12を対象出力部に出力させる。ここで、上記のフィードバック刺激F12には、予め対象ユーザが開始タイミングの遅れに対応する刺激であると認識している周波数や波形パターンが用いられる。対象ユーザは、フィードバック刺激F12を知覚することで、自身の動作の開始タイミングが遅れていることを把握することができる。なお、出力制御部240は、対象ユーザがマスターデータM11に対応する動作を行ったのち、所定時間内にフィードバック刺激を出力させてよい。これにより、ガイド刺激とフィードバック刺激の混同を避けることができる。
 次に、チェック段階の3回目における出力制御の例について説明する。チェック段階の3回目では、出力制御部240は、2回目のガイド刺激G12と同一のタイミングでガイド刺激G13を出力させてよい。このように、出力制御部240は、対象ユーザが自発的に動作の開始タイミングを早め、再びマスターデータM11と一致する動作を行えるまで、ガイド刺激の出力タイミングを固定する。また、モーションデータS13に着目すると、対象ユーザの動作開始タイミングが2回目に比べ、マスターデータM11に近づいていることがわかる。このため、出力制御部240は、2回目のフィードバック刺激F12よりも弱い強度で3回目のフィードバック刺激F13を出力させている。
 次に、チェック段階のN回目における出力制御の例について説明する。N回目におけるガイド刺激G1Nは、3回目のガイド刺激G13と同様に固定されたタイミングで出力されている。また、モーションデータS1Nに着目すると、対象ユーザがマスターデータM11と一致するタイミングで動作を開始できていることがわかる。
 次に、チェック段階のT回目以降における出力制御の例について説明する。チェック段階のT回目以降では、上記の2~N回目で説明したように、ガイド刺激の出力タイミングをマスターデータに近づける制御、および対象ユーザがマスターデータM11と一致する動作を行えるまでガイド刺激の出力タイミングを固定する制御を繰り返し実行する。また、出力制御部240は、上記の制御とあわせて、マスターデータM11との差分に基づいたフィードバック刺激を対象出力部に出力させる。
 本実施形態に係る出力制御部240が上記の制御を行うことで、図8に示すように、ユーザは、Z回目には、デフォルトのガイド刺激G1Zが出力される場合でも、マスターデータM11と同一の動作を行えるように上達する。すなわち、本実施形態に係る出力制御部240の機能によれば、触覚刺激の提示が行われなくなった場合や、他のユーザと共通の触覚刺激が用いられる場合であっても、対象ユーザがマスターデータと一致する動作を行うことが可能となる。
 以上、本実施形態に係るチェック時における出力制御の例について説明した。上述したように、本実施形態に係る出力制御部240は、対象ユーザ用に調整されたガイド刺激を徐々にデフォルトの状態に近づけることで、対象ユーザの動作傾向を補正することができる。なお、この際、出力制御部240は、対象ユーザにとって違和感がないように、一度に調整する変化量を抑えながら制御を繰り返してよい。出力制御部240が上記のような制御を行うことで、対象ユーザが無意識のうちに動作開始タイミングを修正することができる効果も期待される。
 また、図8を用いた説明では、動作の開始タイミングに係るずれを補正する場合を例に述べたが、本実施形態に係る出力制御部240は、上記で説明した手法と同一の手法により、動作の大きさや継続時間に係るずれを補正することもできる。また、出力制御部240は、上記の制御を複数の出力部120に対し同時に行ってよい。出力制御部240が差分の種別に基づく触覚刺激の出力を段階的または平行して制御していくことで、対象ユーザは、最終的には、マスターデータと同一の動作を行うことが可能となる。
 また、この際、出力制御部240は、動作箇所の重要度に応じて、触覚刺激を出力させる出力部120を選択してもよい。例えば、出力制御部240は、複数箇所で動作のずれが検出された場合には、より重要な箇所に配置される出力部120に優先して触覚刺激を出力させてもよい。また、出力制御部240は、同時に触覚刺激を出力させる出力部120の数を限定してもよい。一方、出力制御部240は、動作のずれが検出された順に出力部120に触覚刺激を出力させることもできる。
 <<1.5.マスターデータの生成例>>
 次に、本実施形態に係るマスターデータの生成例について詳細に説明する。上記の説明では、マスターデータが予めプロフェッショナルや指導者などの上級者の動作に基づいて収集、生成される場合を例に述べた。一方、本実施形態に係るマスターデータの生成は、係る例に限定されない。本実施形態に係るマスターデータは、例えば、デバイス10を装着する他のユーザの動作に基づき収集されるモーションデータに基づいて生成されてもよい。また、上記の他のユーザの動作に基づき収集されるモーションデータは、デバイス10を装着する対象ユーザが行う動作に基づいて収集されるモーションデータと同時に収集されてもよい。
 (他のユーザのモーションデータに基づくマスターデータの生成)
 図9は、本実施形態に係る他のユーザのモーションデータに基づくマスターデータの生成について説明するための図である。図9には、デバイス10-1を装着した対象ユーザU1、デバイス10-2を装着した他のユーザU2、および出力制御装置20が示されている。ここで、他のユーザU2は、プロフェッショナルや指導者などの上級者であってもよい。
 この際、対象ユーザU1と他のユーザU2は、同一の曲に合わせて同一の振り付けのダンスを同時に行う。すなわち、本実施形態に係るデータ加工部210は、対象ユーザU1のモーションデータと同時に収集される他のユーザU2のモーションデータを加工し、マスターデータを生成することができる。この場合、演算部220は、データ加工部210が生成したマスターデータと対象ユーザU2のモーションデータとをリアルタイムに比較し、差分を算出してよい。出力制御部240は、演算部220により逐次算出される差分に基づいて、触覚刺激を対象ユーザU1が装着するデバイス10-1に出力させることができる。
 このように、本実施形態に係るマスターデータは、対象ユーザのモーションデータと同時に収集、生成されるものであってよい。本実施形態に係る出力制御装置20がマスターデータをリアルタイムに生成し、対象ユーザのモーションデータと比較することで、対象ユーザは、上級者(他のユーザ)との動作の違いをより直観的に知覚することができる。
 また、出力制御部240は、対象ユーザU1が装着するデバイス10-1と他のユーザU2が装着するデバイス10-2に、同一の触覚刺激を出力させることも可能である。この場合、上級者である他のユーザがU2も、対象ユーザU1との動作のずれを知覚することができ、口頭で上記の動作のずれを改善するアドバイスを行うことなども可能となる。
 また、図9では、対象ユーザおよび他のユーザがそれぞれ1名である場合を示しているが、本実施形態に係る対象ユーザおよび他のユーザは、それぞれ複数人であってもよい。また、上記の他のユーザは、同時に対象ユーザでもあり得る。本実施形態に係る出力制御装置20は、1名の上級者(他のユーザ)のモーションデータに基づいて、複数人の対象ユーザにそれぞれ触覚刺激を提示してもよい。また、出力制御装置20は、例えば、複数人の他のユーザから収集したモーションデータを平均してマスターデータを生成し、当該マスターデータとそれぞれのモーションデータを比較することもできる。この場合、対象ユーザは、例えば、集団で行うダンスやマーチングなどにおいて、平均化された動作と自身の動作との差分を知覚することができ、より統一化された全体行動を実現することができる。
 (画像情報に基づくマスターデータの生成)
 以上、本実施形態に係るマスターデータがリアルタイムに生成される場合について述べた。一方、本実施形態に係るマスターデータは、例えば、過去に記録された画像情報に基づいて生成されてもよい。この際、本実施形態に係るデータ加工部210は、画像中から抽出した特徴点を追跡することで、動作の検出を行うことができる。
 図10は、本実施形態に係る画像情報に基づくマスターデータの生成について説明するための図である。図10には、2つの画像IM1およびIM2が示されている。ここで、画像IM1およびIM2は、時系列に連続した画像情報であってよい。また、図10には、データ加工部210が画像IM1から抽出した特徴点F1、および画像IM2から抽出した特徴点F1が示されている。この際、本実施形態に係るデータ加工部210は、対応する2つの特徴点F1およびF1のマッチングを行い、画素の移動距離を算出することで、対象の動作を検出することができる。また、データ加工部210は、画像IM1およびIM2の記録時間から、上記の動作の速度を算出することもできる。データ加工部210は、例えば、画像識別の分野で用いられるオプティカルフローなどの技術を用いて、上記の処理を実現してもよい。
 以上、本実施形態に係る画像情報に基づくマスターデータの生成について説明した。本実施形態に係るデータ加工部210が有する上記の機能によれば、過去に記録された画像情報からマスターデータを生成することが可能となり、例えば、歴代の好記録保持者が行った動作や対象ユーザ自身が過去に行った好プレーなどと、動作の比較を行うことも可能となる。
 また、上記では、データ加工部210が抽出した特徴点の追跡を行うことで、マスターデータを生成する場合を例に述べたが、例えば、各種のマーカを装着した対象者の動作を撮像することで、処理を簡略化することも可能である。本実施形態に係る画像情報には、3次元動画像や2次元動画像などが含まれてよい。
 <<1.6.出力制御装置20の動作の流れ>>
 次に、本実施形態に係る出力制御装置20の動作の流れについて説明する。図11は、本実施形態に係る出力制御装置20の動作の流れを示すフローチャートである。
 図11を参照すると、まず、出力制御装置20のデバイス通信部250は、センサ情報または画像情報を取得する(S1101)。
 次に、データ加工部210は、ステップS1101で取得した情報と、対象ユーザの身体的特徴とに基づいてマスターデータを生成する(S1102)。
 次に、デバイス通信部250は、デバイス10から対象者の動作に基づいて収集されたモーションデータを取得する(S1103)。
 次に、演算部220は、ステップS1102で生成したマスターデータと、ステップS1103で取得したモーションデータとを比較する(S1104)。
 ここで、マスターデータとモーションデータとに差分が検出された場合(S1105:YES)、出力制御部240は、検出された差分の種別および大きさに基づいて、ガイド刺激をデバイス10に出力させる(1106)。
 また、チェック段階においては、出力制御部240は、検出された差分の種別および大きさに基づいてフィードバック刺激をデバイス10に出力させる(S1107)。
 ステップS1106、ステップS1107の動作の完了後、または、マスターデータとモーションデータとの差分が検出されない場合(S1105:No)、出力制御装置20は、触覚刺激の出力制御に係る処理を終了する。
 <2.ハードウェア構成例>
 次に、本開示に係る出力制御装置20のハードウェア構成例について説明する。図12は、本開示に係る出力制御装置20のハードウェア構成例を示すブロック図である。図12を参照すると、本開示に係る出力制御装置20は、例えば、CPU871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
 (CPU871)
 CPU871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
 (ROM872、RAM873)
 ROM872は、CPU871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、CPU871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
 (ホストバス874、ブリッジ875、外部バス876、インターフェース877)
 CPU871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
 (入力装置878)
 入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
 (出力装置879)
 出力装置879は、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。また、本開示に係る出力装置879には、触覚刺激を出力する種々の装置が含まれる。
 (ストレージ880)
 ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
 (ドライブ881)
 ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
 (リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu-ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
 (接続ポート882)
 接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS-232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
 (外部接続機器902)
 外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
 (通信装置883)
 通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
 <3.まとめ>
 以上説明したように、本開示に係る出力制御装置20は、上級者などの動作に基づいて生成したマスターデータと、対象者の動作に基づいて収集されたモーションデータとを比較する機能を有する。また、本開示に係る出力制御装置20は、マスターデータとモーションデータとの差分に基づいて、対象出力部に触覚刺激を出力させる機能を有する。係る構成によれば、ユーザによる複雑な技術の取得をより直観的に支援することが可能となる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、上記実施形態では、出力制御装置20がマスターデータとモーションデータとの差分に基づいて、触覚刺激のみを出力される場合を例に述べたが、本技術は係る例に限定されない。例えば、本開示に係る出力制御装置20は、触覚刺激に加えて、視覚情報や聴覚情報を出力させてもよい。例えば、出力制御装置20は、対象出力部に触覚刺激を出力させると同時にディスプレイ装置やスピーカなどに上記の差分に係るメッセージを出力させることもできる。また、出力制御装置20は、対象出力部に音声や光などを出力させてもよい。
 また、例えば、上記実施形態では、出力制御装置20が、マスターデータとモーションデータとの差分に基づいてのみ、触覚刺激を出力させる場合を例に述べたが、出力制御装置20は、上記の差分とは独立して触覚刺激を出力させることもできる。例えば、出力制御装置20は、例えば、指先など対象ユーザが注意するべき箇所に配置された出力部120に、上記の差分とは独立して触覚刺激を出力させることで、対象ユーザに注意喚起を促すことも可能である。
 また、上記実施形態では、デバイス10および出力制御装置20がスポーツやダンスに用いられる場合を例に述べたが、本技術は係る例に限定されない。本技術は、例えば、車両の運転など、高度な技術が必要とされる装置操作などにも適用され得る。また、本技術は、例えば、合唱や合奏など他ユーザとの協調が重視される分野にも適用可能である。
 また、本明細書の出力制御装置20の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、出力制御装置20の処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 マスターデータとデバイスが備える複数のセンサ部により収集されるモーションデータとの差分を算出する演算部と、
 前記差分に基づいて前記デバイスが備える複数の出力部に係る出力制御を行う出力制御部と、
 を備え、
 前記出力制御部は、前記差分に基づいて、前記モーションデータを収集した前記センサ部と対応する位置に配置される対象出力部に触覚刺激を出力させる、
出力制御装置。
(2)
 前記出力制御部は、前記差分の種別または前記差分の大きさに基づいて、前記対象出力部に出力させる前記触覚刺激を制御する、
前記(1)に記載の出力制御装置。
(3)
 前記差分は、動作開始タイミングに係る差分を含み、
 前記出力制御部は、前記動作開始タイミングに係る差分に基づいて、前記対象出力部に出力させる前記触覚刺激の出力タイミングを制御する、
前記(1)または(2)に記載の出力制御装置。
(4)
 前記差分は、動作の大きさに係る差分を含み、
 前記出力制御部は、前記動作の大きさに係る差分に基づいて、前記対象出力部に出力させる前記触覚刺激の強度を制御する、
前記(1)~(3)のいずれかに記載の出力制御装置。
(5)
 前記差分は、動作の継続時間に係る差分を含み、
 前記出力制御部は、前記動作の継続時間に係る差分に基づいて、前記対象出力部に出力させる前記触覚刺激の継続時間を制御する、
前記(1)~(4)のいずれかに記載の出力制御装置。
(6)
 前記触覚刺激は、前記マスターデータに対応する動作をガイドするガイド刺激を含み、
 前記出力制御部は、前記差分に基づいて、前記対象出力部に出力させる前記ガイド刺激を制御する、
前記(1)~(5)のいずれかに記載の出力制御装置。
(7)
 前記演算部は、前記マスターデータと、前回動作時に収集された前記モーションデータとの前回差分を算出し、
 前記出力制御部は、前記前回差分に基づいて、前記ガイド刺激の出力を制御する、
前記(6)に記載の出力制御装置。
(8)
 前記出力制御部は、前記デバイスを装着する対象ユーザが前記マスターデータに対応する動作を行うべきタイミングよりも前に、前記ガイド刺激を前記対象出力部に出力させる、
前記(7)に記載の出力制御装置。
(9)
 前記触覚刺激は、前記差分を、前記デバイスを装着する対象ユーザに提示するフィードバック刺激を含み、
 前記出力制御部は、前記差分に基づいて、前記対象出力部に出力させる前記フィードバック刺激を制御する、
前記(1)~(8)のいずれかに記載の出力制御装置。
(10)
 前記出力制御部は、前記差分の種別または前記差分の大きさに基づいて、前記フィードバック刺激を制御する、
前記(9)に記載の出力制御装置。
(11)
 前記出力制御部は、前記デバイスを装着する対象ユーザが前記マスターデータに対応する動作を行ったのち、所定時間内に、前記フィードバック刺激を前記対象出力部に出力させる、
前記(9)または(10)に記載の出力制御装置。
(12)
 前記マスターデータは、前記デバイスを装着する対象ユーザの身体的特徴に基づいて加工されたデータである、
前記(1)~(11)のいずれかに記載の出力制御装置。
(13)
 前記マスターデータは、他のユーザが行う動作に基づき収集されるモーションデータに基づいて生成される、
前記(1)~(12)のいずれかに記載の出力制御装置。
(14)
 前記他のユーザが行う動作に基づいて収集されるモーションデータは、前記デバイスを装着する対象ユーザが行う動作に基づいて収集されるモーションデータと同時に収集される、
前記(13)に記載の出力制御装置。
(15)
 前記マスターデータは、画像情報に基づいて生成される、
前記(1)~(14)のいずれかに記載の出力制御装置。
(16)
 対象ユーザの身体的特徴に基づいてマスターデータを生成するデータ加工部、
 をさらに備える、
 前記(1)~(15)のいずれかに記載の出力制御装置。
(17)
 前記出力制御部による制御に基づいて触覚刺激を出力する複数の出力部、
 をさらに備える、
前記(1)~(16)のいずれかに記載の出力制御装置。
(18)
 対象ユーザの動作に基づくモーションデータを収集する複数のセンサ部、
 をさらに備える、
前記(1)~(17)のいずれかに記載の出力制御装置。
(19)
 プロセッサが、
 マスターデータとデバイスが備える複数のセンサ部により収集されるモーションデータとの差分を算出することと、
 前記差分に基づいて前記デバイスが備える複数の出力部に係る出力制御を行うことと、
 を含み、
 出力制御を行うことは、前記差分に基づいて、前記モーションデータを収集した前記センサ部と対応する位置に配置される対象出力部に触覚刺激を出力させること、
 をさらに含む、
出力制御方法。
(20)
 コンピュータを、
 マスターデータとデバイスが備える複数のセンサ部により収集されるモーションデータとの差分を算出する演算部と、
 前記差分に基づいて前記デバイスが備える複数の出力部に係る出力制御を行う出力制御部と、
 を備え、
 前記出力制御部は、前記差分に基づいて、前記モーションデータを収集した前記センサ部と対応する位置に配置される対象出力部に触覚刺激を出力させる、
 出力制御装置、
 として機能させるためのプログラム。
 10   デバイス
 110  センサ部
 120  出力部
 130  サーバ通信部
 20   出力制御装置
 210  データ加工部
 220  演算部
 230  記憶部
 240  出力制御部
 250  デバイス通信部

Claims (20)

  1.  マスターデータとデバイスが備える複数のセンサ部により収集されるモーションデータとの差分を算出する演算部と、
     前記差分に基づいて前記デバイスが備える複数の出力部に係る出力制御を行う出力制御部と、
     を備え、
     前記出力制御部は、前記差分に基づいて、前記モーションデータを収集した前記センサ部と対応する位置に配置される対象出力部に触覚刺激を出力させる、
    出力制御装置。
  2.  前記出力制御部は、前記差分の種別または前記差分の大きさに基づいて、前記対象出力部に出力させる前記触覚刺激を制御する、
    請求項1に記載の出力制御装置。
  3.  前記差分は、動作開始タイミングに係る差分を含み、
     前記出力制御部は、前記動作開始タイミングに係る差分に基づいて、前記対象出力部に出力させる前記触覚刺激の出力タイミングを制御する、
    請求項1に記載の出力制御装置。
  4.  前記差分は、動作の大きさに係る差分を含み、
     前記出力制御部は、前記動作の大きさに係る差分に基づいて、前記対象出力部に出力させる前記触覚刺激の強度を制御する、
    請求項1に記載の出力制御装置。
  5.  前記差分は、動作の継続時間に係る差分を含み、
     前記出力制御部は、前記動作の継続時間に係る差分に基づいて、前記対象出力部に出力させる前記触覚刺激の継続時間を制御する、
    請求項1に記載の出力制御装置。
  6.  前記触覚刺激は、前記マスターデータに対応する動作をガイドするガイド刺激を含み、
     前記出力制御部は、前記差分に基づいて、前記対象出力部に出力させる前記ガイド刺激を制御する、
    請求項1に記載の出力制御装置。
  7.  前記演算部は、前記マスターデータと、前回動作時に収集された前記モーションデータとの前回差分を算出し、
     前記出力制御部は、前記前回差分に基づいて、前記ガイド刺激の出力を制御する、
    請求項6に記載の出力制御装置。
  8.  前記出力制御部は、前記デバイスを装着する対象ユーザが前記マスターデータに対応する動作を行うべきタイミングよりも前に、前記ガイド刺激を前記対象出力部に出力させる、
    請求項7に記載の出力制御装置。
  9.  前記触覚刺激は、前記差分を、前記デバイスを装着する対象ユーザに提示するフィードバック刺激を含み、
     前記出力制御部は、前記差分に基づいて、前記対象出力部に出力させる前記フィードバック刺激を制御する、
    請求項1に記載の出力制御装置。
  10.  前記出力制御部は、前記差分の種別または前記差分の大きさに基づいて、前記フィードバック刺激を制御する、
    請求項9に記載の出力制御装置。
  11.  前記出力制御部は、前記デバイスを装着する対象ユーザが前記マスターデータに対応する動作を行ったのち、所定時間内に、前記フィードバック刺激を前記対象出力部に出力させる、
    請求項9に記載の出力制御装置。
  12.  前記マスターデータは、前記デバイスを装着する対象ユーザの身体的特徴に基づいて加工されたデータである、
    請求項1に記載の出力制御装置。
  13.  前記マスターデータは、他のユーザが行う動作に基づき収集されるモーションデータに基づいて生成される、
    請求項1に記載の出力制御装置。
  14.  前記他のユーザが行う動作に基づいて収集されるモーションデータは、前記デバイスを装着する対象ユーザが行う動作に基づいて収集されるモーションデータと同時に収集される、
    請求項13に記載の出力制御装置。
  15.  前記マスターデータは、画像情報に基づいて生成される、
    請求項1に記載の出力制御装置。
  16.  対象ユーザの身体的特徴に基づいてマスターデータを生成するデータ加工部、
     をさらに備える、
     請求項1に記載の出力制御装置。
  17.  前記出力制御部による制御に基づいて触覚刺激を出力する複数の出力部、
     をさらに備える、
    請求項1に記載の出力制御装置。
  18.  対象ユーザの動作に基づくモーションデータを収集する複数のセンサ部、
     をさらに備える、
    請求項1に記載の出力制御装置。
  19.  プロセッサが、
     マスターデータとデバイスが備える複数のセンサ部により収集されるモーションデータとの差分を算出することと、
     前記差分に基づいて前記デバイスが備える複数の出力部に係る出力制御を行うことと、
     を含み、
     出力制御を行うことは、前記差分に基づいて、前記モーションデータを収集した前記センサ部と対応する位置に配置される対象出力部に触覚刺激を出力させること、
     をさらに含む、
    出力制御方法。
  20.  コンピュータを、
     マスターデータとデバイスが備える複数のセンサ部により収集されるモーションデータとの差分を算出する演算部と、
     前記差分に基づいて前記デバイスが備える複数の出力部に係る出力制御を行う出力制御部と、
     を備え、
     前記出力制御部は、前記差分に基づいて、前記モーションデータを収集した前記センサ部と対応する位置に配置される対象出力部に触覚刺激を出力させる、
     出力制御装置、
     として機能させるためのプログラム。
PCT/JP2017/040601 2016-12-27 2017-11-10 出力制御装置、出力制御方法、およびプログラム WO2018123293A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201780079285.4A CN110099727B (zh) 2016-12-27 2017-11-10 输出控制装置、输出控制方法以及程序
JP2018558879A JP6984613B2 (ja) 2016-12-27 2017-11-10 出力制御装置、出力制御方法、およびプログラム
EP17888695.8A EP3563911B1 (en) 2016-12-27 2017-11-10 Output control device, output control method, and program
US16/467,340 US20200074880A1 (en) 2016-12-27 2017-11-10 Output control device, output controlling method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016252665 2016-12-27
JP2016-252665 2016-12-27

Publications (1)

Publication Number Publication Date
WO2018123293A1 true WO2018123293A1 (ja) 2018-07-05

Family

ID=62707298

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/040601 WO2018123293A1 (ja) 2016-12-27 2017-11-10 出力制御装置、出力制御方法、およびプログラム

Country Status (5)

Country Link
US (1) US20200074880A1 (ja)
EP (1) EP3563911B1 (ja)
JP (1) JP6984613B2 (ja)
CN (1) CN110099727B (ja)
WO (1) WO2018123293A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020069353A (ja) * 2018-11-02 2020-05-07 株式会社Cooperation Works 動作矯正システム及び動作矯正方法
JP7297184B1 (ja) * 2022-12-23 2023-06-23 三菱電機株式会社 運動制御システム、運動制御装置、及び運動制御方法
WO2024053178A1 (ja) * 2022-09-07 2024-03-14 パナソニックIpマネジメント株式会社 ダンス練習システム、ダンス練習方法、及びプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040077975A1 (en) * 2002-10-22 2004-04-22 Zimmerman Jeffrey C. Systems and methods for motion analysis and feedback
JP2007167203A (ja) * 2005-12-20 2007-07-05 Sony Corp 情報通知装置及び方法並びに情報通知システム及び方法
US20100173276A1 (en) * 2007-06-18 2010-07-08 Maxim Alexeevich Vasin Training method and a device for carrying out said method
JP2011087794A (ja) * 2009-10-23 2011-05-06 Sony Corp 動作関連演算装置、動作関連演算方法、プログラム、動作関連再生システム
JP2011516915A (ja) * 2008-04-03 2011-05-26 韓國電子通信研究院 モーションコンテンツベースの学習装置及び方法
JP2016047207A (ja) 2014-08-28 2016-04-07 ソニー株式会社 フィードバック提供方法、システム、および解析装置
JP2017136142A (ja) * 2016-02-02 2017-08-10 セイコーエプソン株式会社 情報端末、動作評価システム、動作評価方法、動作評価プログラム、及び記録媒体

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005072831A1 (en) * 2004-01-26 2005-08-11 Modelgolf Llc Systems and methods of measuring and evaluating performance of a physical skill and equipment used to perform the physical skill
AU2007289025B2 (en) * 2006-10-26 2009-04-23 Richard John Baker Method and apparatus for providing personalised audio-visual instruction
US9642415B2 (en) * 2011-02-07 2017-05-09 New Balance Athletics, Inc. Systems and methods for monitoring athletic performance
WO2013052959A2 (en) * 2011-10-07 2013-04-11 Sean Hutchison Systems and methods for training bodily motions
US9173596B1 (en) * 2014-06-28 2015-11-03 Bertec Limited Movement assessment apparatus and a method for providing biofeedback using the same
GB201502426D0 (en) * 2015-02-13 2015-04-01 Mas Innovation Pvt Ltd Smart apparel
WO2016172463A1 (en) * 2015-04-22 2016-10-27 Alcatel-Lucent Usa Inc. Wearable interactive learning devices

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040077975A1 (en) * 2002-10-22 2004-04-22 Zimmerman Jeffrey C. Systems and methods for motion analysis and feedback
JP2007167203A (ja) * 2005-12-20 2007-07-05 Sony Corp 情報通知装置及び方法並びに情報通知システム及び方法
US20100173276A1 (en) * 2007-06-18 2010-07-08 Maxim Alexeevich Vasin Training method and a device for carrying out said method
JP2011516915A (ja) * 2008-04-03 2011-05-26 韓國電子通信研究院 モーションコンテンツベースの学習装置及び方法
JP2011087794A (ja) * 2009-10-23 2011-05-06 Sony Corp 動作関連演算装置、動作関連演算方法、プログラム、動作関連再生システム
JP2016047207A (ja) 2014-08-28 2016-04-07 ソニー株式会社 フィードバック提供方法、システム、および解析装置
JP2017136142A (ja) * 2016-02-02 2017-08-10 セイコーエプソン株式会社 情報端末、動作評価システム、動作評価方法、動作評価プログラム、及び記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3563911A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020069353A (ja) * 2018-11-02 2020-05-07 株式会社Cooperation Works 動作矯正システム及び動作矯正方法
JP7061253B2 (ja) 2018-11-02 2022-04-28 株式会社Cooperation Works 動作矯正システム及び動作矯正方法
WO2024053178A1 (ja) * 2022-09-07 2024-03-14 パナソニックIpマネジメント株式会社 ダンス練習システム、ダンス練習方法、及びプログラム
JP7297184B1 (ja) * 2022-12-23 2023-06-23 三菱電機株式会社 運動制御システム、運動制御装置、及び運動制御方法

Also Published As

Publication number Publication date
JPWO2018123293A1 (ja) 2019-11-07
EP3563911A1 (en) 2019-11-06
CN110099727A (zh) 2019-08-06
JP6984613B2 (ja) 2021-12-22
EP3563911A4 (en) 2019-11-06
EP3563911B1 (en) 2023-06-14
CN110099727B (zh) 2021-10-29
US20200074880A1 (en) 2020-03-05

Similar Documents

Publication Publication Date Title
US20200097081A1 (en) Neuromuscular control of an augmented reality system
CA2683728C (en) Vision cognition and coordination testing and training
JP7468356B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20090042695A1 (en) Interactive rehabilitation method and system for movement of upper and lower extremities
US20170316710A1 (en) Information processing device, information processing method, and computer program
US20220398937A1 (en) Information processing device, information processing method, and program
WO2018123293A1 (ja) 出力制御装置、出力制御方法、およびプログラム
KR20100015541A (ko) 시각 인지 및 협응 시험 및 훈련
CN112805765B (zh) 信息处理装置
JP7364099B2 (ja) 出力制御装置、出力制御方法およびプログラム
WO2016002199A1 (ja) リハビリテーション装置の制御装置およびリハビリテーション装置
Marky et al. supporting musical practice sessions through HMD-based augmented reality
JP7412265B2 (ja) 動作評価システム、動作評価装置、および動作評価方法
EP4332957A2 (en) Virtual, augmented or mixed reality instrument teaching system and method
US20230386155A1 (en) Virtual, augmented or mixed reality instrument teaching system and method
US20230306867A1 (en) Virtual, augmented or mixed reality instrument teaching system
US20230384864A1 (en) Skill acquisition assistance method, skill acquisition assistance system, and computer readable recording medium storing control program
KR20230132663A (ko) 운동관련뇌전위 및 가상현실 시뮬레이션을 이용한 뇌졸중 재활치료 시스템 및 방법
KR102048546B1 (ko) 가상현실을 이용한 재활 훈련 시스템 및 방법
EP4064008A1 (en) Methods and systems for writing skill development
WO2024101152A1 (en) Information processing apparatus, information processing method, and program
KR20230052668A (ko) 영상 제공 및 뇌파 측정 장치 및 그 동작 방법
JP2021178103A (ja) ゴルフレッスンシステム、ゴルフレッスン方法、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17888695

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018558879

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017888695

Country of ref document: EP

Effective date: 20190729