WO2018220948A1 - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
WO2018220948A1
WO2018220948A1 PCT/JP2018/010434 JP2018010434W WO2018220948A1 WO 2018220948 A1 WO2018220948 A1 WO 2018220948A1 JP 2018010434 W JP2018010434 W JP 2018010434W WO 2018220948 A1 WO2018220948 A1 WO 2018220948A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
user
swing
terminal
generation information
Prior art date
Application number
PCT/JP2018/010434
Other languages
English (en)
French (fr)
Inventor
哲志 山崎
基行 杉岡
鈴木 毅
一浩 中込
嘉行 宮本
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/617,249 priority Critical patent/US20200094122A1/en
Priority to EP18808846.2A priority patent/EP3632512B1/en
Priority to KR1020197032982A priority patent/KR20200015890A/ko
Priority to JP2019521968A priority patent/JPWO2018220948A1/ja
Priority to CA3064504A priority patent/CA3064504A1/en
Publication of WO2018220948A1 publication Critical patent/WO2018220948A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • G09B19/0038Sports
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
    • A63B24/0006Computerised comparison for qualitative assessment of motion sequences or the course of a movement
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • A63B69/36Training appliances or apparatus for special sports for golf
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • A63B69/36Training appliances or apparatus for special sports for golf
    • A63B69/3605Golf club selection aids informing player of his average or expected shot distance for each club
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • A63B69/36Training appliances or apparatus for special sports for golf
    • A63B69/3623Training appliances or apparatus for special sports for golf for driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • A63B2071/0625Emitting sound, noise or music
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B2071/0694Visual indication, e.g. Indicia
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/05Image processing for measuring physical parameters
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/806Video cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/83Special sensors, transducers or devices therefor characterised by the position of the sensor
    • A63B2220/833Sensors arranged on the exercise apparatus or sports implement

Definitions

  • This disclosure relates to an information processing apparatus, an information processing method, and a program.
  • the feedback information for the first generation information generated using the detection result of the event based on the sensor information indicating the information related to the first user playing golf is the first information.
  • An information processing apparatus comprising: an acquisition unit that acquires from a terminal of a second user different from one user; and a transmission control unit that controls transmission of the feedback information to the terminal of the first user is provided.
  • the feedback information for the first generation information generated using the detection result of the event based on the sensor information indicating the information related to the first user playing golf is the first information.
  • An information processing method including: obtaining from a terminal of a second user different from one user; and controlling transmission of the feedback information to the terminal of the first user by a processor.
  • the computer provides feedback information for the first generated information generated using the detection result of the event based on the sensor information indicating the information related to the first user playing golf.
  • An information processing apparatus comprising: an acquisition unit that acquires from a terminal of a second user different from the first user; and a transmission control unit that controls transmission of the feedback information to the terminal of the first user. A program for functioning is provided.
  • FIG. It is a figure showing an example of composition of an information processing system concerning an embodiment of this indication. It is a block diagram showing an example of functional composition of a server concerning an embodiment of this indication.
  • 3 is a block diagram illustrating a functional configuration example of a terminal according to an embodiment of the present disclosure.
  • FIG. It is a figure which shows the sensor list which comprises a sensor apparatus. It is a figure which shows the list
  • a plurality of constituent elements having substantially the same or similar functional configuration may be distinguished by adding different numerals after the same reference numerals. However, when it is not necessary to particularly distinguish each of a plurality of constituent elements having substantially the same or similar functional configuration, only the same reference numerals are given.
  • similar components in different embodiments may be distinguished by attaching different alphabets after the same reference numerals. However, if it is not necessary to distinguish each similar component, only the same reference numerals are given.
  • FIG. 1 is a diagram illustrating a configuration example of an information processing system according to an embodiment of the present disclosure.
  • the information processing system 1 includes a server 10, a terminal 20-1, a terminal 20-2, and a sensor device 30.
  • the server 10, the terminal 20-1, and the terminal 20-2 are connected to a network and configured to be able to communicate with each other via the network.
  • the server 10 is configured by a computer, and is configured to be able to communicate with the terminal 20-1 and the terminal 20-2 via a network. Further, when another terminal is connected to the network, the server 40 can also communicate with the other terminal via the network. Note that the server 10 can function as an information processing apparatus.
  • the terminal 20-1 is used by the first user.
  • the first user is a student who takes a sports lesson from the second user.
  • the first user is not limited to this example.
  • the terminal 20-1 is a smartphone.
  • the terminal 20-1 is not limited to a smartphone.
  • the terminal 20-1 may be a mobile phone, a tablet terminal, or an imaging device.
  • the imaging device may be a digital camera or the like.
  • the terminal 20-1 can also function as an information processing apparatus.
  • the terminal 20-2 is used by a second user different from the first user.
  • the second user is a trainer who teaches golf to the first user by a lesson.
  • the second user is not limited to such an example.
  • the terminal 20-2 is a smartphone.
  • the terminal 20-2 is not limited to a smartphone.
  • the terminal 20-2 may be a mobile phone, a tablet terminal, or an imaging device.
  • the imaging device may be a digital camera or the like.
  • the terminal 20-2 can also function as an information processing apparatus.
  • golf is described as an example of sport.
  • the sport applicable to this embodiment is not limited to golf.
  • the sport may be any of baseball, tennis, table tennis, lacrosse, hockey, squash, and badminton.
  • the sensor device 30 is attached to a club used when playing golf.
  • the position where the sensor device 30 is attached is not limited to the club.
  • the sensor device 30 may be attached to a user who plays golf.
  • the sensor device 30 may be attached to various tools (for example, a racket, a bat, etc.) used by the user instead of the club.
  • a racket for example, a racket, a bat, etc.
  • an example in which the sensor device 30 is attached to a club used when a student plays golf will be mainly described.
  • the sensor device 30 is configured to be capable of wireless communication with a pairing partner.
  • the sensor device 30 can perform wireless communication with the terminal 20-1 when paired with the terminal 20-1 used by the student.
  • the sensor device 30 can perform wireless communication with the terminal 20-2 when paired with the terminal 20-2 used by the trainer.
  • FIG. 2 is a block diagram illustrating a functional configuration example of the server 10 according to the embodiment of the present disclosure.
  • the server 10 includes a control unit 110, a storage unit 130, and a communication unit 140.
  • these functional blocks included in the server 10 will be described.
  • the control unit 110 may be configured by a processing device such as one or a plurality of CPUs (Central Processing Units). When these blocks are configured by a processing device such as a CPU, the processing device may be configured by an electronic circuit.
  • the control unit 110 includes an acquisition unit 112, a calculation unit 113, and a transmission control unit 114. These blocks will be described in detail later.
  • the storage unit 130 includes a memory, and is a recording device that stores a program executed by the control unit 110 and stores data necessary for executing the program.
  • the storage unit 130 temporarily stores data for calculation by the control unit 110.
  • the storage unit 130 may be a magnetic storage unit device, a semiconductor storage device, an optical storage device, or a magneto-optical storage device.
  • the communication unit 140 includes a communication circuit and has a function of performing communication with other devices via a network.
  • the communication unit 140 is configured by a communication interface.
  • the communication unit 140 can communicate with the terminal 20-1 and with the terminal 20-2 via the network.
  • FIG. 3 is a block diagram illustrating a functional configuration example of the terminal 20 according to the embodiment of the present disclosure.
  • the terminal 20 includes a control unit 210, an operation unit 220, an imaging unit 225, a storage unit 230, a communication unit 240, and an output unit 250.
  • these functional blocks included in the terminal 20 will be described.
  • the control unit 210 may be configured by a processing device such as one or a plurality of CPUs (Central Processing Units). When these blocks are configured by a processing device such as a CPU, the processing device may be configured by an electronic circuit.
  • a processing device such as one or a plurality of CPUs (Central Processing Units).
  • CPUs Central Processing Units
  • the processing device may be configured by an electronic circuit.
  • the operation unit 220 has a function of receiving an operation input by the user.
  • the operation unit 220 is not limited to a touch panel.
  • the operation unit 220 may include a mouse, a keyboard, a switch, a lever, and the like.
  • the operation unit 220 may include a microphone that detects the user's voice.
  • the imaging unit 225 includes one or a plurality of image sensors, and captures a user playing golf to obtain a moving image.
  • the moving image captured by the imaging unit 225 is output to the control unit 210.
  • the storage unit 230 includes a memory, and is a recording device that stores a program executed by the control unit 210 and stores data necessary for executing the program.
  • the storage unit 230 temporarily stores data for calculation by the control unit 210.
  • the storage unit 230 may be a magnetic storage unit device, a semiconductor storage device, an optical storage device, or a magneto-optical storage device.
  • the communication unit 240 includes a communication circuit, and has a function of performing communication with other devices via a network.
  • the communication unit 240 is configured by a communication interface.
  • the communication unit 240 can communicate with the server 10 via a network.
  • the communication unit 240 performs wireless communication with the sensor device 30.
  • the output unit 250 outputs various types of information.
  • the output unit 250 may include a display capable of performing display visible to the user, and the display may be a liquid crystal display or an organic EL (Electro-Luminescence) display.
  • the output unit 250 may include an audio output device such as a speaker.
  • the output unit 250 may include a tactile presentation device that presents a tactile sensation to the user.
  • the acquisition unit 112 in the server 10 corresponds to the first generation information generated using the detection result of the event based on the sensor information indicating information related to the student playing golf.
  • Feedback information is obtained from the terminal 20-2 of the trainer.
  • the transmission control unit 114 also controls transmission of feedback information to the student terminal 20-1.
  • the sensor information is detected by the sensor device 30 attached to the student.
  • the sensor information may be detected by the sensor device 30 attached to the club.
  • the generation information mainly includes a case where “swing video” extracted based on the event detection result and “analysis data” obtained based on the event detection result are included.
  • the generation information may include at least one of “swing video” and “analysis data”.
  • FIG. 4 is a diagram showing a sensor list that constitutes the sensor device 30.
  • the sensor type, manufacturer, model number, full scale, and ADC (Analog to Digital Converter) resolution are determined for three types of sensors.
  • the sensor device 30 may be configured by any of these three types of sensors.
  • the sensor device 30 may be configured by a sensor other than these three types of sensors.
  • FIG. 5 is a diagram showing a list of transmission data from the sensor device 30 to the partner paired with the sensor device 30.
  • the sensor device 30 may transmit data indicated by “data type” of “axis” to the pairing partner.
  • the characteristics of the data transmitted from the sensor device 30 to the pairing partner may be as shown in “Number of Bits”, “Full Scale”, and “Sampling Rate”.
  • the data transmitted from the sensor device 30 to the pairing partner may be input to the pairing partner's golf application.
  • FIG. 6 is a diagram illustrating an example of analysis data of data received from the sensor device 30 by the pairing partner.
  • various analysis data as shown in “Overview” in FIG. 6 is obtained.
  • various types of analysis data are shown as “data types”, and a range that the analysis data can take is shown as “ranges”.
  • data analysis may be executed by the server 10 instead of the pairing partner.
  • FIG. 7 is a diagram for explaining an example of screen transition when sign-in is performed.
  • the terminal 20-2 when a golf application activation operation by the trainer is input by the operation unit 220, a sign-in screen 500 is displayed by the output unit 250 as shown in FIG.
  • an ID (sign-in ID) and a password are input from the trainer on the sign-in screen 500 and authentication based on the ID and password is successful
  • the output unit 250 displays the trainer main screen 510 in the terminal 20-2. Details of the trainer main screen 510 will be described later with reference to FIG.
  • the sign-in screen 500 is displayed by the output unit 250 as shown in FIG.
  • an ID signal-in ID
  • a password are input from the student on the sign-in screen 500 and authentication based on the ID and password is successful
  • the output unit 250 displays the student main screen 520 in the terminal 20-1. Details of the student main screen 520 will be described later with reference to FIG.
  • FIG. 8 is a diagram showing an example of a trainer main screen 510 displayed on the terminal 20-2.
  • the trainer main screen 510 includes objects (student selection objects) corresponding to each of one or more students (students 1 to 3 in the example shown in FIG. 8) that the trainer is responsible for.
  • Information regarding one or more students that the trainer is responsible for is stored by the server 10 and acquired from the server 10 by the terminal 20-2.
  • a student main screen 520 (FIG. 11) corresponding to the student selection object is displayed on the terminal 20-2.
  • the trainer main screen 510 is switched to a group-unit trainer screen.
  • FIG. 9 is a diagram showing an example of a trainer screen 511 for each group displayed on the terminal 20-2.
  • the group-unit trainer screen 511 includes student selection objects corresponding to one or more users (students and / or trainers) in group units. Information regarding users belonging to each group is stored by the server 10 and acquired from the server 10 by the terminal 20-2.
  • a student main screen 520 (FIG. 11) corresponding to the student selection object is displayed on the terminal 20-2.
  • the trainer screen 511 for each group is switched to the online lesson selection screen.
  • FIG. 10 is a diagram showing an example of the online lesson selection screen 512 displayed on the terminal 20-2.
  • the online lesson selection screen 512 includes lesson video selection objects corresponding to one or more students.
  • the lesson video is stored by the server 10 and acquired from the server 10 by the terminal 20-2.
  • an online lesson screen 522 (FIG. 13) corresponding to the lesson video selection object is displayed on the terminal 20-2.
  • FIG. 11 is a diagram showing an example of the student main screen 520.
  • the student main screen 520 displays the student corresponding to the student selection object selected by the trainer (in the example shown in FIG. 11, “Student 1”).
  • Swing video selection object swing video selection object
  • the swing video selection object includes the number of swing video shots and the type of club used.
  • the student's swing video is stored in the server 10, and information regarding the student's swing video is acquired from the server 10 by the terminal 20-2.
  • the trainer selects any of the swing video selection objects on the terminal 20-2, a swing display screen corresponding to the selected swing video selection object is displayed on the terminal 20-2. Details of the swing video and the swing display screen will be described later.
  • the swing recording start button 620 is selected by the trainer, a swing video recording screen is displayed on the terminal 20-2.
  • the student main screen 520 displays the swing video of the student who has signed in (“Student 1” in the example shown in FIG. 11).
  • a swing video selection object and a swing recording start button 620 are included.
  • Information on the student's swing video is acquired from the server 10 by the terminal 20-1.
  • a swing display screen corresponding to the selected swing video selection object is displayed on the terminal 20-1.
  • a swing video recording screen is displayed on the terminal 20-1.
  • a predetermined tab switching operation for example, left / right flick operation
  • the student main screen 520 is switched to the lesson video screen.
  • FIG. 12 is a diagram showing an example of the lesson video screen 521.
  • the lesson video screen 521 includes a lesson video 621 (lesson videos 621-1 and 621-2) of the student.
  • the lesson video 621 includes feedback information (audio data, image data, etc.) by the trainer for the swing video.
  • Each lesson video screen 521 also includes the date and time when the lesson video was captured.
  • a predetermined tab switching operation for example, left / right flick operation
  • the lesson video screen 521 is switched to the online lesson screen.
  • FIG. 13 is a diagram showing an example of the online lesson screen 522.
  • the online lesson screen 522 includes a lesson video 621-1, and feedback information (for example, text data 622-1 and 622-2) input by the trainer with respect to the swing video included in the lesson video 621-1. 622-3).
  • the online lesson screen 522 includes text data 622-4 and 622-5 input by the student with respect to feedback information (text data 622-1 and 622-2).
  • the online lesson screen 522 is switched to the profile screen.
  • a predetermined tab switching operation for example, left / right flicking operation
  • FIG. 14 is a diagram showing an example of the profile screen 523.
  • the profile screen 523 includes student profiles, lesson lists, and shot lists.
  • the student profile, lesson list, and shot list are stored by the server 10 and acquired from the server 10 by the terminal 20-1 or the terminal 20-2.
  • the shot list includes the number of shots for each shot date and time and the type of club used, and a bar graph indicating the ratio (hook, straight, slice) for each shot type. The degree of progress of the shot by the student is grasped by such a shot list.
  • FIG. 15 is a diagram for explaining the flow from the start of swing display to the start of swing recording.
  • the trainer main screen 510 displayed on the trainer's terminal 20-2 includes student selection objects corresponding to each of one or more students handled by the trainer.
  • a student main screen 520 corresponding to the student selection object is displayed on the terminal 20-2.
  • the student main screen 520 displays the swing video of the student who has signed in (“Student 1” in the example shown in FIG. 15).
  • a swing video selection object and a swing recording start button 620 are included.
  • a swing display screen 532 corresponding to the selected swing video selection object is displayed on the terminal 20-2.
  • a swing display screen 532 corresponding to the selected swing video selection object is displayed on the terminal 20-1.
  • a swing recording screen 530 is displayed on the terminal 20-2.
  • a swing recording screen 530 is displayed on the terminal 20-1.
  • FIG. 16 is a diagram illustrating an example of the swing recording screen 530.
  • a student performs voluntary golf practice.
  • a lesson hereinafter also referred to as “online lesson” in which the feedback information is confirmed by the student is performed.
  • the swing recording screen 530 is displayed on the student terminal 20-1.
  • a mark indicating a level may be displayed first on the swing recording screen 530. Then, when it is detected that the stationary state of the terminal has continued for a predetermined time, the mark indicating the level may be turned off. Then, a suitable timing for starting the swing recording can be grasped by disappearance of the mark indicating the level.
  • the swing recording screen 530 before the start of imaging, the swing recording screen 530 includes a through image.
  • the drawing start object 630, the camera switching object 631, the connection / disconnection information 632 between the currently displayed image and the sensor device 30, and the current terminal and the sensor device 30 are displayed.
  • Connection / disconnection information 633, and information 634 indicating the connection state between the terminal and the sensor device 30 at the time of image capturing that is currently displayed.
  • the swing recording screen 530 is displayed on the student terminal 20-1 and the camera switching object 631 is selected by the student.
  • the imaging unit 225 of the student terminal 20-1 starts imaging a student who is playing golf in self practice and obtains a moving image.
  • the sensor device 30 paired with the student terminal 20-1 performs sensing to obtain sensor information.
  • the sensor information is transmitted from the sensor device 30 and received by the communication unit 240 of the terminal 20-1.
  • the control unit 210 of the student terminal 20-1 detects an event based on the sensor information received by the communication unit 240.
  • the event is at least one of a swing start time, a swing top time, an impact time, a swing end time, a successful swing, a failed swing, a best swing, and a worst swing based on a predetermined time.
  • a swing start time is at least one of a swing start time, a swing top time, an impact time, a swing end time, a successful swing, a failed swing, a best swing, and a worst swing based on a predetermined time.
  • One may be included.
  • a case where an event is an impact point will be mainly described.
  • the control unit 210 of the student terminal 20-1 generates first generation information based on the event detection result.
  • the first generation information includes swing video and analysis data
  • the swing video is extracted based on an event detection result from a moving image captured by the imaging unit 225 of the terminal 20-1 by a student playing golf.
  • the sensor information received from the sensor device 30 and the moving image captured by the imaging unit 225 of the terminal 20-1 are synchronized in the control unit 210.
  • the swing video is a section of the moving image according to the detection time of the event in the sensor information (for example, when an impact time is detected as an event, a time point that goes back a predetermined number of seconds before the impact time
  • the section in the moving image corresponding to the section from the point of time until the point when a predetermined number of seconds elapses after the point of impact is extracted by the control unit 210.
  • the analysis data is obtained by analyzing the sensor information received from the sensor device 30 by the control unit 210 based on the event detection result. More specifically, the analysis data includes the club face angle at impact, the club face-ball collision angle at impact, the club head trajectory angle at impact, the head speed at impact, and the swing speed. At least one of the information indicating the batting may be included.
  • the output unit 250 When the first generation information (swing video and analysis data) is generated in the student terminal 20-1, the output unit 250 automatically switches the display from the swing recording screen 530 to the swing display screen 532. Then, the output unit 250 displays the first generation information (swing video and analysis data) on the swing display screen 532.
  • the output unit 250 may output the sound data when the sound data is detected by the microphone together with the swing video imaging. Then, by listening to the voice included in the sound data (such as cheers), the sound included in the sound data (such as the collision sound between the club and the ball), or by knowing the voice recognition result for the voice or sound, It is possible to estimate the quality of the shot with higher accuracy.
  • the control unit 210 in the student terminal 20-1 When the student is continuously swinging, the control unit 210 in the student terminal 20-1 newly generates the generation information (third generation information (swing video) while displaying the first generation information. And analysis data)) are also assumed. In such a case, the control unit 210 automatically switches from the display of the first generation information (swing video and analysis data) to the display of the third generation information (swing video and analysis data) on the swing display screen 532. It's okay.
  • the communication unit 240 of the student terminal 20-1 transmits the first generation information (swing video and analysis data) to the server 10 via the network.
  • first generation information (swing video and analysis data) is received by the communication unit 140 and stored in the storage unit 130.
  • the first generation information (swing video and analysis data) stored by the storage unit 130 is transmitted by the transmission control unit 114. Transmission to the terminal 20-2 is controlled.
  • the trainer terminal 20-2 when the first generation information (swing video and analysis data) is received by the communication unit 240, the swing display screen 532 is displayed by the output unit 250. Also in the trainer terminal 20-2, the output unit 250 may output the sound data when the microphone detects the sound data together with the swing video imaging.
  • the name of the member performing the swing, the type of club used by the member, and information related to the sensor device 30 connected to the terminal may also be transmitted from the terminal 20-1 to the server 10 and stored.
  • the name of the member performing the swing, the type of club used by the member, and information regarding the sensor device 30 connected to the terminal may be acquired from the server 10 and displayed by the trainer terminal 20-2.
  • the name of the member performing the swing, the type of club used by the member, and information on the sensor device 30 connected to the terminal are selected by the student using the terminal 20-1. May be.
  • FIG. 17 is a diagram illustrating an example of the swing recording screen 530.
  • the swing recording screen 530 includes a member selection object 611, a club type selection object 612, and a sensor selection object 613.
  • the member selection object 611 is selected by the student on the student terminal 20-1, the member selection screen may be displayed.
  • FIG. 18 is a diagram showing an example of the member selection screen 541.
  • the member selection screen 541 includes “trainer”, “student 1”, “student 2”, “student 3”, and “nonname” as member names.
  • the name of any member may be selected as the name of the member performing the swing from the names of these members by the student.
  • a club selection screen may be displayed.
  • FIG. 19 is a diagram showing an example of the club selection screen 542.
  • the club selection screen 542 includes “driver (1W)”, “third wood (3W)”,... “Sand wedge (SW)” as club types.
  • the student may select one of the club types as the club type used by the member.
  • the club type used by the member may be automatically selected. For example, when a club type frequently used by the member is associated with the member name, the club type used by the member may be selected based on the association and the member name. Or if the length, material, weight, etc. of the club which a member uses frequently are registered, the kind of club used by a member may be selected based on such information.
  • a sensor selection screen may be displayed.
  • FIG. 20 is a diagram illustrating an example of the sensor selection screen 543.
  • the sensor selection screen 543 includes “sensor C1,” “sensor C2,”... “Sensor C5” as information regarding the sensor device 30.
  • the student may select information related to any one of the sensor devices 30 as information related to the sensor device 30 connected to the terminal.
  • the information related to the sensor device 30 connected to the terminal may be automatically selected.
  • the sensor device 30 connected to the terminal based on the association and the type of club. Information regarding may be selected.
  • a sensor selection screen may be displayed.
  • FIG. 21 is a diagram illustrating an example of the swing display screen 532.
  • the first generation information (swing video and analysis data) is received from the server 10 by the communication unit 240 of the trainer terminal 20-2, the first generation information is displayed by the output unit 250.
  • a swing video is displayed on the swing display screen 532.
  • the club head trajectory angle at impact (the trajectory sign is “644” and the angle is “ ⁇ 5.1”).
  • a swing display screen 532 displayed by the trainer terminal 20-2 includes a drawing start object 630, a favorite registration object 635, a swing video comparison object 636, a display object 637 indicating a swing start point, A display object 638 indicating a swing top point, a display object 639 indicating a swing impact point, a 180-degree reversal object 640 for reversing the swing video by 180 degrees with respect to the axis, and a swing recording screen transition for transitioning to a swing recording screen An object 641, a recording start object 642, and a time axis 643 are included.
  • a display object (a display object 637 indicating a swing start point, a display object 638 indicating a swing top point, a swing object) at a position corresponding to an event along the time axis 643.
  • a display object 639) indicating the impact point is displayed by the output unit 250.
  • the output unit 250 displays the position in the first generation information (swing video and analysis data) corresponding to the designated position. This facilitates output of the first generation information (swing video and analysis data) at a desired timing.
  • the swing display screen 532 displayed by the trainer terminal 20-2 includes a drawing start object 630, a favorite registration object 635, a swing video comparison object 636, a display object 637 indicating a swing start point, and a display indicating a swing top point.
  • Object 638, display object 639 indicating the swing impact point, 180 degree inversion object 640 for inverting the swing video by 180 degrees with respect to the axis, swing recording screen transition object 641 for transitioning to the swing recording screen, recording start An object 642 and a time axis 643 are included.
  • FIG. 22 is a diagram illustrating an example of the swing trajectory screen 551.
  • the swing trajectory screen 551 includes club head trajectory information 651.
  • FIG. 23 is a diagram illustrating an example of the estimated trajectory screen 552.
  • the estimated trajectory screen 552 includes an estimated trajectory 652.
  • the estimated trajectory 652 is based on the club type, speed, distance, club face angle at impact, club face-ball collision angle at impact, and club head trajectory angle at impact included in the analysis data. Can be calculated.
  • FIG. 24 is a diagram showing an example of the swing display screen 532.
  • the trainer wishes to provide feedback information to the student with respect to the first generation information (swing video and analysis data) displayed on the swing display screen 532.
  • the trainer selects the recording start object 642, inputs audio data as an example of feedback information, selects a drawing start object 630, and selects image data as an example of feedback information (in the example shown in FIG. 24).
  • the control unit 210 of the trainer terminal 20-2 controls transmission of audio data and image data as examples of feedback information to the server 10.
  • audio data and image data are assumed as examples of feedback information.
  • the feedback information is not limited to audio data and image data.
  • the feedback information may include at least one of voice data, text data, and image data input by the trainer with respect to the first generation information (swing video and analysis data).
  • audio data and image data as examples of feedback information are received by the communication unit 140 and stored in the storage unit 130.
  • FIG. 25 is a diagram for explaining 180-degree reverse display with respect to the axis of the first generation information (swing video and analysis data).
  • a swing display screen 532 is displayed on the trainer terminal 20-2.
  • the control unit 210 of the trainer terminal 20-2 detects the first generation information (swing video and analysis data). ) May be highlighted 180 degrees with respect to the axis.
  • Angle trajectory code “671”
  • impact angle between the club face and the ball at impact club face code “672”
  • impact angle between the club face and the ball at impact club face code “673”.
  • FIG. 26 is a diagram for explaining selection of a comparison partner's swing.
  • a swing display screen 532 is displayed on the trainer terminal 20-2.
  • the control unit 210 of the trainer terminal 20-2 detects a predetermined comparison operation (for example, selection of the swing video comparison object 636), and the comparison partner's swing is selected on the comparison swing selection screen 582.
  • the comparison video screen 583 may be displayed.
  • FIG. 27 is a diagram showing an example of the comparison swing selection screen 584.
  • the comparison swing selection screen 584 shown in FIG. 27 shows an example of narrowing down the comparison partner's swing video by limiting members.
  • FIG. 28 is a diagram showing an example of the comparison swing selection screen 584.
  • the comparison swing selection screen 584 shown in FIG. 28 shows an example of narrowing down the comparison partner's swing video by limiting the types of clubs.
  • FIG. 29 is a diagram illustrating an example in which two pieces of generated information are displayed side by side on the same screen.
  • the first generation information (swing video V1 and analysis data obtained by imaging a student) is different from the first generation information (swing video and analysis data) as a display target on the same screen.
  • the second generation information (swing video V2 captured by the trainer and analysis data) is selected, the swing video V1 and the swing video V2 are displayed side by side on the same screen.
  • each analysis data is displayed so as to be distinguished (for example, distinguished by different colors).
  • the comparison partner may be automatically displayed in reverse 180 degrees with respect to the axis.
  • information indicating the batting included in the first generation information (swing video V1 and analysis data obtained by imaging the student) and batting included in the second generation information (swing video V2 and analysis data obtained by imaging the trainer).
  • the control unit 210 of the trainer terminal 20-2 automatically displays the second generation information (the swing video V2 obtained by imaging the trainer and the analysis data) with respect to the axis 180. Inverted degree.
  • the comparison partner may be automatically changed by changing the club used by the student.
  • the control unit 210 of the trainer terminal 20-2 changes the display from the display of the second generation information (the swing video V2 captured by the trainer and the analysis data).
  • the display may be automatically switched to display of the third generation information corresponding to the type of the club.
  • FIG. 30 is a diagram showing an example in which two pieces of generated information are displayed on the same screen.
  • the example shown in FIG. 30 is different from the first generation information (swing video V1 and analysis data obtained by imaging a student) as a display target on the same screen as the first generation information (swing video and analysis data).
  • the second generation information swing video V2 captured by the trainer and analysis data
  • the swing video V1 and the swing video V2 are displayed on the same screen.
  • each analysis data is displayed so as to be distinguished (for example, distinguished by different colors).
  • the comparison partner automatically May be displayed in reverse 180 degrees. Also, when two pieces of generated information are displayed on the same screen, they are compared by changing the club used by the student, as in the case where the two pieces of generated information are displayed side by side on the same screen. The other party may be changed automatically.
  • the second generation information may be able to be enlarged, reduced, or moved based on a predetermined change operation. More specifically, when the trainer performs a pinch-out operation on the swing video V2, the swing video V2 may be enlarged. In addition, when the trainer performs a pinch-in operation on the swing video V2, the swing video V2 may be reduced. Further, when a drag operation is performed on the swing video V2 by the trainer, the swing video V2 may be moved.
  • FIG. 31 is a diagram showing an example of the comparison swing trajectory screen 585.
  • the comparison swing trajectory screen 585 includes club head trajectory information 651 as an example of first generation information (analysis data), and club head trajectory information as an example of second generation information (analysis data). 685 is included.
  • FIG. 32 is a diagram showing an example of the comparative estimated ballistic screen 586.
  • the comparative estimated ballistic screen 586 includes an estimated ballistic 686 in addition to the estimated ballistic 652.
  • the estimated trajectory 652 can be calculated based on the club type, speed, and distance included in the first generation information (analysis data).
  • the estimated trajectory 686 includes the club type, the speed, the distance, the club face angle at impact, the collision angle between the club face and ball at impact, and the club at impact, which are included in the second generation information (analysis data). It can be calculated based on the angle of the trajectory of the head.
  • the communication unit 140 When the communication unit 140 receives an acquisition request from the terminal 20-2 based on the operation by the trainer, the first generation information (swing video and analysis data) stored in the storage unit 130 of the server 10 is transmitted. 114 controls transmission of the student to the terminal 20-2.
  • the output unit 250 of the student terminal 20-2 outputs audio data as an example of feedback information and displays image data. The student can confirm the feedback information by the trainer based on the audio data and the image data.
  • the student can easily confirm the feedback information when the feedback information by the trainer is obtained for the self-practice play state. Since deep communication between the student and the trainer is realized, it is possible to always give the sense that the student and the trainer are connected.
  • auxiliary information for assisting play by the student before (or after) generation of the first generation information (swing video and analysis data) (for example, swing
  • first generation information for example, swing
  • auxiliary information are associated with each other and transmitted to the server 10. May be.
  • the first generation information swing video and analysis data
  • the auxiliary information may also be acquired from the server 10 and displayed.
  • FIG. 32 is a block diagram illustrating a hardware configuration example of the server 10 according to the embodiment of the present disclosure.
  • the hardware configuration of the terminal 20 can also be realized in the same manner as the example of the hardware configuration of the server 10 described here.
  • the server 10 includes a CPU (Central Processing unit) 901, a ROM (Read Only Memory) 903, and a RAM (Random Access Memory) 905.
  • the server 10 may also include a host bus 907, a bridge 909, an external bus 911, an interface 913, an input device 915, an output device 917, a storage device 919, a drive 921, a connection port 923, and a communication device 925.
  • the server 10 may include an imaging device 933 and a sensor 935 as necessary.
  • the server 10 may include a processing circuit called a DSP (Digital Signal Processor) or ASIC (Application Specific Integrated Circuit) instead of or in addition to the CPU 901.
  • DSP Digital Signal Processor
  • ASIC Application Specific Integrated Circuit
  • the CPU 901 functions as an arithmetic processing unit and a control unit, and controls all or a part of the operation in the server 10 according to various programs recorded in the ROM 903, the RAM 905, the storage device 919, or the removable recording medium 927.
  • the ROM 903 stores programs and calculation parameters used by the CPU 901.
  • the RAM 905 temporarily stores programs used in the execution of the CPU 901, parameters that change as appropriate during the execution, and the like.
  • the CPU 901, the ROM 903, and the RAM 905 are connected to each other by a host bus 907 configured by an internal bus such as a CPU bus. Further, the host bus 907 is connected to an external bus 911 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 909.
  • PCI Peripheral Component Interconnect / Interface
  • the input device 915 is a device operated by the user such as a button.
  • the input device 915 may include a mouse, a keyboard, a touch panel, a switch, a lever, and the like.
  • the input device 915 may include a microphone that detects a user's voice.
  • the input device 915 may be, for example, a remote control device using infrared rays or other radio waves, or may be an external connection device 929 such as a mobile phone that supports the operation of the server 10.
  • the input device 915 includes an input control circuit that generates an input signal based on information input by the user and outputs the input signal to the CPU 901. The user operates the input device 915 to input various data to the server 10 and instruct processing operations.
  • An imaging device 933 which will be described later, can also function as an input device by imaging a user's hand movement, a user's finger, and the like. At this time, the pointing position may be determined according to the movement of the hand or the direction of the finger.
  • the output device 917 is a device that can notify the user of the acquired information visually or audibly.
  • the output device 917 can be, for example, a display device such as an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display, or a sound output device such as a speaker or headphones. Further, the output device 917 may include a PDP (Plasma Display Panel), a projector, a hologram, a printer device, and the like.
  • the output device 917 outputs the result obtained by the processing of the server 10 as a video such as text or an image, or as a sound such as voice or sound.
  • the output device 917 may include a light or the like to brighten the surroundings.
  • the storage device 919 is a data storage device configured as an example of a storage unit of the server 10.
  • the storage device 919 includes, for example, a magnetic storage device such as an HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, or a magneto-optical storage device.
  • the storage device 919 stores programs executed by the CPU 901, various data, various data acquired from the outside, and the like.
  • the drive 921 is a reader / writer for a removable recording medium 927 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and is built in or externally attached to the server 10.
  • the drive 921 reads information recorded on the attached removable recording medium 927 and outputs the information to the RAM 905.
  • the drive 921 writes a record in the attached removable recording medium 927.
  • the connection port 923 is a port for directly connecting a device to the server 10.
  • the connection port 923 can be, for example, a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface) port, or the like.
  • the connection port 923 may be an RS-232C port, an optical audio terminal, an HDMI (registered trademark) (High-Definition Multimedia Interface) port, or the like.
  • the communication device 925 is a communication interface configured with a communication device for connecting to the network 931, for example.
  • the communication device 925 can be, for example, a communication card for wired or wireless LAN (Local Area Network), Bluetooth (registered trademark), or WUSB (Wireless USB).
  • the communication device 925 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), or a modem for various communication.
  • the communication device 925 transmits and receives signals and the like using a predetermined protocol such as TCP / IP with the Internet and other communication devices, for example.
  • the network 931 connected to the communication device 925 is a wired or wireless network, such as the Internet, a home LAN, infrared communication, radio wave communication, or satellite communication.
  • the imaging device 933 uses various members such as an imaging element such as a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor), and a lens for controlling the imaging of a subject image on the imaging element. It is an apparatus that images a real space and generates a captured image.
  • the imaging device 933 may capture a still image or may capture a moving image.
  • the sensor 935 is various sensors such as a distance measuring sensor, an acceleration sensor, a gyro sensor, a geomagnetic sensor, a vibration sensor, an optical sensor, and a sound sensor.
  • the sensor 935 acquires information related to the environment of the server 10 such as information related to the state of the server 10 itself such as the attitude of the housing of the server 10 and brightness and noise around the server 10.
  • the sensor 935 may include a GPS sensor that receives a GPS (Global Positioning System) signal and measures the latitude, longitude, and altitude of the apparatus.
  • GPS Global Positioning System
  • An acquisition unit that acquires feedback information for generated information from a terminal of a second user different from the first user, a transmission control unit that controls transmission of the feedback information to the terminal of the first user, An information processing apparatus is provided. According to such a configuration, it is possible to more efficiently present feedback information from the second user with respect to the play state of the first user to the first user.
  • the generation information (swing video and analysis data) is recorded (swing recording) mainly by the student terminal 20-1.
  • the swing recording may be performed by the trainer's terminal 20-2 while the trainer teaches golf to the student (inputs feedback information).
  • the control unit 210 of the trainer terminal 20-2 generates first generation information based on the detection result of the event, and the communication unit 240 transmits the first generation information and feedback information to the server 10.
  • the acquisition unit 112 acquires the first generation information and feedback information from the trainer terminal 20-2, and the storage unit 130 stores the first generation information and feedback information.
  • the student terminal 20-1 outputs first generation information and feedback information in response to an acquisition request based on an operation by the student.
  • the student can review the past lesson in detail (Lesson Review) by confirming the first generation information and feedback information output in this way (the lesson can be re-experienced). ). Even if the contents of the lesson are forgotten, it is possible to remember past lessons by confirming the first generation information and feedback information output in this way.
  • the first generation information (swing video and analysis data) stored in the storage unit 130 of the server 10 is acquired by the communication unit 140 based on an operation by the second trainer (third user).
  • the transmission control unit 114 may control transmission of the second trainer (third user) to the terminal.
  • control unit 210 may determine the analysis data, and if the analysis data is out of a predetermined range, the output unit 250 may output that an error has occurred. For example, when the club head trajectory information as an example of the first generation information (analysis data) is out of a predetermined range (for example, the ground), the control unit 210 indicates that an error has occurred in the output unit 250. May be output.
  • a threshold value for determining the impact time point based on the sensor information may be changed.
  • the impact determination threshold value may be changed according to the type of shot, the type of club, and the attributes of the person performing the swing (for example, gender, age, and whether or not the child is a kids).
  • the distance (flying distance) is obtained based on the type and speed of the club has been mainly described.
  • other factors may be considered in estimating the distance (flying distance). For example, after the swing, the distance (flying distance), the type of club, the environment where the swing was performed (weather, wind strength, etc.), the place where the swing was performed (the length of the lawn at the position where the swing was performed, It is also possible to improve the estimation accuracy of the distance (flying distance) by inputting the information (such as the degree of inclination of the ground) and using this information for machine learning.
  • the feedback information for the first generation information generated using the detection result of the event based on the sensor information indicating the information related to the first user playing golf is different from the first user.
  • An information processing apparatus comprising: (2)
  • the first generation information includes a play image extracted based on a detection result of the event from a moving image obtained by capturing the first user playing golf.
  • the sensor information and the moving image are synchronized,
  • the play image is an image of a section in the moving image corresponding to a section corresponding to a detection time point of the event in the sensor information in the moving image.
  • the information processing apparatus according to (2).
  • the first generation information includes analysis data obtained based on a detection result of the event, The analysis data shows the club face angle at impact, the impact angle between the club face and ball at impact, the angle of the orbit of the club head at impact, the head speed at impact, and the batting at swing. Including at least one of the information, The information processing apparatus according to any one of (1) to (3).
  • the display of the second generation information is automatically performed with respect to the axis. Reversed 180 degrees, The information processing apparatus according to (6) or (7). (9) When the type of the club used by the first user is changed, the display of the second generation information is automatically switched to the display of the third generation information corresponding to the type of the club after the change. The information processing apparatus according to any one of (6) to (8). (10) The first generation information is inverted 180 degrees with respect to the axis when a predetermined 180 degree inversion operation is detected. The information processing apparatus according to any one of (1) to (9).
  • the display automatically switches from the display of the first generation information to the display of the third generation information.
  • the information processing apparatus according to any one of (1) to (10).
  • (12) When auxiliary information for assisting the play is input before or after generation of the first generation information, the first generation information and the auxiliary information are associated with each other, and the first generation information is displayed. The auxiliary information is also displayed when The information processing apparatus according to any one of (1) to (11).
  • the acquisition unit acquires the first generation information and the feedback information from the terminal of the second user.
  • the information processing apparatus according to any one of (1) to (12).
  • the transmission control unit controls transmission of the first generation information to the second user's terminal when the first generation information is acquired from the first user's terminal.
  • the information processing apparatus according to any one of (1) to (12).
  • the transmission control unit further controls transmission of the feedback information to a terminal of a third user;
  • the information processing apparatus according to any one of (1) to (12).
  • the event is at least one of a swing start time, a swing top time, an impact time, a swing end time, a successful swing, a failed swing, a best swing, and a worst swing based on a predetermined time.
  • the feedback information includes at least one of voice data, text data, and image data input by the second user with respect to the first generation information.
  • the information processing apparatus according to any one of (1) to (16).
  • the first user is a student who takes a golf lesson from the second user.
  • the information processing apparatus according to any one of (1) to (17).
  • (19) The feedback information for the first generation information generated using the detection result of the event based on the sensor information indicating the information related to the first user playing golf is different from the first user. Obtaining from the terminal of the second user; Controlling the transmission of the feedback information to the terminal of the first user by a processor; Including an information processing method.
  • (20) Computer The feedback information for the first generation information generated using the detection result of the event based on the sensor information indicating the information related to the first user playing golf is different from the first user.
  • An acquisition unit for acquiring from the terminal of the second user;
  • a transmission control unit for controlling transmission of the feedback information to the terminal of the first user;
  • a program for causing an information processing apparatus to function.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Databases & Information Systems (AREA)
  • Entrepreneurship & Innovation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)

Abstract

【課題】第1のユーザのプレーの状態に対する第2のユーザからのフィードバック情報をより効率よく第1のユーザに提示することが可能な技術が提供されることが望まれる。 【解決手段】ゴルフをプレーしている第1のユーザに関連した情報を示すセンサ情報を基にしたイベントの検出結果を用いて生成された第1の生成情報に対するフィードバック情報を、前記第1のユーザとは異なる第2のユーザの端末から取得する取得部と、前記フィードバック情報の前記第1のユーザの端末への送信を制御する送信制御部と、を備える、情報処理装置が提供される。

Description

情報処理装置、情報処理方法およびプログラム
 本開示は、情報処理装置、情報処理方法およびプログラムに関する。
 近年、ユーザによるスポーツのプレーの状態を的確に把握するための技術が開示されている。例えば、ユーザの挙動を示すセンサ情報に基づいてイベントの発生を検出し、イベントに対応するイベント情報を生成し、ユーザを撮像した画像からイベント情報に基づきシーンを抽出する技術が開示されている。(例えば、特許文献1参照。)。
特開2017-22727号公報
 しかし、第1のユーザのプレーの状態を第1のユーザとは異なる第2のユーザが把握したいという要求がある。このとき、第1のユーザのプレーの状態に対する第2のユーザからのフィードバック情報をより効率よく第1のユーザに提示することが可能な技術が提供されることが望まれる。
 本開示によれば、ゴルフをプレーしている第1のユーザに関連した情報を示すセンサ情報を基にしたイベントの検出結果を用いて生成された第1の生成情報に対するフィードバック情報を、前記第1のユーザとは異なる第2のユーザの端末から取得する取得部と、前記フィードバック情報の前記第1のユーザの端末への送信を制御する送信制御部と、を備える、情報処理装置が提供される。
 本開示によれば、ゴルフをプレーしている第1のユーザに関連した情報を示すセンサ情報を基にしたイベントの検出結果を用いて生成された第1の生成情報に対するフィードバック情報を、前記第1のユーザとは異なる第2のユーザの端末から取得することと、プロセッサにより、前記フィードバック情報の前記第1のユーザの端末への送信を制御することと、を含む、情報処理方法が提供される。
 本開示によれば、コンピュータを、ゴルフをプレーしている第1のユーザに関連した情報を示すセンサ情報を基にしたイベントの検出結果を用いて生成された第1の生成情報に対するフィードバック情報を、前記第1のユーザとは異なる第2のユーザの端末から取得する取得部と、前記フィードバック情報の前記第1のユーザの端末への送信を制御する送信制御部と、を備える情報処理装置として機能させるためのプログラムが提供される。
 以上説明したように本開示によれば、第1のユーザのプレーの状態に対する第2のユーザからのフィードバック情報をより効率よく第1のユーザに提示することが可能な技術が提供される。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施形態に係る情報処理システムの構成例を示す図である。 本開示の実施形態に係るサーバの機能構成例を示すブロック図である。 本開示の実施形態に係る端末の機能構成例を示すブロック図である。 センサ装置を構成するセンサリストを示す図である。 センサ装置からセンサ装置とペアリングされている相手への送信データのリストを示す図である。 ペアリング相手によってセンサ装置から受信されたデータの解析データの例を示す図である。 サインインがなされる場合における画面遷移の例を説明するための図である。 端末に表示されるトレーナーメイン画面の例を示した図である。 端末に表示されるグループ単位のトレーナー画面の例を示した図である。 端末に表示されるオンラインレッスン選択画面の例を示した図である。 生徒メイン画面の例を示した図である。 レッスンビデオ画面の例を示した図である。 オンラインレッスン画面の例を示した図である。 プロフィール画面の例を示した図である。 スイング表示開始とスイング記録開始までの流れについて説明するための図である。 スイング記録画面の例を示す図である。 スイング記録画面の例を示す図である。 メンバー選択画面の例を示す図である。 クラブ選択画面の例を示す図である。 センサ選択画面の例を示す図である。 スイング表示画面の例を示す図である。 スイング軌道画面の例を示す図である。 推定弾道画面の例を示す図である。 スイング表示画面の例を示す図である。 第1の生成情報(スイングビデオおよび解析データ)の軸に対する180度反転表示を説明するための図である。 比較相手のスイングの選択について説明するための図である。 比較スイング選択画面の例を示す図である。 比較スイング選択画面の例を示す図である。 二つの生成情報が同一の画面に並べられて表示される例を示す図である。 二つの生成情報が同一の画面に重ねられて表示される例を示す図である。 比較スイング軌道画面の例を示す図である。 比較推定弾道画面の例を示す図である。 同実施形態に係るサーバのハードウェア構成例を示すブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、本明細書および図面において、実質的に同一または類似の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一または類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、類似する構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
 なお、説明は以下の順序で行うものとする。
 0.概要
 1.本開示の実施形態
  1.1.サーバの機能構成例
  1.2.端末の機能構成例
  1.3.情報処理システムの機能詳細
   1.3.1.各種データの例
   1.3.2.サインイン
   1.3.3.トレーナーメイン画面
   1.3.4.生徒メイン画面
   1.3.5.スイング表示開始とスイング記録開始までの流れ
   1.3.6.スイング記録
   1.3.7.スイング表示
  1.4.ハードウェア構成例
 2.むすび
 <0.概要>
 図1は、本開示の実施形態に係る情報処理システムの構成例を示す図である。図1に示すように、本開示の実施形態に係る情報処理システム1は、サーバ10、端末20-1、端末20-2、および、センサ装置30を有する。サーバ10、端末20-1および端末20-2は、ネットワークに接続されており、ネットワークを介して相互に通信可能に構成されている。
 サーバ10は、コンピュータによって構成されており、ネットワークを介して端末20-1および端末20-2と通信可能に構成されている。また、ネットワークに他の端末が接続されている場合、サーバ40は、ネットワークを介して当該他の端末と通信することも可能である。なお、サーバ10は、情報処理装置として機能し得る。
 端末20-1は、第1のユーザによって使用される。本実施形態においては、第1のユーザが第2のユーザからスポーツのレッスンを受ける生徒である例を主に説明する。しかし、第1のユーザは、かかる例に限定されない。
 なお、本実施形態においては、端末20-1がスマートフォンである場合を主に説明する。しかし、端末20-1はスマートフォンに限定されない。例えば、端末20-1は、携帯電話であってもよいし、タブレット端末であってもよいし、撮像装置であってもよい。撮像装置は、デジタルカメラなどであってよい。端末20-1も情報処理装置として機能し得る。
 端末20-2は、第1のユーザとは異なる第2のユーザによって使用される。本実施形態においては、第2のユーザが第1のユーザにレッスンでゴルフを教えるトレーナーである例を主に説明する。しかし、第2のユーザは、かかる例に限定されない。
 なお、本実施形態においては、端末20-2がスマートフォンである場合を主に説明する。しかし、端末20-2はスマートフォンに限定されない。例えば、端末20-2は、携帯電話であってもよいし、タブレット端末であってもよいし、撮像装置であってもよい。撮像装置は、デジタルカメラなどであってよい。端末20-2も情報処理装置として機能し得る。
 また、本実施形態においては、スポーツとしてゴルフを例に挙げて説明する。しかし、本実施形態に適用可能なスポーツは、ゴルフに限定されない。例えば、スポーツは、野球、テニス、卓球、ラクロス、ホッケー、スカッシュ、および、バドミントンのいずれかであってもよい。
 センサ装置30は、ゴルフをプレーするときに使用されるクラブに取り付けられる。しかし、センサ装置30が取り付けられる位置は、クラブに限定されない。例えば、センサ装置30は、ゴルフをプレーするユーザ自身に取り付けられてもよい。また、ゴルフ以外の上記スポーツがプレーされる場合、センサ装置30は、クラブの代わりにユーザによって使用される各種の道具(例えば、ラケット、バットなど)に取り付けられてもよい。本実施形態では、生徒がゴルフをプレーするときに使用されるクラブにセンサ装置30が取り付けられる例を主に説明する。
 センサ装置30は、ペアリング相手との間で無線通信可能に構成されている。例えば、センサ装置30は、生徒によって使用される端末20-1との間でペアリングがなされている場合には、端末20-1との間で無線通信を行うことが可能である。一方、センサ装置30は、トレーナーによって使用される端末20-2との間でペアリングがなされている場合には、端末20-2との間で無線通信を行うことが可能である。
 ここで、トレーナーが生徒のプレーの状態を把握したいという要求がある。そこで、本実施形態においては、生徒のプレーの状態に対するトレーナーからのフィードバック情報をより効率よく生徒に提示することが可能な技術について主に説明する。
 以上、本開示の一実施形態の概要について説明した。
 <1.本開示の実施形態>
 [1.1.サーバの機能構成例]
 続いて、本開示の実施形態に係るサーバ10の機能構成例について説明する。図2は、本開示の実施形態に係るサーバ10の機能構成例を示すブロック図である。図2に示したように、サーバ10は、制御部110、記憶部130および通信部140を備える。以下、サーバ10が備えるこれらの機能ブロックについて説明する。
 制御部110は、例えば、1または複数のCPU(Central Processing Unit;中央演算処理装置)などといった処理装置によって構成されてよい。これらのブロックがCPUなどといった処理装置によって構成される場合、かかる処理装置は電子回路によって構成されてよい。制御部110は、取得部112、算出部113および送信制御部114を備える。これらのブロックについては、後に詳細に説明する。
 記憶部130は、メモリを含んで構成され、制御部110によって実行されるプログラムを記憶したり、プログラムの実行に必要なデータを記憶したりする記録デバイスである。また、記憶部130は、制御部110による演算のためにデータを一時的に記憶する。なお、記憶部130は、磁気記憶部デバイスであってもよいし、半導体記憶デバイスであってもよいし、光記憶デバイスであってもよいし、光磁気記憶デバイスであってもよい。
 通信部140は、通信回路を含んで構成され、ネットワークを介して他の装置との間で通信を行う機能を有する。例えば、通信部140は、通信インターフェースにより構成される。例えば、通信部140は、ネットワークを介して、端末20-1との間、および、端末20-2との間で通信を行うことが可能である。
 以上、本開示の実施形態に係るサーバ10の機能構成例について説明した。
 [1.2.端末の機能構成例]
 続いて、本開示の実施形態に係る端末20の機能構成例について説明する。図3は、本開示の実施形態に係る端末20の機能構成例を示すブロック図である。図3に示したように、端末20は、制御部210、操作部220、撮像部225、記憶部230、通信部240および出力部250を備える。以下、端末20が備えるこれらの機能ブロックについて説明する。
 制御部210は、例えば、1または複数のCPU(Central Processing Unit;中央演算処理装置)などといった処理装置によって構成されてよい。これらのブロックがCPUなどといった処理装置によって構成される場合、かかる処理装置は電子回路によって構成されてよい。
 操作部220は、ユーザによる操作の入力を受け付ける機能を有する。本実施形態においては、操作部220がタッチパネルによって構成される場合を主に説明する。しかし、操作部220は、タッチパネルに限定されない。例えば、操作部220は、マウス、キーボード、スイッチおよびレバーなどを含んでもよい。また、操作部220は、ユーザの音声を検出するマイクロフォンを含んでもよい。
 撮像部225は、1または複数のイメージセンサを含んで構成され、ゴルフをプレーするユーザを撮像して動画像を得る。撮像部225によって撮像された動画像は、制御部210に出力される。
 記憶部230は、メモリを含んで構成され、制御部210によって実行されるプログラムを記憶したり、プログラムの実行に必要なデータを記憶したりする記録デバイスである。また、記憶部230は、制御部210による演算のためにデータを一時的に記憶する。なお、記憶部230は、磁気記憶部デバイスであってもよいし、半導体記憶デバイスであってもよいし、光記憶デバイスであってもよいし、光磁気記憶デバイスであってもよい。
 通信部240は、通信回路を含んで構成され、ネットワークを介して他の装置との間で通信を行う機能を有する。例えば、通信部240は、通信インターフェースにより構成される。例えば、通信部240は、ネットワークを介して、サーバ10との間で通信を行うことが可能である。また、通信部240は、センサ装置30との間で無線通信を行う。
 出力部250は、各種の情報を出力する。例えば、出力部250は、ユーザに視認可能な表示を行うことが可能なディスプレイを含んでよく、ディスプレイは、液晶ディスプレイであってもよいし、有機EL(Electro-Luminescence)ディスプレイであってもよい。また、出力部250は、スピーカなどの音声出力装置を含んでもよい。あるいは、出力部250は、ユーザに触覚を提示する触覚提示装置を含んでもよい。
 以上、本開示の実施形態に係る端末20の機能構成例について説明した。
 [1.3.情報処理システムの機能詳細]
 続いて、本開示の実施形態に係る情報処理システム1の機能詳細について説明する。本開示の実施形態において、サーバ10における取得部112は、ゴルフをプレーしている生徒に関連した情報を示すセンサ情報を基にしたイベントの検出結果を用いて生成された第1の生成情報に対するフィードバック情報を、トレーナーの端末20-2から取得する。また、送信制御部114は、フィードバック情報の生徒の端末20-1への送信を制御する。
 かかる構成によれば、生徒のプレーの状態に対するトレーナーからのフィードバック情報をより効率よく生徒に提示することが可能となる。
 なお、本実施形態においては、センサ装置30がクラブに取り付けられる場合を主に想定するため、センサ情報は、生徒に取り付けられたセンサ装置30によって検出される。しかし、センサ装置30がクラブに取り付けられている場合、センサ情報は、クラブに取り付けられたセンサ装置30によって検出されてよい。
 また、本実施形態においては、生成情報の例として、イベントの検出結果に基づいて抽出される「スイングビデオ」、および、イベントの検出結果に基づいて得られる「解析データ」を含む場合を主に説明する。しかし、生成情報は、「スイングビデオ」および「解析データ」の少なくともいずれか一方を含んでもよい。
  (1.3.1.各種データの例)
 まず、各種データの例について説明する。図4は、センサ装置30を構成するセンサリストを示す図である。図4を参照すると、3種類のセンサについて、センサ種類、メーカー、型番、フルスケール、および、ADC(Analog to Digital Converter)分解能が定められている。一例として、センサ装置30は、この3種類のセンサのいずれかによって構成されてよい。しかし、センサ装置30は、この3種類のセンサ以外のセンサによって構成されてもよい。
 図5は、センサ装置30からセンサ装置30とペアリングされている相手への送信データのリストを示す図である。図5に示すように、センサ装置30からは、「軸」の「データ種類」に示したデータがペアリング相手に送信されてよい。センサ装置30からペアリング相手に送信されるデータの特徴は、「Bit数」「フルスケール」「サンプリングレート」に示した通りであってよい。センサ装置30からペアリング相手に送信されたデータは、ペアリング相手のゴルフアプリケーションに入力されてよい。
 図6は、ペアリング相手によってセンサ装置30から受信されたデータの解析データの例を示す図である。ペアリング相手によってセンサ装置30から受信されたデータが解析されると、図6における「概要」に示すような各種の解析データが得られる。また、図6には、各種の解析データの種類が「データ種類」として示され、解析データの取り得る範囲が「範囲」として示されている。本実施形態においては、ペアリング相手によってデータ解析が実行される場合を主に説明するが、ペアリング相手の代わりにサーバ10によってデータ解析が実行されてもよい。
 以上、各種データの例について説明した。
  (1.3.2.サインイン)
 まず、生徒は、端末20-1においてゴルフアプリケーションを利用しようとするとき、ゴルフアプリケーションにサインインを行う。トレーナーが端末20-2においてゴルフアプリケーションを利用としようとするとき、ゴルフアプリケーションにサインインを行う。ここでは、トレーナーが端末20-2においてゴルフアプリケーションにサインインする場合を説明してから、生徒が端末20-1においてゴルフアプリケーションにサインインする場合を説明する。
 図7は、サインインがなされる場合における画面遷移の例を説明するための図である。端末20-2において、操作部220によってトレーナーによるゴルフアプリケーションの起動操作が入力されると、図7に示すように、出力部250によってサインイン画面500が表示される。サインイン画面500においてトレーナーからID(サインインID)とパスワードが入力され、かかるIDおよびパスワードに基づく認証が成功すると、端末20-2において、出力部250は、トレーナーメイン画面510を表示する。トレーナーメイン画面510の詳細については、図8を参照しながら後に説明する。
 一方、端末20-1において、操作部220によって生徒によるゴルフアプリケーションの起動操作が入力されると、図7に示すように、出力部250によってサインイン画面500が表示される。サインイン画面500において生徒からID(サインインID)とパスワードが入力され、かかるIDおよびパスワードに基づく認証が成功すると、端末20-1において、出力部250は、生徒メイン画面520を表示する。生徒メイン画面520の詳細については、図11を参照しながら後に説明する。
 以上、サインインについて説明した。
  (1.3.3.トレーナーメイン画面)
 続いて、トレーナーメイン画面について説明する。図8は、端末20-2に表示されるトレーナーメイン画面510の例を示した図である。トレーナーメイン画面510には、トレーナーが受け持っている1または複数の生徒(図8に示した例では、生徒1~3)それぞれに対応するオブジェクト(生徒選択用オブジェクト)が含まれる。トレーナーが受け持っている1または複数の生徒に関する情報は、サーバ10によって記憶されており、端末20-2によってサーバ10から取得される。トレーナーがいずれかの生徒選択用オブジェクトを選択すると、その生徒選択用オブジェクトに対応する生徒メイン画面520(図11)が端末20-2に表示される。
 なお、トレーナーによって所定のタブ切り替え操作(例えば、左右のフリック操作など)がなされると、トレーナーメイン画面510からグループ単位のトレーナー画面に切り替わる。
 図9は、端末20-2に表示されるグループ単位のトレーナー画面511の例を示した図である。グループ単位のトレーナー画面511には、1または複数のユーザ(生徒および/またはトレーナー)それぞれに対応する生徒選択用オブジェクトがグループ単位に含まれる。各グループに属するユーザに関する情報は、サーバ10によって記憶されており、端末20-2によってサーバ10から取得される。トレーナーがいずれかの生徒選択用オブジェクトを選択すると、その生徒選択用オブジェクトに対応する生徒メイン画面520(図11)が端末20-2に表示される。
 なお、トレーナーによって所定のタブ切り替え操作(例えば、左右のフリック操作など)がなされると、グループ単位のトレーナー画面511からオンラインレッスン選択画面に切り替わる。
 図10は、端末20-2に表示されるオンラインレッスン選択画面512の例を示した図である。オンラインレッスン選択画面512には、1または複数の生徒それぞれに対応するレッスンビデオ選択用オブジェクトが含まれる。レッスンビデオは、サーバ10によって記憶されており、端末20-2によってサーバ10から取得される。トレーナーがいずれかのレッスンビデオ選択用オブジェクトを選択すると、そのレッスンビデオ選択用オブジェクトに対応するオンラインレッスン画面522(図13)が端末20-2に表示される。
 以上、トレーナーメイン画面について説明した。
  (1.3.4.生徒メイン画面)
 続いて、生徒メイン画面について説明する。図11は、生徒メイン画面520の例を示した図である。生徒メイン画面520がトレーナーの端末20-2に表示される場合、生徒メイン画面520には、トレーナーによって選択された生徒選択用オブジェクトに対応する生徒(図11に示した例では、「生徒1」)のスイングビデオを選択するためのオブジェクト(スイングビデオ選択用オブジェクト)およびスイング記録開始ボタン620が含まれる。スイングビデオ選択用オブジェクトには、スイングビデオのショット数と使用されたクラブの種類とが含まれている。
 生徒のスイングビデオは、サーバ10によって記憶されており、端末20-2によってサーバ10から生徒のスイングビデオに関する情報が取得される。端末20-2においてトレーナーがスイングビデオ選択用オブジェクトのいずれかを選択すると、選択されたスイングビデオ選択用オブジェクトに対応するスイング表示画面が端末20-2において表示される。スイングビデオおよびスイング表示画面についての詳細は、後に説明する。また、トレーナーによってスイング記録開始ボタン620が選択されると、スイングビデオ記録画面が端末20-2において表示される。
 一方、生徒メイン画面520が生徒の端末20-1に表示される場合、生徒メイン画面520には、サインインを行った生徒自身(図11に示した例では、「生徒1」)のスイングビデオを選択するためのスイングビデオ選択用オブジェクトおよびスイング記録開始ボタン620が含まれる。
 生徒のスイングビデオに関する情報は、端末20-1によってサーバ10から取得される。端末20-1において生徒がスイングビデオ選択用オブジェクトのいずれかを選択すると、選択されたスイングビデオ選択用オブジェクトに対応するスイング表示画面が端末20-1において表示される。また、生徒によってスイング記録開始ボタン620が選択されると、スイングビデオ記録画面が端末20-1において表示される。
 なお、トレーナーまたは生徒によって所定のタブ切り替え操作(例えば、左右のフリック操作など)がなされると、生徒メイン画面520からレッスンビデオ画面に切り替わる。
 図12は、レッスンビデオ画面521の例を示した図である。レッスンビデオ画面521には、その生徒のレッスンビデオ621(レッスンビデオ621-1、621-2)が含まれる。レッスンビデオ621には、スイングビデオの他、スイングビデオに対するトレーナーによるフィードバック情報(音声データ、画像データなど)が含まれる。また、各レッスンビデオ画面521には、レッスンビデオが撮像された日時も含まれている。なお、トレーナーまたは生徒によって所定のタブ切り替え操作(例えば、左右のフリック操作など)がなされると、レッスンビデオ画面521からオンラインレッスン画面に切り替わる。
 図13は、オンラインレッスン画面522の例を示した図である。オンラインレッスン画面522には、レッスンビデオ621-1が含まれており、レッスンビデオ621-1に含まれるスイングビデオに対してトレーナーによって入力されたフィードバック情報(例えば、テキストデータ622-1、622-2、622-3)が含まれている。また、オンラインレッスン画面522には、フィードバック情報(テキストデータ622-1、622-2)に対して生徒によって入力されたテキストデータ622-4、622-5が含まれている。
 なお、トレーナーまたは生徒によって所定のタブ切り替え操作(例えば、左右のフリック操作など)がなされると、オンラインレッスン画面522からプロフィール画面に切り替わる。
 図14は、プロフィール画面523の例を示した図である。プロフィール画面523には、生徒のプロフィール、レッスンリスト、ショットリストが含まれている。生徒のプロフィール、レッスンリスト、ショットリストは、サーバ10によって記憶されており、端末20-1または端末20-2によってサーバ10から取得される。ショットリストには、ショットの日時と使用されたクラブの種類ごとに、ショット数が含まれるとともに、ショットの種類ごとの割合(フック、ストレート、スライス)を示す棒グラフが含まれている。かかるショットリストによって、生徒によるショットの上達度合いが把握される。
 なお、トレーナーまたは生徒によって所定のタブ切り替え操作(例えば、左右のフリック操作など)がなされると、プロフィール画面523からオンラインレッスン画面522に切り替わる。
 以上、生徒メイン画面について説明した。
  (1.3.5.スイング表示開始とスイング記録開始までの流れ)
 続いて、スイング表示開始とスイング記録開始までの流れについて説明する。図15は、スイング表示開始とスイング記録開始までの流れについて説明するための図である。
 図15に示すように、トレーナーの端末20-2に表示されるトレーナーメイン画面510には、トレーナーが受け持っている1または複数の生徒それぞれに対応する生徒選択用オブジェクトが含まれる。トレーナーがいずれかの生徒選択用オブジェクトを選択すると、その生徒選択用オブジェクトに対応する生徒メイン画面520が端末20-2に表示される。
 一方、生徒メイン画面520が生徒の端末20-1に表示される場合、生徒メイン画面520には、サインインを行った生徒自身(図15に示した例では、「生徒1」)のスイングビデオを選択するためのスイングビデオ選択用オブジェクトおよびスイング記録開始ボタン620が含まれる。
 端末20-2においてトレーナーがスイングビデオ選択用オブジェクトのいずれかを選択すると、選択されたスイングビデオ選択用オブジェクトに対応するスイング表示画面532が端末20-2において表示される。同様に、端末20-1において生徒がスイングビデオ選択用オブジェクトのいずれかを選択すると、選択されたスイングビデオ選択用オブジェクトに対応するスイング表示画面532が端末20-1において表示される。
 また、端末20-2においてトレーナーがスイング記録開始ボタン620を選択すると、スイング記録画面530が端末20-2において表示される。同様に、端末20-1において生徒がスイング記録開始ボタン620を選択すると、スイング記録画面530が端末20-1において表示される。
 以上、スイング表示開始とスイング記録開始までの流れについて説明した。
  (1.3.6.スイング記録)
 続いて、スイング記録について説明する。図16は、スイング記録画面530の例を示す図である。まず、生徒がゴルフの自主練習を行う場合を想定する。このとき、生徒による自主練習のプレーの状態に対するトレーナーによるフィードバック情報が得られると、そのフィードバック情報が生徒によって確認されるレッスン(以下、「オンラインレッスン」ともいう。)が行われる。オンラインレッスンにおいては、スイング記録画面530は、生徒の端末20-1において表示される。
 なお、スイング記録画面530には、水準器を示すマークが最初に表示されてもよい。そして、端末の静止状態が所定の時間継続したことが検出された場合に、水準器を示すマークの表示が消されてもよい。そうすれば、水準器を示すマークの消失によって、スイング記録開始の好適なタイミングが把握され得る。
 図16に示すように、撮像開始前において、スイング記録画面530には、スルー画像が含まれている。その他、スイング記録画面530には、描画開始オブジェクト630、カメラ切り替え用オブジェクト631、現在表示されている画像撮像時の端末とセンサ装置30との接続/非接続情報632、現在の端末とセンサ装置30との接続/非接続情報633、現在表示されている画像撮像時の端末とセンサ装置30との接続状態を示す情報634が含まれている。
 このとき、生徒の端末20-1においてスイング記録画面530が表示され、生徒によってカメラ切り替え用オブジェクト631が選択された場合を想定する。かかる場合、生徒の端末20-1の撮像部225は、自主練習でゴルフをプレーしている生徒の撮像を開始し、動画像を得る。一方、生徒の端末20-1とペアリングされているセンサ装置30は、センシングを行ってセンサ情報を得る。センサ情報は、センサ装置30から送信され、端末20-1の通信部240によって受信される。
 生徒の端末20-1の制御部210は、通信部240によって受信されたセンサ情報に基づいてイベントを検出する。例えば、イベントは、所定の時刻を基準としたスイング開始時点、スイングトップ時点、インパクト時点、スイング終了時点、成功したスイング、失敗したスイング、最も良いスイング、および、最も悪いスイングのうち、少なくともいずれか一つを含んでよい。ここでは、イベントがインパクト時点である場合を主に説明する。
 生徒の端末20-1の制御部210は、イベントの検出結果に基づいて、第1の生成情報を生成する。上記したように、本実施形態においては、第1の生成情報がスイングビデオおよび解析データを含む場合を主に説明する。スイングビデオは、ゴルフをプレーしている生徒が、端末20-1の撮像部225によって撮像された動画像からイベントの検出結果に基づいて抽出される。
 より詳細には、センサ装置30から受信されるセンサ情報と端末20-1の撮像部225によって撮像される動画像とは、制御部210において同期されている。そして、スイングビデオは、動画像のうち、センサ情報におけるイベントの検出時点に応じた区間(例えば、イベントとしてインパクト時点が検出される場合には、インパクト時点よりも前に所定の秒数遡った時点からインパクト時点よりも後に所定の秒数経過した時点までの区間)に対応した動画像における区間が、制御部210によって抽出される。
 また、解析データは、センサ装置30から受信されたセンサ情報が、イベント検出結果に基づいて、制御部210によって解析されて得られる。より具体的に、解析データは、インパクト時のクラブフェースの角度、インパクト時のクラブフェースとボールとの衝突角度、インパクト時のクラブヘッドの軌道の角度、インパクト時のヘッドスピード、および、スイング時の打ち手を示す情報のうち、少なくともいずれか一つを含んでよい。
 生徒の端末20-1において、第1の生成情報(スイングビデオおよび解析データ)が生成されると、出力部250は、スイング記録画面530からスイング表示画面532に表示を自動的に切り替える。そして、出力部250は、スイング表示画面532において、第1の生成情報(スイングビデオおよび解析データ)を表示する。
 なお、出力部250は、スイングビデオの撮像とともに、マイクロフォンによって音データが検出された場合には、その音データも出力させてよい。そうすれば、音データに含まれる声(歓声など)、音データに含まれる音(クラブとボールとの衝突音など)を聴くことによって、または、声または音に対する音声認識結果を知ることによって、ショットの良し悪しをより高精度に推定することが可能となる。
 なお、生徒が連続的にスイングを行っている場合、生徒の端末20-1において、制御部210が、第1の生成情報の表示中に、新たに生成情報(第3の生成情報(スイングビデオおよび解析データ))を生成する場合も想定される。かかる場合には、制御部210は、スイング表示画面532において、第1の生成情報(スイングビデオおよび解析データ)の表示から第3の生成情報(スイングビデオおよび解析データ)の表示に自動的に切り替えてよい。
 生徒の端末20-1の通信部240は、第1の生成情報(スイングビデオおよび解析データ)を、ネットワークを介してサーバ10に送信する。サーバ10においては、第1の生成情報(スイングビデオおよび解析データ)が、通信部140によって受信され、記憶部130によって記憶される。記憶部130によって記憶された第1の生成情報(スイングビデオおよび解析データ)は、トレーナーによる操作に基づく端末20-2からの取得要求が通信部140によって受信されると、送信制御部114によって、端末20-2への送信が制御される。
 トレーナーの端末20-2において、通信部240によって第1の生成情報(スイングビデオおよび解析データ)が受信されると、出力部250によってスイング表示画面532が表示される。なお、トレーナーの端末20-2においても、出力部250は、スイングビデオの撮像とともに、マイクロフォンによって音データが検出された場合には、その音データも出力してよい。
 また、第1の生成情報(スイングビデオおよび解析データ)の他に、スイングを行うメンバーの名前、メンバーによって使用されるクラブの種類、端末と接続されるセンサ装置30に関する情報(例えば、製品名、MACアドレスなど)も、端末20-1からサーバ10に送信されて記憶されてよい。このとき、トレーナーの端末20-2によって、スイングを行うメンバーの名前、メンバーによって使用されるクラブの種類、端末と接続されるセンサ装置30に関する情報もサーバ10から取得されて表示されてよい。
 例えば、スイングを行うメンバーの名前、メンバーによって使用されるクラブの種類、端末と接続されるセンサ装置30に関する情報(例えば、製品名、MACアドレスなど)は、端末20-1を使用する生徒によって選択されてよい。
 図17は、スイング記録画面530の例を示す図である。図17を参照すると、スイング記録画面530には、メンバー選択用オブジェクト611、クラブ種類選択用オブジェクト612、および、センサ選択用オブジェクト613が含まれている。例えば、生徒の端末20-1において、生徒によってメンバー選択用オブジェクト611が選択されると、メンバー選択画面が表示されてよい。
 図18は、メンバー選択画面541の例を示す図である。図18を参照すると、メンバー選択画面541には、メンバーの名前として、「トレーナー」「生徒1」「生徒2」「生徒3」「noname」が含まれている。メンバー選択画面541において、生徒によって、これらのメンバーの名前からいずれかのメンバーの名前がスイングを行うメンバーの名前として選択されてよい。
 図17に戻って説明を続ける。例えば、生徒の端末20-1において、生徒によってクラブ種類選択用オブジェクト612が選択されると、クラブ選択画面が表示されてよい。
 図19は、クラブ選択画面542の例を示す図である。図19を参照すると、クラブ選択画面542には、クラブの種類として、「ドライバー(1W)」「3番ウッド(3W)」・・・「サンドウェッジ(SW)」が含まれている。クラブ選択画面542において、生徒によって、これらのクラブの種類からいずれかのクラブの種類がメンバーによって使用されるクラブの種類として選択されてよい。
 なお、ここでは、メンバーによって使用されるクラブの種類が手動によって選択される場合を説明したが、メンバーによって使用されるクラブの種類は、自動的に選択されてもよい。例えば、メンバーの名前に対して、メンバーがよく利用するクラブの種類が関連付けられている場合、かかる関連付けとメンバーの名前とに基づいて、メンバーによって使用されるクラブの種類が選択されてもよい。あるいは、メンバーがよく利用するクラブの長さ、素材、重さなどが登録されていれば、これらの情報に基づいて、メンバーによって使用されるクラブの種類が選択されてもよい。
 図17に戻って説明を続ける。例えば、生徒の端末20-1において、生徒によってセンサ選択用オブジェクト613が選択されると、センサ選択画面が表示されてよい。
 図20は、センサ選択画面543の例を示す図である。図20を参照すると、センサ選択画面543には、センサ装置30に関する情報として、「センサC1」「センサC2」・・・「センサC5」が含まれている。センサ選択画面543において、生徒によって、これらのセンサ装置30に関する情報からいずれかのセンサ装置30に関する情報が、端末と接続されるセンサ装置30に関する情報として選択されてよい。
 なお、ここでは、端末と接続されるセンサ装置30に関する情報が手動によって選択される場合を説明したが、端末と接続されるセンサ装置30に関する情報は、自動的に選択されてもよい。例えば、クラブの種類に対して、その種類のクラブに対して取り付け可能なセンサ装置30に関する情報が関連付けられている場合、かかる関連付けとクラブの種類とに基づいて、端末と接続されるセンサ装置30に関する情報が選択されてもよい。
 図17に戻って説明を続ける。例えば、生徒の端末20-1において、生徒によってセンサ選択用オブジェクト613が選択されると、センサ選択画面が表示されてよい。
 以上、オンラインレッスンにおけるスイング記録について説明した。
  (1.3.7.スイング表示)
 スイング表示について説明する。図21は、スイング表示画面532の例を示す図である。オンラインレッスンにおいては、第1の生成情報(スイングビデオおよび解析データ)が、トレーナーの端末20-2の通信部240によってサーバ10から受信されると、出力部250によって表示される。
 図21を参照すると、スイング表示画面532において、スイングビデオが表示され、解析データの例として、インパクト時のクラブヘッドの軌道の角度(軌道の符号は「644」、角度は「-5.1」)、インパクト時のクラブフェースとボールが衝突する角度(クラブフェースの符号は「645」、数値は「9.8」)、インパクト時のクラブフェースとボールが衝突する角度(クラブフェースの符号は「646」、数値は「8.5」)、スピード(インパクト時のヘッドスピード)、クラブの種類とスピードとに基づいて解析によって得られた距離(飛距離)が表示されている。
 図21を参照すると、トレーナーの端末20-2によって表示されるスイング表示画面532には、描画開始オブジェクト630、お気に入り登録用オブジェクト635、スイングビデオ比較用オブジェクト636、スイング開始地点を示す表示オブジェクト637、スイングトップ地点を示す表示オブジェクト638、スイングインパクト地点を示す表示オブジェクト639、スイングビデオを軸に対して180度反転させるための180度反転用オブジェクト640、スイング記録画面に遷移するためのスイング記録画面遷移オブジェクト641、録音開始用オブジェクト642、時間軸643が含まれる。
 この例に示すように、トレーナーの端末20-2においては、時間軸643に沿ったイベントに対応する位置に表示オブジェクト(スイング開始地点を示す表示オブジェクト637、スイングトップ地点を示す表示オブジェクト638、スイングインパクト地点を示す表示オブジェクト639)が出力部250によって表示される。そして、トレーナーによって時間軸643におけるいずれかの位置が指定位置として指定された場合、その指定位置に対応する第1の生成情報(スイングビデオおよび解析データ)における位置が出力部250によって表示される。これによって、所望のタイミングにおける第1の生成情報(スイングビデオおよび解析データ)の出力が容易になる。
 トレーナーの端末20-2によって表示されるスイング表示画面532には、描画開始オブジェクト630、お気に入り登録用オブジェクト635、スイングビデオ比較用オブジェクト636、スイング開始地点を示す表示オブジェクト637、スイングトップ地点を示す表示オブジェクト638、スイングインパクト地点を示す表示オブジェクト639、スイングビデオを軸に対して180度反転させるための180度反転用オブジェクト640、スイング記録画面に遷移するためのスイング記録画面遷移オブジェクト641、録音開始用オブジェクト642、時間軸643が含まれる。
 なお、トレーナーによって所定のタブ切り替え操作(例えば、左右のフリック操作など)がなされると、スイング表示画面532からスイング軌道画面に切り替わる。図22は、スイング軌道画面551の例を示す図である。スイング軌道画面551には、クラブヘッドの軌道情報651が含まれる。
 なお、トレーナーによって所定のタブ切り替え操作(例えば、左右のフリック操作など)がなされると、スイング軌道画面551から推定弾道画面に切り替わる。図23は、推定弾道画面552の例を示す図である。推定弾道画面552には、推定弾道652が含まれる。推定弾道652は、解析データに含まれる、クラブの種類、スピード、距離、インパクト時のクラブフェースの角度、インパクト時のクラブフェースとボールとの衝突角度およびインパクト時のクラブヘッドの軌道の角度に基づいて算出され得る。
 図24は、スイング表示画面532の例を示す図である。トレーナーが、スイング表示画面532に表示された第1の生成情報(スイングビデオおよび解析データ)に対してフィードバック情報を生徒に提供したいと考えた場合を想定する。このとき、トレーナーが録音開始用オブジェクト642を選択し、フィードバック情報の例としての音声データを入力し、描画開始オブジェクト630を選択し、フィードバック情報の例としての画像データ(図24に示した例では、画像データ661-1~661-3)を入力すると、トレーナーの端末20-2の制御部210は、フィードバック情報の例としての音声データおよび画像データのサーバ10への送信を制御する。
 なお、ここでは、フィードバック情報の例としての音声データおよび画像データを想定する。しかし、フィードバック情報は、音声データおよび画像データに限定されない。フィードバック情報は、第1の生成情報(スイングビデオおよび解析データ)に対してトレーナーによって入力された、音声データ、テキストデータ、および、画像データの少なくともいずれか一つを含んでよい。サーバ10においては、フィードバック情報の例としての音声データおよび画像データが、通信部140によって受信され、記憶部130によって記憶される。
 図25は、第1の生成情報(スイングビデオおよび解析データ)の軸に対する180度反転表示を説明するための図である。図25を参照すると、トレーナーの端末20-2において、スイング表示画面532が表示されている。ここで、トレーナーの端末20-2の制御部210は、所定の180度反転操作(例えば、180度反転用オブジェクト640の選択)が検出された場合、第1の生成情報(スイングビデオおよび解析データ)を、軸に対して180度反転表示させてよい。なお、一つの軸(視点)で撮られた画像を180度反転して表示することによって、左右反転された画像が表示され得る(左右反転された結果として、スイングする者の利き手が左右反転されて表示されることになる)。
 図25に示した例では、トレーナーの端末20-2において、スイングビデオが軸に対して180度反転表示され、解析データが軸に対して180度反転表示された、インパクト時のクラブヘッドの軌道の角度(軌道の符号「671」)、インパクト時のクラブフェースとボールが衝突する角度(クラブフェースの符号「672」)、インパクト時のクラブフェースとボールが衝突する角度(クラブフェースの符号「673」)が軸に対して180度反転されたスイング表示画面571が表示されている。
 図26は、比較相手のスイングの選択について説明するための図である。図26を参照すると、トレーナーの端末20-2において、スイング表示画面532が表示されている。ここで、トレーナーの端末20-2の制御部210は、所定の比較操作(例えば、スイングビデオ比較用オブジェクト636の選択)が検出され、比較スイング選択画面582における比較相手のスイングが選択された場合、比較ビデオ画面583を表示させてよい。
 図27は、比較スイング選択画面584の例を示す図である。図27に示した比較スイング選択画面584では、メンバーを限定することによって、比較相手のスイングビデオを絞り込む例が示されている。図28は、比較スイング選択画面584の例を示す図である。図28に示した比較スイング選択画面584では、クラブの種類を限定することによって、比較相手のスイングビデオを絞り込む例が示されている。
 図29は、二つの生成情報が同一の画面に並べられて表示される例を示す図である。図29に示した例では、第1の生成情報(スイングビデオおよび解析データ)と同一の画面への表示対象として、第1の生成情報(生徒を撮像したスイングビデオV1および解析データ)とは異なる第2の生成情報(トレーナーを撮像したスイングビデオV2および解析データ)が選択された場合に、スイングビデオV1とスイングビデオV2とが、同一の画面に並べられて表示されている。また、図29に示した例では、各々の解析データが区別されるように(一例として、異なる色によって区別されるように)表示されている。
 また、比較相手は自動的に軸に対して180度反転表示されてもよい。例えば、第1の生成情報(生徒を撮像したスイングビデオV1および解析データ)に含まれる打ち手を示す情報と第2の生成情報(トレーナーを撮像したスイングビデオV2および解析データ)に含まれる打ち手を示す情報とが逆である場合、トレーナーの端末20-2の制御部210は、第2の生成情報(トレーナーを撮像したスイングビデオV2および解析データ)の表示が自動的に軸に対して180度反転される。
 また、生徒が使用するクラブの変更によって比較相手が自動的に変更されてもよい。例えば、生徒が使用するクラブの種類が変更された場合、トレーナーの端末20-2の制御部210は、第2の生成情報(トレーナーを撮像したスイングビデオV2および解析データ)の表示から、変更後のクラブの種類に応じた第3の生成情報の表示に自動的に切り替えてもよい。
 図30は、二つの生成情報が同一の画面に重ねられて表示される例を示す図である。図30に示した例では、第1の生成情報(スイングビデオおよび解析データ)と同一の画面への表示対象として、第1の生成情報(生徒を撮像したスイングビデオV1および解析データ)とは異なる第2の生成情報(トレーナーを撮像したスイングビデオV2および解析データ)が選択された場合に、スイングビデオV1とスイングビデオV2とが、同一の画面に重ねられて表示されている。また、図30に示した例では、各々の解析データが区別されるように(一例として、異なる色によって区別されるように)表示されている。
 なお、二つの生成情報が同一の画面に重ねられて表示される場合にも、二つの生成情報が同一の画面に並べられて表示される場合と同様に、比較相手は自動的に軸に対して180度反転表示されてもよい。また、二つの生成情報が同一の画面に重ねられて表示される場合にも、二つの生成情報が同一の画面に並べられて表示される場合と同様に、生徒が使用するクラブの変更によって比較相手が自動的に変更されてもよい。
 また、第2の生成情報(トレーナーを撮像したスイングビデオV2)は、所定の変更操作に基づいて、拡大、縮小、または、移動が可能であってよい。より詳細には、トレーナーによって、スイングビデオV2に対してピンチアウト操作がなされた場合、スイングビデオV2が拡大されてもよい。また、トレーナーによって、スイングビデオV2に対してピンチイン操作がなされた場合、スイングビデオV2が縮小されてもよい。また、トレーナーによって、スイングビデオV2に対してドラッグ操作がなされた場合、スイングビデオV2が移動されてもよい。
 なお、トレーナーによって所定のタブ切り替え操作(例えば、左右のフリック操作など)がなされると、比較ビデオ画面583から比較スイング軌道画面に切り替わる。図31は、比較スイング軌道画面585の例を示す図である。比較スイング軌道画面585には、第1の生成情報(解析データ)の例としてのクラブヘッドの軌道情報651が含まれるとともに、第2の生成情報(解析データ)の例としてのクラブヘッドの軌道情報685が含まれる。
 トレーナーによって所定のタブ切り替え操作(例えば、左右のフリック操作など)がなされると、比較スイング軌道画面585から比較推定弾道画面に切り替わる。図32は、比較推定弾道画面586の例を示す図である。比較推定弾道画面586には、推定弾道652の他に推定弾道686が含まれる。推定弾道652は、第1の生成情報(解析データ)に含まれる、クラブの種類、スピード、距離に基づいて算出され得る。推定弾道686は、第2の生成情報(解析データ)に含まれる、クラブの種類、スピード、距離、インパクト時のクラブフェースの角度、インパクト時のクラブフェースとボールとの衝突角度およびインパクト時のクラブヘッドの軌道の角度に基づいて算出され得る。
 サーバ10の記憶部130によって記憶された第1の生成情報(スイングビデオおよび解析データ)は、トレーナーによる操作に基づく端末20-2からの取得要求が通信部140によって受信されると、送信制御部114によって、生徒の端末20-2への送信が制御される。生徒の端末20-2の出力部250は、フィードバック情報の例としての音声データを出力するとともに、画像データを表示する。生徒は、音声データおよび画像データによって、トレーナーによるフィードバック情報を確認することができる。
 このようにして、オンラインレッスンにおいては、生徒は、自主練習のプレーの状態に対するトレーナーによるフィードバック情報が得られると、そのフィードバック情報を容易に確認することができる。生徒とトレーナーとの深いコミュニケーションが実現されるため、常に生徒とトレーナーとが繋がっている感覚を両者に与えることが可能となる。
 生徒の端末20-1において、第1の生成情報(スイングビデオおよびおよび解析データ)の生成前に(または生成後に)、生徒によってプレーを補助するための補助情報が入力された場合(例えば、スイング記録画面530において描画開始オブジェクト630の選択後にスルー画像の上から図形データが入力された場合)、第1の生成情報(スイングビデオおよびおよび解析データ)と補助情報とが関連付けられてサーバ10に送信されてもよい。このとき、トレーナーの端末20-2において、サーバ10から第1の生成情報(スイングビデオおよびおよび解析データ)が取得されて表示されるに際して、補助情報もサーバ10から取得されて表示されてもよい。
 [1.4.ハードウェア構成例]
 次に、図32を参照して、本開示の実施形態に係るサーバ10のハードウェア構成について説明する。図32は、本開示の実施形態に係るサーバ10のハードウェア構成例を示すブロック図である。なお、ここでは、サーバ10のハードウェア構成例について説明するが、端末20のハードウェア構成も、ここで説明するサーバ10のハードウェア構成例と同様にして実現され得る。
 図32に示すように、サーバ10は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、サーバ10は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、サーバ10は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。サーバ10は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
 CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、サーバ10内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時的に記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
 入力装置915は、例えば、ボタンなど、ユーザによって操作される装置である。入力装置915は、マウス、キーボード、タッチパネル、スイッチおよびレバーなどを含んでもよい。また、入力装置915は、ユーザの音声を検出するマイクロフォンを含んでもよい。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、サーバ10の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、サーバ10に対して各種のデータを入力したり処理動作を指示したりする。また、後述する撮像装置933も、ユーザの手の動き、ユーザの指などを撮像することによって、入力装置として機能し得る。このとき、手の動きや指の向きに応じてポインティング位置が決定されてよい。
 出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、有機EL(Electro-Luminescence)ディスプレイなどの表示装置、スピーカおよびヘッドホンなどの音出力装置などであり得る。また、出力装置917は、PDP(Plasma Display Panel)、プロジェクタ、ホログラム、プリンタ装置などを含んでもよい。出力装置917は、サーバ10の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音として出力したりする。また、出力装置917は、周囲を明るくするためライトなどを含んでもよい。
 ストレージ装置919は、サーバ10の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
 ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、サーバ10に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
 接続ポート923は、機器をサーバ10に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどであり得る。また、接続ポート923は、RS-232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、サーバ10と外部接続機器929との間で各種のデータが交換され得る。
 通信装置925は、例えば、ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどであり得る。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続されるネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
 撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
 センサ935は、例えば、測距センサ、加速度センサ、ジャイロセンサ、地磁気センサ、振動センサ、光センサ、音センサなどの各種のセンサである。センサ935は、例えばサーバ10の筐体の姿勢など、サーバ10自体の状態に関する情報や、サーバ10の周辺の明るさや騒音など、サーバ10の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。
 <2.むすび>
 以上説明したように、本開示の実施形態によれば、ゴルフをプレーしている第1のユーザに関連した情報を示すセンサ情報を基にしたイベントの検出結果を用いて生成された第1の生成情報に対するフィードバック情報を、前記第1のユーザとは異なる第2のユーザの端末から取得する取得部と、前記フィードバック情報の前記第1のユーザの端末への送信を制御する送信制御部と、を備える、情報処理装置が提供される。かかる構成によれば、第1のユーザのプレーの状態に対する第2のユーザからのフィードバック情報をより効率よく第1のユーザに提示することが可能となる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 上記では、記録された生成情報(スイングビデオおよび解析データ)の表示(スイング表示)がトレーナーの端末20-2によってなされる場合を主に説明した。しかし、トレーナーの端末20-2によってなされるスイング表示と同様なスイング表示が、生徒の端末20-1によってなされてもよい。これによって、記録された生成情報(スイングビデオおよび解析データ)を生徒も確認することが可能となる。
 また、上記では、オンラインレッスンがなされる場合を想定したため、生成情報(スイングビデオおよび解析データ)の記録(スイング記録)が生徒の端末20-1によってなされる場合を主に想定した。しかし、インドアレッスンのときに、トレーナーが生徒にゴルフを指導しながら(フィードバック情報を入力しながら)、スイング記録がトレーナーの端末20-2によってなされてもよい。
 すなわち、トレーナーの端末20-2の制御部210は、イベントの検出結果に基づいて、第1の生成情報を生成し、通信部240は、第1の生成情報とフィードバック情報とをサーバ10に送信する。サーバ10においては、取得部112が、第1の生成情報とフィードバック情報とをトレーナーの端末20-2から取得し、記憶部130は、第1の生成情報とフィードバック情報とを記憶する。生徒の端末20-1は、生徒による操作に基づく取得要求によって、第1の生成情報とフィードバック情報とを出力する。
 生徒は、このようにして出力された第1の生成情報とフィードバック情報とを確認することによって、過去のレッスンを詳細に振り返ること(レッスンレビュー)が可能となる(レッスンの追体験が可能となる)。また、レッスンの内容を忘れてしまった場合であっても、このようにして出力された第1の生成情報とフィードバック情報とを確認することによって、過去のレッスンを思い出すことが可能となる。
 また、上記では、1人の生徒に対して1人のトレーナーが指導する場合を主に想定したが、1人の生徒に対して複数人のトレーナーが指導してもよい。例えば、生徒に対してインドアレッスンを行うトレーナー以外に、生徒に対してラウンドでのレッスン(ラウンドレッスン)を行うトレーナーが存在してもよい。このとき、第1の生成情報(スイングビデオおよび解析データ)、フィードバック情報などは、複数人のトレーナーに共有されるのが望ましい。
 すなわち、サーバ10の記憶部130によって記憶された第1の生成情報(スイングビデオおよび解析データ)は、2人目のトレーナー(第3のユーザ)による操作に基づく端末からの取得要求が通信部140によって受信されると、送信制御部114によって、2人目のトレーナー(第3のユーザ)の端末への送信が制御されてよい。
 また、端末20において、制御部210は、解析データを判定し、解析データが所定の範囲から外れる場合には、出力部250にエラーが発生したことを出力させてもよい。例えば、制御部210は、第1の生成情報(解析データ)の例としてのクラブヘッドの軌道情報が所定の範囲(例えば、地上など)から外れる場合には、出力部250にエラーが発生したことを出力させてもよい。
 また、上記では、イベントの例としてインパクト時点が検出される場合を説明したが、センサ情報に基づいてインパクト時点を判定するための閾値(インパクト判定閾値)は、変化されてもよい。例えば、インパクト判定閾値は、ショットの種類、クラブの種類、スイングを行う者の属性(例えば、性別、年齢、キッズであるか否か)に応じた変化されてもよい。
 また、上記では、クラブの種類とスピードとに基づいて距離(飛距離)が得られる場合を主に説明したが、距離(飛距離)の推定に他の要因が考慮されてもよい。例えば、スイングが終わった後に、距離(飛距離)、クラブの種類、スイングを行った環境(天気、風の強さなど)、スイングを行った場所(スイングを行った位置の芝生の長さ、地面の傾斜度合いなど)を入力し、これらの情報を機械学習に利用して、距離(飛距離)の推定精度の向上を図ってもよい。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏し得る。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 ゴルフをプレーしている第1のユーザに関連した情報を示すセンサ情報を基にしたイベントの検出結果を用いて生成された第1の生成情報に対するフィードバック情報を、前記第1のユーザとは異なる第2のユーザの端末から取得する取得部と、
 前記フィードバック情報の前記第1のユーザの端末への送信を制御する送信制御部と、
 を備える、情報処理装置。
(2)
 前記第1の生成情報は、ゴルフをプレーしている前記第1のユーザを撮像した動画像から前記イベントの検出結果に基づいて抽出されたプレー画像を含む、
 前記(1)に記載の情報処理装置。
(3)
 前記センサ情報と前記動画像とは同期されており、
 前記プレー画像は、前記動画像のうち、前記センサ情報における前記イベントの検出時点に応じた区間に対応した前記動画像における区間の画像である、
 前記(2)に記載の情報処理装置。
(4)
 前記第1の生成情報は、前記イベントの検出結果に基づいて得られた解析データを含み、
 前記解析データは、インパクト時のクラブフェースの角度、インパクト時のクラブフェースとボールとの衝突角度、インパクト時のクラブヘッドの軌道の角度、インパクト時のヘッドスピード、および、スイング時の打ち手を示す情報のうち、少なくともいずれか一つを含む、
 前記(1)~(3)のいずれか一項に記載の情報処理装置。
(5)
 時間軸に沿った前記イベントに対応する位置に表示オブジェクトが表示され、前記時間軸におけるいずれかの位置が指定位置として指定された場合、前記指定位置に対応する前記第1の生成情報における位置が表示される、
 前記(1)~(4)のいずれか一項に記載の情報処理装置。
(6)
 前記第1の生成情報と同一の画面への表示対象として、前記第1の生成情報とは異なる第2の生成情報が選択された場合、前記第1の生成情報と前記第2の生成情報とが、同一の画面に重ねられて、または、並べられて表示される、
 前記(1)~(5)のいずれか一項に記載の情報処理装置。
(7)
 前記第2の生成情報は、所定の変更操作に基づいて、拡大、縮小、または、移動が可能である、
 前記(6)に記載の情報処理装置。
(8)
 前記第1の生成情報に含まれる打ち手を示す情報と第2の生成情報に含まれる打ち手を示す情報とが逆である場合、前記第2の生成情報の表示が自動的に軸に対して180度反転される、
 前記(6)または(7)に記載の情報処理装置。
(9)
 前記第1のユーザが使用するクラブの種類が変更された場合、前記第2の生成情報の表示から、変更後の前記クラブの種類に応じた第3の生成情報の表示に自動的に切り替わる、
 前記(6)~(8)のいずれか一項に記載の情報処理装置。
(10)
 前記第1の生成情報は、所定の180度反転操作が検出された場合、軸に対して180度反転表示される、
 前記(1)~(9)のいずれか一項に記載の情報処理装置。
(11)
 前記第1の生成情報の表示中に、第3の生成情報が新たに生成された場合、前記第1の生成情報の表示から前記第3の生成情報の表示に自動的に切り替わる、
 前記(1)~(10)のいずれか一項に記載の情報処理装置。
(12)
 前記第1の生成情報の生成前または生成後に前記プレーを補助するための補助情報が入力された場合、前記第1の生成情報と前記補助情報とが関連付けられ、前記第1の生成情報が表示されるに際して前記補助情報も表示される、
 前記(1)~(11)のいずれか一項に記載の情報処理装置。
(13)
 前記取得部は、前記第1の生成情報と前記フィードバック情報とを前記第2のユーザの端末から取得する、
 前記(1)~(12)のいずれか一項に記載の情報処理装置。
(14)
 前記送信制御部は、前記第1の生成情報が前記第1のユーザの端末から取得された場合、前記第1の生成情報の前記第2のユーザの端末への送信を制御する、
 前記(1)~(12)のいずれか一項に記載の情報処理装置。
(15)
 前記送信制御部は、前記フィードバック情報の第3のユーザの端末への送信をさらに制御する、
 前記(1)~(12)のいずれか一項に記載の情報処理装置。
(16)
 前記イベントは、所定の時刻を基準としたスイング開始時点、スイングトップ時点、インパクト時点、スイング終了時点、成功したスイング、失敗したスイング、最も良いスイング、および、最も悪いスイングのうち、少なくともいずれか一つを含む、
 前記(1)~(15)のいずれか一項に記載の情報処理装置。
(17)
 前記フィードバック情報は、前記第1の生成情報に対して前記第2のユーザによって入力された、音声データ、テキストデータ、および、画像データの少なくともいずれか一つを含む、
 前記(1)~(16)のいずれか一項に記載の情報処理装置。
(18)
 前記第1のユーザは、前記第2のユーザからゴルフのレッスンを受ける生徒である、
 前記(1)~(17)のいずれか一項に記載の情報処理装置。
(19)
 ゴルフをプレーしている第1のユーザに関連した情報を示すセンサ情報を基にしたイベントの検出結果を用いて生成された第1の生成情報に対するフィードバック情報を、前記第1のユーザとは異なる第2のユーザの端末から取得することと、
 プロセッサにより、前記フィードバック情報の前記第1のユーザの端末への送信を制御することと、
 を含む、情報処理方法。
(20)
 コンピュータを、
 ゴルフをプレーしている第1のユーザに関連した情報を示すセンサ情報を基にしたイベントの検出結果を用いて生成された第1の生成情報に対するフィードバック情報を、前記第1のユーザとは異なる第2のユーザの端末から取得する取得部と、
 前記フィードバック情報の前記第1のユーザの端末への送信を制御する送信制御部と、
 を備える情報処理装置として機能させるためのプログラム。
 1   情報処理システム
 10  サーバ
 110 制御部
 112 取得部
 113 算出部
 114 送信制御部
 130 記憶部
 140 通信部
 20  端末
 210 制御部
 220 操作部
 225 撮像部
 230 記憶部
 240 通信部
 250 出力部
 30  センサ装置
 40  サーバ

Claims (20)

  1.  ゴルフをプレーしている第1のユーザに関連した情報を示すセンサ情報を基にしたイベントの検出結果を用いて生成された第1の生成情報に対するフィードバック情報を、前記第1のユーザとは異なる第2のユーザの端末から取得する取得部と、
     前記フィードバック情報の前記第1のユーザの端末への送信を制御する送信制御部と、
     を備える、情報処理装置。
  2.  前記第1の生成情報は、ゴルフをプレーしている前記第1のユーザを撮像した動画像から前記イベントの検出結果に基づいて抽出されたプレー画像を含む、
     請求項1に記載の情報処理装置。
  3.  前記センサ情報と前記動画像とは同期されており、
     前記プレー画像は、前記動画像のうち、前記センサ情報における前記イベントの検出時点に応じた区間に対応した前記動画像における区間の画像である、
     請求項2に記載の情報処理装置。
  4.  前記第1の生成情報は、前記イベントの検出結果に基づいて得られた解析データを含み、
     前記解析データは、インパクト時のクラブフェースの角度、インパクト時のクラブフェースとボールとの衝突角度、インパクト時のクラブヘッドの軌道の角度、インパクト時のヘッドスピード、および、スイング時の打ち手を示す情報のうち、少なくともいずれか一つを含む、
     請求項1に記載の情報処理装置。
  5.  時間軸に沿った前記イベントに対応する位置に表示オブジェクトが表示され、前記時間軸におけるいずれかの位置が指定位置として指定された場合、前記指定位置に対応する前記第1の生成情報における位置が表示される、
     請求項1に記載の情報処理装置。
  6.  前記第1の生成情報と同一の画面への表示対象として、前記第1の生成情報とは異なる第2の生成情報が選択された場合、前記第1の生成情報と前記第2の生成情報とが、同一の画面に重ねられて、または、並べられて表示される、
     請求項1に記載の情報処理装置。
  7.  前記第2の生成情報は、所定の変更操作に基づいて、拡大、縮小、または、移動が可能である、
     請求項6に記載の情報処理装置。
  8.  前記第1の生成情報に含まれる打ち手を示す情報と第2の生成情報に含まれる打ち手を示す情報とが逆である場合、前記第2の生成情報の表示が自動的に軸に対して180度反転される、
     請求項6に記載の情報処理装置。
  9.  前記第1のユーザが使用するクラブの種類が変更された場合、前記第2の生成情報の表示から、変更後の前記クラブの種類に応じた第3の生成情報の表示に自動的に切り替わる、
     請求項6に記載の情報処理装置。
  10.  前記第1の生成情報は、所定の180度反転操作が検出された場合、軸に対して180度反転して表示される、
     請求項1に記載の情報処理装置。
  11.  前記第1の生成情報の表示中に、第3の生成情報が新たに生成された場合、前記第1の生成情報の表示から前記第3の生成情報の表示に自動的に切り替わる、
     請求項1に記載の情報処理装置。
  12.  前記第1の生成情報の生成前または生成後に前記プレーを補助するための補助情報が入力された場合、前記第1の生成情報と前記補助情報とが関連付けられ、前記第1の生成情報が表示されるに際して前記補助情報も表示される、
     請求項1に記載の情報処理装置。
  13.  前記取得部は、前記第1の生成情報と前記フィードバック情報とを前記第2のユーザの端末から取得する、
     請求項1に記載の情報処理装置。
  14.  前記送信制御部は、前記第1の生成情報が前記第1のユーザの端末から取得された場合、前記第1の生成情報の前記第2のユーザの端末への送信を制御する、
     請求項1に記載の情報処理装置。
  15.  前記送信制御部は、前記フィードバック情報の第3のユーザの端末への送信をさらに制御する、
     請求項1に記載の情報処理装置。
  16.  前記イベントは、所定の時刻を基準としたスイング開始時点、スイングトップ時点、インパクト時点、スイング終了時点、成功したスイング、失敗したスイング、最も良いスイング、および、最も悪いスイングのうち、少なくともいずれか一つを含む、
     請求項1に記載の情報処理装置。
  17.  前記フィードバック情報は、前記第1の生成情報に対して前記第2のユーザによって入力された、音声データ、テキストデータ、および、画像データの少なくともいずれか一つを含む、
     請求項1に記載の情報処理装置。
  18.  前記第1のユーザは、前記第2のユーザからゴルフのレッスンを受ける生徒である、
     請求項1に記載の情報処理装置。
  19.  ゴルフをプレーしている第1のユーザに関連した情報を示すセンサ情報を基にしたイベントの検出結果を用いて生成された第1の生成情報に対するフィードバック情報を、前記第1のユーザとは異なる第2のユーザの端末から取得することと、
     プロセッサにより、前記フィードバック情報の前記第1のユーザの端末への送信を制御することと、
     を含む、情報処理方法。
  20.  コンピュータを、
     ゴルフをプレーしている第1のユーザに関連した情報を示すセンサ情報を基にしたイベントの検出結果を用いて生成された第1の生成情報に対するフィードバック情報を、前記第1のユーザとは異なる第2のユーザの端末から取得する取得部と、
     前記フィードバック情報の前記第1のユーザの端末への送信を制御する送信制御部と、
     を備える情報処理装置として機能させるためのプログラム。
PCT/JP2018/010434 2017-06-02 2018-03-16 情報処理装置、情報処理方法およびプログラム WO2018220948A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US16/617,249 US20200094122A1 (en) 2017-06-02 2018-03-16 Information processor, information processing method, and program
EP18808846.2A EP3632512B1 (en) 2017-06-02 2018-03-16 Information processing device, information processing method, and program
KR1020197032982A KR20200015890A (ko) 2017-06-02 2018-03-16 정보 처리 장치, 정보 처리 방법 및 프로그램
JP2019521968A JPWO2018220948A1 (ja) 2017-06-02 2018-03-16 情報処理装置、情報処理方法およびプログラム
CA3064504A CA3064504A1 (en) 2017-06-02 2018-03-16 Information processor, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-110341 2017-06-02
JP2017110341 2017-06-02

Publications (1)

Publication Number Publication Date
WO2018220948A1 true WO2018220948A1 (ja) 2018-12-06

Family

ID=64456252

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/010434 WO2018220948A1 (ja) 2017-06-02 2018-03-16 情報処理装置、情報処理方法およびプログラム

Country Status (6)

Country Link
US (1) US20200094122A1 (ja)
EP (1) EP3632512B1 (ja)
JP (1) JPWO2018220948A1 (ja)
KR (1) KR20200015890A (ja)
CA (1) CA3064504A1 (ja)
WO (1) WO2018220948A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020144835A1 (ja) * 2019-01-11 2020-07-16 ソニー株式会社 情報処理装置および情報処理方法
JP2021049208A (ja) * 2019-09-26 2021-04-01 株式会社Sportip 運動評価システム
JP7005737B1 (ja) 2020-12-28 2022-01-24 楽天グループ株式会社 ゴルフスイング解析システム、ゴルフスイング解析方法及びプログラム
JP7011030B1 (ja) 2020-12-28 2022-01-26 楽天グループ株式会社 ゴルフスイング解析システム、ゴルフスイング解析方法及びプログラム
WO2022158099A1 (ja) 2021-01-21 2022-07-28 ソニーグループ株式会社 情報処理方法、情報処理システム、情報端末、並びにコンピュータプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021020667A1 (ko) * 2019-07-29 2021-02-04 주식회사 네오펙트 원격 재활 훈련 제공 방법 및 프로그램
CN111111121B (zh) * 2020-01-16 2023-10-03 合肥工业大学 一种球拍及击球识别方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003088604A (ja) * 2001-09-20 2003-03-25 Sumitomo Rubber Ind Ltd ゴルフスイング記録保存システム
JP2003208479A (ja) * 2002-01-10 2003-07-25 Univ Waseda 画像閲覧システムおよび閲覧用画像提供方法、管理サーバ、並びにプログラム
WO2006098096A1 (ja) * 2005-02-23 2006-09-21 Muneomi Katayama インターネットレッスンシステム
US20070026958A1 (en) * 2005-07-26 2007-02-01 Barasch Michael A Method and system for providing web based interactive lessons
JP2009020897A (ja) * 2002-09-26 2009-01-29 Toshiba Corp 画像解析方法、画像解析装置、画像解析プログラム
JP2015502831A (ja) * 2012-12-11 2015-01-29 デュソンテクノロジー カンパニー リミテッドDu−Sung Technology Co., Ltd. クラブ付着型ゴルフスイングのリアルタイム分析システムおよびその動作方法
JP2017022727A (ja) 2016-08-23 2017-01-26 ソニー株式会社 情報処理装置、情報処理システムおよびプログラム
JP2017064095A (ja) * 2015-09-30 2017-04-06 国立大学法人 筑波大学 学習システム、学習方法、プログラム、記録媒体

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004164563A (ja) * 2002-09-26 2004-06-10 Toshiba Corp 画像解析方法、画像解析装置、画像解析プログラム
JP2006130079A (ja) * 2004-11-05 2006-05-25 Nippon Telegraph & Telephone West Corp フォームチェックサービス用システム
US8613620B2 (en) * 2005-07-26 2013-12-24 Interactive Sports Direct Incorporated Method and system for providing web based interactive lessons with improved session playback
US20100201512A1 (en) * 2006-01-09 2010-08-12 Harold Dan Stirling Apparatus, systems, and methods for evaluating body movements
JP4679429B2 (ja) * 2006-04-27 2011-04-27 任天堂株式会社 音出力プログラムおよび音出力装置
US7920124B2 (en) * 2006-08-29 2011-04-05 Canon Kabushiki Kaisha Force sense presentation device, mixed reality system, information processing method, and information processing apparatus
US9283464B2 (en) * 2007-08-03 2016-03-15 Lynqs, Inc. Golf gaming systems and methods
US20090069105A1 (en) * 2007-09-10 2009-03-12 Range Revolution, Inc. System and method for improving golf skills
US9623284B2 (en) * 2008-02-20 2017-04-18 Karsten Manufacturing Corporation Systems and methods for storing and analyzing golf data, including community and individual golf data collection and storage at a central hub
US9661894B2 (en) * 2008-02-20 2017-05-30 Nike, Inc. Systems and methods for storing and analyzing golf data, including community and individual golf data collection and storage at a central hub
US8698736B2 (en) * 2009-03-24 2014-04-15 Immersion Corporation Handheld computer interface with haptic feedback
US20110250939A1 (en) * 2010-04-09 2011-10-13 Hobler Marc L Network-connected golf game improvement, entertainment and monetization system and method
EP2529808B1 (en) * 2011-06-03 2015-08-26 Sony Computer Entertainment Inc. Game device, game control program, and method for controlling golf game
JP5514774B2 (ja) * 2011-07-13 2014-06-04 株式会社ソニー・コンピュータエンタテインメント ゲーム装置、ゲーム制御方法、ゲーム制御プログラム、及び記録媒体
US10213645B1 (en) * 2011-10-03 2019-02-26 Swingbyte, Inc. Motion attributes recognition system and methods
JP5915148B2 (ja) * 2011-12-16 2016-05-11 セイコーエプソン株式会社 運動解析方法及び運動解析装置
JP6024136B2 (ja) * 2012-03-15 2016-11-09 カシオ計算機株式会社 演奏装置、演奏方法及びプログラム
JP5941752B2 (ja) * 2012-05-22 2016-06-29 ブリヂストンスポーツ株式会社 解析システムおよび解析方法
JP6123062B2 (ja) * 2012-12-26 2017-05-10 株式会社コナミデジタルエンタテインメント 端末装置、サーバ装置、端末装置の制御方法、サーバ装置の制御方法、プログラム、および機能拡張方法
US9737817B1 (en) * 2014-02-03 2017-08-22 Brett Ricky Method and apparatus for simulating a gaming event
US9636578B1 (en) * 2014-02-03 2017-05-02 Brett Ricky Golf club simulation apparatus
US9604136B1 (en) * 2014-02-03 2017-03-28 Brett Ricky Golf club simulation apparatus
AU2015223099B2 (en) * 2014-02-28 2019-09-26 Russell Brands, Llc Sporting device and wearable computer interaction
US9849361B2 (en) * 2014-05-14 2017-12-26 Adidas Ag Sports ball athletic activity monitoring methods and systems
US9478109B2 (en) * 2014-12-29 2016-10-25 Immersion Corporation Virtual sensor in a virtual environment
JP2017047057A (ja) * 2015-09-04 2017-03-09 セイコーエプソン株式会社 運動支援システム、情報機器、測定機器、運動支援方法、およびプログラム
KR102406760B1 (ko) * 2016-06-14 2022-06-08 브렛 리키 게이밍 이벤트를 시뮬레이팅하기 위한 방법 및 장치
CA3003526A1 (en) * 2017-05-02 2018-11-02 Interactive Sports Technologies Inc. Sports simulation system
JP7081921B2 (ja) * 2017-12-28 2022-06-07 株式会社バンダイナムコエンターテインメント プログラム及びゲーム装置
WO2020026301A1 (ja) * 2018-07-30 2020-02-06 株式会社ソニー・インタラクティブエンタテインメント ゲーム装置、ゴルフゲームの制御方法
US20220001236A1 (en) * 2018-10-09 2022-01-06 Brian Francis Mooney Coaching, assessing or analysing unseen processes in intermittent high-speed human motions, including golf swings
JP2022081272A (ja) * 2020-11-19 2022-05-31 株式会社ソニー・インタラクティブエンタテインメント 筐体内に移動可能な質量体を備えたデバイス
KR102573182B1 (ko) * 2021-05-06 2023-09-04 주식회사 에스지엠 단말 장치, 가상 스포츠 장치, 가상 스포츠 시스템 및 가상 스포츠 시스템의 동작방법
JP2023020965A (ja) * 2021-07-30 2023-02-09 エスジーエム・カンパニー・リミテッド 仮想ゴルフ装置及び仮想スポーツ装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003088604A (ja) * 2001-09-20 2003-03-25 Sumitomo Rubber Ind Ltd ゴルフスイング記録保存システム
JP2003208479A (ja) * 2002-01-10 2003-07-25 Univ Waseda 画像閲覧システムおよび閲覧用画像提供方法、管理サーバ、並びにプログラム
JP2009020897A (ja) * 2002-09-26 2009-01-29 Toshiba Corp 画像解析方法、画像解析装置、画像解析プログラム
WO2006098096A1 (ja) * 2005-02-23 2006-09-21 Muneomi Katayama インターネットレッスンシステム
US20070026958A1 (en) * 2005-07-26 2007-02-01 Barasch Michael A Method and system for providing web based interactive lessons
JP2015502831A (ja) * 2012-12-11 2015-01-29 デュソンテクノロジー カンパニー リミテッドDu−Sung Technology Co., Ltd. クラブ付着型ゴルフスイングのリアルタイム分析システムおよびその動作方法
JP2017064095A (ja) * 2015-09-30 2017-04-06 国立大学法人 筑波大学 学習システム、学習方法、プログラム、記録媒体
JP2017022727A (ja) 2016-08-23 2017-01-26 ソニー株式会社 情報処理装置、情報処理システムおよびプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020144835A1 (ja) * 2019-01-11 2020-07-16 ソニー株式会社 情報処理装置および情報処理方法
JP2021049208A (ja) * 2019-09-26 2021-04-01 株式会社Sportip 運動評価システム
JP7492722B2 (ja) 2019-09-26 2024-05-30 株式会社Sportip 運動評価システム
JP7005737B1 (ja) 2020-12-28 2022-01-24 楽天グループ株式会社 ゴルフスイング解析システム、ゴルフスイング解析方法及びプログラム
JP7011030B1 (ja) 2020-12-28 2022-01-26 楽天グループ株式会社 ゴルフスイング解析システム、ゴルフスイング解析方法及びプログラム
JP2022104414A (ja) * 2020-12-28 2022-07-08 楽天グループ株式会社 ゴルフスイング解析システム、ゴルフスイング解析方法及びプログラム
JP2022104413A (ja) * 2020-12-28 2022-07-08 楽天グループ株式会社 ゴルフスイング解析システム、ゴルフスイング解析方法及びプログラム
TWI775637B (zh) * 2020-12-28 2022-08-21 日商樂天集團股份有限公司 高爾夫揮桿解析系統、高爾夫揮桿解析方法及資訊記憶媒體
WO2022158099A1 (ja) 2021-01-21 2022-07-28 ソニーグループ株式会社 情報処理方法、情報処理システム、情報端末、並びにコンピュータプログラム

Also Published As

Publication number Publication date
US20200094122A1 (en) 2020-03-26
EP3632512B1 (en) 2023-03-08
CA3064504A1 (en) 2018-12-06
EP3632512A1 (en) 2020-04-08
JPWO2018220948A1 (ja) 2020-05-21
EP3632512A4 (en) 2020-04-08
KR20200015890A (ko) 2020-02-13

Similar Documents

Publication Publication Date Title
WO2018220948A1 (ja) 情報処理装置、情報処理方法およびプログラム
US11210855B2 (en) Analyzing 2D movement in comparison with 3D avatar
US11247114B2 (en) Information processing device, storage medium, and information processing method
JP6610689B2 (ja) 情報処理装置、情報処理方法及び記録媒体
US10070046B2 (en) Information processing device, recording medium, and information processing method
CN104225890A (zh) 运动分析装置
JP5892236B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2015096105A (ja) 運動解析方法、および運動解析装置
WO2016092933A1 (ja) 情報処理装置、情報処理方法およびプログラム
WO2018179693A1 (ja) 情報処理装置および情報処理方法
JP2017064095A (ja) 学習システム、学習方法、プログラム、記録媒体
US20140118522A1 (en) Dance learning system using a computer
JP6255737B2 (ja) 運動解析装置および運動解析プログラム並びに表示方法
JP6924564B2 (ja) ゲームプログラム
US11526211B2 (en) Methods and apparatus for controlling, implementing and supporting trick play in an augmented reality device
JP2017131308A (ja) 指導アシストシステム、および指導アシストプログラム
JP2004167173A (ja) ビデオゲーム装置、記録媒体およびプログラム
JP2021069702A (ja) 評価方法、および評価装置
US20160325169A1 (en) Swing analyzing device, swing analyzing method, swing analyzing system, and storage medium
KR102619364B1 (ko) 골프 스윙 클리닉 서비스 방법 및 장치
JP2017093839A (ja) ゲームシステム、制御方法、及びプログラム
KR20240102643A (ko) 스크린 골프 운영 시스템을 이용한 클럽별 레슨 방법
TWM480407U (zh) 高爾夫球訓練系統

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18808846

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019521968

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20197032982

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 3064504

Country of ref document: CA

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2018808846

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2018808846

Country of ref document: EP

Effective date: 20200102