JP2009087072A - Training support device, system, and program - Google Patents

Training support device, system, and program Download PDF

Info

Publication number
JP2009087072A
JP2009087072A JP2007256380A JP2007256380A JP2009087072A JP 2009087072 A JP2009087072 A JP 2009087072A JP 2007256380 A JP2007256380 A JP 2007256380A JP 2007256380 A JP2007256380 A JP 2007256380A JP 2009087072 A JP2009087072 A JP 2009087072A
Authority
JP
Japan
Prior art keywords
training
image data
body part
size
visible light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007256380A
Other languages
Japanese (ja)
Inventor
Akihiko Urano
昭彦 占野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007256380A priority Critical patent/JP2009087072A/en
Publication of JP2009087072A publication Critical patent/JP2009087072A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily measure, without touching a body part, the size of the body part where a training effect is visible according to a kind of training performed by a person for training support. <P>SOLUTION: In a training support device, visible light image data is inputted and infrared light image data is inputted (S202); outline data is extracted from the infrared light image data; the infrared light image data is deleted and a body part to be measured is extracted from the outline data; and the size of the body part to be measured is measured (S204). A timer "T" for measuring the training time is reset (S208), whether the timer "T" exceeds the standard training time "TC" is determined (S210), and when so determined, an imaging processing routine (S212) and a measurement processing routine (S214) are performed. Variation is obtained between the size of the body part measured in the step S204 and the size of the body measured in the step S214 (S218). <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、トレーニング支援装置、トレーニング支援システム、及びプログラムに関する。   The present invention relates to a training support device, a training support system, and a program.

近年、体形等の身体状態の改善を目的として、スポーツ施設を利用し、トレーニングを実施する人が増えており、このようなトレーニングを実施する人に対し、トレーニングについての有効なアドバイスを行う技術が提案されている。   In recent years, with the aim of improving body condition such as body shape, there are an increasing number of people who use sports facilities and perform training, and there are technologies that provide effective advice on training for those who perform such training. Proposed.

特許文献1には、記録情報を無線信号で送受信するRFIDタグから出力される無線通信を受信し、記録されているスポーツ施設の利用者の会員IDを取得するとともに、RFIDタグが接近した時間間隔をRFIDタグ毎に計測し、計測結果に基づいて、所定のトレーニングの繰り返し回数及び時間を利用者毎に記録することにより、スポーツ施設の利用者にアドバイスを行う技術が提案されている。   In Patent Document 1, a wireless communication output from an RFID tag that transmits and receives recorded information by a radio signal is received, a recorded member ID of a sports facility user is acquired, and a time interval at which the RFID tag approaches Has been proposed for each RFID tag, and based on the measurement result, the number of repetitions and time of a predetermined training are recorded for each user, thereby providing advice to the user of the sports facility.

また、特許文献2には、問診の回答データに基づいてアドバイスの対象者のトレーニング能力を算出すると共に、アドバイスの対象者が指向するスポーツ及び当該スポーツの実施を希望する年齢の入力結果を希望スポーツ及び希望年齢として取り込んで、希望年齢時のアドバイスの対象者の希望スポーツに求められるトレーニング能力を推定トレーニング能力として推定し、希望年齢とほぼ同年齢で、かつ希望スポーツを実施している人のトレーニング能力の平均値と、推定により得た希望年齢時の推定トレーニング能力とを比較して、アドバイスの対象者が強化すべきトレーニング能力を抽出し、強化すべきトレーニング能力の強化用トレーニングメニューをアドバイスの対象者に提示する技術が提案されている。   Patent Document 2 calculates the training ability of the advice target person based on the answer data of the medical inquiry, and inputs the input result of the sport directed by the advice target person and the age at which the sport is desired to be performed. Training for those who have taken in the desired age and estimated the training ability required for the desired sport of the target person for advice at the desired age as the estimated training ability, and who are performing the desired sport at almost the same age as the desired age Compare the average ability value with the estimated training ability at the desired age obtained by estimation, extract the training ability to be strengthened by the target person of advice, and advise the training menu for strengthening the training ability to strengthen A technique to be presented to a target person has been proposed.

特開2005−267179公報JP 2005-267179 A

特開2002−360755公報JP 2002-360755 A

しかしながら、前記特許文献1に記載される技術によって、アドバイスの対象者の現在の体形等の身体情報に対応したアドバイスを行うことは困難である。   However, it is difficult to provide advice corresponding to physical information such as the current body shape of the person to be advised by the technique described in Patent Document 1.

また、前記特許文献2に記載される技術では、アドバイスの対象者の主観的な問診の回答データに基づいてトレーニング能力を算出しているため、客観的な身体情報に対応したトレーニング能力を算出することは困難である。   Further, in the technique described in Patent Document 2, since the training ability is calculated based on the answer data of the subjective inquiry of the subject of advice, the training ability corresponding to the objective physical information is calculated. It is difficult.

本発明は、客観的な現在の身体情報を提示するトレーニング支援装置、トレーニング支援システム、及びプログラムを提供することを目的とする。   An object of the present invention is to provide a training support device, a training support system, and a program that present objective current physical information.

上記目的を達成するために、第1の発明のトレーニング支援装置は、対象者を撮像する撮像装置から当該対象者の画像データを取得する取得手段と、前記取得手段により取得された画像データに基づいて、前記対象者が実施したトレーニングの種類に応じ、かつ当該トレーニングの実施の効果が表れる身体部位の大きさを測定する測定手段と、を含んでいる。   In order to achieve the above object, a training support apparatus according to a first aspect of the present invention is based on an acquisition unit that acquires image data of a subject from an imaging device that images the subject, and image data acquired by the acquisition unit. And measuring means for measuring the size of the body part according to the type of training performed by the subject and exhibiting the effect of the training.

第2の発明のプログラムは、コンピュータに、対象者を撮像する撮像装置から当該対象者の画像データを取得するステップと、取得された画像データに基づいて、前記対象者が実施したトレーニングの種類に応じ、かつ当該トレーニングの実施の効果が表れる身体部位の大きさを測定するステップと、を実行させる。   According to a second aspect of the present invention, there is provided a program for acquiring, in a computer, a step of acquiring image data of a subject from an imaging device that images the subject, and a type of training performed by the subject based on the acquired image data. And measuring the size of the body part that exhibits the effect of the training.

第1の発明及び第2の発明によれば、対象者を撮像する撮像装置から当該対象者の画像データを取得し、取得された画像データに基づいて、対象者が実施したトレーニングの種類に応じ、かつ当該トレーニングの実施の効果が表れる身体部位の大きさを測定する。   According to 1st invention and 2nd invention, according to the kind of training which the target person implemented based on the acquired image data, acquiring the target person's image data from the imaging device which images the target person Measure the size of the body part that shows the effect of the training.

このように、第1の発明及び第2の発明は、対象者が実施したトレーニングの種類に応じたトレーニングの実施の効果が表れる身体部位の大きさを、接触することなく容易に測定することができる、という優れた効果を有する。   As described above, the first invention and the second invention can easily measure the size of the body part in which the effect of the training according to the type of training performed by the subject appears without contact. It has the excellent effect of being able to.

第1の発明及び第2の発明は、対象者を撮像した日時、取得された画像データ、及び測定された身体部位の大きさを対象者を識別する識別情報に関連付けて記憶手段に記憶させるように制御する記憶制御手段を更に含んでもよい。   In the first invention and the second invention, the date and time when the subject is imaged, the acquired image data, and the measured size of the body part are stored in the storage means in association with the identification information for identifying the subject. It may further include storage control means for controlling.

第1の発明及び第2の発明は、取得された画像データに基づいて、対象者の顔、腹、及び腕の大きさを測定し、測定された顔、腹、及び腕の大きさに基づいて体重を推定する推定手段を更に含んでもよい。   1st invention and 2nd invention measure the magnitude | size of a subject's face, belly, and arm based on the acquired image data, and based on the measured face, belly, and arm size It may further include estimation means for estimating the weight.

第1の発明及び第2の発明は、測定された身体部位の大きさに基づいて、トレーニング開始から所定時間トレーニングを実施した後の身体部位の大きさの変化量を算出する算出手段を更に含んでもよい。所定時間は、トレーニングの実施により身体部位の大きさが変化するのに要する時間に設定すればよい。これにより、トレーニングの実施により変化する身体の状態を適宜知ることができる。   1st invention and 2nd invention further contain the calculation means which calculates the variation | change_quantity of the magnitude | size of the body part after implementing training for predetermined time from the training start based on the magnitude | size of the measured body part. But you can. The predetermined time may be set to a time required for the size of the body part to change due to the training. Thereby, the body state which changes by implementation of training can be known suitably.

第1の発明及び第2の発明は、算出手段により算出された前記変化量に基づいて、所定の仮想運動時間トレーニングを実施したと仮定したときの身体部位の大きさを予測する予測手段を更に含んでもよい。所定の仮想運動時間は、継続的にトレーニングを実施した場合に、期待されるトレーニングの実施の効果が現れる時間に設定すればよい。   The first invention and the second invention further comprise a predicting means for predicting the size of the body part when it is assumed that a predetermined virtual exercise time training has been performed based on the amount of change calculated by the calculating means. May be included. The predetermined virtual exercise time may be set to a time when the expected effect of the training is exhibited when training is continuously performed.

第1の発明及び第2の発明は、取得された画像データを、予測手段により予測された身体部位の大きさに基づいて補正する画像補正手段と、補正された画像データに応じた画像を表示手段に表示させるように制御する表示制御手段と、を更に含んでもよい。このように、トレーニングの実施の効果をトレーニングの実施前に表示することで、トレーニングを実施するトレーニング支援の対象者にトレーニングの実施を楽しませることができると共に、トレーニングの実施を継続する意欲を創出することができる。   1st invention and 2nd invention display the image according to the image correction means which correct | amends the acquired image data based on the magnitude | size of the body part estimated by the prediction means, and the corrected image data Display control means for controlling the display to be displayed on the means. In this way, by displaying the effect of training before the training is conducted, it is possible to entertain the training implementation for the training support target people who are conducting the training, and create the willingness to continue the training. can do.

第1の発明及び第2の発明において、予測手段は、身体部位に応じて定められ、かつ年齢及び性別の少なくとも一方に応じて変更される重み付けを変化量及び仮想運動時間の少なくとも一方に対して行なって前記身体部位の大きさを予測するとよい。   In the first invention and the second invention, the predicting means sets the weighting determined according to the body part and changed according to at least one of age and sex to at least one of the change amount and the virtual exercise time. It is better to predict the size of the body part.

第1の発明及び第2の発明は、身体部位によって変化量に偏りがある場合に、アドバイスを出力する出力手段を更に含んでもよい。これにより、適宜、トレーニングを実施するトレーニング支援の対象者にアドバイスを提供することができる。   The first invention and the second invention may further include an output means for outputting advice when the amount of change is biased depending on the body part. Thereby, advice can be provided to a target person of training support who performs training as appropriate.

第1の発明及び第2の発明は、出力手段により出力されたアドバイスを蓄積するアドバイス蓄積手段を更に含み、出力手段は、アドバイス蓄積手段に蓄積されているアドバイスを参照して、出力するアドバイスに偏りが生じないようにアドバイスを出力するとよい。   The first invention and the second invention further include advice storage means for storing the advice output by the output means, and the output means refers to the advice stored in the advice storage means to output advice. It is recommended to output advice so that no bias occurs.

第3の発明のトレーニング支援装置は、可視光に対して感度を有する可視光カメラによって撮像された対象者の可視光画像データ、及び赤外線光に対して感度を有する赤外線光カメラによって撮像された対象者の赤外線光画像データを取得する取得手段と、前記取得手段により取得された前記赤外線光画像データに基づいて、前記対象者が実施したトレーニングの種類に応じ、かつ当該トレーニングの実施の効果が表れる身体部位の大きさを測定する測定手段と、前記可視光カメラ及び前記赤外線光カメラの何れか一方によって撮像した撮像日時、前記取得手段により取得された前記可視光画像データ、及び前記測定手段により測定された前記身体部位の大きさを前記対象者を識別する識別情報に関連付けて記憶手段に記憶するように制御する記憶制御手段と、を含んでいる。   The training support device according to the third aspect of the present invention is the subject imaged by an infrared light camera having sensitivity to infrared light and the visible light image data of the subject imaged by the visible light camera having sensitivity to visible light. Based on the acquisition means for acquiring the infrared light image data of the person and the infrared light image data acquired by the acquisition means, depending on the type of training performed by the target person, and the effect of the implementation of the training appears Measurement means for measuring the size of the body part, imaging date and time taken by one of the visible light camera and the infrared light camera, the visible light image data acquired by the acquisition means, and measurement by the measurement means And controlling the size of the body part stored in the storage means in association with the identification information for identifying the subject. And storage control means includes a.

第3の発明のトレーニング支援装置によれば、取得手段は、可視光に対して感度を有する可視光カメラによって撮像された対象者の可視光画像データ、及び赤外線光に対して感度を有する赤外線光カメラによって撮像された対象者の赤外線光画像データを取得する。測定手段は、取得手段により取得された赤外線光画像データに基づいて、対象者が実施したトレーニングの種類に応じ、かつトレーニングの実施の効果が表れる身体部位の大きさを測定する。記憶制御手段は、可視光カメラ及び赤外線光カメラの何れか一方によって撮像した撮像日時、取得手段により取得された可視光画像データ、及び測定手段により測定された前記身体部位の大きさを対象者を識別する識別情報に関連付けて記憶手段に記憶するように制御する。   According to the training support device of the third invention, the acquisition means includes the visible light image data of the subject imaged by the visible light camera having sensitivity to visible light, and the infrared light having sensitivity to infrared light. Infrared light image data of the subject imaged by the camera is acquired. The measuring means measures the size of the body part that shows the effect of the training according to the type of training performed by the subject based on the infrared light image data acquired by the acquiring means. The storage control means selects the subject on the imaging date and time captured by one of the visible light camera and the infrared light camera, the visible light image data acquired by the acquisition means, and the size of the body part measured by the measurement means. Control is performed so as to store the identification information in association with the identification information to be identified.

第3の発明は、記憶手段に記憶されている撮像日時及び可視光画像データを取得し、取得した撮像日時及び可視光画像データを表示手段に表示させるように制御する表示制御手段を更に含んでもよい。これにより、身体の経時変化を見ることができる。   The third invention may further include display control means for acquiring the imaging date and time and visible light image data stored in the storage means and controlling the acquired imaging date and time and visible light image data to be displayed on the display means. Good. Thereby, the temporal change of the body can be seen.

第3の発明は、測定手段による測定の後に赤外線光画像データを削除する削除手段を更に含んでもよい。これにより、トレーニングを実施するトレーニング支援の対象者以外に見せたくない情報の流出を防ぐことができる。   The third invention may further include a deleting unit that deletes the infrared light image data after the measurement by the measuring unit. As a result, it is possible to prevent leakage of information that is not desired to be shown to anyone other than the training support target who performs the training.

第1の発明又は第3の発明のトレーニング支援装置は、対象者を撮像する撮像装置を更に含んでもよい。   The training support device of the first invention or the third invention may further include an imaging device that images the subject.

第4の発明のトレーニング支援システムは、可視光に対して感度を有する可視光カメラ、及び赤外線光に対して感度を有する赤外線光カメラを備えた撮像装置と、第1の発明又は第3の発明のトレーニング支援装置と、を含んでいる。   A training support system according to a fourth aspect of the present invention includes a visible light camera having sensitivity to visible light, an imaging device including an infrared light camera having sensitivity to infrared light, and the first or third invention. And a training support device.

以上説明したように、本発明は、トレーニング支援の対象者が実施したトレーニングの種類に応じたトレーニングの実施の効果が表れる身体部位の大きさを、接触することなく容易に測定することができる、という優れた効果を有する。   As described above, the present invention can easily measure the size of the body part where the effect of the training according to the type of training performed by the target of the training support appears without contact, It has an excellent effect.

以下、図面を参照して本発明の実施形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、トレーニング支援装置であるコンピュータ10の概略構成を示すブロック図である。   FIG. 1 is a block diagram illustrating a schematic configuration of a computer 10 that is a training support apparatus.

コンピュータ10は、図1に示すように、CPU(Central Processing Unit)12、ROM(Read Only Memory)14、RAM(Random Access Memory)16等がバス18によって接続された制御部20を含んで構成されている。   As shown in FIG. 1, the computer 10 includes a control unit 20 in which a CPU (Central Processing Unit) 12, a ROM (Read Only Memory) 14, a RAM (Random Access Memory) 16, and the like are connected by a bus 18. ing.

CPU12は、コンピュータ10の全体の動作を司るものであり、プログラムに従い後述するトレーニング支援処理を実行する。   The CPU 12 controls the overall operation of the computer 10 and executes a training support process described later according to a program.

ROM14は、コンピュータ10の起動時に動作するブートプログラムなどが記憶されている不揮発性の記憶装置である。   The ROM 14 is a non-volatile storage device that stores a boot program that operates when the computer 10 is started up.

RAM16は、CPU12の実行において使用されるプログラムや、その実行において適宜変化するパラメータ、コンピュータ10の作動中に取得される各種のログデータを記憶する揮発性の記憶装置である。   The RAM 16 is a volatile storage device that stores programs used in the execution of the CPU 12, parameters that change as appropriate during the execution, and various log data acquired during operation of the computer 10.

また、コンピュータ10は、通信部22、表示部24、入力デバイス26、接続ポート28、読取装置30、及びHDD(Hard Disk Drive)32を含んで構成されている。   The computer 10 includes a communication unit 22, a display unit 24, an input device 26, a connection port 28, a reading device 30, and an HDD (Hard Disk Drive) 32.

通信部22は、コンピュータ10と直接又はネットワークを介して接続された外部装置との間でのデータの送受信を行うものである。制御部20は、通信部22を介して外部装置とネットワークを介して接続可能になっており、本実施の形態では後述する可視光カメラ50及び赤外線光カメラ90とネットワークを介して接続可能になっている。   The communication unit 22 transmits / receives data to / from an external device connected to the computer 10 directly or via a network. The control unit 20 can be connected to an external device via the communication unit 22 via a network. In this embodiment, the control unit 20 can be connected to a visible light camera 50 and an infrared light camera 90 described later via the network. ing.

表示部24は、液晶表示装置またはCRT(Cathode Ray Tube)などからなり、トレーニングを支援する情報が表示される。   The display unit 24 includes a liquid crystal display device, a CRT (Cathode Ray Tube), or the like, and displays information for supporting training.

入力デバイス26は、トレーニング支援の対象者を識別する識別データ等の人物情報を入力したり、トレーニング支援の対象者の情報の表示の指示等、トレーニング支援に関する指示を操作者の操作により入力するための装置である。   The input device 26 is used to input personal information such as identification data for identifying a training support target person, or to input instructions related to training support, such as an instruction to display information about the training support target person, by an operator's operation. It is a device.

接続ポート28は、USB及びIEEE1394等の接続部を有し、コンピュータ10に外部機器を接続するためのポートである。この接続ポート28を介して、USBメモリ等の記憶媒体29をコンピュータ10に接続することができる。   The connection port 28 has a connection unit such as USB and IEEE1394, and is a port for connecting an external device to the computer 10. A storage medium 29 such as a USB memory can be connected to the computer 10 via the connection port 28.

読取装置30は、光磁気ディスク、光ディスク、及び磁気ディスク等の記憶媒体31が装着された際に、装着された記憶媒体31から記憶内容を読み取るものであり、光磁気ディスクの記憶内容を読み取るための光磁気ディスク装置、光ディスクの記憶内容を読み取るための光ディスク装置、及び磁気ディスクの記憶内容を読み取るための磁気ディスク装置等を用いることができる。   The reading device 30 reads the stored contents from the mounted storage medium 31 when the storage medium 31 such as a magneto-optical disk, an optical disk, and a magnetic disk is mounted, and reads the stored contents of the magneto-optical disk. The magneto-optical disk apparatus, the optical disk apparatus for reading the storage contents of the optical disk, the magnetic disk apparatus for reading the storage contents of the magnetic disk, and the like can be used.

HDD32は、オペレーティングシステム、及び後述する画像表示処理を実行するためのプログラム、プログラムの実行に用いられるデータ、並びに通信部22を介して外部装置と送受信されるデータ等が格納される不揮発性の記憶装置である。本実施の形態では後述する人物情報記憶部33A,トレーニングプラン記憶部33B,出力アドバイス記憶部33CはHDD32に設けられている。   The HDD 32 is a non-volatile storage in which an operating system, a program for executing image display processing to be described later, data used for executing the program, data transmitted to and received from an external device via the communication unit 22, and the like are stored. Device. In the present embodiment, a personal information storage unit 33A, a training plan storage unit 33B, and an output advice storage unit 33C, which will be described later, are provided in the HDD 32.

通信部22、表示部24、入力デバイス26、接続ポート28、読取装置30、及びHDD32の各々は、バス18を介して制御部20に接続されており、制御部20によって、コンピュータ10の全体が制御される。   Each of the communication unit 22, the display unit 24, the input device 26, the connection port 28, the reading device 30, and the HDD 32 is connected to the control unit 20 via the bus 18, and the control unit 20 controls the entire computer 10. Be controlled.

このようなコンピュータ10において、制御部20のCPU12は、HDD32に記憶されているプログラムを読み出してRAM16に格納し、RAM16に格納したプログラムの各々を実行する。本実施の形態では、CPU12によりプログラムが実行されることによって、コンピュータ10においてトレーニング支援処理が実行される。   In such a computer 10, the CPU 12 of the control unit 20 reads out a program stored in the HDD 32, stores it in the RAM 16, and executes each of the programs stored in the RAM 16. In the present embodiment, the training support process is executed in the computer 10 by the CPU 12 executing the program.

なお、HDD32に記憶されているプログラム及びプログラムの実行に用いられるデータ等は、記憶媒体29又は記憶媒体31に記憶させて、接続ポート28又は読取装置30を介して読み出してもよい。このようにプログラムが記憶媒体29又は記憶媒体31に記憶されている場合は、記憶媒体29又はが接続ポート28に接続、又は記憶媒体31が読取装置30に装着されると、制御部20のCPU12は、記憶媒体29又は記憶媒体31に記憶されているプログラムを読み出してRAM16に格納する。   The program stored in the HDD 32 and the data used for executing the program may be stored in the storage medium 29 or the storage medium 31 and read via the connection port 28 or the reading device 30. As described above, when the program is stored in the storage medium 29 or the storage medium 31, when the storage medium 29 or the storage medium 31 is connected to the connection port 28 or the storage medium 31 is attached to the reading device 30, the CPU 12 of the control unit 20. Reads out the program stored in the storage medium 29 or 31 and stores it in the RAM 16.

図2は、通信部22を介して接続される撮像装置の概略構成を示すブロック図であり、同図(A)は可視光に対して感度を有する可視光カメラ50を示し、同図(B)は赤外線光に対して感度を有する赤外線光カメラ90を示している。   FIG. 2 is a block diagram illustrating a schematic configuration of an imaging device connected via the communication unit 22. FIG. 2A illustrates a visible light camera 50 having sensitivity to visible light, and FIG. ) Shows an infrared light camera 90 having sensitivity to infrared light.

まず、図2(A)を参照して可視光カメラ50の概略構成を説明する。   First, a schematic configuration of the visible light camera 50 will be described with reference to FIG.

可視光カメラ50は、可視光画像を撮像する可視光画像撮像部52、撮像時に必要に応じて被写体に照射する可視光(撮像補助光)を発する可視光発光部54、及び可視光カメラ50全体の動作を司るCPU56を含んで構成されている。   The visible light camera 50 includes a visible light image capturing unit 52 that captures a visible light image, a visible light emitting unit 54 that emits visible light (imaging auxiliary light) that irradiates a subject as needed during imaging, and the entire visible light camera 50. The CPU 56 is configured to control the operation.

可視光画像撮像部52は、被写体像を結像させるためのレンズ、焦点調整モータ、ズームモータ、及び絞り駆動モータを含んで構成された光学ユニット58を備えている。レンズは複数枚のレンズを有し、焦点調整モータ、ズームモータ、及び絞り駆動モータにより焦点距離の変更(変倍)が可能なズームレンズとして構成されている。焦点調整モータ、ズームモータ、及び絞り駆動モータは、CPU56の制御によりモータ駆動部60から供給される駆動信号により駆動される。   The visible light image capturing unit 52 includes an optical unit 58 that includes a lens for forming a subject image, a focus adjustment motor, a zoom motor, and an aperture drive motor. The lens has a plurality of lenses, and is configured as a zoom lens that can change (magnify) the focal length by a focus adjustment motor, a zoom motor, and an aperture drive motor. The focus adjustment motor, zoom motor, and diaphragm drive motor are driven by a drive signal supplied from the motor drive unit 60 under the control of the CPU 56.

光学ユニット58のレンズの光軸後方には、電荷結合素子(以下「CCD」とよぶ)62が配設されている。可視光カメラ50は、主としてCCD60を駆動させるためのタイミング信号を生成してCCD60に供給するタイミングジェネレータ64を備えており、CCD62はCPU56の制御よりタイミングジェネレータ64から供給されるタイミング信号により駆動される。CCD62は、光学ユニット58を介して被写体の撮像を行い、被写体像を示すR(赤)、G(緑)、B(青)毎のアナログ信号をアナログ信号処理部66に順次出力する。   A charge coupled device (hereinafter referred to as “CCD”) 62 is disposed behind the optical axis of the lens of the optical unit 58. The visible light camera 50 includes a timing generator 64 that mainly generates a timing signal for driving the CCD 60 and supplies the timing signal to the CCD 60. The CCD 62 is driven by the timing signal supplied from the timing generator 64 under the control of the CPU 56. . The CCD 62 images a subject via the optical unit 58 and sequentially outputs analog signals for R (red), G (green), and B (blue) indicating the subject image to the analog signal processing unit 66.

アナログ信号処理部66は、入力されたアナログ信号に対して相関二重抽出処理等の各種のアナログ信号処理を行う。また、アナログ信号処理部66の出力端は入力されたアナログ信号をデジタルデータに変換するアナログ/デジタル変換器(以下、「ADC」という。)68の入力端に接続されている。   The analog signal processing unit 66 performs various analog signal processing such as correlated double extraction processing on the input analog signal. The output terminal of the analog signal processing unit 66 is connected to the input terminal of an analog / digital converter (hereinafter referred to as “ADC”) 68 that converts an input analog signal into digital data.

ADC68は、アナログ信号処理部66から入力されたR,G,B毎のアナログ信号を各々12ビットのR,G,Bのデジタル画像データに変換してデジタル信号処理部70に順次出力する。   The ADC 68 converts the R, G, and B analog signals input from the analog signal processing unit 66 into 12-bit R, G, and B digital image data, and sequentially outputs them to the digital signal processing unit 70.

デジタル信号処理部70は、入力されたデジタルデータに対して各種のデジタル信号処理を行う。   The digital signal processing unit 70 performs various digital signal processing on the input digital data.

また、可視光カメラ50は、デジタル画像データに対する圧縮処理及び伸張処理を行う圧縮・伸張処理回路72、撮像により得られたデジタル画像データ等を記憶するメモリ74、メモリ74に対するアクセスの制御を行うメモリインタフェース76、撮像された被写体像やメニュー画面等を表示するためのモニタ78、被写体像やメニュー画面等をモニタ78に表示させるための信号を生成してモニタ78に供給するモニタインタフェース80、及び可視光カメラ50と直接又はネットワークを介して接続された外部装置との間のデータの送受信を行う通信部82を含んで構成されている。なお、本実施の形態の可視光カメラ50は、メモリ74としてフラッシュ・メモリ(Flash Memory)を用いる。   The visible light camera 50 includes a compression / decompression processing circuit 72 that performs compression processing and expansion processing on digital image data, a memory 74 that stores digital image data obtained by imaging, and a memory that controls access to the memory 74. An interface 76, a monitor 78 for displaying a captured subject image, a menu screen, and the like, a monitor interface 80 for generating a signal for displaying the subject image, the menu screen, etc. on the monitor 78, and supplying the signal to the monitor 78; The communication unit 82 is configured to transmit and receive data between the optical camera 50 and an external device connected directly or via a network. Note that the visible light camera 50 according to the present embodiment uses a flash memory as the memory 74.

CPU56、可視光画像撮像部52、圧縮・伸張処理回路72、メモリインタフェース76、モニタインタフェース80、及び通信部82はシステムバスを介して相互に接続されている。CPU56は、可視光画像撮像部52、可視光発光部54、及び圧縮・伸張処理回路68の作動の制御、モニタ78に対するモニタインタフェース80を介した各種情報の表示、メモリ74へのメモリインタフェース76を介したアクセス、及び通信部82を介した外部装置とのデータの送受信の各々を行う。   The CPU 56, visible light image capturing unit 52, compression / decompression processing circuit 72, memory interface 76, monitor interface 80, and communication unit 82 are connected to each other via a system bus. The CPU 56 controls the operation of the visible light image capturing unit 52, the visible light emitting unit 54, and the compression / decompression processing circuit 68, displays various information via the monitor interface 80 to the monitor 78, and provides a memory interface 76 to the memory 74. Access and data transmission / reception to / from an external device via the communication unit 82.

また、上記の可視光発光部54もCPU56に接続されており、可視光発光部54による撮像補助光の発光はCPU56によって制御される。   The visible light emitting unit 54 is also connected to the CPU 56, and the emission of imaging auxiliary light by the visible light emitting unit 54 is controlled by the CPU 56.

さらに、可視光カメラ50は、電源のオンオフ、光学ユニット58に含まれる各モータの駆動、撮像の実行を操作するための操作部84を備えている。   Further, the visible light camera 50 includes an operation unit 84 for operating power on / off, driving of each motor included in the optical unit 58, and execution of imaging.

本実施の形態では、可視光カメラ50は、通信部82を介してコンピュータ10から受信した撮像指示により撮像を行う。また、可視光カメラ50は、撮像により得られた可視光画像データを、通信部82を介してコンピュータ10へ送信する。   In the present embodiment, the visible light camera 50 performs imaging according to an imaging instruction received from the computer 10 via the communication unit 82. The visible light camera 50 transmits visible light image data obtained by imaging to the computer 10 via the communication unit 82.

次に、図2(B)を参照して赤外線光カメラ90の概略構成を説明する。以下では、可視光カメラ50と対応する部分についての説明を省略し、可視光カメラ50との差異を主として説明する。   Next, a schematic configuration of the infrared light camera 90 will be described with reference to FIG. Below, description about the part corresponding to the visible light camera 50 is abbreviate | omitted, and the difference with the visible light camera 50 is mainly demonstrated.

赤外線光カメラ90は、赤外線光画像を撮像する赤外線光画像撮像部92、及び撮像時に被写体に照射する赤外線光を発する赤外線光発光部94を含んで構成されている。   The infrared light camera 90 includes an infrared light image capturing unit 92 that captures an infrared light image, and an infrared light emitting unit 94 that emits infrared light that irradiates a subject during imaging.

赤外線光画像撮像部92に備わる光学ユニット96が有するレンズの光軸後方には、赤外線光のみを透過するフィルタ98が設けられている。CCD62は、フィルタ98によって透過された赤外線光を受光する。   A filter 98 that transmits only infrared light is provided behind the optical axis of the lens of the optical unit 96 provided in the infrared light image capturing unit 92. The CCD 62 receives the infrared light transmitted by the filter 98.

可視光カメラ50と同様に、本実施の形態では、赤外線光カメラ90は、通信部82を介してコンピュータ10から受信した撮像指示により撮像を行う。また、赤外線光カメラ90は、撮像により得られた赤外線光画像データを、通信部82を介してコンピュータ10へ送信する。   Similar to the visible light camera 50, in the present embodiment, the infrared light camera 90 performs imaging in accordance with an imaging instruction received from the computer 10 via the communication unit 82. In addition, the infrared light camera 90 transmits infrared light image data obtained by imaging to the computer 10 via the communication unit 82.

次に、図3を参照して、コンピュータ10において実行されるトレーニング支援機能を機能毎に分けた場合の構成について説明する。   Next, with reference to FIG. 3, a configuration when the training support function executed in the computer 10 is divided for each function will be described.

トレーニング支援機能は、上記の可視光カメラ50及び赤外線光カメラ90に、通信部22,82を介して撮像指示を出力する撮像指示部102を含んでいる。撮像指示部102は、入力デバイス26から測定指示が入力されたとき、及び入力デバイス26から測定指示が入力されてから予め設定された所定の時間が経過したときに撮像指示を出力する。所定の時間は、トレーニングの実施により身体部位の大きさが変化するのに要する時間に設定すればよい。   The training support function includes an imaging instruction unit 102 that outputs an imaging instruction to the visible light camera 50 and the infrared light camera 90 via the communication units 22 and 82. The imaging instruction unit 102 outputs an imaging instruction when a measurement instruction is input from the input device 26 and when a predetermined time elapses after the measurement instruction is input from the input device 26. The predetermined time may be set to a time required for the size of the body part to change due to the training.

また、トレーニング支援機能は、可視光カメラ50から通信部22,82を介して可視光画像データを取得する可視光画像データ取得部104、及び赤外線光カメラ90から通信部22,82を介して赤外線光画像データを取得する赤外線光画像データ取得部106を含んでいる。   The training support function includes a visible light image data acquisition unit 104 that acquires visible light image data from the visible light camera 50 via the communication units 22 and 82, and an infrared ray from the infrared light camera 90 via the communication units 22 and 82. An infrared light image data acquisition unit 106 that acquires light image data is included.

可視光画像データ取得部104は、取得した可視光画像データを頭部検出部108に出力する。頭部検出部108は、図4(A)に示されるように、可視光画像データで表される画像から頭部を検出する。また、頭部検出部108は、人物情報記憶部33Aとデータの送受信を行うことで、顔認識を行い、トレーニング支援の対象者を特定する。   The visible light image data acquisition unit 104 outputs the acquired visible light image data to the head detection unit 108. As shown in FIG. 4A, the head detection unit 108 detects a head from an image represented by visible light image data. In addition, the head detection unit 108 performs face recognition by transmitting / receiving data to / from the person information storage unit 33 </ b> A and identifies a target person for training support.

人物情報記憶部33Aは、トレーニング支援の対象者の性別、年齢等の情報と共に、測定日時、測定した身体部位の大きさ、及び測定時の可視光画像データをトレーニング支援の対象者を識別する識別データに関連付けて記憶する。   The personal information storage unit 33A identifies the target person for training support using the date and time of measurement, the size of the measured body part, and the visible light image data at the time of measurement together with information such as sex and age of the target person for training support. Store in association with data.

赤外線光画像データ取得部106は、取得した赤外線光画像データを輪郭抽出部110に出力する。輪郭抽出部110は、図4(B)に示されるように、赤外線光画像データで表される画像からトレーニング支援の対象者の身体の輪郭を抽出する。トレーニング支援の対象者の身体の輪郭が抽出後の赤外線光画像データは、赤外線光画像データ削除部114により削除される。   The infrared light image data acquisition unit 106 outputs the acquired infrared light image data to the contour extraction unit 110. As shown in FIG. 4B, the contour extracting unit 110 extracts the contour of the body of the training support target person from the image represented by the infrared light image data. The infrared light image data after the outline of the body of the training support target is extracted is deleted by the infrared light image data deletion unit 114.

頭部検出部108は検出した頭部の位置を示す頭部位置データを身体部位検出部112に出力する。また、輪郭抽出部110は抽出したトレーニング支援の対象者の身体の輪郭を示す輪郭データを身体部位検出部112に出力する。身体部位検出部112は、頭部位置データに基づいて、輪郭データから測定対象の身体部位の位置を検出する。例えば図4(A)で検出された頭部の位置に基づいて、図4(B)に示される輪郭データから、点線で囲まれる領域を腕領域として検出する。   The head detection unit 108 outputs head position data indicating the detected head position to the body part detection unit 112. In addition, the contour extracting unit 110 outputs the extracted contour data indicating the contour of the body of the training support target person to the body part detecting unit 112. The body part detection unit 112 detects the position of the body part to be measured from the contour data based on the head position data. For example, based on the position of the head detected in FIG. 4A, an area surrounded by a dotted line is detected as an arm area from the contour data shown in FIG.

ここで、測定対象の身体部位は、トレーニングの実施による効果が現れる身体部位であって、実施するトレーニングの種類によって場所が異なる。また、トレーニングの種類に係わらず、後述する体重推定部118による体重の推定のために、少なくとも顔、腹、及び腕は測定対象とする。   Here, the body part to be measured is a body part where the effect of the training appears, and the place differs depending on the type of training to be performed. Regardless of the type of training, at least the face, belly, and arms are to be measured for weight estimation by the weight estimation unit 118 described later.

身体部位検出部112は、輪郭データ及び測定対象の身体部位の位置を示す身体部位位置データを身体部位測定部116に出力する。身体部位測定部116は、輪郭データ及び身体部位位置データに基づいて、測定対象の身体部位の大きさを測定する。図4(C)は、腕の大きさを測定する場合を例示している。身体部位測定部116は、「W」で示される大きさを、腕の大きさとする。身体部位測定部116は、測定対象の身体部位の大きさを示す大きさデータを、人物情報記憶部33A、体重推定部118、及び身体部位変化量算出部120に出力する。   The body part detection unit 112 outputs contour data and body part position data indicating the position of the body part to be measured to the body part measurement unit 116. The body part measurement unit 116 measures the size of the body part to be measured based on the contour data and the body part position data. FIG. 4C illustrates the case where the size of the arm is measured. The body part measurement unit 116 sets the size indicated by “W” as the size of the arm. The body part measurement unit 116 outputs size data indicating the size of the body part to be measured to the person information storage unit 33A, the weight estimation unit 118, and the body part change amount calculation unit 120.

体重推定部118は、少なくとも顔、腹、及び腕の大きさデータに基づいて、トレーニング支援の対象者の体重を推定する。また、体重推定部118は、人物情報記憶部33Aに推定した体重を示す体重データを出力する。人物情報記憶部33Aは、体重データを測定日時と関連付けて記憶する。   The weight estimation unit 118 estimates the weight of the training support target person based on at least the face, belly, and arm size data. The weight estimation unit 118 also outputs weight data indicating the estimated weight in the person information storage unit 33A. The person information storage unit 33A stores the weight data in association with the measurement date.

身体部位変化量算出部120は、人物情報記憶部33Aとデータの送受信を行うようになっており、人物情報記憶部33Aから過去に実施された測定の日時、及び測定した身体部位の大きさを入力して、身体部位の大きさの変化量を算出すると共に、算出した変化量を示す変化量データを測定日時と関連付けて人物情報記憶部33Aに出力する。   The body part change amount calculation unit 120 transmits / receives data to / from the person information storage unit 33A, and the date and time of the measurement performed in the past from the person information storage unit 33A and the size of the measured body part. This is input to calculate the amount of change in the size of the body part, and output change amount data indicating the calculated change amount to the person information storage unit 33A in association with the measurement date.

身体部位変化量算出部120は、トレーニングの実施時間に対する変化量データをアドバイス生成部122及び予測データ生成部124へ出力する。   The body part change amount calculation unit 120 outputs change amount data with respect to the training execution time to the advice generation unit 122 and the prediction data generation unit 124.

アドバイス生成部122は、トレーニング支援の対象者が実施可能なトレーニングのプランを記憶するトレーニングプラン記憶部33B、及び過去に出力したアドバイスを記憶する出力アドバイス記憶部33Cとデータの送受信を行う。   The advice generation unit 122 transmits / receives data to / from a training plan storage unit 33B that stores a training plan that can be implemented by a target person for training support and an output advice storage unit 33C that stores advice output in the past.

アドバイス生成部122は、トレーニングプラン記憶部33B及び出力アドバイス記憶部33Cに記憶されている情報を参照すると共に、変化量データに基づいて、トレーニング支援の対象者に対して出力するアドバイスのアドバイスデータを生成する。アドバイス生成部122は、生成したアドバイスデータを画像表示処理部126に出力する。   The advice generation unit 122 refers to the information stored in the training plan storage unit 33B and the output advice storage unit 33C, and generates advice advice data to be output to the training support target person based on the change amount data. Generate. The advice generation unit 122 outputs the generated advice data to the image display processing unit 126.

一方、予測データ生成部124は、トレーニングの実施時間に対する変化量データに基づいて、所定の仮想運動時間トレーニングを実施したと仮定したときの身体部位の大きさを予測した予測データを生成する。この予測データは、変化量データ及び所定の仮想運動時間の少なくとも一方に対して、身体部位に応じて定められ、かつトレーニングを実施するトレーニング支援の対象者の年齢及び性別の少なくとも一方に応じて変更される重み付けを行って生成される。この重みは実施したトレーニングの種類に応じて異なるように定めておいてもよい。所定の仮想運動時間は、入力デバイス26を介して入力されてもよいし、予めHDD32に記憶されていてもよい。所定の仮想運動時間は、継続的にトレーニングを実施した場合に、期待されるトレーニングの実施の効果が現れる時間に設定すればよい。   On the other hand, the prediction data generation unit 124 generates prediction data that predicts the size of the body part when it is assumed that the predetermined virtual exercise time training is performed based on the change amount data with respect to the training execution time. The prediction data is determined according to the body part with respect to at least one of the change amount data and the predetermined virtual exercise time, and is changed according to at least one of the age and sex of the training support target person who performs the training. Generated by weighting. This weight may be determined so as to differ depending on the type of training performed. The predetermined virtual exercise time may be input via the input device 26 or may be stored in the HDD 32 in advance. The predetermined virtual exercise time may be set to a time when the expected effect of the training is exhibited when training is continuously performed.

予測データ生成部124により生成された予測データは、予測画像データ生成部128に出力される。予測画像データ生成部128は、可視光画像データを、予測データに基づいて補正して予測画像データを生成し、生成した予測画像データを画像表示処理部126へ出力する。   The prediction data generated by the prediction data generation unit 124 is output to the prediction image data generation unit 128. The predicted image data generating unit 128 corrects the visible light image data based on the predicted data to generate predicted image data, and outputs the generated predicted image data to the image display processing unit 126.

画像表示処理部126は、入力されたデータに応じた画像を表示部24に表示させる。   The image display processing unit 126 causes the display unit 24 to display an image corresponding to the input data.

次に、コンピュータ10において実行されるトレーニング支援処理のルーチンについて図3と対応させて説明する。   Next, a training support processing routine executed in the computer 10 will be described with reference to FIG.

図5は、所定の仮想運動時間トレーニングを実施した場合の身体を予測し、トレーニングを実施するトレーニング支援の対象者に予測結果を提示する処理のルーチンを示すフローチャートである。   FIG. 5 is a flowchart showing a routine of a process of predicting a body when a predetermined virtual exercise time training is performed and presenting a prediction result to a training support target person who performs the training.

ステップ200では、入力デバイス26から測定指示が入力されたか否かが判定される。肯定された場合はステップ202へ移行し、否定された場合はステップ200に戻る。   In step 200, it is determined whether or not a measurement instruction is input from the input device 26. If the determination is affirmative, the process proceeds to step 202. If the determination is negative, the process returns to step 200.

ステップ202では、図6のフローチャートに示される撮像の処理ルーチンを実行する。   In step 202, an imaging process routine shown in the flowchart of FIG. 6 is executed.

図6のステップ250では、可視光カメラ50及び赤外線光カメラ90に撮像を指示する。このステップは、図3に示される撮像指示部102の機能と対応する。   In step 250 of FIG. 6, imaging is instructed to the visible light camera 50 and the infrared light camera 90. This step corresponds to the function of the imaging instruction unit 102 shown in FIG.

ステップ252では、可視光カメラ50から可視光画像データを取得すると共に、赤外線光カメラ90から赤外線光画像データを取得する。このステップは、図3に示される可視光画像データ取得部104及び赤外線光画像データ取得部106の機能と対応する。   In step 252, visible light image data is acquired from the visible light camera 50 and infrared light image data is acquired from the infrared light camera 90. This step corresponds to the functions of the visible light image data acquisition unit 104 and the infrared light image data acquisition unit 106 shown in FIG.

ステップ254では、可視光画像データから頭部を検出し、ステップ256で、頭部が1つか否かを判定する。肯定された場合は撮像の処理ルーチンを終了し、否定された場合はステップ258へ移行する。このステップは、図3に示される頭部検出部108の機能と対応する。   In step 254, the head is detected from the visible light image data, and in step 256, it is determined whether or not there is one head. When the determination is affirmative, the imaging processing routine is terminated, and when the determination is negative, the routine proceeds to step 258. This step corresponds to the function of the head detecting unit 108 shown in FIG.

ステップ258では、表示部24に警告を表示する。   In step 258, a warning is displayed on the display unit 24.

ステップ260では、入力デバイス26を介して撮像の中止指示が入力されたか否かを判定する。肯定された場合は図5に示される処理ルーチンを終了し、否定された場合はステップ250に戻る。   In step 260, it is determined whether or not an imaging stop instruction is input via the input device 26. If the determination is affirmative, the processing routine shown in FIG. 5 is terminated, and if the determination is negative, the processing returns to step 250.

図5のステップ204では、図7のフローチャートに示される測定の処理ルーチンを実行する。   In step 204 of FIG. 5, a measurement processing routine shown in the flowchart of FIG. 7 is executed.

図7のステップ270では、赤外線光画像データから輪郭データを抽出し、ステップ272で、赤外線光画像データ削除部114が赤外線光画像データを削除する。このステップは、図3に示される輪郭抽出部110の機能と対応する。   In step 270 of FIG. 7, contour data is extracted from the infrared light image data, and in step 272, the infrared light image data deletion unit 114 deletes the infrared light image data. This step corresponds to the function of the contour extraction unit 110 shown in FIG.

ステップ274では、輪郭データから測定対象の身体部位を検出し、ステップ276で、測定対象の身体部位の大きさを測定する。このステップは、図3に示される身体部位検出部112及び身体部位測定部116の機能と対応する。   In step 274, the body part to be measured is detected from the contour data, and in step 276, the size of the body part to be measured is measured. This step corresponds to the functions of the body part detection unit 112 and the body part measurement unit 116 shown in FIG.

図5のステップ206では、測定日時、測定した身体部位の大きさ、及び測定時の可視光画像データをトレーニング支援の対象者を識別する識別データと関連付けて人物情報記憶部33Aに記憶させる。   In step 206 of FIG. 5, the measurement date and time, the size of the measured body part, and the visible light image data at the time of measurement are stored in the personal information storage unit 33A in association with identification data for identifying a training support target person.

ステップ208では、タイマー「T」をリセットする。このタイマー「T」は、トレーニングの実施時間を測定する。   In step 208, the timer “T” is reset. The timer “T” measures the training execution time.

ステップ210では、タイマー「T」が基準となるトレーニングの実施時間「TC」を超えたか否かを判定する。肯定された場合はステップ212へ移行し、否定された場合はステップ210に戻る。   In Step 210, it is determined whether or not the timer “T” has exceeded the reference training execution time “TC”. If the determination is affirmative, the process proceeds to step 212. If the determination is negative, the process returns to step 210.

ステップ212では、上記の撮像の処理ルーチンを実行する。   In step 212, the imaging processing routine described above is executed.

ステップ214では、上記の測定の処理ルーチンを実行する。   In step 214, the measurement processing routine is executed.

ステップ216では、測定日時、測定した身体部位の大きさ、及び測定時の可視光画像データをトレーニング支援の対象者を識別する識別データと関連付けて人物情報記憶部33Aに記憶させる。   In step 216, the measurement date and time, the size of the measured body part, and the visible light image data at the time of measurement are stored in the personal information storage unit 33A in association with identification data for identifying a training support target person.

ステップ218では、ステップ204で測定された身体部位の大きさとステップ214で測定された身体部位の大きさの変化量を求める。このステップは、図3に示される身体部位変化量算出部120の機能と対応する。この変化量は、実施時間「TC」の間トレーニングを実施することによって身体部位の大きさが変化した量である。   In step 218, the amount of change in the size of the body part measured in step 204 and the size of the body part measured in step 214 are obtained. This step corresponds to the function of the body part change amount calculation unit 120 shown in FIG. This amount of change is an amount by which the size of the body part is changed by performing training during the execution time “TC”.

ステップ220では、仮想運動時間がセットされているか否かを判定する。肯定された場合はステップ222へ移行し、否定された場合はステップ220に戻る。   In step 220, it is determined whether or not the virtual exercise time is set. If the determination is affirmative, the process proceeds to step 222, and if the determination is negative, the process returns to step 220.

ステップ222では、変化量、仮想運動時間、及び人物情報に基づいて予測データを生成する。このステップは、図3に示される予測データ生成部124の機能と対応する。このとき、トレーニングを実施するトレーニング支援の対象者に、トレーニングを実施する意欲を創出させるように、実際に予測されるよりもトレーニングの実施による効果を強調するように予測データを生成してもよい。   In step 222, prediction data is generated based on the change amount, the virtual exercise time, and the person information. This step corresponds to the function of the prediction data generation unit 124 shown in FIG. At this time, the prediction data may be generated so as to emphasize the effect of the training rather than the actual prediction so as to create the willingness to perform the training for the target of the training support who performs the training. .

ステップ224では、予測データに基づいて可視光画像データを補正した予測身体画像データを生成し、予測身体画像データに基づいて表示部24に予測身体画像を表示する。このステップは、図3に示される予測画像データ生成部128及び画像表示処理部126の機能と対応する。例えば図8に示されるように、現在の身体の画像(図8(A)に図示)と、仮想運動時間トレーニングを実施した場合の身体の変化を予想した画像(図8(B)に図示)とを並べて表示するとよい。これにより、トレーニングを実施するトレーニング支援の対象者に、トレーニングを実施する意欲を創出させることができる。   In step 224, predicted body image data obtained by correcting the visible light image data based on the predicted data is generated, and the predicted body image is displayed on the display unit 24 based on the predicted body image data. This step corresponds to the functions of the predicted image data generation unit 128 and the image display processing unit 126 shown in FIG. For example, as shown in FIG. 8, an image of the current body (shown in FIG. 8A) and an image that predicts changes in the body when performing virtual exercise time training (shown in FIG. 8B). Should be displayed side by side. Thereby, the willingness to implement training can be made to the target person of training support who performs training.

次に、図9のフローチャートを参照して、トレーニングを実施するトレーニング支援の対象者にトレーニングについてのアドバイス提示する処理のルーチンを説明する。   Next, with reference to the flowchart of FIG. 9, a routine of a process of presenting advice on training to a training support target person who performs training will be described.

ステップ300で、上記の撮像のルーチンを実行し、ステップ302で、上記の測定のルーチンを実行する。   In step 300, the above-described imaging routine is executed. In step 302, the above-described measurement routine is executed.

ステップ304では、可視光画像データから顔領域を抽出する。このステップは、図3に示される頭部検出部108の機能と対応する。   In step 304, a face area is extracted from the visible light image data. This step corresponds to the function of the head detecting unit 108 shown in FIG.

ステップ306では、抽出した顔領域の画像データに基づいて、同一の人物の情報が人物情報記憶部33Aに登録されているか否かを判定する。肯定された場合はステップ308へ移行し否定された場合はステップ324へ移行する。   In step 306, based on the extracted image data of the face area, it is determined whether or not the same person information is registered in the person information storage unit 33A. If the determination is affirmative, the process proceeds to step 308. If the determination is negative, the process proceeds to step 324.

ステップ308では、ステップ302で測定した身体部位の大きさと人物情報記憶部33Aに記憶されている人物情報とに基づいて体重を推定する。このステップは、図3に示される体重推定部118の機能と対応する。   In step 308, the weight is estimated based on the size of the body part measured in step 302 and the person information stored in the person information storage unit 33A. This step corresponds to the function of the weight estimation unit 118 shown in FIG.

ステップ310では、測定日時、測定した身体部位の大きさ、測定時の可視光画像データ、及び推定した体重をトレーニング支援の対象者を識別する識別データと関連付けて人物情報記憶部33Aに記憶させる。   In step 310, the date and time of measurement, the size of the measured body part, the visible light image data at the time of measurement, and the estimated weight are stored in the personal information storage unit 33A in association with identification data for identifying a training support target person.

ステップ312では、人物情報記憶部33Aに記憶された過去に測定された身体部位の大きさとステップ302で測定した身体部位の大きさとの差を算出する。このステップは、図3に示される身体部位変化量算出部120の機能と対応する。   In step 312, the difference between the size of the body part measured in the past stored in the person information storage unit 33A and the size of the body part measured in step 302 is calculated. This step corresponds to the function of the body part change amount calculation unit 120 shown in FIG.

ステップ314では、ステップ312で算出した差が閾値以上か否かを判定する。このステップは、図3に示されるアドバイス生成部122の機能と対応する。肯定された場合はステップ316へ移行し、否定された場合は図7に示される処理ルーチンを終了する。ここで、差が閾値以上のときは、実施したトレーニングの内容が偏っているために、特定の身体部位の大きさが偏って変化したと判断している。従って、差が閾値未満の場合は、アドバイスの必要がないと判断する。   In step 314, it is determined whether or not the difference calculated in step 312 is greater than or equal to a threshold value. This step corresponds to the function of the advice generation unit 122 shown in FIG. If the determination is affirmative, the process proceeds to step 316. If the determination is negative, the processing routine shown in FIG. 7 is terminated. Here, when the difference is equal to or greater than the threshold value, it is determined that the size of the specific body part has changed in an unbalanced manner because the content of the training performed is biased. Therefore, when the difference is less than the threshold value, it is determined that there is no need for advice.

ステップ316では、トレーニングプラン記憶部33B及び出力アドバイス記憶部33Cを参照する。このステップは、図3に示されるアドバイス生成部122の機能と対応する。トレーニングプラン記憶部33Bの参照によってトレーニングの実施が可能なプランデータを得ると共に、出力アドバイス記憶部33Cの参照によって過去に出力したアドバイスを得ることで、出力するアドバイスが偏らないようにする。   In step 316, the training plan storage unit 33B and the output advice storage unit 33C are referred to. This step corresponds to the function of the advice generation unit 122 shown in FIG. Plan data that can be implemented by training is obtained by referring to the training plan storage unit 33B, and advice output in the past is obtained by referring to the output advice storage unit 33C so that the advice to be output is not biased.

ステップ318では、アドバイスデータを生成し、ステップ320で表示部24にアドバイスを表示する。図3に示されるアドバイス生成部122及び画像表示処理部126の機能と対応する。このとき、比較対象の測定時の可視光画像データに基づいた画像、ステップ300で撮像された可視光画像データに基づいた画像、及びステップ308で推定した体重を併せて表示するとよい。   In step 318, advice data is generated, and the advice is displayed on the display unit 24 in step 320. This corresponds to the functions of the advice generation unit 122 and the image display processing unit 126 shown in FIG. At this time, an image based on the visible light image data at the time of measurement of the comparison target, an image based on the visible light image data captured in step 300, and the weight estimated in step 308 may be displayed together.

ステップ320では、アドバイス出力日時、及び出力したアドバイスを、トレーニング支援の対象者を識別する識別データと関連付けて出力アドバイス記憶部33Cに記憶させる。   In step 320, the advice output date and time and the output advice are stored in the output advice storage unit 33C in association with identification data for identifying a training support target person.

また、画像表示処理部126は、図10,11に図示されるように、人物情報記憶部33Aに記憶されている過去の画像を並べて表示部24に表示してもよい。これにより、トレーニングを実施するトレーニング支援の対象者はトレーニングの実施による身体の経時変化を見ることができる。図10は、筋肉の増量を目的としたトレーニングを実施しているトレーニング支援の対象者に、3ヶ月前、1ヶ月前、及び現在の身体を画像を並べて表示することで、身体の経時変化を確認させる場合を示している。図11は、脂肪の減量を目的としたトレーニングを実施しているトレーニング支援の対象者に、3ヶ月前、1ヶ月前、及び現在の身体を画像を並べて表示することで、身体の経時変化を確認させる場合を示している。このとき、測定された身体部位の大きさを併せて表示するとよい。また、何時の時点の画像を表示するかを、トレーニング支援の対象者が入力デバイス26から指示を入力することにより指定できるようにするとよい。   Further, as shown in FIGS. 10 and 11, the image display processing unit 126 may display past images stored in the person information storage unit 33 </ b> A side by side on the display unit 24. Thereby, the training support target person who performs the training can see the temporal change of the body due to the execution of the training. FIG. 10 is a diagram illustrating the change of the body over time by displaying the images of the body three months ago, one month ago, and the current side by side for the target of training support who is performing training for the purpose of increasing muscle mass. The case where it is confirmed is shown. FIG. 11 shows the temporal change of the body by displaying the images of the body three months ago, one month ago, and the current side by side for the target of training support who is performing the training for weight loss. The case where it is confirmed is shown. At this time, the measured size of the body part may be displayed together. In addition, it is preferable that the training support target person can specify the time of the image to be displayed by inputting an instruction from the input device 26.

このように、本実施の形態では、画像データに基づいて身体部位の大きさを測定する。これにより、トレーニング支援の対象者が実施したトレーニングの種類に応じたトレーニングの実施の効果が表れる身体部位の大きさを、接触することなく容易に測定することができる。また、画像データ及び計測された身体部位の大きさを記憶しておくことで、トレーニングの実施による身体の変化を予測することができる。さらに、画像データ及び計測された身体部位の大きさを記憶しておくことで、トレーニングの実施による身体の経時変化を知ることができる。   Thus, in this Embodiment, the magnitude | size of a body part is measured based on image data. Thereby, the magnitude | size of the body part in which the effect of training implementation according to the kind of training which the subject of training assistance performed can be measured easily, without contacting. Further, by storing the image data and the measured size of the body part, it is possible to predict a change in the body due to the execution of the training. Furthermore, by storing the image data and the measured size of the body part, it is possible to know the temporal change of the body due to the training.

なお、本実施の形態では、顔認識によりトレーニング支援の対象者を特定しているが、入力デバイスからトレーニング支援の対象者を識別する識別データを入力し、人物情報記憶部33Aに人物情報が登録されているか否かを判定することによりトレーニング支援の対象者を特定してもよい。   In this embodiment, the target person for training support is specified by face recognition. However, identification data for identifying the target person for training support is input from the input device, and the person information is registered in the person information storage unit 33A. The target person for training support may be specified by determining whether or not the training is performed.

また、人物情報記憶部、トレーニングプラン記憶部、及び出力アドバイス記憶部は外部装置に設けてもよい。この場合、コンピュータと人物情報記憶部とは、通信部を介してデータの送受信を行なう。   The person information storage unit, the training plan storage unit, and the output advice storage unit may be provided in an external device. In this case, the computer and the person information storage unit transmit and receive data via the communication unit.

また、上述のコンピュータで実現される機能を、可視光画像及び赤外線光画像の双方を撮像する撮像装置に搭載してもよい。この場合、コンピュータで用いたプログラムは、撮像装置により実行可能なコードに変換して用いられる。また、コンピュータに可視光画像及び赤外線光画像の双方を撮像する撮像装置を搭載してもよい。   Further, the function realized by the above-described computer may be mounted on an imaging device that captures both a visible light image and an infrared light image. In this case, the program used in the computer is used after being converted into a code that can be executed by the imaging apparatus. Moreover, you may mount the imaging device which images both a visible light image and an infrared-light image in a computer.

本発明の実施の形態に係るトレーニング支援装置であるコンピュータの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the computer which is a training assistance apparatus which concerns on embodiment of this invention. 撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of an imaging device. 本発明の実施の形態に係るトレーニング支援機能の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the training assistance function which concerns on embodiment of this invention. 頭部検出、身体部位検出、及び測定対象身体部位測定の各処理の概念図である。It is a conceptual diagram of each process of head detection, body part detection, and a measurement object body part measurement. 身体の変化の予測の処理ルーチンを示すフローチャートである。It is a flowchart which shows the processing routine of prediction of a body change. 撮像の処理ルーチンを示すフローチャートである。It is a flowchart which shows the process routine of imaging. 測定の処理ルーチンを示すフローチャートである。It is a flowchart which shows the processing routine of a measurement. 身体の変化の予測画像の一例である。It is an example of the prediction image of a body change. トレーニングについてのアドバイスの出力処理ルーチンを示すフローチャートである。It is a flowchart which shows the output process routine of the advice regarding training. 身体の経時変化を示す画像の一例である。It is an example of the image which shows a time-dependent change of a body. 身体の経時変化を示す画像の一例である。It is an example of the image which shows a time-dependent change of a body.

符号の説明Explanation of symbols

10 コンピュータ
20 制御部
22 通信部
24 表示部
26 入力デバイス
32 HDD
33A 人物情報記憶部
33C 出力アドバイス記憶部
50 可視光カメラ
52 可視光画像撮像部
54 可視光発光部
82 通信部
90 赤外線光カメラ
92 赤外線光画像撮像部
94 赤外線光発光部
98 フィルタ
104 可視光画像データ取得部
106 赤外線光画像データ取得部
114 赤外線光画像データ削除部
116 測定対象身体部位測定部
118 体重推定部
120 身体部位変化量算出部
122 アドバイス生成部
124 予測データ生成部
126 画像表示処理部
128 予測画像データ生成部
10 Computer 20 Control Unit 22 Communication Unit 24 Display Unit 26 Input Device 32 HDD
33A Person information storage unit 33C Output advice storage unit 50 Visible light camera 52 Visible light image capturing unit 54 Visible light emitting unit 82 Communication unit 90 Infrared light camera 92 Infrared light image capturing unit 94 Infrared light emitting unit 98 Filter 104 Visible light image data Acquisition unit 106 Infrared light image data acquisition unit 114 Infrared light image data deletion unit 116 Measurement target body part measurement unit 118 Weight estimation unit 120 Body part change amount calculation unit 122 Advice generation unit 124 Prediction data generation unit 126 Image display processing unit 128 Prediction Image data generator

Claims (15)

対象者を撮像する撮像装置から当該対象者の画像データを取得する取得手段と、
前記取得手段により取得された画像データに基づいて、前記対象者が実施したトレーニングの種類に応じ、かつ当該トレーニングの実施の効果が表れる身体部位の大きさを測定する測定手段と、
を含むトレーニング支援装置。
Acquisition means for acquiring image data of the subject from an imaging device that images the subject;
Based on the image data acquired by the acquisition means, according to the type of training performed by the subject, and measuring means for measuring the size of the body part that exhibits the effect of the training,
Training support device including
前記対象者を撮像した日時、前記取得手段により取得された画像データ、及び前記測定手段により測定された前記身体部位の大きさを前記対象者を識別する識別情報に関連付けて記憶手段に記憶させるように制御する記憶制御手段を更に含む請求項1に記載のトレーニング支援装置。   The date and time when the subject was imaged, the image data obtained by the obtaining means, and the size of the body part measured by the measuring means are associated with identification information for identifying the subject and stored in the storage means. The training support apparatus according to claim 1, further comprising storage control means for controlling the training. 前記取得手段により取得された画像データに基づいて、前記対象者の顔、腹、及び腕の大きさを測定し、測定された顔、腹、及び腕の大きさに基づいて体重を推定する推定手段を更に含む請求項1又は請求項2に記載のトレーニング支援装置。   Estimation that measures the size of the subject's face, belly, and arm based on the image data acquired by the acquisition means, and estimates the weight based on the measured size of the face, belly, and arm The training support apparatus according to claim 1, further comprising means. 前記測定手段により測定された前記身体部位の大きさに基づいて、トレーニング開始から所定時間トレーニングを実施した後の前記身体部位の大きさの変化量を算出する算出手段を更に含む請求項1〜請求項3の何れか1項に記載のトレーニング支援装置。   The calculation means for calculating the amount of change in the size of the body part after training for a predetermined time from the start of training based on the size of the body part measured by the measuring means. Item 4. The training support device according to any one of items 3. 前記算出手段により算出された前記変化量に基づいて、所定の仮想運動時間トレーニングを実施したと仮定したときの前記身体部位の大きさを予測する予測手段を更に含む請求項4に記載のトレーニング支援装置。   The training support according to claim 4, further comprising prediction means for predicting the size of the body part when it is assumed that predetermined virtual exercise time training has been performed based on the amount of change calculated by the calculation means. apparatus. 前記取得手段により取得された画像データを、前記予測手段により予測された前記身体部位の大きさに基づいて補正する画像補正手段と、
前記補正された画像データに応じた画像を表示手段に表示させるように制御する表示制御手段と、
を更に含む請求項5に記載のトレーニング支援装置。
Image correction means for correcting the image data acquired by the acquisition means based on the size of the body part predicted by the prediction means;
Display control means for controlling the display means to display an image corresponding to the corrected image data;
The training support apparatus according to claim 5, further comprising:
前記予測手段は、前記身体部位に応じて定められ、かつ年齢及び性別の少なくとも一方に応じて変更される重み付けを前記変化量及び前記仮想運動時間の少なくとも一方に対して行なって前記身体部位の大きさを予測する請求項5又は請求項6に記載のトレーニング支援装置。   The predicting unit performs weighting that is determined according to the body part and is changed according to at least one of age and gender with respect to at least one of the amount of change and the virtual exercise time. The training support apparatus according to claim 5 or 6, which predicts the height. 前記身体部位によって前記変化量に偏りがある場合に、アドバイスを出力する出力手段を更に含む請求項4〜請求項7の何れか1項に記載のトレーニング支援装置。   The training support apparatus according to claim 4, further comprising output means for outputting advice when the change amount is biased depending on the body part. 前記出力手段により出力されたアドバイスを蓄積するアドバイス蓄積手段を更に含み、
前記出力手段は、前記アドバイス蓄積手段に蓄積されているアドバイスを参照して、出力するアドバイスに偏りが生じないようにアドバイスを出力する請求項8に記載のトレーニング支援装置。
Further comprising advice storage means for storing the advice output by the output means;
9. The training support apparatus according to claim 8, wherein the output unit refers to the advice stored in the advice storage unit and outputs the advice so that the advice to be output is not biased.
可視光に対して感度を有する可視光カメラによって撮像された対象者の可視光画像データ、及び赤外線光に対して感度を有する赤外線光カメラによって撮像された対象者の赤外線光画像データを取得する取得手段と、
前記取得手段により取得された前記赤外線光画像データに基づいて、前記対象者が実施したトレーニングの種類に応じ、かつ当該トレーニングの実施の効果が表れる身体部位の大きさを測定する測定手段と、
前記可視光カメラ及び前記赤外線光カメラの何れか一方によって撮像した撮像日時、前記取得手段により取得された前記可視光画像データ、及び前記測定手段により測定された前記身体部位の大きさを前記対象者を識別する識別情報に関連付けて記憶手段に記憶するように制御する記憶制御手段と、
を含むトレーニング支援装置。
Acquisition of acquiring subject's visible light image data captured by a visible light camera having sensitivity to visible light and infrared light image data of the subject captured by an infrared light camera having sensitivity to infrared light Means,
Based on the infrared light image data acquired by the acquisition means, according to the type of training performed by the subject, and measuring means for measuring the size of the body part that exhibits the effect of the training,
Date and time of image picked up by one of the visible light camera and the infrared light camera, the visible light image data acquired by the acquisition means, and the size of the body part measured by the measurement means Storage control means for controlling to store in the storage means in association with identification information for identifying
Training support device including
前記記憶手段に記憶されている前記撮像日時及び前記可視光画像データを取得し、取得した前記撮像日時及び前記可視光画像データを表示手段に表示させるように制御する表示制御手段を更に含む請求項10に記載のトレーニング支援装置。   The display control means for acquiring the imaging date and time and the visible light image data stored in the storage means, and controlling the acquired imaging date and time and the visible light image data to be displayed on the display means. The training support apparatus according to 10. 前記測定手段による測定の後に前記赤外線光画像データを削除する削除手段を更に含む請求項10又は請求項11に記載のトレーニング支援装置。   The training support apparatus according to claim 10 or 11, further comprising a deletion unit that deletes the infrared light image data after the measurement by the measurement unit. 対象者を撮像する撮像装置を更に含む請求項1〜請求項12の何れか1項に記載のトレーニング支援装置。   The training support device according to any one of claims 1 to 12, further comprising an imaging device that images the subject. 可視光に対して感度を有する可視光カメラ、及び赤外線光に対して感度を有する赤外線光カメラを備えた撮像装置と、
前記請求項1〜請求項12の何れか1項に記載のトレーニング支援装置と、
を含むトレーニング支援システム。
An imaging device including a visible light camera having sensitivity to visible light, and an infrared light camera having sensitivity to infrared light;
The training support apparatus according to any one of claims 1 to 12,
Training support system including.
コンピュータに、
対象者を撮像する撮像装置から当該対象者の画像データを取得するステップと、
取得された画像データに基づいて、前記対象者が実施したトレーニングの種類に応じ、かつ当該トレーニングの実施の効果が表れる身体部位の大きさを測定するステップと、
を実行させるためのプログラム。
On the computer,
Acquiring image data of the subject from an imaging device that images the subject;
Based on the acquired image data, measuring the size of the body part according to the type of training performed by the subject and the effect of performing the training appears;
A program for running
JP2007256380A 2007-09-28 2007-09-28 Training support device, system, and program Withdrawn JP2009087072A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007256380A JP2009087072A (en) 2007-09-28 2007-09-28 Training support device, system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007256380A JP2009087072A (en) 2007-09-28 2007-09-28 Training support device, system, and program

Publications (1)

Publication Number Publication Date
JP2009087072A true JP2009087072A (en) 2009-04-23

Family

ID=40660404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007256380A Withdrawn JP2009087072A (en) 2007-09-28 2007-09-28 Training support device, system, and program

Country Status (1)

Country Link
JP (1) JP2009087072A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014066407A (en) * 2012-09-25 2014-04-17 Toshiba Corp Refrigerator
CN108553081A (en) * 2018-01-03 2018-09-21 京东方科技集团股份有限公司 A kind of diagnostic system based on tongue fur image
CN111582066A (en) * 2020-04-21 2020-08-25 浙江大华技术股份有限公司 Heterogeneous face recognition model training method, face recognition method and related device
JP2020149321A (en) * 2019-03-13 2020-09-17 オムロンヘルスケア株式会社 Rehabilitation assistance device, rehabilitation assistance method, and rehabilitation assistance program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014066407A (en) * 2012-09-25 2014-04-17 Toshiba Corp Refrigerator
CN108553081A (en) * 2018-01-03 2018-09-21 京东方科技集团股份有限公司 A kind of diagnostic system based on tongue fur image
JP2020149321A (en) * 2019-03-13 2020-09-17 オムロンヘルスケア株式会社 Rehabilitation assistance device, rehabilitation assistance method, and rehabilitation assistance program
WO2020184119A1 (en) * 2019-03-13 2020-09-17 オムロンヘルスケア株式会社 Rehabilitation assistance device, rehabilitation assistance method, and rehabilitation assistance program
US11875888B2 (en) 2019-03-13 2024-01-16 Omron Healthcare Co., Ltd. Rehabilitation assistance device, rehabilitation assistance method, and non-transient storage medium storing rehabilitation assistance program
CN111582066A (en) * 2020-04-21 2020-08-25 浙江大华技术股份有限公司 Heterogeneous face recognition model training method, face recognition method and related device
CN111582066B (en) * 2020-04-21 2023-10-03 浙江大华技术股份有限公司 Heterogeneous face recognition model training method, face recognition method and related device

Similar Documents

Publication Publication Date Title
JP5156427B2 (en) Capsule endoscope system
JP5191240B2 (en) Scene change detection apparatus and scene change detection program
JP2008197904A (en) Person retrieving device and person retrieving method
JP6177083B2 (en) Data receiving apparatus, capsule endoscope system, data receiving method, and program
JP2004518472A (en) Diagnostic image collection
JP2017000612A (en) Pulse estimation device, pulse estimation system, and pulse estimation method
RU2015156315A (en) SYSTEM, METHOD AND DEVICE FOR MONITORING THE INFLUENCE OF LIGHT AND SOUND ON HUMAN
JP2009087072A (en) Training support device, system, and program
WO2014101803A1 (en) Infrared selecting apparatus and infrared selecting method
CN106846319B (en) Infrared thermal imaging diagnosis and treatment system and image acquisition method and device thereof
JP5652882B2 (en) Scoliosis screening system, scoliosis determination program used therefor, and terminal device
US10154778B2 (en) Endoscopic processor
KR20210060246A (en) The arraprus for obtaining biometiric data and method thereof
US20140254765A1 (en) Display control apparatus, display control method, and computer-readable storage medium storing program
TWI384383B (en) Apparatus and method for recognizing gaze
JP2013012940A (en) Tracking apparatus and tracking method
WO2014101804A1 (en) Thermal image selecting apparatus and thermal image selecting method
KR20150124072A (en) Disease decoding system by analyzing the quantity of motion of livestock
US8619174B2 (en) Method and apparatus for controlling a display for image transmission
US20220192561A1 (en) Information processing system, information processing method, and information processing apparatus
US9501840B2 (en) Information processing apparatus and clothes proposing method
US20240096182A1 (en) Action detection system, action detection method, and non-transitory computer-readable medium
JP5203628B2 (en) Medical site display system
JP2021105850A (en) Image processing device and method, and imaging device
JP2020529669A5 (en)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100219

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20110613