JP2022116767A - プログラム、情報処理方法、及び端末装置 - Google Patents

プログラム、情報処理方法、及び端末装置 Download PDF

Info

Publication number
JP2022116767A
JP2022116767A JP2021013111A JP2021013111A JP2022116767A JP 2022116767 A JP2022116767 A JP 2022116767A JP 2021013111 A JP2021013111 A JP 2021013111A JP 2021013111 A JP2021013111 A JP 2021013111A JP 2022116767 A JP2022116767 A JP 2022116767A
Authority
JP
Japan
Prior art keywords
sensor
information
sensor device
timing
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021013111A
Other languages
English (en)
Other versions
JP2022116767A5 (ja
Inventor
善朗 深井
Yoshiaki Fukai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Concept Proto Co Ltd
Original Assignee
Concept Proto Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Concept Proto Co Ltd filed Critical Concept Proto Co Ltd
Priority to JP2021013111A priority Critical patent/JP2022116767A/ja
Priority to EP22745934.4A priority patent/EP4290317A1/en
Priority to PCT/JP2022/002922 priority patent/WO2022163715A1/ja
Publication of JP2022116767A publication Critical patent/JP2022116767A/ja
Publication of JP2022116767A5 publication Critical patent/JP2022116767A5/ja
Priority to JP2023198923A priority patent/JP2024019209A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/02Detectors of external physical values, e.g. temperature
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/04Input or output devices integrated in time-pieces using radio waves
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G9/00Visual time or date indication means
    • G04G9/0064Visual time or date indication means in which functions not related to time can be displayed
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G9/00Visual time or date indication means
    • G04G9/0064Visual time or date indication means in which functions not related to time can be displayed
    • G04G9/007Visual time or date indication means in which functions not related to time can be displayed combined with a calculator or computing means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2228Video assist systems used in motion picture production, e.g. video cameras connected to viewfinders of motion picture cameras or related video signal processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Arrangements For Transmission Of Measured Signals (AREA)
  • Studio Devices (AREA)
  • Measurement Of Unknown Time Intervals (AREA)

Abstract

【課題】様々な分野で利用されるセンサシステムに汎用的に適用可能な技術を提供する。【解決手段】プログラムは、コンピュータを、複数のセンサ装置のそれぞれから、センサ装置を識別するセンサ識別情報と、センサ装置による検出に基づくセンサ情報と、センサ装置による上記検出のタイミングを示すタイミング情報とを含む第1情報を受信する受信部、複数のセンサ装置から受信した第1情報に基づいて、第2情報を生成する処理部、として機能させる。【選択図】図5

Description

本発明は、プログラム、情報処理方法、及び端末装置に関する。
従来、センサ装置が検出した情報と、当該検出のタイミングとを他の装置に通知し、処理を行う技術が知られている。特許文献1には、センサ部を搭載する複数の時間計測装置を備える時間計測システムが開示されている。当該時間計測システムにおいて、まず、同期された時間計測装置のそれぞれが計測開始位置及び計測終了位置に配置される。これらの時間計測装置が無線通信又は有線通信により接続され、各センサ部の検出信号に基づき、移動体の通過時間又は移動時間が計測される。
特許第6550612号
時間計測に限られず、様々な分野で利用されるセンサシステムに汎用的に適用可能な技術が求められている。
本発明の目的の一つは、様々な分野で利用されるセンサシステムに汎用的に適用可能な技術を提供することである。
本発明の一態様に係るプログラムは、コンピュータを、複数のセンサ装置のそれぞれから、前記センサ装置を識別するセンサ識別情報と、前記センサ装置による検出に基づくセンサ情報と、前記センサ装置による前記検出のタイミングを示すタイミング情報とを含む第1情報を受信する受信部、複数の前記センサ装置から受信した前記第1情報に基づいて、第2情報を生成する処理部、として機能させる。
本発明の一態様に係る情報処理方法は、複数のセンサ装置のそれぞれから、前記センサ装置を識別するセンサ識別情報と、前記センサ装置による検出に基づくセンサ情報と、前記センサ装置による前記検出のタイミングを示すタイミング情報とを含む第1情報を受信することと、複数の前記センサ装置から受信した前記第1情報に基づいて、第2情報を生成することと、を含む。
本発明の一態様に係る端末装置は、複数のセンサ装置のそれぞれから、前記センサ装置を識別するセンサ識別情報と、前記センサ装置による検出に基づくセンサ情報と、前記センサ装置による前記検出のタイミングを示すタイミング情報とを含む第1情報を受信する受信部と、複数の前記センサ装置から受信した前記第1情報に基づいて、第2情報を生成する処理部と、を備える。
本発明によれば、様々な分野で利用されるセンサシステムに汎用的に適用可能な技術を提供することができる。
一実施形態におけるセンサシステムの構成を例示する図である。 一実施形態における端末装置のハードウェア構成を例示する概念図である。 一実施形態におけるセンサ装置のハードウェア構成を例示する概念図である。 一実施形態におけるセンサシステムの利用態様の一例を説明するための概念図である。 一実施形態におけるセンサシステムの処理フローを例示的に説明するための図である。 一実施形態におけるセンサシステムの利用態様の一例を説明するための概念図である。 一実施形態におけるセンサシステムの利用態様の一例を説明するための概念図である。
以下に、本発明の一実施形態について説明する。なお、以下の実施形態は、本発明を説明するための例示であり、本発明をその実施の形態のみに限定する趣旨ではない。また、本発明は、その要旨を逸脱しない限り、さまざまな変形が可能である。
<システム構成>
図1を参照して、一実施形態に係るセンサシステム1の例示的な構成について説明する。本実施形態において、センサシステム1は、端末装置10と、センサ装置20a,20b,20c,20dとを備える。図1に示す例において、センサシステム1は、4つのセンサ装置を備えるが、センサ装置の数は任意に設定され、3つ以下でも5つ以上であってもよい。センサ装置20a,20b,20c,20dは、それぞれ同様の構成を有してもよいし、異なる構成を有してもよい。以下の説明において、センサ装置20a,20b,20c,20dが互いに区別せずに参照される場合は、総称してセンサ装置20と称される。
センサシステム1において、端末装置10は、複数のセンサ装置20のそれぞれから、センサ装置20を識別するセンサ識別情報と、センサ装置20による検出に基づくセンサ情報と、センサ装置20による上記検出のタイミングを示すタイミング情報とを含む情報(以下、「通知情報」とも称する。)を受信する。端末装置10は、複数のセンサ装置20のそれぞれから受信した通知情報に基づいて処理を行い、他の情報(以下、「生成情報」とも称する。)を生成する。生成情報は、複数のセンサ装置20のそれぞれから受信した通知情報に基づく情報であり、複数の通知情報を用いた演算処理、又は複数の通知情報を用いて合成処理等を行うことにより生成される情報である。センサシステム1における処理の詳細は後述する。
以上のように本実施形態によれば、端末装置10は、センサ識別情報と、センサ情報と、タイミング情報とを含む通知情報を複数のセンサ装置20のそれぞれから受信し、受信した通知情報に含まれる情報に基づいて生成情報を生成する。その結果、様々な分野で利用されるセンサシステムに汎用的に適用可能な技術を実現することができる。
センサシステム1は、端末装置10と、センサ装置20との間で通信可能に構成されている。端末装置10と、センサ装置20との間の通信は、例えば、センサ装置20から端末装置10への単方向通信である。しかしながらこれに限定されず、端末装置10と、センサ装置20との間で双方向に通信可能に構成されていてもよい。
端末装置10は、例えば、スマートフォン、タブレット端末、PDA(Personal Digital Assistant)、パーソナルコンピュータ、又はその他の汎用若しくは専用の情報処理装置により構成される。
センサ装置20は、物体の状態、存在若しくは変化、又は環境の状態、若しくは変化など、何らかの事象を検出する装置である。
<ハードウェア構成>
図2を参照して、端末装置10のハードウェア構成の一例を説明する。端末装置10は、主な構成として、処理部11、通信部12、入力部13、出力部14、記憶部15、及び測位部16を備える。端末装置10は、図2に示した構成以外に、端末装置が一般的に備える他の構成を備えてもよい。また、端末装置10は、図2に示した構成のうち、一部を備えなくてもよい。
処理部11は、記憶部15に記憶されているプログラムを実行することにより端末装置10における各種の処理を制御する。処理部11は、端末装置10が備える構成(ハードウェア)と、プログラム(ソフトウェア)との協働により、端末装置10における様々な処理及び機能を実現する。処理部11は、例えば、CPU(Central Processing Unit)により構成される。
通信部12は、端末装置10の外部装置と有線又は無線により通信を行うものであり、例えば、BLE(Bluetooth Low Energy(登録商標))などの短距離の単方向通信により、センサ装置20から通知情報を受信するように構成される。なお、通信部12は、センサ装置20と双方向通信又は長距離通信を行うように構成されていてもよい。また、通信部12は、インターネットなどのネットワークを介して(基地局又はルーターなどの通信装置を介して)センサ装置20以外の装置と通信可能に構成されている。
入力部13は、端末装置10に対する入力を受け付けるものであり、例えば、操作部、音声入力部、及び画像入力部を含む。操作部は、例えば、タッチパネル、及びボタンキーを含む。音声入力部は、例えば、マイクを含む。画像入力部は、例えば、カメラを含む。また、入力部13は、外部からデータの入力(及び出力)のためのインターフェースコネクタを含む。
出力部14は、端末装置10による各種の出力を行うものであり、例えば、画像出力部及び音声出力部を含む。画像出力部は、例えば、表示装置を含む。音声出力部は、例えば、スピーカを含む。
記憶部15は、端末装置10における処理及び動作に必要な各種情報、並びに処理結果の情報を記憶する記憶装置又はメモリである。
測位部16は、端末装置10の位置を特定するものであり、例えば、GNSS(Global Navigation Satellite System)モジュール(GNSS受信機)を含む。測位部16は、複数のGNSS衛星からGNSS信号を受信し、当該信号に基づいて端末装置10の測位処理を行う。GNSS信号は、GNSS衛星がGNSS信号を発信した時刻情報を含む。
図3を参照して、センサ装置20のハードウェア構成の一例を説明する。センサ装置20は、主な構成として、処理部21、通信部22、センサ23、記憶部24、及び同期部25を備える。また、処理部21、通信部22、及び記憶部24を有する構成は、計測時計(時刻生成部)として機能する。センサ装置20は、図3に示した構成以外の構成を備えてもよい。また、センサ装置20は、図3に示した構成のうち、一部を備えなくてもよい。
処理部21は、記憶部24に記憶されているプログラムを実行することによりセンサ装置20における各種の処理を制御する。処理部21は、センサ装置20が備える構成(ハードウェア)と、記憶部24に記憶されたプログラム(ソフトウェア)との協働により、センサ装置20における様々な処理及び機能を実現する。また、処理部21は、システムクロックを発信する発信回路を有する。一実施形態において、当該システムクロック(クロック信号)を利用して、時間の計測又は時刻情報の生成が行われてもよい。処理部21は、測位部16が受信したGNSS信号に含まれる時刻情報と同期をとるように、時刻情報を生成してもよい。処理部21は、例えば、CPUにより構成される。
通信部22は、センサ装置20の外部装置と通信を行うものであり、例えば、BLEなどの短距離の単方向通信により、端末装置10へ通知情報を送信(ブロードキャスト)するように構成される。なお、通信部22は、端末装置10と双方向通信又は長距離通信を行うように構成されていてもよい。
通知情報は、上述のとおり、例えば、センサ装置20を識別するセンサ識別情報と、センサ装置20による検出に基づくセンサ情報と、センサ装置20による上記検出等のタイミングを示すタイミング情報とを含む。タイミング情報は、例えば、上記検出等の時点の時刻情報など、タイミングを示す何らかの情報を含む。
センサ情報は、センサ装置20による物体の状態、存在若しくは変化、又は環境の状態、若しくは変化など、何らかの事象の検出に基づく情報を含む。センサ情報は、センサ装置20が物体を検出(又は検知)したことを示す情報を含んでもよい。物体を検出したことを示す情報は、例えば、物体が所定位置を通過したこと又は所定位置に存在することをセンサ23が検出したことを示す情報を含む。また、センサ情報は、センサ23が検出した物理量を示す情報を含んでもよい。物理量を示す情報は、例えば、物体の動き又は形状変化など、物体に関する物理量を含む。他の例として、物理量を示す情報は、気温、気圧、又は水圧などの環境の状態を示す情報を含む。
センサ23は、物体の状態、存在若しくは変化、又は環境の状態、若しくは変化など、何らかの事象を検出するものであり、一つ又は複数のセンサにより構成される。センサ23は、例えば、光電センサ、磁気センサ、加速度センサ、角速度センサ、温度センサ、又は圧力センサ(例えば、気圧センサ、又は水圧センサ)を含む。
記憶部24は、センサ装置20における処理及び動作に必要な各種情報、並びに処理結果の情報を記憶するメモリである。
同期部25は、センサ装置20において計測される時間が他のセンサ装置20において計測される時間と同期をとるように制御する。同期部25は、例えば、GNSS受信機を備えて構成される。この場合において、例えば、同期部25は、GNSS衛星からGNSS信号を受信し、GNSS信号に含まれる時刻情報に基づいて、センサ装置20において生成される時刻情報と、GNSS衛星で生成される時刻情報との間で同期が取れるように、センサ装置20において生成される時刻情報を制御する。その結果、センサ装置20(例えば、センサ装置20a)は、他のセンサ装置20(例えば、センサ装置20b,センサ装置20c,センサ装置20d)との間においても、生成する時刻情報を同期させることができる。同期部25によれば、複数のセンサ装置20間で同期のとれた時刻情報に基づいて、通知情報に含めるタイミング情報を生成することができる。すなわち、端末装置10が複数のセンサ装置20から受信する通知情報に含まれるタイミング情報のそれぞれは、時間的同期の取れた情報に基づく。また、端末装置10が測位部16により受信したGNSS信号に含まれる時刻情報に基づいてタイミング情報を生成している場合、センサ装置20は、端末装置10との間においても、生成するタイミング情報を同期させることができる。
タイミング情報を同期させる方法の変形例として、複数のセンサ装置20のそれぞれが備える同期部25は、端末装置(例えば、スマートホン)、ルーターや基地局などの外部装置から時刻情報を含む信号を受信し、当該信号に含まれる時刻情報との間で同期が取れるように、複数のセンサ装置20において生成されるタイミング情報を制御してもよい。その結果、複数のセンサ装置20間においてタイミング情報を同期させることができる。本実施形態において、以降に説明するタイミング情報を同期させる処理は、当該変形例を採用可能である。
センサシステム1の実施例を以下に説明する。以下の説明において、図1から図3に示した各構成が参照される。
<実施例1>
実施例1におけるセンサシステム1により実行される処理の例を説明する。実施例1において、センサシステム1は時間計測システムとして機能する。例えば、端末装置10は、処理部11の制御により、複数のセンサ装置20から受信した通知情報に基づいて、所定区間における物体の移動時間を算出する。
図4は、陸上競技における短距離走(又は中距離走若しくは長距離走であってもよい。)において、走者の走行の時間計測を行うためにセンサシステム1を利用した場合の例を概念的に示している。図4には、短距離走のスタートライン、及びゴールラインが示されている。走者は、端末装置10を保持している。ゴールラインには、走者のゴールを検出(検知)するゴールセンサとしてセンサ装置20bが配置されている。スタートラインとゴールラインの中間地点には中間センサとしてセンサ装置20aが配置されている。実施例1において、端末装置10、センサ装置20a、及びセンサ装置20bにより生成されるタイミング情報は、GNSS衛星より受信した信号に基づいて、同期がとれている。
スタートラインから走行をスタートする走者の走行時間を計測するために、まず、端末装置10は、走行スタートの合図を出力する。例えば、合図の出力として、スタートラインにいる走者が保持する端末装置10の出力部14(音声出力部)により、「On your marks, set, "Bang"」などの音声を出力してもよい。また、端末装置10は、走行スタートの合図を出力したタイミング情報(例えば、時刻情報)を端末装置10内で出力し、記憶する。
走行スタートの合図の出力後、走者は走行をスタートし、中間地点を通過したときに、センサ装置20aは、走者が中間地点を通過したこじとを検出する。走者が中間地点を通過したことが検出されたときに、センサ装置20aは、センサ装置20aを識別するセンサ識別情報と、走者が中間地点の通過を検出したことを示すセンサ情報(例えば、フラグ情報)と、走者の中間地点の通過の検出の時刻を示すタイミング情報とを含む通知情報を送信する。なお、センサ情報は、タイミング情報と同じく中間地点の通過の検出の時刻を示してもよい。端末装置10は、センサ装置20aから送信された通知情報を受信する。
その後、走者がゴールラインを通過したときに、センサ装置20aは、走者がゴールラインを通過したことを検出する。走者がゴールラインを通過したことが検出されたときに、センサ装置20bは、センサ装置20bを識別するセンサ識別情報と、走者がゴールラインの通過を検出したことを示すセンサ情報(例えば、フラグ情報)と、走者のゴールラインの通過の検出の時刻を示すタイミング情報とを含む通知情報を送信する。端末装置10は、センサ装置20bから送信された通知情報を受信する。
端末装置10は、走行スタートの合図を出力したタイミング情報と、センサ装置20aから受信した通知情報に含まれるタイミング情報(時刻情報)との間の差分により、走者がスタートラインから中間地点までの区間を走行するのに要した時間を算出(計測)することができる。また、端末装置10は、センサ装置20aから受信した通知情報に含まれるタイミング情報(時刻情報)と、センサ装置20bから受信した通知情報に含まれるタイミング情報(時刻情報)との間の差分により、走者が中間地点からゴールラインまでの区間を走行するのに要した時間を算出することができる。さらに、端末装置10は、走行スタートの合図を出力したタイミング情報と、センサ装置20bから受信した通知情報に含まれるタイミング情報との間の差分により、走者がスタートラインからゴールラインまでの区間を走行するのに要した時間を算出することができる。
端末装置10は、算出(計測)した走者の走行時間を生成情報としてデータサーバに送信し、データサーバは受信した走行時間を記憶部に記憶してもよい。また、センサシステム1は、複数の走者についての走行時間を上記と同様の方法により算出してもよい。この場合において、データサーバは、記憶部に記憶された複数の走者についての走行時間のランキングを集計し、端末装置10からの要求に応じて、当該ランキングの情報を端末装置10に送信可能にしてもよい。なお、データサーバは一般的な情報処理装置が有する構成を備え、例えば、処理部(プロセッサ)及び記憶部を備える。他の実施例においてもデータサーバは同様の構成を備える。
図5を参照して、実施例1におけるセンサシステム1の処理フローを説明する。以下に説明する各処理ステップは、例えば、端末装置10及びセンサ装置20が有する処理部が、記憶部に記憶されたコンピュータプログラムを読み込み、実行することにより実現される。
ステップS50において、端末装置10は、所定のタイミングで、走行スタートの合図を出力する。例えば、上述の通り、合図の出力として、端末装置10の出力部14(音声出力部)は、「On your marks, set, “Bang”」などの音声を出力してもよい。また、端末装置10において、走行スタートの合図を出力したタイミング情報が走行スタートのタイミング情報として処理部11から出力され、記憶部15に記憶される。すなわち、処理部11は、タイミング情報の出力部として機能する。
ステップS51において、センサ装置20aは、走者が中間地点を通過したことを検出したときに、センサ装置20aを識別するセンサ識別情報と、走者が中間地点を通過したことを検出したことを示すセンサ情報(例えば、フラグ情報)と、走者の中間地点の通過の検出の時刻を示すタイミング情報とを含む通知情報を送信する。なお、センサ情報は、タイミング情報と同じく中間地点の通過の検出の時刻を示してもよい。端末装置10は、センサ装置20aから送信された通知情報を受信する。
中間地点の通過の検出方法として、例えば、センサ装置20aのセンサ23に含まれる光電センサが出射する赤外光を走者が横切ったときに、センサ装置20aは、走者が中間地点を通過したことを検出する。
次に、ステップS52において、センサ装置20bは、走者がゴールラインを通過したことを検出したときに、センサ装置20bを識別するセンサ識別情報と、走者が中間地点を通過したことを検出したことを示すセンサ情報と、走者のゴールラインの通過の検出の時刻を示すタイミング情報とを含む通知情報を送信する。なお、センサ情報は、タイミング情報と同じくゴールラインの通過の検出の時刻を示してもよい。端末装置10は、センサ装置20bから送信された通知情報を受信する。端末装置10は、センサ装置20bから送信された通知情報を受信する。
次に、ステップS53において、端末装置10は、走者の所定区間の走行時間を算出する。詳細には、例えば、次の通りである。以下に説明する所定区間の走行時間の算出の前提として、端末装置10には、センサ装置20aが中間地点に設置されていることを示す情報として、センサ装置20aのセンサ識別情報が中間地点を示す情報と関連付けられて記憶されている。また、端末装置10には、センサ装置20bがゴールラインに設置されていることを示す情報として、センサ装置20bのセンサ識別情報がゴールラインを示す情報と関連付けられて記憶されている。
端末装置10は、ステップS50で記憶部15に記憶されたタイミング情報が示す時刻(スタート時刻)と、ステップS51で受信した通知情報に含まれるタイミング情報が示す時刻(中間時刻)との間の差分により、走者がスタートラインから中間地点までの区間を走行するのに要した時間(走行時間)を算出する。また、端末装置10は、ステップS51で受信した通知情報に含まれるタイミング情報が示す時刻(中間時刻)と、ステップS52で受信した通知情報に含まれるタイミング情報が示す時刻(ゴール時刻)との間の差分により、走者が中間地点からゴールラインまでの区間を走行するのに要した時間(走行時間)を算出する。さらに、端末装置10は、ステップS50で記憶部15に記憶されたタイミング情報が示す時刻(スタート時刻)と、ステップS52で受信した通知情報に含まれるタイミング情報が示す時刻(ゴール時刻)との間の差分により、走者がスタートラインからゴールラインまでの区間を走行するのに要した時間(走行時間)を算出する。端末装置10は、算出した走行時間を生成情報として記憶部15に記憶し、また、前述のデータサーバに送信する。
以上のように、端末装置10は、センサ識別情報と、センサ情報と、タイミング情報とを含む通知情報を複数のセンサ装置20のそれぞれから受信し、受信した通知情報に含まれる情報に基づいて生成情報を生成する。その結果、実施例1の時間計測システムや後述する実施例で示すように、様々な分野で利用されるセンサシステムに汎用的に適用可能な技術を実現することができる。
また、複数のセンサ装置20(及び端末装置10)の間で同期の取れたタイミング情報(例えば、時刻情報)に基づいて時間計測が行われるため、通信のリアルタイム性が低くても、端末装置10は、複数のセンサ装置20から受信した通知情報に基づいて、精度高く走行時間を算出(生成情報を生成)することができる。
センサ装置20と端末装置10の間の通信が、センサ装置20から端末装置10への単方向通信である構成を採用した場合、センサ装置20は、例えば、インターネットによる通信に必要な構成(例えば、SIMカード(Subscriber Identity Module Card))を備えなくとも端末装置10へ情報を送信することが可能となる。その結果、センサシステム1は、通信環境の制約が低く、かつ、簡易な構成で、精度高く走行時間を算出(生成情報を生成)することができる。
<実施例1の変形例>
実施例1において、端末装置10の処理部11は、走行スタートの合図を出力したタイミング情報を走行スタートのタイミング情報として特定(出力)し、記憶部15に記憶した。走行スタートのタイミング情報の特定及び記憶は、上記に限定されず、他の方法で実施されてもよい。例えば、次のように実施されてもよい。まず、スタートラインにスタートセンサとしてセンサ装置20cが配置され、センサ装置20cが走者の走行スタートを検出する。センサ装置20cは、走者の走行スタートを検出したときに、センサ装置20cを識別するセンサ識別情報と、走者の走行スタートを検出したことを示すセンサ情報と、走者の走行スタートの検出の時刻を示すタイミング情報とを含む通知情報を送信する。端末装置10は、センサ装置20cから送信された通知情報を受信し、記憶部15に記憶する。
走者の走行スタートの検出方法として、例えば、センサ装置20cのセンサ23に含まれる光電センサが出射する赤外光を走者が横切ったときに、センサ装置20aは、走者の走行スタートを検出してもよい。
端末装置10は、センサ装置20cから受信した通知情報に含まれるタイミング情報が示す時刻(スタート時刻)と、ステップS51及びS52で受信した通知情報に含まれるタイミング情報が示す時刻(中間時刻及びゴール時刻)とを使用して、上記と同様の方法で、走者のスタートラインから中間地点までの走行時間、中間地点からゴールラインまでの走行時間、及びスタートラインからゴールラインまでの走行時間を算出してもよい。
<実施例2>
実施例2におけるセンサシステム1により実行される処理の例を説明する。実施例2において、センサシステム1はビデオシステムとして機能する。例えば、センサシステム1において、端末装置10と同様の構成及び機能を有するカメラ装置は、処理部の制御により、複数のセンサ装置20から受信した通知情報に基づいて、カメラにより撮影された動画の編集に使用される情報を生成する。
図6は、陸上のトラック競技又はスキー競技などの何らかの競技についてカメラによる動画の撮影又は撮影された動画の編集を行うビデオシステムとして、センサシステム1を利用した場合の例を概念的に示している。図6には、スタートラインなどの所定位置に設置されたセンサ装置20a、及びカメラ装置30が示されている。さらに、競技者が保持する端末装置10が示されている。カメラ装置30は、端末装置10と同様の構成を備える(すなわち、カメラ装置30は、端末装置10と同様に機能することが可能である。)。カメラ装置30は、競技者を撮影可能なように、所定の位置に競技者に向けられて設置されている。実施例2において、端末装置10、センサ装置20a、及びカメラ装置30により生成されるタイミング情報は、GNSS衛星より受信した信号に基づいて、同期がとれている。
カメラ装置30は、競技の開始前から撮影を開始している。当該撮影により得られた動画データには撮影のタイミング情報(例えば、時刻情報)が対応付けられている。センサ装置20aは、競技者がスタートラインを通過したことを検出すると、センサ装置20aは、センサ装置20aのセンサ識別情報と、競技者のスタートラインの通過を検出したことを示すセンサ情報(例えば、フラグ情報)と、競技者のスタートラインの通過の検出の時刻を示すタイミング情報とを含む通知情報を送信する。なお、センサ情報は、タイミング情報と同じくスタートラインの通過の検出の時刻を示してもよい。カメラ装置30は、センサ装置20aから送信された通知情報を受信する。
また、図示しないが、例えば、センサ装置20bがゴールラインに設置されていてもよい。この場合において、センサ装置20bは、競技者がゴールラインを通過したことを検出したときに、センサ装置20bのセンサ識別情報と、競技者のゴールラインの通過を検出したことを示すセンサ情報(例えば、フラグ情報)と、競技者のゴールラインの通過の検出の時刻を示すタイミング情報とを含む通知情報を送信してもよい。カメラ装置30は、センサ装置20bから送信された通知情報を受信する。なお、本実施例において、カメラ装置30は、通知情報をセンサ装置20から直接受信するのではなく、任意の通信機器により構成された中継装置を介して、通知情報を受信してもよい。
カメラ装置30は、センサ装置20aから受信した通知情報に含まれるタイミング情報が示す時刻(競技開始時刻)と、センサ装置20bから受信した通知情報に含まれるタイミング情報が示す時刻(競技終了時刻)とに基づいて決定した位置で、動画データを切り出す(トリミングする)。すなわち、カメラ装置30は、複数のセンサ装置20から受信した通知情報に基づいて、カメラ装置30による撮影で得られた動画データの編集に使用される切り出しの位置情報を生成情報として生成する。例えば、撮影で得られた動画データにおける競技開始時刻の所定時間前(例えば、2秒前)に対応する位置を切り出しの開始位置とし、競技終了時刻の所定時間後(例えば、2秒後)に対応する位置を切り出しの終了位置として、切り出しを行ってもよい。カメラ装置30は、上記の切り出しの処理により得られた動画データをカメラ装置30の記憶部に記憶し、データサーバに送信する。カメラ装置30からデータサーバへの動画データの送信は、端末装置10を中継して行われてもよい。データサーバは、受信した動画データをデータサーバの記憶部に記憶する。競技者(ユーザ)は、端末装置10を介して、カメラ装置30又はデータサーバから動画データを受信し、再生及び閲覧することが可能である。
複数の競技者のそれぞれについての切り出し後の動画データが上記と同様の方法により取得され、カメラ装置30又はデータサーバに記憶されてもよい。この場合において、カメラ装置30又はデータサーバに記憶された複数の動画データは、所定の同じ位置(例えば、競技開始時刻の2秒前)から開始するため、ユーザは、複数の動画データの同時再生により、動画データに映る被写体間の比較(複数の競技者による競技の比較)を容易に行うことができる。例えば、ユーザは、当該複数の動画データをデータサーバ等からダウンロードし、又はストリーミングにより、端末装置10又は他の装置で当該複数の動画データを重ね合わせて、所定の位置(例えば、競技開始時刻の2秒前)から再生することにより、複数の競技者による競技を分析することができる。当該分析は、例えば、陸上競技の場合、スタート音の反応時間についての競技者間の比較など、競技者間で差がついた場所の特定を含む。
実施例2におけるビデオシステムとして機能するセンサシステム1は、上記で説明した陸上のトラック競技又はスキー競技についてだけではなく、演技系競技(例えば、跳び箱などの体操、ワンメイク、又はエアリアル)、踏切り系競技(例えば、幅跳び、3段跳び、走り高跳び、又は棒高跳び)、又はゴルフについての動画の撮影又は撮影された動画の編集及び分析のために利用可能である。
<実施例2の変形例>
実施例2の上記の説明において、カメラ装置30がセンサ装置20から送信された通知情報を受信し、生成情報を生成したが、これに限定されない。端末装置10がセンサ装置20から通知情報を受信し、受信した通知情報に基づいて、生成情報を生成してもよい。この場合において、端末装置10は、カメラ装置30から、カメラ装置30のセンサ識別情報と、カメラ装置30による撮影で得られた動画データを含むセンサ情報と、当該動画データに対応付けられた撮影時の時刻を示すタイミング情報とを含む通知情報を受信する。端末装置10は、センサ装置20から受信した通知情報と、カメラ装置30から受信した通知情報に基づいて、上記と同様の方法により、動画データの切り出し位置(生成情報)を決定し、切り出し後の動画データ(生成情報)を生成してもよい。
<実施例3>
実施例3において、センサシステム1は、競技者のフォーム解析システムとして機能する。例えば、端末装置10は、処理部11の制御により、複数のセンサ装置20から受信した複数の通知情報のそれぞれに含まれるセンサ識別情報及び前記タイミング情報に基づいて、当該複数の通知情報に含まれるセンサ情報を合成する。さらに、端末装置10は、処理部11の制御に基づいて、センサ情報の合成で得られた生成情報を解析することにより、競技者の動作フォームを推定し、推定結果の動作フォームのデータを(例えば、動画データとして)出力することが可能である。
図7は、走行する競技者のフォームを解析するフォーム解析システムとして、センサシステム1を利用した場合の例を概念的に示している。図7には、競技者(走者)である被計測者が保持する端末装置10が示されている。さらに、被計測者の四肢(左手首、右手首、左足首、右足首)に取り付けられたセンサ装置20a、20b、20c、20dが示されている。センサ装置20は、四肢の全てではなく、一部に取り付けられていてもよい。また、センサ装置20は、被計測者の身体における四肢以外の部位(例えば、頭部又は腰部)に取り付けられていてもよい。
また、端末装置10には、センサ装置20が取り付けられた位置を示す情報が記憶されている。例えば、センサ装置20a、20b、20c、20dを識別するセンサ識別情報は、左手首、右手首、左足首、又は右足首を示す情報と関連付けられて記憶されている。
実施例3において、端末装置10、及びセンサ装置20a、20b、20c、20dにより生成されるタイミング情報は、GNSS衛星より受信した信号に基づいて、同期がとれている。
被計測者の走行中に、センサ装置20a、20b、20c、20dのそれぞれから通知情報が送信され、端末装置10は、当該通知情報を受信する。通知情報には、センサ装置20を識別するセンサ識別情報と、センサ装置20による検出に基づくセンサ情報と、センサ装置20による上記検出の時刻を示すタイミング情報とを含む。センサ情報は、例えば、センサ装置20のセンサ23に含まれる加速度センサ及び角速度センサによる検出結果(計測結果)の情報を含む。
端末装置10は、センサ装置20a、20b、20c、20dから受信した複数の通知情報のそれぞれに含まれるセンサ識別情報及び前記タイミング情報に基づいて、当該複数の通知情報に含まれるセンサ情報を合成する。詳細には、端末装置10は、センサ装置20aのセンサ識別情報に対応付けられたセンサ情報を左手首の計測結果として、センサ装置20bのセンサ識別情報に対応付けられたセンサ情報を右手首の計測結果として、センサ装置20cのセンサ識別情報に対応付けられたセンサ情報を左足首の計測結果として、センサ装置20dのセンサ識別情報に対応付けられたセンサ情報を右足首の計測結果として、それぞれのセンサ情報に対応付けられたタイミング情報が示す時刻が対応するように、センサ情報の合成を行う。
端末装置10は、センサ情報の合成により得られた情報(生成情報)を解析することにより、被計測者の動作フォームを推定し、推定結果の動作フォームのデータを(例えば、動画データとして)出力部14により出力する。詳細には、端末装置10は、予め、センサ23による計測データと、競技者の動作フォーム(四肢など、人の身体の部位の位置及び動きを含む。)を示すデータとを関連付けたデータ(基礎データ)を記憶部15に記憶しておく。端末装置10は、当該基礎データと、生成情報とに基づいて、被計測者の動作フォームを推定し、推定結果の動作フォームのデータを出力してもよい。変形例として、基礎データに、身体情報(身長、体重等を含む)を関連付けることにより、基礎データと、生成情報と、被計測者の身体情報とに基づいて、より精度の高い推定結果の動作フォームのデータの出力を行うことが可能である。
推定結果の動作フォームのデータは、動作フォームを示す動画データ(例えば、人の身体の形状、及身体における四肢などの部位の動きを示す動画データ)として、端末装置10で再生することが可能である。また、推定結果の動作フォームのデータは、データサーバに送信され、他の被計測者のデータとともにデータサーバの記憶部に記憶されてもよい。
端末装置10は、動作フォームのデータをデータサーバからダウンロードし、再生することが可能である。端末装置10は、複数の被計測者の動作フォームのデータ(例えば、見本となる動作フォームのデータを含む。)を比較可能な態様(例えば、複数の動画データを並べて又は重ねて再生することを含む。)で、再生可能であってもよい。
以上のように実施例3によれば、画像解析処理を行わずに、被計測者の動作フォームの解析を行うことが可能である。
本実施形態におけるセンサシステム1(または、端末装置10、センサ装置20、又はカメラ装置30)を実装するためのプログラムは、光学ディスク、磁気ディスク、半導体メモリなどの各種の記録媒体に記録しておくことができる。また、記録媒体を通じて、又は通信ネットワークなどを介して上記のプログラムをダウンロードすることにより、コンピュータにインストール又はロードすることができる。
本発明は、上記した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において、他の様々な形で実施することができる。上記実施形態はあらゆる点で単なる例示にすぎず、限定的に解釈されるものではない。
1 センサシステム
10 端末装置
20 センサ装置
30 カメラ装置

Claims (11)

  1. コンピュータを、
    複数のセンサ装置のそれぞれから、前記センサ装置を識別するセンサ識別情報と、前記センサ装置による検出に基づくセンサ情報と、前記センサ装置による前記検出のタイミングを示すタイミング情報とを含む第1情報を受信する受信部、
    複数の前記センサ装置から受信した前記第1情報に基づいて、第2情報を生成する処理部、
    として機能させるためのプログラム。
  2. 前記センサ情報は、前記センサ装置が物体を検出したことを示す情報を含む、請求項1に記載のプログラム。
  3. 前記センサ情報は、前記センサ装置が検出した物理量を示す情報を含む、請求項1又は2に記載のプログラム。
  4. 前記複数のセンサ装置から受信した前記第1情報に含まれる前記タイミング情報のそれぞれは、時間的同期の取れた情報に基づく、請求項1から3のいずれか一項に記載のプログラム。
  5. 前記処理部は、前記複数のセンサ装置から受信した前記第1情報に基づいて、所定区間における物体の移動時間を算出する、請求項1から4のいずれか一項に記載のプログラム。
  6. タイミング情報を出力する出力部をさらに備え、
    前記処理部は、前記出力部により出力されたタイミング情報にさらに基づいて、前記移動時間を算出する、請求項5に記載のプログラム。
  7. 前記処理部は、前記複数のセンサ装置から受信した前記第1情報に基づいて、カメラにより撮影された動画の編集に使用される情報を生成する、請求項1から6のいずれか一項に記載のプログラム。
  8. 前記処理部は、前記複数のセンサ装置から受信した前記第1情報のそれぞれに含まれる前記センサ情報を、前記センサ識別情報及び前記タイミング情報に基づいて合成する、請求項1から7のいずれか一項に記載のプログラム。
  9. 前記受信部は、前記複数のセンサ装置のそれぞれから、前記第1情報を、単方向通信を介して受信する、請求項1から8のいずれか一項に記載のプログラム。
  10. 複数のセンサ装置のそれぞれから、前記センサ装置を識別するセンサ識別情報と、前記センサ装置による検出に基づくセンサ情報と、前記センサ装置による前記検出のタイミングを示すタイミング情報とを含む第1情報を受信することと、
    複数の前記センサ装置から受信した前記第1情報に基づいて、第2情報を生成することと、
    を含む情報処理方法。
  11. 複数のセンサ装置のそれぞれから、前記センサ装置を識別するセンサ識別情報と、前記センサ装置による検出に基づくセンサ情報と、前記センサ装置による前記検出のタイミングを示すタイミング情報とを含む第1情報を受信する受信部と、
    複数の前記センサ装置から受信した前記第1情報に基づいて、第2情報を生成する処理部と、
    を備える端末装置。
JP2021013111A 2021-01-29 2021-01-29 プログラム、情報処理方法、及び端末装置 Pending JP2022116767A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021013111A JP2022116767A (ja) 2021-01-29 2021-01-29 プログラム、情報処理方法、及び端末装置
EP22745934.4A EP4290317A1 (en) 2021-01-29 2022-01-26 Program, information processing method, and terminal device
PCT/JP2022/002922 WO2022163715A1 (ja) 2021-01-29 2022-01-26 プログラム、情報処理方法、及び端末装置
JP2023198923A JP2024019209A (ja) 2021-01-29 2023-11-24 プログラム、情報処理方法、及び端末装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021013111A JP2022116767A (ja) 2021-01-29 2021-01-29 プログラム、情報処理方法、及び端末装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023198923A Division JP2024019209A (ja) 2021-01-29 2023-11-24 プログラム、情報処理方法、及び端末装置

Publications (2)

Publication Number Publication Date
JP2022116767A true JP2022116767A (ja) 2022-08-10
JP2022116767A5 JP2022116767A5 (ja) 2023-05-30

Family

ID=82654552

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021013111A Pending JP2022116767A (ja) 2021-01-29 2021-01-29 プログラム、情報処理方法、及び端末装置
JP2023198923A Pending JP2024019209A (ja) 2021-01-29 2023-11-24 プログラム、情報処理方法、及び端末装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023198923A Pending JP2024019209A (ja) 2021-01-29 2023-11-24 プログラム、情報処理方法、及び端末装置

Country Status (3)

Country Link
EP (1) EP4290317A1 (ja)
JP (2) JP2022116767A (ja)
WO (1) WO2022163715A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06318278A (ja) * 1993-05-06 1994-11-15 Nippon Telegr & Teleph Corp <Ntt> 移動体管理システム及び移動機
JP2003284061A (ja) * 2002-03-26 2003-10-03 Fujitsu Ltd 映像記録装置
JP2018182639A (ja) * 2017-04-19 2018-11-15 富士通株式会社 送信プログラム、送信方法および情報処理装置
JP2019001618A (ja) * 2017-06-16 2019-01-10 株式会社日立ビルシステム 情報処理装置、問合せ処理システムおよび問合せ処理方法
WO2019167955A1 (ja) * 2018-03-02 2019-09-06 土樋パルス株式会社 競技用計測システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3035037B2 (ja) * 1991-11-25 2000-04-17 富士通株式会社 時間計測システム
KR100769120B1 (ko) * 2006-04-07 2007-10-22 박종천 마라톤 및 인라인 경주용 id 장치
JP2016158699A (ja) * 2015-02-27 2016-09-05 セイコーエプソン株式会社 着地位置評価方法、及び着地位置評価装置
JP6550612B1 (ja) 2017-11-27 2019-07-31 株式会社Trac 時間計測システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06318278A (ja) * 1993-05-06 1994-11-15 Nippon Telegr & Teleph Corp <Ntt> 移動体管理システム及び移動機
JP2003284061A (ja) * 2002-03-26 2003-10-03 Fujitsu Ltd 映像記録装置
JP2018182639A (ja) * 2017-04-19 2018-11-15 富士通株式会社 送信プログラム、送信方法および情報処理装置
JP2019001618A (ja) * 2017-06-16 2019-01-10 株式会社日立ビルシステム 情報処理装置、問合せ処理システムおよび問合せ処理方法
WO2019167955A1 (ja) * 2018-03-02 2019-09-06 土樋パルス株式会社 競技用計測システム

Also Published As

Publication number Publication date
WO2022163715A1 (ja) 2022-08-04
EP4290317A1 (en) 2023-12-13
JP2024019209A (ja) 2024-02-08

Similar Documents

Publication Publication Date Title
US11250247B2 (en) Information processing device, information processing system, and program
US11887369B2 (en) Systems and methods for generating media content
US10782929B2 (en) Cadence and media content phase alignment
US10901683B2 (en) Cadence determination and media content selection
JP5767634B2 (ja) トレーニングで使用されるメディアに関するパフォーマンス・メタデータ
US20210005225A1 (en) Repetitive-Motion Activity Enhancement Based Upon Media Content Selection
US20060276919A1 (en) Music playback apparatus and processing control method
US11113515B2 (en) Information processing device and information processing method
US20160065984A1 (en) Systems and methods for providing digital video with data identifying motion
CN108572969A (zh) 提供地理信息点介绍信息的方法及装置
US20150375106A1 (en) Implementing user motion games
JP2018085575A (ja) 画像処理装置、解析システム、画像処理方法及びプログラム
WO2022163715A1 (ja) プログラム、情報処理方法、及び端末装置
TWI694851B (zh) 虛擬跑步系統用之影像及梯度訊號取得裝置與虛擬跑步系統
JPWO2015098302A1 (ja) 解析装置、記録媒体および解析方法
JP2018085574A (ja) 画像処理装置、解析システム、画像処理方法及びプログラム
CN109033986A (zh) 大学生自主体能训练数据采集方法和装置
JP6500625B2 (ja) 検知装置、検知システム、検知方法及びプログラム
JP6516551B2 (ja) 測定システム
JP2023080950A (ja) ランニングフォーム評価システム、プログラム及び方法
JP2019121816A (ja) 信号同期方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230522

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230522

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230922

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240131