JP5127237B2 - 集団解析システム、および集団解析装置 - Google Patents

集団解析システム、および集団解析装置 Download PDF

Info

Publication number
JP5127237B2
JP5127237B2 JP2007006151A JP2007006151A JP5127237B2 JP 5127237 B2 JP5127237 B2 JP 5127237B2 JP 2007006151 A JP2007006151 A JP 2007006151A JP 2007006151 A JP2007006151 A JP 2007006151A JP 5127237 B2 JP5127237 B2 JP 5127237B2
Authority
JP
Japan
Prior art keywords
sensor
group
terminals
terminal
initial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007006151A
Other languages
English (en)
Other versions
JP2008171343A5 (ja
JP2008171343A (ja
Inventor
信夫 佐藤
教夫 大久保
紀彦 森脇
義博 脇坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007006151A priority Critical patent/JP5127237B2/ja
Priority to US12/000,141 priority patent/US7656274B2/en
Publication of JP2008171343A publication Critical patent/JP2008171343A/ja
Priority to US12/654,249 priority patent/US7936255B2/en
Publication of JP2008171343A5 publication Critical patent/JP2008171343A5/ja
Application granted granted Critical
Publication of JP5127237B2 publication Critical patent/JP5127237B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/74Systems using reradiation of electromagnetic waves other than radio waves, e.g. IFF, i.e. identification of friend or foe

Landscapes

  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、人物が保持している端末が発信するセンサ信号を用いて、端末間の相対的位置を求め、集団解析を行う技術に関する。
プロジェクトにおける業務の進捗把握や各個人(メンバ)の業務内容などを記録することにより、プロジェクトを運営するにあたっての問題を可視化・共有することで、プロジェクトをより加速させることができる。また、メンバにおいても、日々の業務を可視化することにより、後で自分の業務について振り返ることが容易となるため、自分で決めていた業務の方針と差異が明確になり、自分の向上のための指標として用いることができる。
特に、人は他人との関係を持つことで日常生活の多くの行動を行っており、プロジェクトなどの集団解析によって複数人相互間の関係を知ることは、個人の動向を把握する上でも非常に有効である。こうした背景から、例えば、特許文献1は、人物の携帯する端末が、他の端末と識別子(ID)を用いたデータ通信によって、端末間の相対位置を算出し、更に全地球測位システム(GPS)を用いて自己の絶対位置を把握し、この2つの情報を地図上に表示し、端末をグルーピングする技術を開示する。
特開2004-028642号公報
従来技術によれば、位置情報に基づいて端末を有する複数人をグルーピングすることが可能である。しかし、人間の行動は複雑であって、単に位置情報だけを持って正確に、真にインタラクションが行われている人間関係を抽出し、有益な情報を取得することには限界がある。例えば、近くに複数人がいたとしてもそれは偶然であるかも知れないし、距離は離れているが複数人が相互に話をしていることも無いとは言えない。
一方、人間同士のインタラクションを求めるには、赤外線通信による対面検知が有効であるが、赤外線は指向性が高く、真正面に対面していないと、検知できないという課題がある。
本発明は、真正面に対面していなくても、複数人間でインタラクションが行われていると検知することが可能となる集団解析システム、及び集団解析装置を提供することを目的とする。
上記の目的を達成するため、本発明は、複数のセンサ端末とこれらに接続される管理装置とからなる集団解析システムとして、まずセンサ端末の各々に、相対的な位置検出を行う第一のセンサと周囲の環境情報を取得する第二のセンサとを設置する。そして、管理装置はその入出力部を介して、これらセンサ端末の各々から、第一のセンサと第二のセンサからのセンサ信号を取得し、その解析部において、第一のセンサのセンサ信号を用いてセンサ端末の初期グループを設定し、初期グループを形成するセンサ端末の各々から受信した、第二のセンサのセンサ信号から初期グループの特徴量を抽出する。この初期グループの特徴量と、属する初期グループがないとされたセンサ端末の第二のセンサのセンサ信号から抽出された、この初期グループの特徴量に対応する特徴量を抽出し、両者を比較することにより、初期グループに属さないセンサ端末が属するグループを決定する。
すなわち、本発明は、対象になる人物にセンサ端末を持たせ、センサ端末間の相対的な情報から、集団解析を行なう。この解析には好適には、指向性が強いセンサや指向性が弱いセンサからの信号を用いる。最初に、指向性が強いセンサから取得できるセンサ信号を用いて人物間の相対的な位置情報を取得し、初期グループを形成する。初期グループの属したセンサ端末の中から、指向性が弱いセンサから取得できるセンサ信号を用いて、周囲の環境情報がセンシングできる特徴量を抽出する。そして、グループに属していないセンサ端末との相関を求めることにより、同じグループに属しているかを判断する。
以上により、人のいる場所(絶対位置特定)をセンシングすることではなく、センサ端末の相対的な位置情報をセンシングすることにより、人間同士のインタラクションを抽出することが可能となる。
本発明によれば、各端末のセンサ信号の特性により2段階にわけてグループ形成を行なうことにより、真正面の対面でない場合でも、グループを構成する端末の検知を行うことができる。また、2段階にわけて行わない場合には、全ての端末に対して解析を行なう必要があるため、端末間の比較の回数が端末数の階乗になるが、2段階にわけることで解析回数を削減することができる。
これにより、ブルーカラーの行動計測、ホワイトカラーの業務計測など、日々の業務の可視化のための集団解析が正確、且つ迅速に実行可能となる。
以下、本発明の実施例を図面を用いて詳述する。
図1は、第一の実施例である集団解析システムを、センサ信号(センシングデータ)を送信するセンサ端末から集団解析結果を表示するアプリケーションまでの全体システムとして図示したものである。本実施例では、対象になる人物にセンサ端末を持たせ、人のいる場所を特定することなく、人物が保持しているセンサ端末間の相対的な情報から、精度よく集団解析を行なうものである。
図1において、ストレージサーバ(SS)、アプリーションサーバ(AS)、クライアント(CL1-CL2、以下CL)、および基地局(BA1-BA2、以下BA)がローカルエリアネットワーク(LAN)を介して接続されており、基地局(BA)は端末(TR1-TR7、以下TR)との間で無線によりデータの送信・受信を行う。
端末(TR)は、その場のセンシングを行うセンサ端末であり、対象となる人物が所有している。端末(TR)は、送信・受信部(TRSR)、センシング部(TRSE)、入出力(TRIO)、制御部(TRCO)、記録部(TRME)、内部情報部(TRIN)によって構成されている。本実施例においては、センシング部(TRSE)内に複数のセンサを有しており、対面検知などの相対的な位置情報を検出する第一のセンサとして赤外線(TRIR)があり、この赤外線センサを用いて所有する人物の対面検知を行なう。よって、この端末(TR)が相手から見える位置に設置することが望ましい。例えば、端末(TR)を首からぶらさげるなどが挙げられる。
端末(TR)は第一のセンサである赤外線センサを含めセンシング部でセンシングした値であるセンサ信号を送信・受信部(TRSR)から基地局(BA)に送信する。送信・受信部(TRSR)は、基地局(BA)とのデータの送信・受信を例えば、IEEE802.15.4規格による無線通信などで行なう。送信方法として、基地局(BA)から送られてきた、制御コマンドに対して、センサ信号を送信、また、定期的にセンサ信号を基地局(BA)に送信、また、センサ信号を受信したら直ちに基地局(BA)に送信がある。さらに、基地局(BA)から送られてきた制御コマンドによって、端末(TR)関する制御情報の変更や、入出力部(TRIO)における出力デバイスへの出力を行なう。さらに、入出力部(TRIO)におけるボタンなどの入力デバイスによって選択された事項を基地局(BA)に対して、制御コマンドとして送信する。
上述したようにセンシング部(TRSE)は、場のセンシングを行なう。センシングに用いるセンサは、第一のセンサである赤外線(TRIR)に加え、周囲の環境情報としての特徴量を抽出するための第二のセンサとして、温度(TRTE)、マイクロホン(TRMI)、加速度(TRAC)、照度(TRIL)がある。さらに、外部入力(TROU)の端子を用いることにより、例えば重力センサ、イメージセンサなど、新たにセンサを追加した場合に対応することができる。これらの各センサにより、赤外線センサによる端末(TR)を所有する人物間の相対的な位置検出である対面検知に加え、所有する人物の存在する周囲の環境情報を取得することができる。なお、後に詳述するように、これらの環境情報から所定の特徴量を抽出することにより、対面検知によっては、どの初期グループにも属すると判断できなかった端末(TR)を所有する人物が属するグループを最終決定することが可能となる。
入出力部(TRIO)は、ボタンなどの入力デバイス、液晶ディスプレイなどの出力デバイスによって構成されている。対象となる人物が所望する情報の取得やセンシングした情報を表示する。さらに、入力デバイスと出力デバイスを統合したものであるタッチパネルを用いてもかまわない。
制御部(TRCO)はCPU(Central Processing Unit)を備え、記録部(TRME)に格納されているプログラムを実行する。センサ情報の取得タイミング、センサ情報の解析、基地局(BA)への送受信のタイミングの処理を行なう。
記録部(TRME)は、ハードディスクやメモリ、また、SD(Secure Digital)カードなどの外部記録装置で構成されており、プログラムやセンシングしたセンサ信号が格納される。
内部情報部(TRIN)は、端末(TR)に関する情報であり、同様の記録装置内に記憶されている。記録部(TRME)と内部情報部(TRIN)を総称して記憶部と呼ぶ場合がある。端末(TR)の情報としては、端末の電池の残りを示すバッテリ残量(TRBA)、時計(TRTI)、アドレスなどの端末固有の情報である端末情報(TRTR)がある。バッテリ残量(TRBA)は、電源の残量が記録されている。時計(TRTI)は、現在の時刻が格納されている。定期的に現在の時刻を基地局(BA)から送信されている。
次に、基地局(BA)について説明する。基地局(BA)は、情報を取得したいエリアに設置することにより、そのエリア内にある端末(TR)から無線によって送られてくるセンサ信号を受信し、LANを介してストレージサーバ(SS)へ送信する。基地局(BA)は、送信・受信部(BASR)、制御部(BACO)、記録部(BAME)、入出力部(BAIO)、内部情報部(BAIN)によって構成されている。
送信・受信部(BASR)は、端末(TR)とのデータ送信・受信を行なう。送信方法として、端末(TR)に対して制御コマンドを送信、また、定期的にセンサ信号を端末(TR)から受信、また、端末(TR)の種々のセンサでセンサ信号を検出したら、直ちに端末(TR)から送信されて受信することになる。さらに、端末(TR)から送られてきた、制御コマンドによって、ストレージサーバ(SS)に対して情報の取得を行ない、ストレージサーバ(SS)から取得した結果を端末(TR)へ送信する。さらに、端末(TR)の入出力部(TRIO)における入力デバイスによって選択された事項を基地局(TR)やストレージサーバ(SS)に対して、制御コマンドとして送信する。また、ストレージサーバ(SS)や端末(TR)から送られてくる制御コマンドにより、入出力部(TRIO)の出力デバイスの画面表示の変更を行う。
制御部(BACO)はCPUを備え、記録部(BAME)に格納されているプログラムを実行する。センサ情報の取得タイミング、センサ情報の解析、基地局(BA)やストレージサーバ(SS)への送受信のタイミングの処理を行なう。
記録部(BAME)は、ハードディスクやメモリ、また、SDカードなどの外部記録装置で構成されており、プログラムやセンシングしたセンサ信号が格納される。
入出力部(BAIO)は、ボタンなどの入力デバイス、液晶ディスプレイなどの入力デバイスによって構成されている。対象となるエリア内の状況などの情報やセンシングした情報を表示する。さらに、入力デバイスと出力デバイスを統合したものであるタッチパネルを用いてもかまわない。
内部情報部(BAIN)は、基地局(BA)に関する情報であり、同様の記録装置に記憶されている。記録部(BAME)と内部情報部(BAIN)とを総称して記憶部と呼ぶ場合がある。内部情報部(BAIN)には、基地局(BA)の情報として、時刻を示す時計(BATI)や、基地局の固有の情報である基地局情報(BABA)がある。時計(BATI)は現在の時刻が格納されている。定期的にNTP(Network Time Protocol)サーバに接続し、時刻合わせを行ない、さらに、定期的に端末(TR)の時刻合わせを行なう。
なお、ローカルエリアネットワーク(LAN)は、上述した通り、基地局(BA)、ストレージサーバ(SS)、アプリーションサーバ(AS)、クライアント(CL)を接続するネットワークである。
続いて、ストレージサーバ(SS)は、基地局(BA)から送られてくるセンサ情報を格納し、アプリケーションサーバ(AS)から所望のセンサ信号(センシングデータ)の要求に基づき、センサ信号(センシングデータ)をアプリケーションサーバ(AS)に送信する。また、基地局(BA)からの制御コマンドを受信し、その制御コマンドから得られて結果を基地局(BA)に対して送信する。このストレージサーバ(SS)は、データベース部(SSDB)、制御部(SSCO)、送信・受信部(SSSR)、入出力部(SSIO)、記録部(SSME)から構成される通常のコンピュータシステムである。
データベース部(SSDB)は、基地局(BA)送られてきたセンサ信号を格納する。さらに、基地局(BA)からの制御コマンドに対する対処方法が格納されている。
制御部(SSCO)はCPUを備え、記録部(SSME)に格納されているプログラムを実行する。データベース部(SSDB)を管理、また、アプリケーションサーバ(AS)や基地局(BA)から送信される情報に対しての処理を行なう。
送信・受信部(SSSR)は、基地局(BA)との送信・受信を行なう。基地局(TR)から送られてきたセンサ信号(センシングデータ)を受信し、また、アプリケーションサーバ(AS)にセンサ信号を送信する。また、基地局(BA)から制御コマンドを受信した場合には、データベース部(SSDB)から選択した結果を基地局(BA)に送信する。
送信・受信部(SSSR)は、端末(TR)対して制御コマンドを送信、また、定期的にセンサ信号を端末(TR)から受信、また、端末(TR)がセンサ信号を受信したら直ちに端末(TR)からストレージサーバ(SS)に送信がある。さらに、端末(TR)から送られてきた制御コマンドによって、ストレージサーバ(SS)に対して情報の取得要求を行ない、ストレージサーバ(SS)から取得した結果の情報を端末(TR)へ送信する。
入出力部(SSIO)は、ボタンなどの入力デバイス、液晶ディスプレイなどの出力デバイスによって構成されている。対象となるエリア内の状況などの情報やセンシングした情報を表示する。さらに、入力デバイスと出力デバイスを統合したものであるタッチパネルを用いてもかまわない。
記録部(SSME)は、ハードディスクやメモリ、また、SDカードなどの外部記録装置で構成されており、プログラムやセンシングしたセンサ信号が格納される。記録部(SSME)とデータベース部(SSDB)とを総称して、記憶部と呼ぶことがある。
一方、アプリーションサーバ(AS)は、ストレージサーバ(SS)に格納されているセンサ信号から集団解析を行なうシステムの管理装置としてのサーバであり、先のストレージサーバ(SS)同様、通常のコンピュータシステムで構成される。アプリーションサーバ(AS)は、集団解析部(ASGA)、制御部(ASCO)、記録部(ASME)、送信・受信部(ASSR)、入出力部(ASIO)、データベース部(ASDB)から構成されている。
集団解析部(ASGA)は、センサ信号を解析することにより、時間における集団を解析する部分である。集団解析部(ASGA)は、初期グループ検出(ASIG)、グループマッチング(ASGM)、グループ特徴抽出(ASGF)、個別特徴抽出(ASIF)の処理から構成されている。この集団解析部(ASGA)は、通常プログラムで構成され、このプログラムは次に説明する制御部(ASCO)によって実行される。
制御部(ASCO)はCPUを備え、記録部(ASME)に格納されているプログラムなどを実行する。すなわち、ストレージサーバ(SS)のデータ取得依頼、上述した集団解析の実行、実行結果の管理などの処理を行なう。
記録部(ASME)は、ハードディスクやメモリ、また、SDカードなどの外部記録装置で構成されており、上述したプログラムやセンシングしたセンサ信号や解析結果が格納される。
送信・受信部(ASSR)は、ストレージサーバ(SS)からのデータ信号取得やクライアント(CL)からの解析結果要求に基づく、データ送信がある。入出力部(ASIO)は、ボタンなどの入力デバイス、液晶ディスプレイなどの出力デバイスによって構成されている。対象となるエリア内の状況などの情報やセンシングした情報を表示する。さらに、入力デバイスと出力デバイスを統合したものであるタッチパネルを用いてもかまわない。
データベース部(ASDB)は集団解析部(ASGA)、即ち制御部(ASCO)によって解析された結果を格納する。通常、ハードディスクなどに記憶される。記録部(ASME)とデータベース部(ASDB)とを総称して記憶部と呼ぶ場合がある。
最後に、クライアント(CL)は、ユーザの依頼を基に、アプリーションサーバ(AS)内での集団解析結果を受信し、データを加工して、画面の表示を行なう。クライアント(CL)は、アプリケーション部(CLAP)、送信・受信部(CLSR)、入出力部(CLIO)、記録部(CLME)、制御部(CLCO)等から構成される、通常のパーソナルコンピュータ(PC)である。
アプリケーション部(CLAP)は、ユーザからの要求を基に、データを加工し、画面を作成し、ユーザに提供を行なう。このアプリケーション部(CLAP)は、操作(CLOP)、加工(CLPR)、画面(CLSC)からなり、通常プログラムとして構成され、後述する記録部(CLME)に記録され、後述する制御部(CLCO)で実行される。
送信・受信部(CLSR)は、ユーザが指定した範囲の解析結果をアプリーションサーバ(AS)へ要求を送信し、アプリーションサーバ(AS)からの解析結果を受信する。入出力部(CLIO)は、ボタンなどの入力デバイス、液晶ディスプレイなどの出力デバイスによって構成されている。対象となるエリア内の状況などの情報やセンシングした情報を表示する。さらに、入力デバイスと出力デバイスを統合したものであるタッチパネルを用いてもかまわない。
記録部(CLME)は、ハードディスクやメモリ、また、SDカードなどの外部記録装置で構成されており、メインプログラムやセンシングしたセンサ信号や解析結果が格納される。制御部(CLCO)は、CPUを備え、ユーザ記録部(CLME)に格納されているプログラムを実行する。
図2は、実施例1の集団解析システムの利用シーンを模式的に図示したものである。ユーザ(US)がクライアント(CL)を操作することによって、集団解析の情報を受信する。
クライアント(CL)の画面(CLSC)は、ユーザ(US)がクライアント(CL)のアプリケーションによって、出力している画面である。画面(CLSC)は時系列上に誰と誰が一緒にいたかをグラフで表示している。先に説明したクライアント(CL)のアプリケーション部(CLAP)では、ローカルエリアネットワーク(LAN)を経由し、アプリーションサーバ(AS)に接続、データベース部(ASDB)に格納されている集団解析結果の情報を受信する。
アプリーションサーバ(AS)は、ローカルエリアネットワーク(LAN)を経由し、ストレージサーバ(SS)に接続し、データベース部(SSDB)に格納されているセンサ信号を受信する。また、アプリーションサーバ(AS)は、ローカルエリアネットワーク(LAN)を経由し、クライアント(CL)に接続し、データベース部(ASDB)に格納されているセンサ信号を送信する。
ストレージサーバ(SS)は、ローカルエリアネットワーク(LAN)を経由し、基地局(BA)に接続、センサ信号を受信する。基地局(BA)は、ローカルエリアネットワーク(LAN)を経由し、ストレージサーバ(SS)にセンサ信号を送信する。基地局(BA)は、送信・受信部(BASR)を経由して、端末(TR)からセンサ信号を受信する。端末(TR)は、送信・受信部(TRSR)を経由して、基地局(BA)にセンサ信号を送信する。端末(TR)は、センシング部(TRSE)によりセンサ信号を取得する。
なお、図1、図2に示した本実施例のシステム構成にあっては、ストレージサーバ(SS)、アプリケーションサーバ(AS)、クライアント(CL)は全て独立しており、ローカルエリアネットワーク(LAN)を介して接続されている構成を示したが、これらは、一体化して構成されても良いことはいうまでもない。例えば、上位装置であるストレージサーバ(SS)とアプリケーションサーバ(AS)は一体化された管理装置としてのコンピュータシステム・サーバとして構成されても良い。また、クライアント(CL)は、アプリケーションサーバ(AS)に付属した端末装置として構成される場合もある。
図3は、第一の実施例における集団解析システムにおいて、端末(TR)からユーザ(US)にセンサ信号の解析結果を提供するまでのシーケンス図である。
端末(TR)は、センシング部(TRSE)によってセンシングされたセンサ信号を受信し、取得したセンサを基地局(BA)に送信する。基地局(BA)は、端末(TR)からセンサ信号を受信し、取得したセンサ信号をストレージサーバ(SS)に送信する。ストレージサーバ(SS)は、基地局(BA)からセンサ信号を受信し、取得したセンサ信号をストレーサーバ(SS)内データベース部(SSDB)に格納する。
集団解析システムの管理装置としてのアプリケーションサーバ(AS)は、ストレージサーバ(SS)に対してセンサ信号の依頼を行ない、送信されてきたセンサ信号(センシングデータ)を用いて集団解析を行ない、その結果をアプリケーションサーバ(AS)内のデータベース部(ASDB)に格納する。クライアント(CL)は、ユーザ(US)からのアプリケーション起動により、アプリケーションサーバ(AS)に対して集団解析結果の依頼を行なう。送信されてきた解析結果をユーザが所望する情報へ加工し、画面を生成し、入出力(CLIO)の出力デバイスへ出力する。ユーザ(US)は、クライアント(CL)の集団解析のアプリケーションを起動させ、クライアント(CL)の画面に表示される図表を閲覧する。
以下、このシーケンスを順に詳述する。まず、端末(TR)におけるセンサ信号の取得(TRGE)は、サンプリング周期、取得時間などセンサ信号を取得するために必要な情報が、端末(TR)の記録部(TRME)に記載されており、この情報を基にして、センサ信号のセンシングを行なう。端末(TR)内のセンシング部(TRSE)にあるセンサを用いてセンシングを行なう。さらに、センシング部(TRSE)によってセンシングされたセンサ信号を記録部(TRME)に記録する。端末(TR)における時間添付(TRAD)はセンシングしたデータの取得時間として、時計(TRTI)の時刻を記録する。
データ送信(TRSE)は、センサ信号の取得(TRGE)によってセンシングしたセンサ信号を送信・受信部(TRSR)を経由し、基地局(BA)に送信する。記録部(TRME)に記録されているセンサ信号を記録部(TRME)に格納されている基地局(TR)用の送信フォーマットに制御部(TRCO)で変換を行ない、送信フォーマットに変換したものを送信・受信部(TRSR)を経由し、基地局(BA)に送信する。これらの送信フォーマットは上述した無線通信の規格におけるフォーマットを用いる。
基地局(BA)におけるデータ受信(BARE)は、端末(TR)から基地局(TR)用の送信フォーマットで送信・受信部(TRSR)から送信されたセンサ信号を送信・受信部(BASR)で受信する。そして、受信したセンサ信号は記録部(BAME)に格納される。
データ送信(BASE)は、記録部(BAME)に格納されたセンサ信号を送信・受信部(BASR)を経由し、ストレージサーバ(SS)に送信する。記録部(BAME)に記録されているセンサ信号を記録部(BAME)に格納されているストレージサーバ(SS)用の送信フォーマットに制御部(BACO)で変換を行ない、送信フォーマットに変換したものを送信・受信部(BASR)を経由し、ストレージサーバ(SS)に送信する。
ストレージサーバ(SS)におけるデータ受信(SSRE)は、基地局(BA)からストレージサーバ(SS)用の送信フォーマットで送信・受信部(BASR)から送信されたセンサ信号を送信・受信部(SSSR)で受信する。そして、受信したセンサ信号は記録部(SSME)に格納される。
データ格納(SSPU)では、記録部(SSME)に格納されているセンサ信号を記録部(SSME)に格納しているデータベース部(SSDB)に格納するフォーマットに制御部(SSCO)を行ない、データベース部(SSDB)に格納する。データベース部(SSDB)の格納方法は、後で検索する際に有効なクエリとして用いることが好ましく、有効なクエリとして、センサ信号名、時間、端末名、基地局名がある。
センサ信号の取得(TRGE)からデータ格納(SSPU)に至る一連の処理は定期的に行なわれる。
次に、アプリケーションサーバ(AS)によるデータ依頼(ASRQ)は、アプリーションサーバ(AS)の記録部(ASME)、また、クライアント(CL)の記録部(CLME)に記録されている、データを取得すべき時刻や対象となる端末から、センサ信号を取得する。
データ検索(ASSE)は、データ依頼(ASRQ)に基づき、ストレージサーバ(SS)に対して、検索を行なう。記録部(ASME)にはストレージサーバ(SS)の名称やアドレス、また、データベース名やテーブル名など、データ信号を取得の際に必要な情報が記載されている。データ検索(ASSE)をする際には、検索内容をデータ依頼(ASRQ)からデータベースの情報を記録部(ASME)から情報を取得し、検索に用いるコマンドを作成する。コマンドは、記録部(ASME)に格納されているストレージサーバ(SS)用の送信フォーマットに制御部(ASCO)で変換を行ない、送信フォーマットに変換したものを送信・受信部(ASSR)を経由し、ストレージサーバ(SS)に送信する。
データ受信(ASRE)は、データ検索(ASSE)のコマンドを基に、該当するセンサ信号をストレージサーバ(SS)内のデータベース部(SSDB)から送信されたセンサ信号を受信する。送信・受信部(ASSR)で受信したセンサ信号は記録部(ASME)に記録される。
集団解析(ASGA)は、プログラムは記録部(ASME)に格納されており、制御部(ASCO)で処理を行なう。集団解析(ASGA)は、集団を解析するプログラムであり、データ受信(ASRE)によって記録部(ASME)に格納されているセンサ信号を用いて解析をする。
解析結果格納(ASPU)は、集団解析(ASGA)によって解析した結果をデータベース部(ASDB)に格納する。格納する際に、解析結果だけでなく、解析の条件の情報も格納することが好ましく、データ依頼(ASRQ)で提示された情報も一緒に格納する。データ依頼(ASRQ)から解析結果格納(ASPU)の一連の処理は定期的に行なわれる。
続いて、アプリケーション起動(USST)は、ユーザ(US)によるアプリケーションの起動である。アプリケーションが起動し、ユーザ(US)がスタートボタンを選択することにより、所望の事象の図示を提示する。
データ依頼(CLRQ)は、図示の提示に必要な情報を取得する。ユーザ(US)のクライアント(CL)の入出力部(CLIO)のボタン選択により、解析する時刻や対象となる端末情報を取得する。
データ検索(CLSE)は、データ依頼(CLRQ)に基づき、アプリケーションサーバ(AS)に対して、検索要求を行なう。記録部(CLME)にはアプリケーションサーバ(AS)の名称やアドレス、また、データベース名やテーブル名など、データ信号を取得の際に必要な情報が記載されている。データ検索(CLSE)をする際には、検索内容をデータ依頼(CLRQ)からデータベースの情報を記録部(CLME)から情報を取得し、検索に用いるコマンドを作成する。コマンドは、記録部(CLME)に格納されているアプリケーションサーバ(AS)用の送信フォーマットに制御部(CLCO)で変換を行ない、送信フォーマットに変換したものを送信・受信部(CLSR)を経由し、アプリケーションサーバ(AS)に送信する。
データ受信(CLRE)は、データ検索(CLSE)のコマンドを基に、該当する解析結果をアプリケーションサーバ(AS)内のデータベース部(ASDB)から送信された解析結果を受信する。送信・受信部(CLSR)で受信した解析結果は記録部(CLME)に格納する。
データ加工(CLDP)は、データ受信(CLRE)によって取得した解析結果から表示に必要な情報のみを選択し、これを記録部(CLME)に格納する。表示(CLDI)は、データ加工(CLDP)によって選別された情報を、記録部(CLME)に記載されている表示方法に基づいて、画像や画面を生成する。生成した結果をユーザ(US)に提示する。アプリケーション終了(USEN)はユーザ(US)によるアプリケーションの終了である
なお、基地局(BA)における時刻修正(BATM)は、基地局(BA)の時計(BATI)の時刻を合わせるために行なう。現在の時刻をローカルエリアネットワーク(LAN)網にあるNTPサーバから取得する。時刻修正(BATM)の処理は定期的に行なわれる。
時刻修正依頼(BATR)は端末(TR)の時刻を合わせるために、端末(TR)へ時刻修正の依頼を行なう。時刻修正(TRTM)は時刻修正依頼(BATR)に基づき、基地局(BA)から送信された時刻を基に、時計(TRTI)の時間を修正する。時刻修正依頼(BATR)から時刻修正(TRTM)の処理は定期的に行なわれる。
さて、本実施例におけるセンサからのセンシング方法には、色々なサンプリングタイプがあり、その一例を図4に示す。センシングデータ送信周期(SDSF)は、センサ信号を基地局へ送信する周期である。サンプリング時間(SPT)は、センシングデータ送信周期(SDSF)内でサンプリングしている時間である。サンプリングレート(SPR)は、サンプリング時間(SPT)内でサンプリングしている数である。
サンプリングタイプ(ST1)は、センシングデータ送信周期(SDSF)内の全てに対して、サンプリングしている様子を示している。よって、センシングデータ送信周期(SDSF)の時間とサンプリング時間(SPT)は同じである。サンプリングタイプ(ST2)は、センシングデータ送信周期(SDSF)内の一部に対して、サンプリングしている様子を示している。よって、サンプリング時間(SPT)は、センシングデータ送信周期(SDSF)の時間より小さい値になっている。
上記で示した、センシングデータ送信周期(SDSF)、サンプリング時間(SPT)、サンプリングレート(SPR)の値の決定方法は、利用シーンによって変わってくる。想定利用時間と端末(TR)と基地局(BA)との想定通信量により、最適な値を選択する。例えば、センシングデータ送信周期(SDSF)は10秒とすると、サンプリング時間(SPT)は、サンプリングタイプ(ST1)、サンプリングタイプ(ST2)に対して、それぞれ10秒、2秒となる。この場合、サンプリングレート(SPR)は、例えば、50Hz程度とする。
次に、本実施例における、端末から送られてくるセンサ信号からどのグループに所属しているかを解析する集団解析のフローチャートを図5に示す。集団解析する際、図4に示したデータ取得方法により、判定方法が異なるため、それぞれの判定方法について述べる。
図6に示したセンシングタイプ判定方法のように、センシングタイプ(ST)により異なり、センシングタイプ1(ST1)の場合には、判定方法1(JA1)と判定方法3(JA3)、センシングタイプ2(ST2)の場合には、判定方法2(JA2)と判定方法3(JA3)である。
まず、判定方法1(JA1)について説明する。判定方法1(JA1)では、センシングタイプ1(ST1)の場合であり、センシングデータ送信周期(SDSF)内全てに対して、サンプリングしているときの判別方法である。
図5において、初期グループ検出(ASIG)は、後で詳述する図7に示したセンサデータベース(SSDBSE)に格納されている、第一のセンサである赤外線など指向性の高いセンサ情報を用いて、初期グループを検出する。例えば、ある単位時間における、赤外線における対面推定(赤外線センサの検出、及び、回数)を行ない、初期グループを作成する。対面の有無(回数)を図8に示すグループ・個人データベース(ASDBGP)に代入する。なお、他の指向性の高いセンサとしてはイメージセンサなどがある。
初期グループの有無(ASIGJU)は、初期グループ化された端末と初期グループ化されなかった端末に分類する。すなわち、初期グループとして検知できた端末の場合にはグループ特徴抽出(ASGF)、初期グループとして検知できなかった端末の場合には個別特徴抽出(ASPF)とに分類する。グループ特徴抽出(ASGF)は、同じグループに属している端末のセンサ信号から、その場の環境(周囲環境)を示す情報である特徴量を抽出する。
特徴抽出方法として、同じ初期グループとして検出された全ての端末のセンサ信号の中から、例えば、第二のセンサであるマイクロホン(TRMI)で取得される音(SSSD)の値を取得し、時系列毎に平均を求める。図9のグループ1(ASGPT11G)、グループ2(ASGPT12G)、グループ3(ASGPT13G)は、グループ毎に音(SSSD)の値の平均を時系列上に並べたものである。特徴抽出に用いる第二のセンサは周りの環境を示す、環境情報となることができるセンサ信号が相応しく、音(SSSD)の値だけでなく、温度(TRTE)、照度(TRIL)、もしくは、音(SSSD)、温度(TRTE)、照度(TRIL)から求めた特徴量(ゼロクロス、エネルギ、分散、回帰係数)を求め、これを用いてもかまわない。
さらに、図10で示したように、グループで1つにまとめるだけでなく、グループに属する端末からのセンサ信号を用いてもかまわない。図10では、グループ別に個人のセンサ信号を表示している。すなわち、グループ1の個人(ASGPT11P1)、グループ1の個人(ASGPT11P2)、グループ2の個人(ASGPT12P1)、グループ2の個人(ASGPT12P2)、グループ3の個人(ASGPT13P1)、グループ3の個人(ASGPT13P2)である。
個人特徴抽出(ASPF)は、初期グループ検出(ASIG)によって、どのグループにも属していないと判定された端末のセンサ信号から、その場の環境を示す特徴量を抽出する。抽出する際には、後に、グループ特徴抽出(ASGF)と比較をするので、グループ特徴抽出(ASGF)の特徴量と同じ特徴抽出方法を用いる必要がある。
特徴抽出方法として、例えば、端末のセンサ信号の中からマイクロホン(TRMI)で取得される音(SSSD)の値を取得し、時系列上にならべる。図9の個人4(ASGPT14)は音(SSSD)の値を時系列上に並べたものである。特徴抽出に用いる第二のセンサは周りの環境を示すことができるセンサ信号が相応しく、音(SSSD)の値だけでなく、温度(TRTE)、照度(TRIL)、もしくは、音(SSSD)、温度(TRTE)、照度(TRIL)から求めた特徴量(ゼロクロス、エネルギ、分散、回帰係数)を求め、これを用いてもかまわない。
グループマッチング(ASGM)は、グループ特徴抽出(ASGF)と個人特徴抽出(ASPF)の類似度を求めるべく、例えば、内積、または、距離の計算を行なう。予め閾値を設定しておき、計算して求めた値がその閾値以内ならば、同じグループと判定する。そして、その結果を図8に示したグループ・個人データベース(ASDBGP)に代入する。さらに、より大きなグループにするために、個人毎やグループ毎に類似度を求めてもかまわない。例えば、図9の個人4(ASGPT14)は、グループマッチング(ASGM)の結果、グループ3(ASGPT13G)との類似度が高いと判定されたため、グループ3と判断した。
図5のシーケンスにおけるマッチングの終了(ASENJU)は、マッチングの成立が起こらなくなるまで、集団分析を行なう。もし、分析を継続する場合には、初期グループの有無(ASIGJU)の前まで戻る。また、カウントを行ない、あらかじめ定義しておいた回数になるまで、初期グループの有無(ASIGJU)の前まで戻るようにしてもかまわない。
引き続き、判定方法2(JA2)について説明する。判定方法2(JA2)では、センシングタイプ2(ST2)の場合であり、センシングデータ送信周期(SDSF)内の一部のみだけ、サンプリングしているときの判別方法である。
図5のシーケンスにおいて、初期グループ検出(ASIG)は、判定方法1と同じである。初期グループの有無(ASIGJU)は判定方法1と同じである。
グループ特徴抽出(ASGF)は、同じグループに属している端末の環境情報を示すセンサ信号から、その場の環境を示す特徴量を抽出する。その特徴抽出方法として、例えば、同じ初期グループとして検出された全ての端末のセンサ信号の中からマイクロホン(TRMI)で取得される音(SSSD)の値を取得し、時系列上に値を並べる。図11にその一例を示し、グループ1(ASGPT21G)、グループ2(ASGPT22G)、グループ3(ASGPT23G)は、グループ毎に音(SSSD)の値の平均を時系列上に並べたものである。もし、重なる部分があるならば、該当センサの値の平均を求める。特徴抽出に用いるセンサは周りの環境を示すことができるセンサ信号が相応しく、音(SSSD)の値だけでなく、温度(TRTE)、照度(TRIL)、もしくは、音(SSSD)、温度(TRTE)、照度(TRIL)から求めた特徴量(ゼロクロス、エネルギ、分散、回帰係数)を求め、これを用いてもかまわない。
さらに、図11で示したように、グループで1つにまとめるだけでなく、グループに属する端末からのセンサ信号を用いてもかまわない。図12では、グループ別に個人のセンサ信号を表示している。すなわち、グループ1の個人(ASGPT21P1)、グループ1の個人(ASGPT21P2)、グループ2の個人(ASGPT22P1)、グループ2の個人(ASGPT22P2)、グループ3の個人(ASGPT23P1)、グループ3の個人(ASGPT23P2)である。
一方、個人特徴抽出(ASPF)は、どのグループにも属していない端末の、環境情報となるセンサ信号から、その場の環境を示す特徴量を抽出する。抽出する際には、後に、グループ特徴抽出(ASGF)と比較をするので、グループ特徴抽出(ASGF)と同じ特徴抽出方法を用いる必要がある。
特徴抽出方法として、例えば、端末のセンサ信号の中からマイクロホン(TRMI)で取得される音(SSSD)の値を取得し、時系列上にならべる。図11の個人4(ASGPT24)は音(SSSD)の値を時系列上に並べたものである。特徴抽出に用いる第二のセンサは周囲の環境情報を示すセンサ信号が相応しく、音(SSSD)の値だけでなく、温度(TRTE)、照度(TRIL)、もしくは、音(SSSD)、温度(TRTE)、照度(TRIL)から求めた特徴量(ゼロクロス、エネルギ、分散、回帰係数)を求め、これを用いてもかまわない。
グループマッチング(ASGM)は、判定方法1と同じである。例えば、図11の個人4(ASGPT24)は、グループマッチング(ASGM)の結果、グループ3(ASGPT23G)との類似度が高いと判定されたため、グループ3と判断した。
マッチングの終了(ASENJU)は、判定方法1と同じである。
引き続き、判定方法3(JA3)について説明する。判定方法3(JA3)では、センシングタイプ1(ST1)とセンシングタイプ2(ST2)の両方で用いることができる判別方法である。区間内全体と用いて特徴量をもとめ、これを用いて判定を行なう方法である。
初期グループ検出(ASIG)は、判定方法1と同じである。初期グループの有無(ASIGJU)は判定方法1と同じである。
グループ特徴抽出(ASGF)は、同じグループに属している端末のセンサ信号から、その場の環境を示す特徴量を抽出する。例えば、特徴抽出方法として、グループに所属した端末の音の平均、音の最大値、音の最小値、音の分散、または、グループ内の音の平均、音の最大値、音の最小値、音の分散を求める。その結果を図13のグループ・個人別特徴量データベース(ASDBGPF)に代入する。
図13のグループ・個人別特徴量データベース(ASDBGPF)の全体(ASGPT31G)、全体(ASGPT32G)、全体(ASGP313G)はグループ毎に特徴量を代入したもの、また、図13の個人(ASGPT31P1)、個人(ASGPT31P2)、個人(ASGPT32P1)、個人(ASGPT32P2)、個人(ASGPT33P1)、個人(ASGPT33P2)は、各グループに属している個人の特徴量である。特徴抽出に用いるセンサは周りの環境を示すことができるセンサ信号が相応しく、音(SSSD)の値だけでなく、温度(TRTE)、照度(TRIL)、もしくは、音(SSSD)、温度(TRTE)、照度(TRIL)から求めた特徴量(ゼロクロス、エネルギ、分散、回帰係数)を求め、これを用いてもかまわない。また、センサ信号を1次微分、もしくは、2次微分した値に対して、上記の値を求めてもよい。
個人特徴抽出(ASPF)は、どのグループにも属していない端末のセンサ信号から、その場の環境を示す特徴量を抽出する。抽出する際には、後に、グループ特徴抽出(ASGF)と比較をするので、グループ特徴抽出(ASGF)と同じ特徴抽出方法を用いる必要がある。特徴抽出方法として、例えば、音の平均、音の最大値、音の最小値、音の分散を求める。その結果をグループ・個人別特徴量データベース(ASDBGPF)に代入する。
図13の個人4(ASGPT34)は、個人の特徴量である。特徴抽出に用いるセンサは周りの環境を示すことができるセンサ信号が相応しく、音(SSSD)の値だけでなく、温度(TRTE)、照度(TRIL)、もしくは、音(SSSD)、温度(TRTE)、照度(TRIL)から求めた特徴量(ゼロクロス、エネルギ、分散、回帰係数)を求め、これを用いてもかまわない。また、センサ信号を1次微分、もしくは、2次微分した値に対して、上記の値を求めてもよい。
なお、判定方法3における図5のシーケンスのグループマッチング(ASGM)、マッチングの終了(ASENJU)については、判定方法1と同じである。
さて、センサデータベース(SSDBSE)は、上述した赤外線センサ情報などのセンサ信号を格納しておくデータベースであり、この一実施例例を図7に示す。時間(SSTI)は、センサ信号を取得した時間である。内容(SSCD)は、センサ信号のセンシング値である。タイムスタンプ(SSTS)は、端末(TR)、または、基地局(BA)で取得した時間をしめす。端末ID(SSTD)は、センシングした端末(TR)のIDである。赤外線(SSID)は、赤外線(TRIR)によるセンシング値である。温度(SSTE)は、温度(TRTE)によるセンシング値である。音(SSSD)は、マイクロホン(TRMI)によるセンシング値である。加速度(SSAD)は、加速度(TRAC)によるセンシング値である。照度(SSLD)は、照度(TRIL)によるセンシング値である。
グループ・個人データベース(ASDBGP)は、集団解析の結果を格納しておくデータベースであり、この1例を図8に示す。端末[氏名](ASTD)は、端末番号である。時間(ASTI)は、時間別に、集団解析によって集団とみなされているグループ毎に同番号を割り振る。
図9は、グループ・個人毎に特徴量を統合したセンサ信号の一例である。時系列上に並んでおり、上からグループ1(ASGPT11G)、グループ2(ASGPT12G)、グループ3(ASGPT13G)、個人4(ASGPT14)である。
図10は、グループ・個人毎の特徴量を個別に示したセンサ信号の一例である。時系列上に並んでおり、上からグループ1の個人(ASGPT11P1)、グループ1の個人(ASGPT11P2)、グループ2の個人(ASGPT12P1)、グループ2の個人(ASGPT12P2)、グループ3の個人(ASGPT13P1)、グループ3の個人(ASGPT13P2)、個人4(ASGPT14)である。
図11は、グループ・個人毎に特徴量を統合したセンサ信号の一例である。時系列上に並んでおり、上からグループ1(ASGPT21G)、グループ2(ASGPT22G)、グループ3(ASGPT23G)、個人4(ASGPT24)である。
図12は、グループ・個人毎の特徴量を個別に示したセンサ信号の1例である。時系列上に並んでおり、上からグループ1の個人(ASGPT21P1)、グループ1の個人(ASGPT21P2)、グループ2の個人(ASGPT22P1)、グループ2の個人(ASGPT22P2)、グループ3の個人(ASGPT23P1)、グループ3の個人(ASGPT23P2)、個人4(ASGPT24)である。
グループ・個人別特徴量データベース(ASDBGPF)は、集団解析を行なうための特徴量を格納しておくデータベースであり、この1例を図13に示す。特徴量(ASFE)とは、集団解析の特徴量である。特徴量はセンサ信号から求められればよく、特徴量の例として、音の平均(ASFE1)、音の最大値(ASFE2)、音の最小値(ASFE3)、音の分散(ASFE4)がある。有効な特徴量が発見された場合には、特徴量(ASFE)に加えてもかまわない。
グループ・個人(ASGP)は、グループ、または、個人別に特徴量を格納する。グループに属しているならば、そのグループ毎にセンサ信号をまとめる。例えば、グループ1 (ASGPT31)では、全体のセンサ信号を用いて、全体(ASGPT31G)の特徴量と、グループを構成している個人毎のセンサ信号を用いて、個人(ASGPT31P1)、個人(ASGPT31P2)の特徴量である。このように、グループ毎に、全体と個人の特徴量を格納する。また、グループに属していない場合には、個人のみの特徴量を格納する。例えば、個人4 (ASGPT34)である。
以上説明した実施例1では、端末(TR)から得られた第一、第二のセンサからのセンサ信号の特性により2段階でグループ形成を用いて集団解析を行なうことで、真正面の対面でない場合でも、検知することができる。また、集団解析による端末の比較回数において、2段階に分けない場合には、全ての端末に対して解析を行なう必要があるため、解析回数が端末数の階乗になるが、2段階にわけることで解析回数を削減することができる。
第二の実施例は、定期的に端末の時刻同期を行うことが可能な集団解析システムである。すなわち、端末(TR)でセンシングされる信号を用いて集団解析を行なう際に、複数の端末(TR)からの信号を用いて解析を行なうため、できるだけ同時刻の信号を取得することが望ましい。これは、センシングデータ送信周期(SDSF)とサンプリング時間(SPT)の時間が同じ場合には問題にならないが、センシングデータ送信周期(SDSF)とサンプリング時間(SPT)の時間が異なる場合には、同時刻の信号を取得できないという問題が生じる。この結果、解析精度が向上しないことが考えられるからであり、第二の実施例はこの問題に対応することが可能なシステムを提供する。
図14に示す第二の実施例の集団解析システムは、図1で示したセンサ信号を送信する端末から集団解析結果を表示するアプリケーションまでの全体の一部を変更したものであり、基地局(BA)の内部情報部(BAIN)における同期(BASY)の追加である。この同期(BASY)は、複数の端末(TR)の時刻を同期する処理であり、定期的に端末(TR)間の信号データの取得する時刻の同期を行なう。
図15は、第二の実施例における端末(TR)からユーザ(US)に提供するまでのセンサ信号のシーケンス図であり、図3の一部を変更したものである。すなわち、基地局(BA)の処理に時刻同期(BATS)の追加である。時刻同期(BATR)は基地局(BA)のエリアに属している端末(TR)内で、センサ信号の取得タイミングを合わせるための同期を行なう。
複数の端末(TR)でセンサ信号の取得時刻が同じになった場合の集団解析であるが、集団解析のフローチャートは実施例1である図5と同じである。図5ではセンシングタイプによる判別方法が図6により提示されているが、本実施例では同じ処理にて動作可能である。すなわち、センシングデータ送信周期(SDSF)とサンプリング時間(SPT)が異なるが、同時刻のセンサ信号が取得できるため、センシングタイプ1(ST1)の処理も用いることができる。よって、センシングタイプ1(ST1)とセンシングタイプ2(ST2)の処理を用いることができる。よって、詳細な説明は省略する。
以上説明した実施例2では、複数の端末(TR)におけるセンサ信号の取得時刻を同じにすることで、少ない時間のセンサ信号でも、精度よく集団解析が可能となる。
本発明の第一の実施例であるセンサ信号を送信する端末から集団解析結果を表示するアプリケーションまでの全体を示した図。 第一の実施例において、ユーザ(US)がクライアント1(CL1)を操作することによって、集団解析の情報を受信するまでの利用シーンを示した図。 第一の実施例において、端末1(TR1)からユーザ(US)に提供するまでの、センサ信号のシーケンスを示す図。 第一の実施例において、センサからのセンシング方法を示した図。 第一の実施例において、端末から送られてくるセンサ信号から誰と対面をしているかを解析する集団解析のフローチャートを示す図。 第一の実施例において、センシングタイプ別に判定処理方法を示した図。 第一の実施例において、センサ信号を格納しておくセンサデータベース(SSDBSE)を示す図。 第一の実施例において、集団解析の結果を格納しておくグループ・個人データベース(ASDBGP)を示す図。 第一の実施例において、判別方法1のグループ・個人毎に特徴量を統合したセンサ信号を示す図。 第一の実施例において、判別方法1のグループ・個人毎の特徴量を個別に示したセンサ信号を示す図。 第一の実施例において、判別方法2のグループ・個人毎に特徴量を統合したセンサ信号を示す図。 第一の実施例において、判別方法2のグループ・個人毎の特徴量を個別に示したセンサ信号を示す図。 第一の実施例において、判別方法3の集団解析を行なうための特徴量を格納しておくグループ・個人別特徴量データベース(ASDBGPF)を示す図。 本発明の第二の実施例であるセンサ信号を送信する端末から集団解析結果を表示するアプリケーションまでの全体を示した図。 第二の実施例において、端末1(TR1)からユーザ(US)に提供するまでの、センサ信号のシーケンスを示す図。
符号の説明
TR…端末、BA…基地局、LA…ローカルエリアネットワーク、SS…ストレージサーバ、AS…アプリケーションサーバ、CL…クライアント。

Claims (16)

  1. 複数のセンサ端末と、前記複数のセンサ端末に接続される管理装置とからなる集団解析システムであって、
    前記センサ端末の各々は、相対的な位置検出を行う第一のセンサと、周囲の環境情報を取得する第二のセンサと、外部からの時刻同期指示に基づき、前記複数のセンサ端末の時刻同期を行う手段とを有し、
    前記管理装置は、
    前記センサ端末の各々から、前記第一のセンサと前記第二のセンサからのセンサ信号を取得する入出力部と、
    前記第一のセンサのセンサ信号を用いて前記センサ端末の初期グループを設定し、
    前記初期グループを形成する前記センサ端末の各々から受信した、前記第二のセンサのセンサ信号から前記初期グループの特徴量を抽出し、
    前記初期グループの前記特徴量と、前記初期グループに属さない前記センサ端末の前記第二のセンサのセンサ信号から抽出された、前記初期グループの前記特徴量に対応する特徴量とを比較することにより、前記初期グループに属さない前記センサ端末が属するグループを決定する解析部とを有する
    集団解析システム。
  2. 請求項1記載の集団解析システムであって、
    前記第一のセンサは指向性が高いセンサである
    集団解析システム。
  3. 請求項2記載の集団解析システムであって、
    前記第一のセンサは赤外線センサであり、
    前記管理装置は、前記初期グループの決定に際し、前記赤外線センサのセンサ信号を用いて前記センサ端末間の対面検知を行う
    集団解析システム。
  4. 請求項1記載の集団解析システムであって、
    前記第二のセンサは音を検出するセンサである
    集団解析システム。
  5. 請求項4記載の集団解析システムであって、
    前記初期グループの前記特徴量は、前記初期グループを形成する前記センサ端末の各々から受信した前記音を検出するセンサのセンサ信号の平均である
    集団解析システム。
  6. 複数のセンサ端末の集団解析を行う集団解析装置であって、
    前記センサ端末の各々から、外部からの時刻同期指示に基づき、前記複数のセンサ端末間で時刻同期された、相対的な位置検出を行う第一のセンサのセンサ信号と、周囲の環境情報を取得する第二のセンサのセンサ信号を取得する入出力部と、
    前記第一のセンサのセンサ信号に基づき前記センサ端末の初期グループを設定し、
    前記初期グループを形成する前記センサ端末の各々から受信した、前記第二のセンサのセンサ信号から前記初期グループの特徴量を抽出し、
    前記初期グループに属さない前記センサ端末の前記第二のセンサのセンサ信号から、前記初期グループの前記特徴量に対応する特徴量を抽出し、
    前記初期グループの前記特徴量と前記初期グループの前記特徴量に対応する前記特徴量とを比較することにより、前記初期グループに属さない前記センサ端末が属するグループを決定する解析部と
    を有する集団解析装置。
  7. 請求項6記載の集団解析装置であって、
    前記第一のセンサは赤外線センサであり、
    前記解析部は前記初期グループの決定に際し、前記赤外線センサのセンサ信号を用いて前記センサ端末間の対面検知を行う
    集団解析装置。
  8. 請求項6記載の集団解析装置であって、
    前記第二のセンサは音を検出するセンサである
    集団解析装置。
  9. 請求項8記載の集団解析装置であって、
    前記初期グループの前記特徴量は、前記初期グループを形成する前記センサ端末の各々から受信した前記音を検出するセンサのセンサ信号の時系列毎の平均である
    集団解析装置。
  10. 請求項6記載の集団解析装置であって、
    前記入出力部より入力される前記周囲の環境情報を取得する第二のセンサのセンサ信号は、前記センサ端末から送信される前記センサ信号の送信周期より短い期間サンプリングされた信号である
    集団解析装置。
  11. 請求項10記載の集団解析装置であって、
    前記解析部は、前記初期グループの前記特徴量を抽出する際、サンプリングされた前記センサ信号が時間軸上で重なる部分の平均を求める
    集団解析装置。
  12. 複数のセンサ端末と、前記複数のセンサ端末に接続される管理装置とからなる集団解析システムであって、
    前記センサ端末はそれぞれ、前記センサ端末を保有する人物間の相対的な位置情報を取得する第一のセンサと、前記センサ端末を保有する人物の環境情報を取得する第二のセンサと、外部からの時刻同期指示に基づき、前記複数のセンサ端末の時刻同期を行う手段とを有し、
    前記管理装置は、
    前記センサ端末それぞれから送信される、前記相対的な位置情報と前記環境情報を取得する入出力部と、
    前記相対的な位置情報を用いて前記複数のセンサ端末で形成される初期グループを検出し、前記初期グループを形成する前記センサ端末の前記環境情報から、場の環境を示す前記初期グループの特徴量を抽出し、
    前記初期グループに属さない前記センサ端末の前記環境情報から、場の環境を示す特徴量を抽出し、
    前記初期グループの特徴量と前記初期グループに属さないセンサ端末の特徴量を比較して前記初期グループに属さない前記センサ端末が属するグループを決定する解析部とを有する集団解析システム。
  13. 請求項12記載の集団解析システムであって、
    前記第一のセンサは赤外線センサであり、
    前記解析部は、前記初期グループの決定に際し、前記赤外線センサのセンサ信号を用いて前記センサ端末間の対面検知を行う集団解析システム。
  14. 請求項12記載の集団解析システムであって、
    前記第二のセンサは音を検出するセンサであり、
    前記解析部は、前記初期グループの特徴量として、前記初期グループを形成するセンサ端末により検出された前記音の値を示すセンサ信号の平均値を算出する集団解析システム。
  15. 請求項12記載の集団解析システムであって、
    前記管理装置に接続される表示部に、時系列上に、前記センサ端末を保有する人物が他の人物と同じグループに属しているか否かを表示する集団解析システム。
  16. 請求項12記載の集団解析システムであって、
    前記管理装置に接続される表示部に、前記複数のセンサ端末で形成される複数のグループを識別して表示する集団解析システム。
JP2007006151A 2007-01-15 2007-01-15 集団解析システム、および集団解析装置 Expired - Fee Related JP5127237B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007006151A JP5127237B2 (ja) 2007-01-15 2007-01-15 集団解析システム、および集団解析装置
US12/000,141 US7656274B2 (en) 2007-01-15 2007-12-10 Group analysis system and group analysis equipment
US12/654,249 US7936255B2 (en) 2007-01-15 2009-12-15 Group analysis system and group analysis equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007006151A JP5127237B2 (ja) 2007-01-15 2007-01-15 集団解析システム、および集団解析装置

Publications (3)

Publication Number Publication Date
JP2008171343A JP2008171343A (ja) 2008-07-24
JP2008171343A5 JP2008171343A5 (ja) 2010-02-18
JP5127237B2 true JP5127237B2 (ja) 2013-01-23

Family

ID=39617324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007006151A Expired - Fee Related JP5127237B2 (ja) 2007-01-15 2007-01-15 集団解析システム、および集団解析装置

Country Status (2)

Country Link
US (2) US7656274B2 (ja)
JP (1) JP5127237B2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10043060B2 (en) 2008-07-21 2018-08-07 Facefirst, Inc. Biometric notification system
US9721167B2 (en) 2008-07-21 2017-08-01 Facefirst, Inc. Biometric notification system
US9405968B2 (en) 2008-07-21 2016-08-02 Facefirst, Inc Managed notification system
US10929651B2 (en) 2008-07-21 2021-02-23 Facefirst, Inc. Biometric notification system
US10909400B2 (en) 2008-07-21 2021-02-02 Facefirst, Inc. Managed notification system
US9141863B2 (en) 2008-07-21 2015-09-22 Facefirst, Llc Managed biometric-based notification system and method
US20100023300A1 (en) * 2008-07-28 2010-01-28 Charles River Analytics, Inc. Sensor based monitoring of social networks
DE102008048163A1 (de) * 2008-09-19 2010-03-25 Continental Automotive Gmbh System zur Kollisionsaufzeichnung
JP5372588B2 (ja) 2009-04-24 2013-12-18 株式会社日立製作所 組織評価装置および組織評価システム
WO2011066409A1 (en) * 2009-11-25 2011-06-03 Interdigital Patent Holdings, Inc. Machine type communication preregistration
US9571576B2 (en) * 2010-11-30 2017-02-14 International Business Machines Corporation Storage appliance, application server and method thereof
US10049336B2 (en) 2013-02-14 2018-08-14 Sociometric Solutions, Inc. Social sensing and behavioral analysis system

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2709907B1 (fr) * 1993-09-09 1995-12-08 Info Telecom Procédé pour augmenter l'autonomie d'un récepteur d'informations, en particulier de radio-messagerie, et récepteur correspondant.
US6963920B1 (en) * 1993-11-19 2005-11-08 Rose Blush Software Llc Intellectual asset protocol for defining data exchange rules and formats for universal intellectual asset documents, and systems, methods, and computer program products related to same
JP3506471B2 (ja) * 1993-12-13 2004-03-15 富士通株式会社 移動端末と固定端末との間の呼処理方式
US6600917B1 (en) * 1999-10-04 2003-07-29 Telefonaktiebolaget Lm Ericsson (Publ) Telecommunications network broadcasting of service capabilities
US7181218B2 (en) * 2001-04-10 2007-02-20 Telefonaktiebolaget Lm Ericsson (Publ) Commanding handover between differing radio access technologies
JP2004028642A (ja) 2002-06-21 2004-01-29 Oki Electric Ind Co Ltd グループ検出対象無線端末の位置検出表示方法及び位置検出通信システム並びにプログラム
JP4604225B2 (ja) * 2005-02-21 2011-01-05 株式会社国際電気通信基礎技術研究所 インタラクションデータ抽出装置
US7480712B2 (en) * 2006-03-21 2009-01-20 21St Century Technologies, Inc. Computer automated group detection
US8189926B2 (en) * 2006-12-30 2012-05-29 Videomining Corporation Method and system for automatically analyzing categories in a physical space based on the visual characterization of people

Also Published As

Publication number Publication date
JP2008171343A (ja) 2008-07-24
US7656274B2 (en) 2010-02-02
US20080169919A1 (en) 2008-07-17
US7936255B2 (en) 2011-05-03
US20100097204A1 (en) 2010-04-22

Similar Documents

Publication Publication Date Title
JP5127237B2 (ja) 集団解析システム、および集団解析装置
US9384215B2 (en) File creation method and system
US7293104B2 (en) Location measurement process for radio-frequency badges
JP5776255B2 (ja) 端末装置、物体識別方法、プログラム及び物体識別システム
US9268006B2 (en) Method and apparatus for providing information based on a location
KR100754548B1 (ko) 전자 태그 위치 측위 이동통신 단말기 및 위치정보 제공시스템 및 서비스 방법
JP2012118838A (ja) 監視対象者の行動を監視する装置及び方法
KR20150011241A (ko) 장소를 추천하는 방법 및 그 장치
JP7459437B2 (ja) 複数テレビジョン測定のための方法および装置
JP2013105345A (ja) 情報登録装置、情報登録方法、情報登録システム、情報提示装置、情報提示方法、情報提示システムおよびプログラム
US20180322171A1 (en) Apparatus and method of operating the apparatus to provide contextual information for a device
EP3407168A1 (en) Determining full-body pose for a virtual reality environment
US20090175615A1 (en) Location determination method
JP2006195786A (ja) 画像データ検索方法・画像データ検索装置及びプログラム
JP5801690B2 (ja) 画像処理装置、画像処理方法
US11755650B2 (en) Information providing system, information processing device, and information providing method
JP6734487B2 (ja) 地域別笑顔度表示システム、地域別笑顔度表示方法及びプログラム
US20220327511A1 (en) System and method for acquiring training data of products for automated checkout
AU2021424417A1 (en) System for determining degree of interest, server device, program, and method for determining degree of interest
CN117409789A (zh) 信息处理装置、信息处理方法以及记录介质
WO2019026541A1 (ja) センサ管理装置、位置推定システム、位置推定方法及び位置推定プログラム
JP2013210220A (ja) 場所特定システム、場所特定辞書生成システム、場所特定方法、場所特定辞書生成方法およびプログラム

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100104

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120515

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121023

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121030

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5127237

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151109

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees