JP3835771B2 - コミュニケーション装置及びコミュニケーション方法 - Google Patents

コミュニケーション装置及びコミュニケーション方法 Download PDF

Info

Publication number
JP3835771B2
JP3835771B2 JP23740196A JP23740196A JP3835771B2 JP 3835771 B2 JP3835771 B2 JP 3835771B2 JP 23740196 A JP23740196 A JP 23740196A JP 23740196 A JP23740196 A JP 23740196A JP 3835771 B2 JP3835771 B2 JP 3835771B2
Authority
JP
Japan
Prior art keywords
unit
information
image
situation
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP23740196A
Other languages
English (en)
Other versions
JPH09307868A (ja
Inventor
修 山口
久 風間
和広 福井
薫 鈴木
英治 田中
恭弘 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP23740196A priority Critical patent/JP3835771B2/ja
Publication of JPH09307868A publication Critical patent/JPH09307868A/ja
Application granted granted Critical
Publication of JP3835771B2 publication Critical patent/JP3835771B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Facsimiles In General (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ユーザーの状況に応じてサービスの提供をかえることができるコミュニケーション装置及びコミュニケーション方法に関する。
【0002】
【従来の技術】
一般に、人間が情報機器を用いて、他人とコミュニケーションを取る場合、大きく分けて2つの場合がある。一つは電子メールに代表される非同期通信メディアを用いる場合であり、もう一つは電話などの同期通信メディアを使う場合である。
【0003】
これらの通信に関しては、メールアドレスまたは電話番号といったID番号を用いて相手を特定することが必要である。この場合、相手がどこにいるかどうかは意識する必要はなく、そのID番号に対して処理を行なえばよい。しかし、緊急で用件を伝える必要がある場合や、直接会って話をしたいといった場合には、その通信相手が、ある時間に、どこに存在して、どのような状態であるかを知る必要がある。
【0004】
「ある時間に、どこに存在しているか」を常に知る公知例としては、Active Badge(Harper,R.H.R.;Lamming,M.G.;Newman,W.M.,”Locating systems at work:implications for the development of active badge applications”Interact.Comput.(UK)(UK)vol.4,no.3:P.P.343−63(1992)がある。Active Badgeは、赤外線通信カードを各自が所持し、建物内のあらゆる場所に複数の受信装置を取り付けることにより、誰がどの範囲の取り付けられた場所にいるかを知ることができる方法である。このActive Badgeを用いたアプリケーションとして、だれが何処にいるかを表示する装置や、その人がいる場所にEWS(エンジニアリングワークステーション)の使用環境を移動させる、電話の転送を行なうなど方法が挙げられる。
【0005】
Active Badgeの問題として、相手がどこにいるかは分かるが、どのような状態であるかを知ることができない。すなわち、2次元的な地図での位置は特定できたとしても、その人が立っているのか、座っているのか、どこを見ているのかといったことは、わからない。
【0006】
またActive Badgeでは、受信装置が多くの場所にある環境では、逆にどこにいるのかを常時見地されることになるため、プライバシーを如何に保護するのかという問題がある。
【0007】
電子メール(非同期通信メディア)の場合、時間に制約されずに相手にメッセージを送ることが可能である。しかし、即座に読んでもらうことが必要な場合などは、適当ではないし、読了確認もできない。電話(同期通信メディア)の場合は、リアルタイムに相手とコミュニケーションできるものの、相手の状況を無視して、割込みをかける必要がある。逆の立場からは、邪魔されたくない場合にも、割込みをかけられることになる。
【0008】
【発明が解決しようとする課題】
このように従来のコミュニケーションツールの問題点として、(1)ある人に伝えたい情報をどのように伝えたいかを指定したり、(2)情報を受ける人がどのような状況であれば受けてもよいかを選択したりすることができないことが挙げられる。
【0009】
(1)の問題点については、電話、電子メール、FAXといった通信メディアを変更することで解決できる場合もあるが、動的に通信メディアを変更することができない。(2)の問題点については、主として、電話による割込みや、急を要するメッセージの伝達などは受ける人の行動状態を把握する必要がある。
【0010】
本発明は前記のような事情を考慮してなされたもので、誰がどこで何をしているかを推測し、これに基づいて必要とする情報の提示、必要とされる情報の検索を可能とするコミュニケーション装置およびコミュニケーション方法を提供することを目的とする。
【0011】
【課題を解決するための手段】
本発明は、画像を入力する手段と、画像入力手段により取得されたユーザの顔画像と予め蓄積された辞書画像とを照合することにより個人を認証する手段と、当該個人の認証結果と当該認証に用いられた画像の取得時刻と当該画像を取得した画像入力手段の設置場所に関する情報とを統合して状況情報を出力する手段とを備えた複数の情報処理装置と、前記複数の情報処理装置から出力された状況情報を蓄積する手段と、蓄積手段に蓄積された前記状況情報の内容を逐次更新する手段とを備えた応用サービス提供装置とからなるコミュニケーション装置及び方法において、前記複数の情報処理装置は、前記応用サービス提供装置の蓄積手段に蓄積された状況情報の内容を参照することにより、特定の画像入力手段の設置場所における特定の個人の現在の在席状況を出力する手段を更に具備することを特長とするコミュニケーション装置及び方法を提供する。
【0012】
これにより複数の情報処理装置(WSやパーソナルコンピュータ等)が通信手段(ネットワーク)によって接続されたコンピュータ環境において、画像入力手段(カメラ)によって撮影された画像から判断されるサービスの提供先の状況、例えばサービスを提供する相手先となる人間が、何処で、何をしているかなどに応じてメッセージを送信するといったサービスを提供できる。
【0013】
また本発明は、状況に応じた情報を入力する複数の入力手段と、前記入力手段によって入力された情報を、状況を表わす状況情報に変換する状況情報変換手段と、前記状況情報変換手段によって得られた状況情報を通信するための状況情報通信手段と、前記状況情報通信手段によって通信される状況情報に基づいて、サービスを提供するための出力情報を作成する応用サービス提供手段と、前記応用サービス提供手段によって作成された出力情報を転送するための出力情報通信手段と、前記出力情報通信手段によって転送される出力情報に応じて、サービスの提供先に存在する人間に対してサービスを提供するための複数の出力手段とを具備したことを特徴とする。
【0014】
また、前記状況情報変換手段は、前記入力手段によって入力された情報をもとに個別識別を行ない、その個別識別の結果を表わす状況情報を生成することを特徴とする。
【0015】
これにより、例えばネットワークを用いたコンピュータ環境において、同環境を利用する人間が、ネットワーク上の何処で、誰が、何をしているかといったことを通信手段を介して得られる状況情報から知ることができる。
【0016】
また、少なくとも1つの前記応用サービス提供手段が設けられ、前記応用サービス提供手段は、状況情報に基づいて提供すべきサービスがそれぞれ異なることを特徴とする。
【0017】
これにより、応用サービス提供手段を置き換えることで提供するサービスを変更することができる。
また、前記応用サービス提供手段は、前記状況情報生成手段によって生成される状況情報の履歴を識別対象毎に管理する情報管理手段と、前記情報管理手段によって管理される情報についての出力先を含む出力要求を受信する出力要求受信手段と、前記出力要求受信手段によって受信された出力要求に応じて、前記情報管理手段によって管理される履歴を用いて前記状況情報に基づく出力内容を生成し、要求された出力先に出力する内容生成手段とを具備したことを特徴とする。
【0018】
これにより、例えばネットワークを用いたコンピュータ環境において、同環境を利用する人間が、ネットワーク上の何処で、誰が、何をしているかといった情報を提供する情報管理機能をもつ応用サービス提供手段が実現される。
【0019】
また、前記応用サービス提供手段は、サービスを提供すべき提供先の状況を示す指示を受信する受信手段と、前記受信手段によって受信された指示を解釈する指示内容解釈手段と、前記指示内容解釈手段によって解釈された指示内容に応じて実行すべき行動を決定する行動決定手段と、前記行動決定手段によって決定された実行すべき行動に応じた状況となったかを、前記状況情報に基づいて判別する状況照合手段と、前記状況照合手段によって実行すべき行動に応じた状況となったことが判別された際に、前記行動決定手段によって決定された実行すべき行動に応じてサービスを提供する出力生成手段とを具備したことを特徴とする。
【0020】
これにより、サービスを提供すべき提供先の状況を示す指示、例えばメールによって通知されるサービス提供の指示(サービス提供先、その状況、サービス提供形態等)に応じてサービスを提供する応用サービス提供手段を実現できる。従って、同期と非同期とを混在させたサービスが提供するなど、より良いサービス提供(コミュニケーション)が可能となる。
【0021】
このような構成により実現される新たなコンピュータ環境は、第1に、人間はカメラ視野に入るだけで、自然にコンピュータ環境に取り込まれる、第2に、人間と人間、人間と情報とが効率良く結び付けられる、ことを特徴とする。実現されるコンピュータ環境のイメージを図2に示している。複数のカメラが存在する環境において、それらがネットワークによって結ばれており、それぞれ異なる人間の状態をシステムが検知する環境を構築する。
【0022】
第1の特徴については、WSの顔画像認識による自動ログインなどが考えられるが、本発明ではサービス開始/終了(login/logout)のためのセキュリティ機構として個人認証をシステムが持つのではなく、あらゆるサービスが常時行なわれる環境が存在している場合、その一つの構成要素となっている「人間」の状態を管理することが目的である。よって、カメラ視野(カメラによる撮影範囲)に入るだけで、何も持つ必要がなく、サービスが受けられる状態になり、第2の特徴である人間と人間、人間と情報とを空間的、時間的に効率良く結び付けることができる。
【0023】
これからの情報社会において、電子メールの通信量は増大し、非同期なコミュニケーションが多くなると予想されるが、さらに直接的なコミュニケーションを取る必要性も増す。これまでのように、情報の伝え方を通信メディアの変更によって制御する必要はなく、誰にどのような情報をどのように伝えたいかをシステムに伝えるだけで、システムは相手の行動情報に鑑みて、情報を伝達し、また、カメラに写るという行為を行なうだけで、情報が享受されるという環境を提供する。
【0024】
情報の送り手、受け手の状態(誰が何処で何をしているのか)を管理することにより、適切な情報交換が行なわれる環境(場)を構築するためには、ある時間、場所における、ある人間の動作をカメラ等で撮影した画像を解析することによって得られる「状況情報」が必要である。
【0025】
ここで「状況情報」とは、カメラの撮影範囲に入っている人間の動作、行動を記述したものをいい、例えば、椅子にすわっている、立ち上がっている、歩いている、ある方向を向いている。といった姿勢、話している、どこを見ている、表情などといった顔から得られる情報、腕をあげている、手の形状、ジェスチャなどの行動、また、だれなのかを特定するような、個人性、服装、髪型などの個人情報などを指す。
【0026】
画像情報から得られる状況情報をネットワークを通じて、情報交換することで、情報の発受信者の状況に応じた通信が行なわれることとなるため、従来のコミュニケーションツール(電話、電子メール、FAX等)と比較し、使いやすくなり、よりよい情報伝達ができる。
【0027】
また、Active Badgeのように、常に情報提供を行なっているわけではなく、カメラの撮影範囲に入らなければ、自分の所在を知らされない。すなわち、個人情報の公開を、カメラの撮影範囲に入るか否かで制御することができる。また、カメラでの撮影内容をそのまま、テレビ電話のように、直接伝送するのではなく、画像認識により「状況情報」に変換し、その情報を相互に交換する。よって、Active Badgeよりも、より詳細な情報を取得できるだけでなく、2つの観点から使用者に対するプライバシーの保護がなされることになる。
【0028】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態について説明する。図1は本実施形態に係わるコミュニケーション装置の構成を示すブロック図である。
図1に示すように、本実施形態におけるコミュニケーション装置は、一つ以上の入力部10、状況情報通信部12、一つ以上の応用サービス提供部14、出力情報通信部16、一つ以上の出力部18によって構成されている。
【0029】
入力部10は、一つ以上のマイク、キーボード、マウスなどの入力デバイス10aと、一つ以上の画像入力部10bと、状況情報変換部10cとを持つ。画像を入力するための画像入力部10bは、CCDカメラなどに対応した装置で、A/D変換の機能を有する。画像入力部10bも複数個あってもよい。状況情報変換部10cは、主として画像入力部10bから取得した画像を処理して、状況情報(詳細については後述する)を生成する。状況情報変換部10cは、この環境が整備されるそれぞれの場所に、入力デバイス10aや画像入力部10bと共に設置される。なお、状況情報変換部10cは、画像以外の複数の入力デバイスから得られた情報、複数の画像入力部10bから得られた情報を用いて状況情報を生成しても良い。
【0030】
状況情報通信部12は、入力部10において生成された状況情報を、応用サービス提供部14との間で送受信するために設けてある。
応用サービス提供部14は、状況情報通信部12を介して得られる複数の状況情報を解釈し、人間同志のコミュニケーションを補助するためのサービスを提供するための制御情報を生成する。応用サービス提供部14は、複数持つことができ、さまざまなサービスが同時に処理される。また、応用サービス提供部14のもつ制御情報は、相互に状況情報通信部12を通じて交換することができる仕組みを持つ。
【0031】
出力情報通信部16は、応用サービス提供部14によって生成された制御情報を、出力部18と送受信するために設けてある。
出力部18は、応用サービス提供部14が作成した制御情報を出力する。出力部18は、必ずしも、各入力部10に一対一で対応している必要はなく、またディスプレイなどの表示手段だけに限らない。
【0032】
図2は、図1に示す構成によって実現されるコミュニケーション装置(コンピュータ環境)のイメージを示している。図2に示すように、例えば複数のWSあるいはパーソナルコンピュータによる端末(情報処理装置)が、ネットワーク(状況情報通信部12、出力情報通信部16)によって接続される。各端末には、入力デバイス10aとしてキーボードが設けられ、出力部18としてディスプレイとスピーカが設けられ、画像入力部10bとして2つのカラーCCDカメラがディスプレイの上部に設置されている。状況情報変換部10cと応用サービス提供部14は、端末における情報処理機能によって実現される。状況情報変換部10cは、必ずしも、対応する入力デバイス10aと画像入力部10bが設けられた端末で実現される必要はない。また、応用サービス提供部14も特定の端末で実現される必要もなく、複数の端末間で協調して実現されても良い。
【0033】
次に、図1中における各構成部について詳しく説明する。
入力デバイス10aは、マウス、キーボード、マイクなどの画像入力装置以外の入力装置であり、通常の利用法の他に、状況情報を生成するための情報を入力するために使用してもよい。
【0034】
画像入力部10bは、CCDカメラ、赤外線カメラ、高感度カメラなどの画像入力装置であり、複数個の入力装置が設けられていても良く、状況情報を生成するための画像情報を入力するために使用される。本実施例では、カラーCCDカメラを持つものとして説明を行なう。
【0035】
状況情報変換部10cは、画像入力部10bから取得した画像情報を状況情報に変換する。ここで状況情報とは、画像入力部10b(カメラ)の撮影範囲に入っている人間の動作、行動を主として画像情報を解析、記述したものをいい、カメラの撮影範囲内に入ってる人間の状態を表した情報を指す。状況情報変換部10cは、個別識別を行ない、その個別識別の結果を表わす状況情報を生成する。
【0036】
ここで「状況情報」とは、そのカメラの撮影された時間に、画像内に写っている人が、誰かを特定する個人性を表す記述、椅子に座っている、立ち上がっている、歩いている、ある方向を向いている、といった姿勢に関する記述、話している、どこを見ている、表情などといった顔から得られる情報、腕をあげている、手の形状、ジェスチャなどの行動の記述、などを表す。
【0037】
さらに、人間から直接得られる情報だけではなく、人間が存在する状況を把握するために、画像内に写っている物体を認識して状況情報を生成してもよい。例えば、人間が座っている椅子の状態を判別して、在席/非在席の判断を行なうことや、ドアの開閉を監視しておくなどの物体の状態記述や服装や屋外の状況といったものが判断し「暑い」「寒い」といったような環境の記述などや、髪型、アクセサリ、服の色など個人性の記述する情報も状況情報として含む。
【0038】
本実施例では、画像情報から得られる状況情報しか述べないが、音声情報から得られる情報により、「話している」などの個人の状態情報の記述や、「自動車の音がする」といったような環境情報の記述なども状況情報として定義する。
【0039】
また、画像、音声などの情報を使わずに、各種センサからの情報に基づいた状況記述でもよい。
状況情報変換部10cの構成例を図3に示している。図3に示すように、状況情報変換部10cは、状況情報生成部10c1、通信部10c2から構成されている。
【0040】
状況情報生成部10c1は、入力デバイス10aまたは画像入力部10bから取得した入力情報から状況情報を生成する。
通信部10c2は、状況情報生成部10c1によって生成された状況情報を送信、あるいは他の端末からの状況情報を受信するために、通信パケットのヘッダの解釈、パケットの生成、パケットの送受信を行なう。
【0041】
さらに状況情報生成部10c1は、図4に示すように、状況情報生成部10c1は、人検出部20、個人認証部21、頭部方向推定部22、視線方向推定部23、口形状動作推定部24、腕動作推定部25、状況情報統合部26からなる。以下、それぞれの詳細について説明する。
【0042】
(a)人検出部20
人検出部20では、画像入力部10bによって撮影された画像中から人間を抽出する。人検出部20は、図5に示すように、差分検出部20a、顔検出部20b、肢体検出部20c、スコア統合部20d、人数計数部20eによって構成される。
【0043】
まず差分検出部20aにおいて、画像入力部10b(CCDカラーカメラ)の設置された撮影環境において、誰も撮影されていない状況での画像取得をあらかじめ行なっておき、その画像との差分画像を生成し、変化のあった場所だけから顔、または肢体を検出する。差分画像を生成、検出する方法には、例えば(H.Nakai:”Non−Parametrized Bayes Decision Method for Moving Objecet Detection”,Proc.Second ACCV.Vol 3.pp447−451(1995))などがある。
【0044】
検出された領域について、2つの処理を行なう。一つは検出された領域に濃淡画像情報をそのまま用いて、顔の検出を行なうもの、もう一つは、検出された領域を二値画像として扱い、領域の配置、属性の関係を用いて肢体の検出を行なうものである。
【0045】
顔検出部20bでは、さまざまな方向からみた顔の画像データから、それぞれの方向の平均顔画像データ(辞書画像)を作成しておき、その辞書画像とのマッチングを行なうことにより検出を行なう。
【0046】
辞書画像の大きさは固定とする。大きな画像として記述すると、マッチングに非常に時間を要するため、30×30程度の大きさのものを用意する。その辞書画像を用いて、さまざまな大きさの顔を検出できるようにするため、撮影した画像の解像度を変化させ、辞書画像とマッチングを行なう。
【0047】
マッチングの度合(類似度)については、使用するマッチング方法に応じた類似度、例えば相関、単純、複合、混合類似度などにより設定し、ある閾値のもの以下のものは候補から取り除く。画像中で、高い類似度をもつ場所に顔が存在すると判定し、各候補に対して類似度に応じた信頼度が決定される。候補の数は、複数あってもよい。
【0048】
肢体検出部20cは、差分検出部20aによって生成された二値画像を用いて得た、差分画像の場所について再度、撮影したカラー画像から、例えば色相情報、彩度情報、明度情報に基づいて、領域分割を行ない、ラベリングする。肢体検出部20cは、それらの領域の位置情報、形状情報、色相、明度といった属性情報を用いて、人間の肢体の部分に該当する領域と考えられる組合せを抽出する。肢体検出部20cは、抽出した領域の組合せ(人間の肢体の部分に該当すると考えられる領域)の形状、面積などから、足、胴、腕などとの形状モデルに対する信頼度を定義し、その信頼度の総和が最も最大となる組合せの領域を人間の肢体の部分として抽出する。
【0049】
顔検出部20b、肢体検出部20cは、それぞれ人間が存在すると考えられる場所について、頭の位置、体の位置、腕の位置などと信頼度を記述した情報をスコア統合部20dに送る。
【0050】
スコア統合部20dでは、顔検出部20bと肢体検出部20aから得られた顔位置と肢***置の仮説を統合し、それぞれの存在確率を2次元空間に投票する。人数係数部20eでは、スコア統合部20dによって投票された、仮説についての存在確率を統合的に判断し、画像中に何人の人がどのように撮影されているかを決定する。
【0051】
存在確率を投票した空間に対し、ある閾値を決定し、その閾値よりも高い部分を人間がいるとして、撮影された人数、撮影された人の位置、大きさ(画像中の領域)、概略向き、頭位置、***置、腕位置など位置の情報を記憶する。
【0052】
ここで閾値は、予測できる情報、環境の場合に応じて変化させる。例えば、午前と午後などの日照条件の変化による全体的な閾値の設定方法の改善や、人間が、ある場所から画像入力部10bによる撮影範囲に動いていることがわかっている場合には、前の場所において、肢体の大きさなどが推定されているため、撮影範囲においては、予測される画像中の位置によって、予めその領域付近の閾値を変化させるなどの制御を行なう。これらに用いるパラメータは、実装によって求められる。
【0053】
図6には人検出部20による処理過程を示している。画像入力部10bによって撮影された画像中から差分検出部20aによって検出された図6(a)に示す入力画像(差分画像)をもとに、顔検出部20bは、図6(b−1)に示すように、顔位置の候補とそれぞれの信頼度を求め、肢体検出部20cは、図6(b−2)に示すように、肢***置の候補とそれぞれの信頼度を求める。スコア統合部20dは、顔検出部20bと肢体検出部20cによって投票された各候補と信頼度を、図6(c)に示すようにして統合する。人数計数部20eは、スコア統合部20dによって図6(c)に示すように統合された中から、例えばしきい値を「1.0」としてしきい値処理を行ない、図6(d)に示すような結果を得る。この例では、2人が撮影されているものと推定される。
【0054】
(b)個人認証部21
個人認証部21は、人検出部20によって得られた顔位置に撮影されている顔が誰であるかを認証する。認証の方法としては、登録された人の中からの識別が主となる。個人認証部21は、図7に示すような構成をとる。個人認証部21は、正規化部21a、照合部21b、辞書蓄積部21c、及び評価部21dによって構成されている。
【0055】
正規化部21aは、人検出部20(顔検出部20b)によって検出された顔位置の画像から目の位置を検出し、その目の位置をもとにして後段の照合部21bにおける処理のために、辞書蓄積部21cに蓄積された辞書画像と同じ大きさの画像(正規化画像)を生成(正規化)する。
【0056】
照合部21bは、正規化部21aによって正規化された顔の部分に画像について、辞書蓄積部21cに蓄積された複数の辞書画像とそれぞれ照合する。本実施形態において照合部21bは、複合または混合類似度を用いて入力画像と辞書画像との類似度を算出する。
【0057】
辞書蓄積部21cは、認識対象とする人のそれぞれについての辞書画像が予め蓄積されている。
評価部21dは、辞書蓄積部21cに登録された辞書画像(認識対象とする人の数分)のそれぞれについて得られた複数の類似度値のうち最大の類似度値をもつ辞書画像を認識結果、すなわち辞書画像に対応する人の顔が入力画像に含まれているものと決定する。ただし、類似度値が、予め指定した閾値よりも低い場合は、撮影された人が誰であるかを決定せずに認識不能とする。
【0058】
個人認証部21は、先に人検出部20で検出された人の数だけ、複数人の照合が行なう。
(c)頭部方向推定部22
頭部方向推定部22は、人検出部20で検出された、顔の向き、肢体の見え方(頭位置、胴位置、腕位置など)から頭部方向を推定する。
【0059】
頭部方向推定部22は、人検出部20によって検出された顔位置の付近の濃淡情報を用いて、複数の顔モデルのパターンと照合することにより顔が向いている方向を推定する。パターンと照合する際の類似度としては、相関を用いた公知例(塚本、李、辻:複数のモデルによる頭の動き推定、信学論Vol 77−D−II,no.8,pp.1582−1590(1994))が存在するが、ここでは、複合類似度を用いてパターンの類似度を調べ、顔の向きを決定する。
【0060】
また、頭部方向推定部22は、目、鼻などの特徴点から顔の向きをだす方法として(ディシルバリヤナゲ、相澤清晴、羽鳥光俊:人間の顔の向きの推定:信学技報PRU−94−18(1994))などを用いて、顔の向きを決定しても良い。
【0061】
また、頭部方向推定部22は、肢体の方向も同様に、人検出部20で検出された領域グループ(足、胴、腕等を含む)の画像とパターンとを照合して向きを求める。
【0062】
(d)視線方向推定部23
視線方向推定部23は、画像入力部10b(カラーCCDカメラ)によって、離れた位置から撮影された画像中の顔の位置の目または目の付近から得られる特徴量を使って視線方向を推定する。
【0063】
視線方向の検出方法としては、特開平4−255015号における、視線の相対的な移動量を瞳の輪郭データを抽出瞳の中心座標の変化から求める方法や、特開平3−17696号における、ワードプロセッサ等のカーソル位置を視線によって制御することを目的として、目の領域を瞳孔中心を通る垂直線と水平線で分割し、分けられた領域の面積比を特徴量として、視点位置を算出する方法を利用することができる。
【0064】
本実施例では、目頭、目尻と瞳の中心の相対的な位置関係を特徴ベクトルとして、その特徴ベクトルを線形識別し、パターン認識によって、顔の方向に対してどの方向を見ているかを推定する。
【0065】
(e)口形状動作推定部24
口形状動作推定部24は、人検出部20によって検出された顔位置の画像中の口の部分から、口の開閉を検出する。口の開閉の検出方法として、(間瀬、A.Pentland:オプティカルフローを用いた読唇の試み、電子情報通信学会論文誌D−II,Vol 73−D−II,no.6,pp.796−803,(1990))や(A.L.Yuille,P.W.Hallman,D.S.Cohen:Feature Extraction from Faces Using Deformable Templates,Int.Jon.Comp.Vis.,Vol18,no.2,pp.99−111(1992))を用いることができる。
【0066】
本実施例では、例えば口の多段階の開閉具合(開閉度)に応じた開閉パターンをそれぞれ5種類用意し、各パターンと入力画像中の口の部分とマッチングした結果、一番近いパターンに応じた開閉度を、現在、画像入力部10bにより撮影の対象となっている人の口の開閉状態とする。時間の経過に伴って各時点での口の開閉度を判別し、それら口の開閉度の頻度情報を求めることによって、話している、あくびをしているなどを検出する。
【0067】
(f)腕動作推定部25
腕動作推定部25は、例えば色相情報を用いた手検出による方法を用いる。腕動作推定部25は、人検出部20で行なった領域分割の結果から、顔領域ではなく、肌色の色相をもつ領域を手領域候補とする。この手領域候補は、顔位置との相対的な位置関係や、領域の大きさなどのいくつかの制約に基づいて選択される。腕動作推定部25は、手領域の重心位置を特徴量として取り出し、時間の経過に伴って入力される画像中の手領域の重心位置の変化から腕の動作を推定し、さらには歩いている、手を振っているなどの動作の検出を行なう。
【0068】
(g)状況情報統合部26
状況情報統合部26は、上記した各処理部21〜25における画像解析の情報を統合し、ある人間の状態の記述(状態情報)を生成する。状況情報統合部26は、図8に示すように、統合部26a、時刻発生部26b、場所情報記憶部26c、履歴記憶部26d、統合行動認識部26e、統合情報記憶部26fから構成される。
【0069】
統合部26aは、各処理部21〜25における検出結果(認識結果、推定候補)を入力して統合する。統合部26aは、統合結果を統合行動認識部26eに出力すると共に、人検出部20において検出されている人数に対応して履歴記憶部26dに用意される、図9に示すような状況登録テーブルのスロットに、各処理部21〜25におけるそれぞれの検出結果を登録する。
【0070】
時刻発生部26bは、画像取得、認識処理時間の間隔を考慮して、その間隔が表現できる単位まで記録できるように日付、時刻を発生する。時刻については、画像取得が行なわれた時刻を記録する。
【0071】
場所情報記憶部26cは、画像入力部10b(カラーCCDカメラ)が設置されている場所に基づく情報について記述したもので、例えば撮影範囲を考慮したとき、撮影された画像中での人の大きさから、人とカメラまでの距離がどの程度になるかといった情報や、先に各情報の検出時に使用した画像に対する座標系の設定方法、大域的な設置場所の位置情報が記憶される。なお、これらの情報は、ある記憶場所に統合的に管理しておき、その識別番号のみを各状況情報変換部10cで発生させる方法でもよい。
【0072】
履歴記憶部26dは、統合部26aで生成された情報を時系列で記憶、蓄積するもので、統合行動認識部26eが過去の情報を必要とする際に参照される。
統合行動認識部26eは、状態の時間的変化をもとに画像中の人物の行動を認識するもので、例えば口の開閉が連続的に行なわれている時には話をしている、あるいは連続的に位置が移動し、腕が振られていることから歩いているということを、時系列パターンを入力し、統合情報記憶部26fに記憶された行動認識用の辞書を参照することにより行動を認識する。
【0073】
統合情報記憶部26fは、統合行動認識部26eによる認識用の辞書を記憶するもので、時系列データからHMM(Hidden Markov Model)などを用いて学習を行なっておく。
【0074】
また、状況情報生成部10c1は、人の出入り、大きな姿勢の変化など、現在時間をtとするとき、t−1時間の差分情報が大きな差を示す場合、この差分情報を状況情報の1つとして通信部10c2に送る。
【0075】
先の図9に示す状況登録テーブルに書かれた情報は、センサ取得情報と呼び、認識した結果、変化のあった情報は、行動情報と呼ぶ。行動情報は、図10のような行動情報テーブルに、行動の内容と、その行動が行なわれていたかどうか(yesまたはNoが記されている。
【0076】
状況情報統合部26によって生成される状況情報には、図11に示すように、1)センサ取得情報、2)差分情報、3)行動情報、4)構造化情報がある。
1)センサ取得情報は、各検出部21〜25から出力そのままを数値化し、ベクトル化したもので、状況情報としては下のレベルになる。
【0077】
2)差分情報は、1)の状態からある状態に変化したという差分情報を表す。3)行動情報は、人間の単純な行動が行なわれたかどうかを記述したものを指す。
【0078】
4)構造化情報は、各応用サービス提供部14(詳細については後述する)で作成された、高度な状況記述である。他の応用サービス提供部14がそれらの情報を必要とする場合に、参照が可能である。例えば、図2に示すような環境内において、誰がどこにいるのかを常時捜す手続きなどは、多くの応用サービス提供部14にとって必要となる。その場合は、応用サービス提供部14に状況情報を送信できる。これについては、ダイナミックリンク管理システムを例にして後述する。
【0079】
次に、状況情報通信部12について説明する。状況情報通信部12は、有線、無線などの形態や、低レベルなプロトコルなどは問わない。以上の実施形態では、現在の主流となっているTCP/IP(Transmission Control Protocol/Internet Protocol)による手段を用いて説明する。図1中の太実線で描かれた通信経路には、状況情報のみが流れる。
【0080】
状況情報は、図12で示されるように、送信ID、発信ID、内容ID、内容からなる状況情報パケットとして通信される。
送信IDには、状況情報を生成した構成部(状況情報変換部10c)のIDが記され、受信IDには、受けとる応用サービス提供部14のIDまたはブロードキャストID(通信手段(ネットワーク)につながっているノードすべてを対象とする)が記される。内容IDには、状況情報の種類が記され、内容には、生成された情報そのものが記される。
【0081】
また、応用サービス提供部14における状況情報参照部30(後述する)を用いて、状況情報の参照要求を状況情報統合部26等に出す場合の送信要求パケットは、図13のように、送信先ID、発信元ID、要求内容の形式を持つ。
【0082】
送信先IDには、ブロードキャストIDも設定でき、要求内容を持っている受信部は、その送信先に状況情報を送出する。これらの通信パケットを利用して、図14のような、通信プロトコルができる。
【0083】
図14(1)は、状況情報を生成する部分から、通信手段につながる全ての状況情報参照部30(応用サービス提供部14内)への情報提供である。
図14(2)は、状況情報参照部30からの要求に対して、状況情報変換部10cから情報提供をするばあいである。
【0084】
図14(3)は、状況情報参照部30からの要求が、すべての状況情報変換部10cに投げられ、要求内容を持つものだけが、状況情報参照部30への情報提供を行なう。
【0085】
これら3つの通信プロトコルを使って、状況情報を相互に通信する。これらの通信プロトコルは、それぞれの応用サービス提供部14におけるサービス内容に応じて、選択され使用される。
【0086】
応用サービス提供部14は、図15に示すように構成される。応用サービス提供部14は、大きく4つのブロックからなり、状況情報参照部30、アプリケーション制御部32とアプリケーション入出力部34とアクション作成部36から構成される。各部30,32,34,36のそれぞれの詳細な構成は、アプリケーションの内容によって、さまざまな構成をとる。
【0087】
状況情報参照部30は、複数の状況情報変換部10c、または他の応用サービス提供部14によって生成された状況情報を状況情報通信部12を通じて、取得、蓄積、更新、送信要求を行なう。図16に状況情報参照部30の構成例を示す。状況情報参照部30は、通信部30a、記憶部30b、制御部30cによって構成される。
【0088】
通信部30aは、先に指定したパケットを用いた通信を行なうための通信プロトコルで規定されたように、要求パケットの生成、状況情報パケットの受信、解釈を行なう。記憶部30bは、通信部30aによって受信され、制御部30cで必要となる状況情報を、管理テーブル内に記憶する。制御部30cは、アプリケーション制御部32からの要求に基づいて、記憶部30bに登録されている状況情報の、送信、管理、更新などを行なう。また、記憶部30bに存在せず、アプリケーション制御部32で必要となる状況情報は、状況情報通信部12を介して取得するが、その取得方法や通信プロトコルの選択も行なう。
【0089】
送信された状況情報はアプリケーション制御部32に送られる。アプリケーション制御部32は、人間同志の円滑なコミュニケーションを行なうためのサービスについての情報処理を行なう。状況情報参照部30によって得られた状況情報を用いて、サービス対象とする人の特定サービス内容の生成等を行なう。
【0090】
アプリケーション入出力部34は、アプリケーションの制御に必要かつ状況情報でないような情報、例えばサービス提供に関する依頼あるいは応答のためのメール等を状況情報通信部12とは別の通信経路(図示せず)を介して入出力する。ただし、ここでの通信経路は、論理的には状況情報通信部12または出力情報通信部16とは別であっても、物理的に同じネットワーク経路上であっても勿論良い。
【0091】
アクション作成部36は、出力部18の選択、出力部18への出力情報の作成、出力部18への送信などを行なう。
応用サービス提供部14における具体的な動作については後述する。本実施形態では、サービスを提供する応用サービス提供部14を変更することで、任意のサービスを提供することができる。
【0092】
応用サービス提供部14は、同時に複数個のものを使用可能である。それぞれの応用サービス提供部14は、それらを識別するためのIDを持っており、そのIDを通信パケットに記すことで他の手段(状況情報変換部10c、他の応用サービス提供部14等)から認識される。
【0093】
出力情報通信部16は、応用サービス提供部14によって選択された出力部18に情報を送信するために使用される。状況情報通信部12と同様に、有線、無線などの形態や、低レベルな通信プロトコルなどは問わない。本実施形態では、現在の主流となっているTCP/IPによる手段を用いて説明する。図1中の一点鎖線で描かれた通信経路(出力情報通信部16)には、以下のような情報が流れる。
【0094】
情報通信のプロトコルは、図17に示すように、送信ID(発信元のID)、受信ID(出力部18のID)、メディア識別ID、出力内容から構成されるパケット(出力情報パケット)を生成し、そのパケットが移動する。
【0095】
受信IDに、ブロードキャストIDが書かれている場合、全ての出力部18に情報が送られる。メディア識別IDに依存して、適合する出力メディアには、出力内容が出力される。
【0096】
次に、出力部18について説明する。出力部18は、ディスプレイなどの表示部だけに限らず、プリンタやメモリ、ハードディスク、他のネットワーク、電化機器のスイッチなどといったものでもよい。
【0097】
出力部18は、図18のように、メディアID解釈部18a、内容解釈部18b、出力メディア18cにより構成される。メディアID解釈部18aは、応用サービス提供部14から送信される出力情報パケットのメディア識別IDを解釈する。内容解釈部18bは、出力情報パケット中の情報の内容を解釈する。出力メディア18cは、内容解釈部18bによって解釈された情報の内容を出力するもので、複数のメディアが含まれていても良い。
【0098】
出力部18の動作を示すフローチャートを図19に示している。メディア識別IDには、例えば出力メディアを示すText,Sound,Voice,Switch,Printer,Display,Memory,Network,Xwin Protocol,Mailなどがある。
【0099】
出力部18は、メディアID解釈部18aによって、これらの識別IDを認識し(ステップA1)、自分の出力メディア18cに変換できないようなメディアを示す場合(ステップA2)、すなわち出力不可能な場合には無視して出力停止する(ステップA3)。
【0100】
内容解釈部18bは、パケットから内容部分を取り出し、出力内容の変換を行なう(ステップA4)。変換せずにそのまま出力メディア18cに送ることができる内容のものはそのまま送られる。Textのように、一般的な形式のものは、変換部が内容解釈部18bに備わっている場合、内容を出力できるように変換し(ステップA6)、出力メディア18cに送る。出力メディア18cは、内容解釈部18bから送られた信号を出力する(ステップA7)。
【0101】
例えば、よりリアリスティックなCG(コンピュータグラフィクス)映像を表示させたい場合などは、メディアとしてXwin Protocol(例えば、Nye,Adrian,”The Xlib Programing Manual”,O’Reilly and Associates.(1988)に記載されている)を用いることで、X−Windowが管理するディスプレイにCG画像を表示できるように内容解釈部18bにX−Serverを採用すればよい。
【0102】
各出力部18では、応用サービス提供部14において、作成された出力内容を出力する。どのような出力内容を生成するか、どの出力メディア使用するかは、各応用サービス提供部14において選択される。
【0103】
次に、前述した環境を利用した具体的なサービス応用例の動作について説明する。ここでは、(A)ダイナミックリンク管理システムと、(B)状況把握コマンドシステムと、(C)在席管理システムと、(D)状況適応型メッセージ伝達システムの4つを例にして説明する。
【0104】
(A)ダイナミックリンク管理システム
ダイナミックリンク管理システムは、誰がどこにいるのかを常時管理するシステムである。状況情報を他の応用サービス提供部14に提供し、特別な応用サービス提供部14として存在する。
【0105】
ダイナミックリンク管理システムを実現する場合、応用サービス提供部14は図20に示すように構成される。図20で示すように、アプリケーション制御部32は、情報管理部32a、履歴記憶部32bによって構成される。アクション作成部36は、表示内容生成部36aを構成する。アプリケーション入出力部34は、出力要求受信部34aを構成する。
【0106】
こうして構成されるシステムにおいては、状況情報通信部12にブロードキャストされる個人識別情報のみを更新し続ける。
状況情報参照部30の制御部30cは、個人識別情報の差分情報(行動情報)を受けとり、記憶部30aに記憶される。この応用サービス提供部14では、状況情報参照部30における通信部30aは、送信要求パケットも受けとり、その場合、通信部30a内の管理テーブルの内容を構造化情報として、状況情報を送信する。
【0107】
アプリケーション制御部32の履歴記憶部32bは、現在、環境内に検出可能な人間についての管理テーブルの内容を持つ。情報管理部32aは、状況情報参照部14の記憶部30a(管理テーブル)の最新の情報を受け、履歴記憶32b内の管理テーブルの内容を更新する。また、情報管理部32aは、履歴記憶部32bにある管理テーブルの内容を受けとり、これまでの履歴、現在の情報など、複数の出力内容の編集を行なう。
【0108】
出力要求受信部34a(アプリケーション入出力部34)は、情報管理部32aで編集された内容を出力すべき出力部18を特定する出力要求を受けとる。出力要求は、図示せぬ通信部を介して出力要求受信部34aに通知される。
【0109】
表示内容生成部36a(アクション作成部36)は、情報管理部32aで作成された編集内容を、出力要求のあった出力部18へ送信する。
出力情報の形態については問わず、例えば、WWW(HTML)、電光掲示版、ファイル、プリンタ、メール、表示版などさまざまなものがあってよい。
【0110】
(B)状況把握コマンドシステム
現在のネットワークコンピュータシステムにおいて、それぞれのコンピュータシステムの状態を知るためのコマンド、プログラムがいくつか用意されている。例えばUNIXオペレーティングシステムにおける環境ではw.rwho.fingerなどのコマンドを用いて、各マシンの状態の他に、どのマシンに誰がログインしているかという情報やその人がメールを読んだかどうか、どんなプログラムを使用しているかなどの情報を手に入れることが出来る。
【0111】
これらのコマンドの高度化として、各個人がどのような状態であるかを記述した情報を公開するコマンドを構成する。例えば、このコマンドを用いた場合、上述したようなコマンドでは不可能であった「ある状態の人だけをリストアップする」といったことが可能になる。各端末の付近にいる人の「状況情報」を参照することによって、「端末の前で話をしている人」「端末の前にいるが画面をみていない人」といったような情報を取得することができる。この情報を用いて、該当する人とコンタクトをとる、該当する人のリストを利用したアプリケーションの実行を行なう。
【0112】
このようなコマンドを用意することで、現在のネットワークコンピュータシステムにおいても、コミュニケーションを円滑にすすめることの出来るツールを容易に作成、使用することが出来る。
【0113】
状況把握コマンドシステムを実現するために、応用サービス提供部は図32のような構成を取る。アプリケーション制御部は情報管理部と履歴記憶部によって構成される。アプリケーション入出力部は、コマンド入力部、オプション解釈部からなる。アクション作成部はコマンドの実行結果を生成する表示内容生成部、と出力部からなり、コマンド入力があった端末に結果を送る。
【0114】
ここでは、UNIXシステムを利用した実施例について述べるが、もちろん他のオペレーティングシステムなどでもよいし、専用のシステムにおける実装でも構わない。
【0115】
各部の動作の説明をする。まず、アプリケーション入出力部は、UNIXシステムにおけるシェルプログラムで受け取られたコマンドと機能指定を行なうためのオプション部分を解釈する。ここでは、コマンドの名称を「ew」とする。利用者はシェルプログラムに、「ew−?」などと入力することで、コマンドが実行され、オプション指定した所望の情報を得ることができる。受け取ったコマンドをコマンド入力部に記憶し、そのコマンドのオプション部分を処理する。オプションの内容に応じて、検索する情報の内容や種類、表示方法などを変更する。オプションの種類として、人がいるのかいないのかを調べるオプションはもちろん、どのような行動をしているかを調べるものや、まわりの状況を認識した結果を返すものなどを用意する。本実施例では、次のように、1)誰が端末の前にいるか、2)どんな姿勢でいるか、3)どんな行動をしているか、の3つの例について述べる。
【0116】
アプリケーション制御部では、情報管理部は、先のオプションの指定によって、状況情報参照部から取得する情報の種類を選択するための、パケットの解釈を行なう。例えば、図12に示したような状況情報パケットを受け取り、内容IDが誰が存在するかを記述した内容であれば、その内容を履歴記憶部に、端末ごとに整理してその情報を書き込む。履歴記憶部には、過去の履歴も記憶してあり、ある状態がどのくらい続いているかどうかを表示するための情報にもなる。
【0117】
誰がどのような属性であるかを調べる必要があるため、個人識別により存在が確認された場合、それぞれの個人に対して、記憶スロットが用意され、姿勢、行動などの属性を記憶できるようにする。細かな属性情報が必要な場合は、各スロットに記述された情報を出力する。
【0118】
アクション作成部における表示内容生成部は、履歴記憶部にかかれた情報を、実行結果として出力するために、端末順にソーティングし、各記憶スロットに記述された情報を表形式にまとめ、出力する。これは後で列に示すように、コマンドの出力を別のコマンドで処理できるようにするためである。出力部では、その文字情報をコマンドが入力された端末に送信する。本例ではシェルプログラムの標準出力への結果が表示される。
【0119】
表示例としていくつか示す。1)誰がいるかを探す場合は、
ews-001 tanaka 3.25 mitutes
ews-002
ews-003 yamada 30.0 mitutes
ews-004 suzuki 70.0 mitutes
2)人の大きな動作を知る場合には、
ews-001 tanaka sitting
ews-002
ews-003 yamada sitting
ews-004 suzuki sitting takeda standing
3)人の更に細かな動作を知る場合には、
ews-001 tanaka gaze-screen
ews-002
ews-003 yamada gaze-other
ews-004 suzuki speaking takeda speaking
実際例としてUNIXのシェルシステムから、話している人を見つけたい場合、
%ew -h 1 grep speaking(入力)
ews-004 suzuki speaking takeda speaking(出力結果)
とすることで検索することが可能になり、コミュニケーションを始めようとする段階で、その場所に行かずとも状況を把握することができ、スムーズにコミュニケーションを開始することができるようになる。さらに、これらの情報を用いて、「画面を見ていないで、長時間座っている人を集める」といったある属性の人を取捨選択することなどにも利用可能である。もちろんこのコマンドは更に他のシステム、コマンドから利用することも可能である。
【0120】
(C)在席管理システム
次に、在席管理システムの実施例について説明する。在席管理システムは、各システムの使用権を管理するシステムであり、システムの利用者が、席を離れた場合、それまで使用していた人以外の人が利用しようとした場合には、その使用を禁止し、利用者が戻って来た場合には、使用権を戻す。
【0121】
セキュリティのレベルには2段階ある。レベル1は、席を離れていることがわかる場合、他人が座るかどうかをチェックするもの、レベル2は席についているものの顔を向けていない場合にシステム画面を他人に見せないようにするものである。
【0122】
レベル1は、誰であるかを認識することに加え、席についているかどうかを確実にとらえることが必要となる。レベル2では、席についているかどうかを常に監視するとともに、顔の向きを検出しておくことにより、画面を表示するかどうかを決定する。
【0123】
在席管理システムを実現するために、応用サービス提供部は、図13のような構成を取る。アプリケーション制御部は、照合管理部、使用者記憶部、アクション作成部は、スクリーンセーバ起動部、スクリーンセーバ停止部、からなる。この構成では、アプリケーション入出力部は、特に設けなくても良い。
【0124】
まず、使用者記憶部では、システムの使用者を使用時間、ログイン情報などから決定し、使用者を記憶する。使用者が席から離れたかどうかは、状況情報参照部に送られて来る情報を照合管理部が照合することにより検知する。具体的には、送信される状況情報の差分情報を常に管理することにより、座席に変動があった場合のみ情報の更新を行なうようにする。離席が検知されると、アクション作成部にそれを伝え、スクリーンセーバ起動部が、スクリーンセーバを起動し、画面上に表示されているものを隠蔽する。
【0125】
スクリーンセーバは、他の利用者が来た場合には解除されることなく、使用権を確保できる。利用者が席に戻って来た場合には、個人識別情報を照合管理部によって、当人かどうかを照合し、利用者であると確認された場合には、アクション作成部にそれを伝え、スクリーンセーバ停止部は、スクリーンセーバを停止する。
【0126】
さらに、席をついている場合でも、顔の向きを検出しておき、顔の向きが大きく変わり画面を見ていない場合には、ウインドウをロックする。また、画面を見るように顔の向きを変化させた場合、ウインドウロックを解除する。これにより、重要な機密情報等が画面上に表示されている場合、自分がみていない時に画面の情報を他人に見せないように出来る。
【0127】
状況情報を用いることによって、より細かな画面表示の制御が可能であり、他人と対面的な会話を行なっている場合でも、重要な情報の守秘などが行なわれ効果的である。
【0128】
(D)状況適応型メッセージ伝達システム
図2のようにカラーCCDカメラ(画像入力部10b)が各端末に備え付けられ、各状況情報変換部10cに対して、一対一に対応するディスプレイのような出力部18を装備するEWS(エンジニアリングワークステーション)のネットワーク環境における、状況適応型メッセージ伝達システムを例にして説明する。
【0129】
現在のメールシステムの拡張として、メール(メッセージ)をどのように転送して欲しいかを指定することで、システムがそれを解釈し、指定された送信形態、状況になった場合や、ある属性をもった人に対してメッセージを送信、表示させる方法を、先に説明した環境において構築する。
【0130】
具体的な例として、現在のInternetを利用したSMTP(Simple Mail Transfer Protocol)によるメール転送において、Statusフィールドといった、相手の状態、送信形態を記述、追加した拡張例を考える。
【0131】
1)緊急事項を伝える場合
From:sato
To:suzuki
Status:urgent
システム動作:ネットワーク内をさがして、呼び止めてでも伝える。
【0132】
2)適応な時間までには見てもらえることを設定
From:sato
To:suzuki
Status:until 98/12/28 12:00
システム動作:時間までに読了してもらうように、タイミングを見計らって表示。
【0133】
3)その人が自分の席に戻った時点で表示
From:sato
To:suzuki
Status:at one′s seat
システム動作:席についたら、タイミングを見計らって表示。
【0134】
4)ある状態にある人に送る
From:sato
To:status
Status:who sitting now
システム動作:今、席についている人だけに送る。
【0135】
5)ある属性、状態を持つ人すべてに送る
From:sato
To:status
Status:sitting man for one hours
システム動作:一時間くらいずっと席についている人だけに送る。
【0136】
6)ある属性の人に送る
From:sato
To:sattus
Status:who sitting in front of EWS−001”
システム動作:”EWS−001”にいる人に送る。
【0137】
これらのように、送信時に配送方法を指定できるように拡張する。
本実施形態における実現の方法は、まず、各EWS端末においいて、画像入力部10b、状況情報変換部10cを備える。通信手段(状況情報通信部12、出力情報通信部16)は、EtherNetを用いた、TCP/IPプロトコルを利用する。
【0138】
ただし、状況情報変換部10cについての説明でした視線や会話検出などの状況情報は扱わず、ここでは説明を簡単にするために着座判定、個人認証、頭部方向認識のみを扱うものとする。勿論、これら以外の情報を使用することができる。
【0139】
応用サービス提供部14は、LAN内のある一台のサーバマシンの実行プロセスとして実現し、図21に示すような構成となる。
まず、アプリケーション入出力部34については、通常のEWS環境で使用されている、メールシステムとのインタフェースとしてメール送受信部34bを設ける。
【0140】
アプリケーション制御部32は、図21に示すように、メールによって設定された「状況」を解釈する指示内容解釈部32cと、システムがどのようにメッセージを伝えるかを設定するシステム行動決定部32dと、指定された状況になったかどうかを照合する状況照合部32eと、指定された状況とシステムの行動記述をルール化した知識を蓄える解釈データベース32fによって構成されている。アクション作成部36は、システム行動決定部32dによる設定に応じたメッセージの表示内容を生成する出力生成部36bと、出力方法についての付加情報を記述した出力方法データベース36cから構成されている。
【0141】
次に、状況適応型メッセージ伝達システム動作について、図22に示すフローチャートを参照しながら説明する。
まず、メール送受信部34bは、メールが着信した後(ステップB1)、指示内容が記された、宛先、Statusフィールド、メッセージ部分を分離する(ステップB2)。Statusフィールドは、指示内容解釈部32cへ送られ、宛先、メッセージ部分は、システム行動決定部32dに送られる。
【0142】
指示内容解釈部32cは、図23のフローチャートに示すように動作してStatusフィールドを解釈する(ステップB3)。
指示内容解釈部32cは、Statusフィールドについて構文解析を行ない(ステップC1)、解析結果をもとに解釈データベース32fに蓄積されたルールパターンとのパターンマッチングを行ない、どのルールが適用されるかを調べる(ステップC2)。
【0143】
ルールパターンは、例えば図24に示すように登録されており、Statusフィールドの記述が、どの行動パターンに当てはまるかが参照される。指示内容解釈部32cは、ルール情報(行動モード、情報提示方法を含む)を決定し(ステップC3)、その内容をシステム行動決定部32dに送信する(ステップC4)。指示内容解釈部32cは、Statusフィールドに対する解釈内容として、誰に(相手名)、何時(時間)、何処に(場所)、どのようにして伝えるのかといった情報を、図25に示すような構造体として記述する。
【0144】
システム行動決定部32dは、指示内容解釈部32cからの通知に対して、図26のフローチャートに示すように動作してシステム行動を決定する(ステップB4)。
【0145】
まず、システム行動決定部32dは、メール送受信部34bに着信されたメール中のメッセージ、宛先を読み込み、また指示内容解釈部32cによって得られたルール情報、解釈内容を読み込む(ステップD1〜D4)。
【0146】
メッセージは、テキスト情報、宛先はメールまたは属性指示のものが存在する。システム行動決定部32dは、宛先について固有名宛先であるか、属性宛先であるかを検査して(ステップD5)、属性宛先である場合には適合人物を属性指定に従って検索した上で指定状況設定を設定する(ステップD6,D7)。
【0147】
システム行動決定部32dは、ルール情報に基づいて、システムの行動方法を決定する(ステップD8)。ルール情報は、指示内容解釈部32cによって解釈されたルールパターンに対応した、システムの動作アルゴリズムを記述したものとして与えられる。例えば、1)の緊急事項を伝える場合(緊急伝達モード)のシステムの動作アルゴリズムは図28のように表され(詳細については後述する)、解釈データベース32f中に蓄えられている。
【0148】
システム行動決定部32dは、ステップD7において設定した指定状況設定の内容を状況照合部32eに送信し(ステップD9)、またステップD8において決定したシステムの行動方法を出力生成部36bに送信する(ステップD10)。
【0149】
以下、出力生成部36bは、システム行動決定部32dから送信されたシステム行動方法に内容に従い(ステップB4)、状況照合部32eによって通知されるメッセージ送信対象の状況等に応じて出力方法、出力内容を決定しながら、メッセージを出力する動作を実行する(ステップB5,B6)。
【0150】
また、状況照合部32eは、システム行動決定部32dから送信された指定状況設定に応じて、出力生成部36bからメッセージを送信すべき指定状況の待ち状態となる。すなわち、状況照合部32eは、図27に示すフローチャートのように動作する。
【0151】
状況照合部32eは、図25に示すような形式で、システム行動決定部32dから指定状況(待機状態)の情報(解釈内容構造体)が送られる(ステップF1)。
【0152】
解釈内容構造体の各スロットには、確定内容、または、フリー(制限を設けない)などが設定される。例えば、1)の緊急事項を伝える場合の緊急捜索モードでは、図25(a)のように設定され、3)のその人が自分の席に戻った時点で表示する場合のモードでは、図25(b)のように設定される(図25(b)では時間のスロットには制限を設けていない)。これにより、状況照合部32eは、情報取得が必要な端末、また必要な情報の種類を決定する(ステップF2,F3)。
【0153】
状況照合部32eは、解釈内容構造体に設定された内容に応じて、状況情報参照部30に対して通信要求を出し(ステップF4)、各端末の状況情報を取得する。
【0154】
状況照合部32eは、状況情報参照部30を介して取得された状況情報について、待機状態の情報表現と照合し(ステップF5)、照合が成功した場合にはメッセージを出力すべきことを示す照合完了信号を出力生成部36bに送出する(ステップF8)。
【0155】
一方、設定時間を過ぎても照合が成功しなかった場合には(ステップF7)、状況照合部32eは、タイムアウト信号をシステム行動決定部32dに送出する(ステップF9)。
【0156】
なお、出力生成部36bにおいては、メッセージの表示だけでなく、端末から声、音などで呼び止めることも行なう。出力方法については、解釈データベース32fから出力情報パケットのテンプレートをコピーし、それにメッセージ等の情報を付加し、パケットを生成しておく。システム行動決定部32dから、要求が来た場合に、先に述べた出力情報パケットを出力情報通信部16を介して、それぞれの出力部18に対して送信する。
【0157】
次に、1)の緊急事項を伝える場合(緊急伝達モード)を例に説明する。緊急伝達モードの際のシステム動作アルゴリズムを図28に示している。なお、前述したように状況情報としては、着座判定、個人認証、頭部方向認識の結果が入力部10の状況情報変換部10cから通知されるものとする。
【0158】
緊急伝達モードの場合、環境内からメッセージの送信先となる相手を探し出し、ある時間内に伝えることを最大限に努力するシステムの行動方法が決定される。状況照合部32eは、状況情報参照部30を介して環境内から送信相手を探す(ステップE1,E2,E3)。ある時間が経過した場合には、出力生成部36bは、ブロードキャストメッセージを生成して、出力情報通信部16を介して環境全体に出力部18に対してメッセージを送信する(ステップE4,E5)。
【0159】
そして、時間設定を変更して、予め設定された繰り返し回数に到達していなければ、ステップE1に戻り同様の処理を繰り返す(ステップE7)。なお、時間設定の変更は、環境内の全ての出力部18にメッセージを送信したことから短時間で送信相手が検出されるものとして時間を短くしても良いし、また確実に相手を検出できるように時間を短くしても良い。
【0160】
送信相手の検索を繰り返し回数分、実行しても検出できなかった場合には(ステップE7)、メッセージ送信を要求してきた送信者、例えばメールの送信者を捜索し、要求されたメッセージの送信相手にメッセージを伝達できなかったことを示すメッセージを送るための処理を行なう(ステップE9)。このメッセージは、メール送受信部34bを介して送信される。
【0161】
一方、状況照合部32eは、環境内を探した結果、状況情報参照部30からの情報をもとにメッセージの送信相手を発見できた場合には、状況情報変換部10cから送られる状況情報に基づいて場所状況を把握する(ステップE10)。
【0162】
その結果、状況情報中の着座判定の結果から他人の端末にいることが検出された場合、状況照合部32eは、その他人端末での表示設定を出力生成部36bに指示する(ステップE12)。
【0163】
一方、メッセージの相手が本来いるべき端末(自端末)に着座している場合には、状況照合部32eは、自端末での表示設定を出力生成部36bに指示する(ステップE13)。
【0164】
さらに、状況照合部32eは、状況情報中の頭部方向認識の結果をもとに、相手の顔向きを検知する(ステップE14)。この結果、送信相手が端末を向いている場合、すなわち視線方向がディスプレイを見ていることを確認した場合にはメッセージを通知することを決定し、出力生成部36bにメッセージの送信を指示する。
【0165】
出力生成部36bは、状況照合部32eからの指示に応じて、メッセージ送信相手がいる端末の出力部18に対して、出力情報通信部16を介してメッセージ出力情報を送信する(ステップE17)。
【0166】
また、メッセージの送信相手が見つかったものの、相手がディスプレイを見ていない場合は、音を出す出力情報を送信して、音声を使って呼び出すなどして(ステップE15)、顔方向がディスプレイに向くまで続けるなどの処理を行なう。
【0167】
メッセージが送信された出力部18では、例えばスピーカよりチャイムを出力すると共に、ディスプレイにおいてメッセージを表示する。
なお、前述した1)の緊急事項を伝える場合以外においても同様に処理が可能であり、このように、状況情報を利用したアプリケーション(応用サービス提供部14)により、相手の状態を意識したメッセージ交換が可能となる。
【0168】
このようなアプリケーションは、応用サービス提供部14として複数個用意することにより、さまざまなサービスがこの環境内で提供される。他のアプリケーション例として、適応会議召集システム、電話転送システム、人物捜索システムなどがあるが、状況情報を組み込むことで、従来より、それぞれのアプリケーションの高度化が可能になる。
【0169】
なお、本発明は上述した実施形態に限定されるものではない。
例えば、状況情報変換部10cにおける各認識部(図4における個人認証部21〜腕動作推定部25)は、それぞれの状況情報変換部10cが持つのではなく、バスでつながれた認識部を、それぞれの状況情報変換部10cが共有する構成でも良い。
【0170】
また、本実施例では2つの論理的な通信手段(状況情報通信部12、出力情報通信部16)を持つ構成としているが、物理的には一つの通信手段でもよい。その際、状況情報と出力情報を識別するためのパケット構成要素を付加しても良い。
【0171】
このようにして、誰に、どのような情報を、どのように伝えたいかをシステムに伝えることで、情報を受けとる人の行動状態が把握され、送信相手の行動に応じて情報が提供される。例えば非同期なコミュニケーションあるいは直接的な同期したコミュニケーションの何れを行なうかを、電話、電子メール、FAXから適当な通信メディアを選択することで対応するのではなく、相手の状態に応じた情報の伝達方法を動的に選択して対応することができる。
【0172】
また、相手が単にカメラ(画像入力部10b)の撮影範囲に入ることで行動状態を把握することができるため、特別なデバイスを使用することなく容易に情報提供することができる。また常時、情報提供を行なっているわけではなく、撮影範囲に入らなければ所在が知られることもなく、さらに撮影された画像そのものではなく状況情報として通知されるのでプライバシーの保護もなされる。
【0173】
なお、前述した実施形態においては、画像入力部10b(カラーCCDカメラ)から入力された入力画像をもとにして処理を行なう例について説明したが、画像以外の入力情報、例えば音声、キーボードからの入力データ等を変換して得られる状況情報をもとにして処理を行なう機能構成とすることもできる。
【0174】
次に、状況情報変換部10cの変形例について第2実施形態として説明する。第2実施形態における、状況情報変換部10cは、図29に示すように、人物検出部40、顔画像解析部42、ジェスチャ解析部44、人物動き解析部46、端末状態検出部48、時間管理部49、類似度計算部50、状況辞書部52、状況記述ベクトル部54、状況曲線生成部56から構成される。
【0175】
人物検出部40は、連続して入力される画像例に対して常時処理を行なう。人物が画像入力部10bのカメラ視野に入ると、即座に人物検出部40はその存在を検出し、状況情報を抽出する各モジュールを起動する。
【0176】
人物検出部40における人物検出処理は、予め蓄えられた人物の存在しない背景画像と入力画像との画像間差分により人物領域の抽出を行なう。照明変化などの背景の揺らぎに対するロバスト性を向上するには、例えば後述する参考文献[2]に記載された方法を利用することが可能である。また、色情報から顔を肌領域として抽出してこれを基に人物領域を抽出する方法も利用可能である。この方法は、例えば参考文献[4]に記載された方法を用いることができる。
【0177】
顔画像解析部42は、人物検出部40によって人物の存在が検出されると、人物領域中から顔領域を抽出して、この顔領域から得られる各状況情報を抽出する。
【0178】
顔画像解析部42は、顔領域抽出部42a、個人識別部42b、性別識別部42c、年齢識別部42d、口状態検出部42e、目状態識別部42f、顔向き検出部42g、視線検出部42h、アクセサリ解析部42iによって構成されている。
【0179】
詳しく調べると、顔領域抽出部42aは、人物領域から顔領域を抽出する。顔領域抽出法としては、色情報を使う方法(参考文献[3,4])、ニューラルネットワークによる方法(参考文献[6])、パターン認識による方法(参考文献[8])などが提案されているが、本実施例では、予め登録された標準顔テンプレートを全画面に渡って操作して最も高い類似度(相関)を持つ領域を顔領域として抽出する。
【0180】
類似度がしきい値より小さい場合は、人物がこちら(画像入力部10b側)を向いていないと判断する。類似度計算処理は複合類似度などの従来文字確認において用いられた方法に置き換えても良い。
【0181】
この後、抽出された顔領域画像は、各状況情報を抽出する図29中に示すモジュール群42b〜42iに送られて並列に処理されて各状況情報が抽出される。各モジュールについて順に説明してゆく。
【0182】
個人識別部42bは、顔特徴点抽出部と正規化画像生成部と類似度計算部と顔辞書記録部と評価部とから構成される。
顔特徴点抽出部は、抽出された顔領域からエッジ情報やカラー情報を基にモデルマッチング手法により目、鼻、口などの特徴点を抽出する。例えば参考文献[14]に記載された方法を用いることができる。
【0183】
正規化画像生成部は、顔特徴点抽出部によって得られた特徴点から、複数の、例えば両目、唇の端の4点の特徴点を基準としてaffine変換を施し、決められた位置と大きさに正規化し、目、鼻を含んだ矩形領域を抽出する。この正規化された画像を正規化画像と呼ぶ。更に、この後にヒストグラム平坦化処理などにより輝度の正規化処理を施す。
【0184】
類似度計算部は、正規化画像生成部によって生成された正規化画像と、予め登録されている辞書画像の類似度を計算する。本実施例では、類似度として複合類似度を用いる。
【0185】
評価部は、最も高い類似度を出力した辞書画像に該当する人物が、画像入力部10bによって撮影された画像中に存在するものと判定する。ただし、その類似度が指定した閾値よりも低い場合は、だれであるかを決定せずに不定とする。
【0186】
なお上に述べた個人識別部42bにおける個人認証技術についての技術動向は、参考文献[5」に詳しく記載されており、これらの手法を用いることができる。
【0187】
年齢識別部42dは、個人識別部42bの正規化画像生成部によって生成された正規化画像、あるいは正規化する前の顔領域抽出部42aによって検出された顔領域画像から、しわなどの肌の状態や、髪の毛の色から年齢を推定する。例えば参考文献[11]に記載された方法を適用可能である。
【0188】
性別識別部42cは、年齢識別部42dと同様に、正規化画像あるいは正規化する前の顔領域画像から男女の識別を行なう。予め性別を識別する様に学習させたニューラルネットを用いて識別を行なう。
【0189】
口状態検出部42eは、動的輪郭モデル(Snakesモデル)(参考文献[10])など用いた口形状識別を行なう。状況情報量としては形状情報から20段階の値、口の開閉回数/分も状況情報量として出力する。
【0190】
目状態検出部42fは、輪郭モデルを用いて(参考文献[13]記載された方法を用いる)、目の形状を抽出して閉閉状態・回数などを検出する。口状態検出部42eと同様に情況情報量としては、形状情報から20段階の値、目の開閉回数/分を状況情報量として出力する。
【0191】
顔向き検出部42gは、抽出された複数の特徴点の座標から顔の3次元的な向きを計算する。例えば1台のカメラからの画像を用いる場合は、参考文献[7]に記載されたチポラの方法、2台のカメラからの画像を用いる場合は、ステレオ視覚による方法を用いることができる。本実施例では、縦に3段階、横に5段階の方法を識別して15段階の状況情報量を出力する。
【0192】
視線検出部42hは、目領域検出部と視線推定部から構成される。目領域検出は、参考文献[9]に記載された方法を用いることができる。視線推定部は、黒目の位置と目尻および目頭の相対位置関係から求まる。また様々な方向の視線の目領域の画像から視線方向を学習したニューラルネットワークを用いることも可能である(参考文献[12])。本実施例では、縦に5段階、横に10段階の方向を識別して50段階の状況情報量を出力する。
【0193】
アクセサリ解析部42iは、人物がメガネなどのアクセサリを身に付けているか否か、またどんな種類のアクセサリを身に付けているかを識別する。年齢推定部や性別識別部と同様の方法が適用可能である。
【0194】
次に、ジェスチャ解析部44について説明する。ジェスチャ解析部44は、手領域抽出部44a、手の形状識別部44b、手の位置検出部44cから構成される。
【0195】
手領域抽出部44aは、人物検出部40で検出された領域から人間の全身をスティックで表現したモデルにより手領域を抽出する。あるいはカラー情報に基づいて肌色から手領域を抽出することも可能である。状況情報量として50段階の値を出力する。
【0196】
手の形状識別部44b及び手の位置検出部44cは、手領域抽出部44aによって抽出された手領域について、それぞれ手の形状、手の位置を検出する。
次に、人物動き解析部46について説明する。人物動き解析部46は、空間位置検出部46bと人物姿勢解析部46cから構成される。空間位置検出部46bは、人物検出部40で抽出された人物の画像中での大きさ、位置からレンズの焦点距離等から空間位置を推定する。本実施形状では、例えば参考文献[1]に記載された方法を用いることができる。
【0197】
端末状態検出部48は、計算機(WSやパーソナルコンピュータ等)の入力デバイス10aから入力される入力情報をもとにした状況情報から、端末状態を識別するもので、キーボード状態識別部48bは例えばキーボードのリズムからキーボード状態を識別し、入力形式識別部48cは入力している形式がテキストかプログラムかを抽出する。
【0198】
時間管理部49は、状況情報が発生した時刻情報を生成する。
これまでに述べてきた状況情報は、連続して状況情報量が状況情報通信手段に流される(level 1)。または、全てnビットに正規化されて“作業中である/忙しそうである”いった抽象レベルの高い状況情報量(level 2)に変換されて流される。
【0199】
抽象レベルの高い状況情報量への変換は、類似度計算部50で行なう。
図30に示す様に、同時刻t=0に正規化された各状況情報量は、状況記述ベクトル部54でまとめてベクトル形式のデータに変換される。更に、状況曲線生成部56は、状況記述ベクトル部54によって生成された状況記述ベクトルが、状況特徴空間中でt=0〜t=t´の間に変換した軌跡として状況曲線を生成する。この状況曲線自体が人物の状況を表現したものと考えられる。
【0200】
状況辞書部52には、“忙しい/暇である”と定義できる状況での状況曲線モデルが予め記録されてある。新たに入力された状況記述ベクトルは、状況曲線に変換されて、類似度計算部50によって状況辞書部52に登録されている複数の状況曲線モデルとの類似度を求める。
【0201】
類似度計算部50は、最も高い類似度を出力した状況を現在の状況として選択し、これに対応した状況情報量を状況情報通信手段に流す。本実施例では複合類似度法を用いる。図31には状況モデル曲線と、入力された状況曲線との関係を示している。
【0202】
Ethernet(TCP/IP)のような、通信路でなくても、バスを直結したような構成でもよい。その際、パケットの構成法を変更してもよい。
また、本方法は、ソフトパッケージのみで提供することが可能である。すなわち、図22,図23,図26,図27,図28に示したような各端末における状況情報を取得するためのソフトウェア、状況情報を交換するためのプロトコル制御ソフトウェア、アプリケーションを駆動するためのソフトウェアなどを、それぞれの端末にインストールすることで、利用可能になる。これらのソフトウェアは、図34のように、フロッピー、CD−ROM、DVDなどの記録媒体、または電気的な通信媒体(Internetにおけるftpなど)によって供給できる。
以上、本発明は、その趣旨を逸脱しない範囲で、種々変形して実施することが可能である。
【0203】
【発明の効果】
以上詳述したように本発明によれば、人間同士のコミュニケーションを的確にサポーサし、時間的な効率と空間的な効率を同時に向上させることができるなどの実用上多大な効果が享受される。
【図面の簡単な説明】
【図1】本発明の実施形態に係わるコミュニケーション装置の構成を示すブロック図。
【図2】図1に示す構成によって実現されるコミュニケーション装置(コンピュータ環境)のイメージを示す図。
【図3】図1中に示す状況情報変換部10cの構成例を示す図。
【図4】図3中に示す状況情報生成部10cの1の詳細な構成を示す図。
【図5】図4中に示す人検出部20の詳細な構成を示す図。
【図6】図5に示す人検出部20による処理過程を示す図。
【図7】図4中に示す個人認証部21の詳細な構成を示す図。
【図8】図4中に示す状況情報統合部26の詳細な構成を示す図。
【図9】図8中の履歴記憶部26dに記憶される状況登録テーブルの一例を示す図。
【図10】行動情報を登録するための行動情報テーブルの一例を示す図。
【図11】本実施形態で扱われる状況情報を説明するための図。
【図12】状況情報を送信するための状況情報パケットの一例を示す図。
【図13】送信要求パケットの構成の一例を示す図。
【図14】本実施形態における通信プロトコルを説明するための図。
【図15】図1に示す応用サービス提供部14の構成を示すブロック図。
【図16】図15中に示す状況情報参照部30の詳細な構成を示す図。
【図17】出力情報パケットの構成の一例を示す図。
【図18】図1中に示す出力部18の詳細な構成を示す図。
【図19】図18に示す出力部18の動作を示すフローチャート。
【図20】ダイナミックリンク管理システムを実現する場合の応用サービス提供部14の詳細な構成を示す図。
【図21】状況適応型メッセージ伝達システムを実現する場合の応用サービス提供部14の詳細な構成を示す図。
【図22】状況適応型メッセージ伝達システムの動作を説明するためのフローチャート。
【図23】図21中の指示内容解釈部32cの動作を説明するためのフローチャート。
【図24】図21中の解釈データベース32fに格納されるルールパターンの一例を示す図。
【図25】図21中の指示内容解釈部32cにより記述される解釈内容構造体の一例を示す図。
【図26】図21中のシステム行動決定部32dの動作を説明するためのフローチャート。
【図27】図21中の状況照合部32eの動作を説明するためのフローチャート。
【図28】緊急伝達モードの際のシステム動作アルゴリズムを示すフローチャート。
【図29】状況情報変換部10cの変形例の構成を示すブロック図。
【図30】正規化された状況情報量からの状況特徴ベクトル生成を説明するための図。
【図31】状況モデル曲線と入力状況曲線との類似度計算を概念的に示す図。
【図32】状況把握システムの一構成図。
【図33】在席管理システムの一構成図。
【図34】ソフトウェアによるシステムの供給を示した図。
【符号の説明】
10…入力部
10a…入力デバイス
10b…画像入力部
10c…状況情報変換部
12…状況情報通信部
14…応用サービス提供部
16…出力情報通信部
18…出力部
20…人検出部
21…個人認証部
22…頭部方向推定部
23…視線方向推定部
24…口形状動作推定部
25…腕動作推定部
26…状況情報統合部
26a…統合部
26b…時刻発生部
26c…場所情報記憶部
26d…履歴記憶部
26e…統合行動認識部
26f…統合情報記憶部
30…状況情報参照部
30a…通信部
30b…記憶部
30c…制御部
32…アプリケーション制御部
32a…情報管理部
32b…履歴記憶部
32c…指示内容解釈部
32d…システム行動決定部
32e…状況照合部
32f…解釈データベース
34…アプリケーション入出力部
34a…出力要求受信部
34a…メール送信部
36…アクション作成部
36a…表示内容生成部
36b…出力生成部
36c…出力方法データベース

Claims (2)

  1. 画像を入力する手段と、画像入力手段により取得されたユーザの顔画像と予め蓄積された辞書画像とを照合することにより個人を認証する手段と、当該個人の認証結果と当該認証に用いられた画像の取得時刻と当該画像を取得した画像入力手段の設置場所に関する情報とを統合して状況情報を出力する手段とを備えた複数の情報処理装置と、
    前記複数の情報処理装置から出力された状況情報を蓄積する手段と、蓄積手段に蓄積された前記状況情報の内容を逐次更新する手段とを備えた応用サービス提供装置とからなるコミュニケーション装置において、
    前記複数の情報処理装置は、前記応用サービス提供装置の蓄積手段に蓄積された状況情報の内容を参照することにより、特定の画像入力手段の設置場所における特定の個人の現在の在席状況を出力する手段を更に具備することを特長とするコミュニケーション装置。
  2. 画像入力手段により取得されたユーザの顔画像と予め蓄積された辞書画像とを照合することにより個人を認証し、当該個人の認証結果と当該認証に用いられた画像の取得時刻と当該画像を取得した画像入力手段の設置場所に関する情報とを統合して状況情報を出力する手段とを備えた複数の情報処理装置と、
    前記複数の情報処理装置から出力された状況情報を蓄積する手段と、蓄積手段に蓄積された前記状況情報の内容を逐次更新する手段とを備えた応用サービス提供装置とを用いたコミュニケーション方法において、
    前記複数の情報処理装置は、前記応用サービス提供装置の蓄積手段に蓄積された状況情報の内容を参照することにより、特定の画像入力手段の設置場所における特定の個人の現在の在席状況を出力することを特長とするコミュニケーション方法。
JP23740196A 1996-03-15 1996-09-09 コミュニケーション装置及びコミュニケーション方法 Expired - Fee Related JP3835771B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23740196A JP3835771B2 (ja) 1996-03-15 1996-09-09 コミュニケーション装置及びコミュニケーション方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP5984796 1996-03-15
JP8-59847 1996-03-15
JP23740196A JP3835771B2 (ja) 1996-03-15 1996-09-09 コミュニケーション装置及びコミュニケーション方法

Publications (2)

Publication Number Publication Date
JPH09307868A JPH09307868A (ja) 1997-11-28
JP3835771B2 true JP3835771B2 (ja) 2006-10-18

Family

ID=26400923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23740196A Expired - Fee Related JP3835771B2 (ja) 1996-03-15 1996-09-09 コミュニケーション装置及びコミュニケーション方法

Country Status (1)

Country Link
JP (1) JP3835771B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101854510A (zh) * 2009-04-01 2010-10-06 阿瓦亚公司 提供可视队列的姿势的解释

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3927744B2 (ja) * 1999-12-27 2007-06-13 キヤノン株式会社 通信制御装置およびその方法
US7404001B2 (en) * 2002-03-27 2008-07-22 Ericsson Ab Videophone and method for a video call
JP2004193661A (ja) * 2002-12-06 2004-07-08 Sony Corp 双方向コミュニケーションシステム,映像通信装置,および映像通信装置の撮影処理制御方法
JP4225074B2 (ja) 2003-02-14 2009-02-18 富士ゼロックス株式会社 対話支援装置および方法並びにプログラム、対話支援システム
JP4201644B2 (ja) * 2003-05-22 2008-12-24 日立情報通信エンジニアリング株式会社 端末装置及び端末装置の制御プログラム
JP2005078138A (ja) * 2003-08-28 2005-03-24 Toshiba Corp 生活モニタ装置
JP4021873B2 (ja) * 2004-06-03 2007-12-12 株式会社東芝 顔画像監視システム
JP2006332882A (ja) * 2005-05-24 2006-12-07 Mitsubishi Electric Corp 動画像符号化装置
JP5418347B2 (ja) * 2010-03-23 2014-02-19 カシオ計算機株式会社 情報処理装置、及び、プログラム
JP2012022720A (ja) * 2011-10-31 2012-02-02 Toshiba Corp 情報機器、そのプログラムおよび方法
JP5242827B2 (ja) * 2012-04-18 2013-07-24 株式会社東芝 顔画像処理装置、顔画像処理方法、電子スチルカメラ、デジタル画像処理装置およびデジタル画像処理方法
JP6044113B2 (ja) * 2012-05-14 2016-12-14 富士ゼロックス株式会社 電力供給制御装置、画像処理装置
US9271111B2 (en) * 2012-12-14 2016-02-23 Amazon Technologies, Inc. Response endpoint selection
JP6592940B2 (ja) * 2015-04-07 2019-10-23 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP6357595B2 (ja) * 2016-03-08 2018-07-11 一般社団法人 日本画像認識協会 情報伝送システム、情報受信装置、およびコンピュータプログラム
JP2022144667A (ja) * 2021-03-19 2022-10-03 株式会社チカク プログラム、情報処理方法、及び情報処理装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0267889A (ja) * 1988-09-02 1990-03-07 Nippon Telegr & Teleph Corp <Ntt> 表示者同定通信会議システム
JPH0666944A (ja) * 1992-08-13 1994-03-11 Ricoh Co Ltd 画像形成装置
JPH0793228A (ja) * 1993-04-26 1995-04-07 Fuji Xerox Co Ltd 通信装置
JPH0758823A (ja) * 1993-08-12 1995-03-03 Nippon Telegr & Teleph Corp <Ntt> 電話発信システム
JP2692575B2 (ja) * 1994-03-10 1997-12-17 日本電気株式会社 アウェアネス制御装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101854510A (zh) * 2009-04-01 2010-10-06 阿瓦亚公司 提供可视队列的姿势的解释

Also Published As

Publication number Publication date
JPH09307868A (ja) 1997-11-28

Similar Documents

Publication Publication Date Title
JP3835771B2 (ja) コミュニケーション装置及びコミュニケーション方法
KR101803081B1 (ko) 매장 관리 로봇
JP5674406B2 (ja) 自律移動体を用いた監視システム、監視装置、自律移動体、監視方法、及び監視プログラム
CN109992237B (zh) 智能语音设备控制方法、装置、计算机设备和存储介质
JP2005202653A (ja) 動作認識装置及び方法、動物体認識装置及び方法、機器制御装置及び方法、並びにプログラム
Pauwels et al. Sensor networks for ambient intelligence
Kim et al. Watch & Do: A smart iot interaction system with object detection and gaze estimation
JP7192764B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US11762966B2 (en) Methods and devices for operational access grants using facial features and facial gestures
Kim et al. A non-cooperative user authentication system in robot environments
JP2004265231A (ja) 顔画像記録システム及び顔画像記録方法
JP2010257449A (ja) 人物検索装置、人物検索方法、及び人物検索プログラム
Li et al. CNN-based continuous authentication on smartphones with conditional Wasserstein generative adversarial network
TWI734246B (zh) 人臉辨識的方法及裝置
JP7103229B2 (ja) 不審度推定モデル生成装置
JP5423740B2 (ja) 映像提供装置、映像利用装置、映像提供システム、映像提供方法、および、コンピュータ・プログラム
JPH09251441A (ja) 協同作業調整装置及び協同作業調整方法
Li et al. Biometrics at a distance: issues, challenges, and prospects
CN110148234A (zh) 校园刷脸接送交互方法、存储介质及***
WO2020115910A1 (ja) 情報処理システム、情報処理装置、情報処理方法、およびプログラム
Aravindan et al. A Smart Assistive System for Visually Impaired to Inform Acquaintance Using Image Processing (ML) Supported by IoT
JP2010257450A (ja) 人物検索装置、人物検索方法、及び人物検索プログラム
CN110262269B (zh) 运行控制方法、模块、***、家电设备和可读存储介质
GB2608063A (en) Device and method for providing missing child search service based on face recognition using deep learning
JP7102859B2 (ja) ビデオ会議システム、ビデオ会議方法、およびプログラム

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040116

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050415

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050606

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060724

LAPS Cancellation because of no payment of annual fees