JP2001067482A - 人物の反応認識装置およびそのためのプログラムを記録したコンピュータ読取可能な記録媒体 - Google Patents

人物の反応認識装置およびそのためのプログラムを記録したコンピュータ読取可能な記録媒体

Info

Publication number
JP2001067482A
JP2001067482A JP24258199A JP24258199A JP2001067482A JP 2001067482 A JP2001067482 A JP 2001067482A JP 24258199 A JP24258199 A JP 24258199A JP 24258199 A JP24258199 A JP 24258199A JP 2001067482 A JP2001067482 A JP 2001067482A
Authority
JP
Japan
Prior art keywords
unit
feature vector
video
program
face area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP24258199A
Other languages
English (en)
Inventor
Kinzan To
金 山 唐
Shinjiro Kawato
慎二郎 川戸
Atsushi Otani
淳 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Media Integration and Communication Research Laboratories
Original Assignee
ATR Media Integration and Communication Research Laboratories
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Media Integration and Communication Research Laboratories filed Critical ATR Media Integration and Communication Research Laboratories
Priority to JP24258199A priority Critical patent/JP2001067482A/ja
Publication of JP2001067482A publication Critical patent/JP2001067482A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Image Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 遠隔地にいる多数の人物の、ある話者に対す
る反応を話者に対して的確に伝達することができる人物
の反応認識装置を提供する。 【解決手段】 表示される映像に対する人物の反応を認
識するための人物の反応認識装置34は、人物の顔画像
の映像シーケンスを取得するための映像取得部100
と、取得された映像シーケンスを、映像フレーム間の動
きに基づいて安定静止ユニットと活動検出ユニットとに
分類するための検出・分離サブシステム102と、安定
静止ユニットに分類されたフレームシーケンスおよび活
動検出ユニットに分類されたフレームシーケンスから人
物の反応を認識するための判定サブシステム104とを
含む。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、多数地点を結ん
で通信により行なわれる会議、講演、授業等に用いられ
る通信システムに関し、特に、各会場の出席者の反応を
発言者、講演者等に対して的確に理解させるための、聴
衆の反応の調査および評価をするためのシステムに関す
る。
【0002】
【従来の技術】放送は、ある情報を多数の聴衆に伝える
上で非常に重要な手段である。その典型として、放送を
用いた教育システムがある。放送を用いた教育システム
では、講師が行なう講議を放送し、各地に設けた受講会
場でこの放送を受信してたとえばテレビジョン等を用い
て表示する。受講者はこの受講会場においてこの放送を
見ることにより講議を受講することができる。なお、各
地の受講者は必ずしも複数でなく、一人の場合もあり得
る。
【0003】一方、近年の通信技術、特にインターネッ
ト技術の発達により、このような放送に類似した方法を
用いて講議を行なうシステムが出現しつつある。これは
特に、講師と受講者との間での双方向通信が可能なの
で、たとえば外国語学習等において有効である。既存の
システムとしては、特開平11−55643号公報に開
示されたものがある。
【0004】特開平11−55643号公報に開示され
たシステムは、講師の側と受講者との間で映像(および
音声)を双方向通信することを前提に、利用者のプライ
バシーを保護するために、利用者の許諾があった場合の
み映像の送信を行なうものである。
【0005】
【発明が解決しようとする課題】通信を用いない一般的
な講議では、講師が演壇に立ち、聴衆は演壇の前に座る
ことが多い。講師は演壇の上から講議を行なう。この場
合、講師は聴衆の反応を見ることができ、その結果に応
じて途中で講議の内容を変えたり、講議の順序を変えた
りすることができる。たとえば、聴衆が退屈していると
見れば、講師は講議とは直接の関係はないが、聴衆の興
味を引くことができるような話題に切替え、聴衆が再び
講議に集中した段階で講議の内容を本筋に戻すことがで
きる。
【0006】通信を用いた学習システムでも同様のこと
が可能である。たとえば講師1人に対して生徒が3名程
度であれば、各生徒の画像を講師の前に表示することが
できる。講師は、一般的な講議の場合と同じようにこれ
ら生徒の反応を把握し、生徒の反応に応じて講議の内容
を適切に調整することができる。
【0007】しかし、通信を用いて多数の聴衆に対して
同じことを行なうのは困難である。なぜなら、インター
ネット等の手段で映像を送信する場合には、受講会場が
多数となると通信量が莫大となり、各受講会場から講師
のもとに映像を送るのは実質的に不可能となるためであ
る。また仮に各受講会場から講師のもとに映像を送るこ
とができたとしても、一般的な講議または講演の場合と
比較して聴衆の数がはるかに多くなることが予想され、
その場合にはそれら聴衆全体の反応を講師に的確に伝え
ることが極めて困難となるからである。
【0008】また、こうした問題は講議、講演、演説
等、いわゆる一方方向の情報の伝達のときに限らず、た
とえば複数箇所に集まった比較的多数の人物の間でディ
スカッションを行なう場合にも存在する。こうしたディ
スカッションでは、いわゆる仮想空間の技術が用いられ
得るが、仮想空間で主として使用される技術は、出席者
個々の表情等を他の出席者にいかに伝えるか、という技
術であって、上記した問題を解決することはできない。
またディスカッションでは、話者のみならず、聴衆に相
当する人物も話者になりうるので、互いに他の会場にお
ける出席者の反応を的確に把握できれば便利である。
【0009】さらに、このようにディスカッションの場
合に限らず、講議、講演、演説等の場合にも、聴衆が他
の会場の聴衆の反応を知ることが有益な場合もあるだろ
う。
【0010】それゆえに本発明の目的は、遠隔地にいる
多数の人物の、ある話者に対する反応を話者に対して的
確に伝達することができる人物の反応認識装置を提供す
ることである。
【0011】この発明の他の目的は、遠隔地にいる多数
の人物の反応を互いに的確に伝達することができる人物
の反応認識装置を提供することである。
【0012】
【課題を解決するための手段】請求項1に記載の発明に
かかる人物の反応認識装置は、表示される映像に対する
人物の反応を認識するための反応認識装置であって、人
物の顔画像の映像シーケンスを取得するための映像取得
手段と、取得された映像シーケンスを、映像フレーム間
の動きに基づいて安定静止ユニットと活動検出ユニット
とに分類するための第1の分類手段と、安定静止ユニッ
トに分類されたフレームシーケンスおよび活動検出ユニ
ットに分類されたフレームシーケンスから人物の反応を
認識するための反応認識手段とを含む。
【0013】この発明によれば、安定静止ユニットと活
動検出ユニットとに基づいて、人物の反応を認識するこ
とができる。この反応を示す情報を映像の送信元に送っ
て統計をとることにより、映像の送信元では通信先に存
在する多くの聴衆の反応を把握することができる。
【0014】請求項2に記載の発明にかかる人物の反応
認識装置は、請求項1に記載の発明の構成に加えて、第
1の分類手段は、隣接するフレーム間のフレーム間差分
に基づいて、映像シーケンスを静止ユニットと動きユニ
ットとに分類するための第2の分類手段と、静止フレー
ムを、その持続期間に基づいて安定静止ユニットと不安
定静止ユニットとに分類するための第3の分類手段と、
連続する不安定静止ユニットと動きユニットとを活動検
出ユニットとして統合するための統合手段とを含む。
【0015】請求項3に記載の発明にかかる人物の反応
認識装置は、請求項1に記載の発明の構成に加えて、反
応認識手段は、安定静止ユニット内のフレームから人物
の顔画像の特徴ベクトルを抽出するための第1の特徴ベ
クトル抽出手段と、第1の特徴ベクトル抽出手段の出力
する特徴ベクトルを入力として、特徴ベクトルに対応す
る姿勢情報を出力する、あらかじめ学習済みの第1のニ
ューラルネットワークと、活動検出ユニット内のフレー
ム間差分の情報から人物の顔画像の動きに対応する特徴
ベクトルを抽出するための第2の特徴ベクトル抽出手段
と、第2の特徴ベクトル抽出手段の出力する特徴ベクト
ルを入力として、特徴ベクトルに対応するジェスチャー
情報を出力する、あらかじめ学習済みの第2のニューラ
ルネットワークとを含む。
【0016】請求項4に記載の発明にかかる人物の反応
認識装置は、請求項3に記載の発明の構成に加えてさら
に、第1のニューラルネットワークと第2のニューラル
ネットワークとのいずれか少なくとも一方は、各々が所
定の反応カテゴリーと関連付けられ、第1または第2の
特徴ベクトル抽出手段の出力する特徴ベクトルを入力と
して、所定の反応カテゴリとの関連度の高さを出力す
る、複数個の1対1ニューラルネットワークを含む。
【0017】1対1ニューラルネットワークを用いるた
め、新たな反応カテゴリを認識対象として追加するとき
には、その反応カテゴリに対応する1対1ニューラルネ
ットワークを追加すればよく、簡単に機能を拡張でき
る。
【0018】請求項5に記載の発明にかかる人物の反応
認識装置は、請求項1〜請求項4のいずれかに記載の発
明の構成に加えて、映像取得手段は、ビデオカメラと、
ビデオカメラの出力する映像信号をフレームごとにデジ
タル信号に変換するための映像信号変換手段と、映像信
号変換手段の出力する映像シーケンスに基づいて、各フ
レーム内の人物の顔領域を特定するための顔領域特定手
段とを含む。
【0019】請求項6に記載の発明にかかる人物の反応
認識装置は、請求項1〜請求項5のいずれかに記載の発
明の構成に加えて、顔領域特定手段は、映像信号変換手
段の出力する映像シーケンスに基づいて、第1の手法に
より各フレーム内の人物の顔領域を特定するための第1
の手段と、映像信号変換手段の出力する映像シーケンス
に基づいて、第2の手法により各フレーム内の人物の顔
領域を特定するための第2の手段と、第1の手段および
第2の手段による顔領域の特定結果を統合して顔領域を
特定する顔領域の統合手段とを含む。
【0020】複数の手法を用いて顔画像領域を決定する
ので、顔画像領域を確実に決定することができる。
【0021】請求項7に記載の発明にかかる人物の反応
認識装置は、請求項6に記載の発明の構成に加えて、映
像シーケンスはRGBカラー映像シーケンスであり、第
1の手段はRGBカラー映像シーケンスをrg色空間に
変換した映像中の色分布と所定の色分布パターンとの類
似度に基づいて顔領域を特定するための手段を含む。
【0022】請求項8に記載の発明にかかる人物の反応
認識装置は、請求項6または請求項7に記載の発明の構
成に加えて、映像シーケンスはRGBカラー映像シーケ
ンスであり、第1の手段はRGBカラー映像シーケンス
をNCb‐NCr色空間に変換した映像中の色分布と所
定の色分布パターンとの類似度に基づいて顔領域を特定
するための手段を含む。
【0023】請求項9に記載の発明にかかるコンピュー
タ読取可能な記録媒体は、コンピュータを、表示される
映像に対する人物の反応を認識するための反応認識装置
として動作させるためのプログラムを記録したコンピュ
ータ読取可能な記録媒体であって、このプログラムは、
人物の顔画像に対して取得された映像シーケンスを、映
像フレーム間の動きに基づいて安定静止ユニットと活動
検出ユニットとに分類するための第1の分類プログラム
部分と、安定静止ユニットに分類されたフレームシーケ
ンスおよび活動検出ユニットに分類されたフレームシー
ケンスから人物の反応を認識するための反応認識プログ
ラム部分とを含む。
【0024】請求項10に記載の発明にかかるコンピュ
ータ読取可能な記録媒体は、請求項9に記載の発明の構
成に加えて、第1の分類プログラム部分は、隣接するフ
レーム間のフレーム間差分に基づいて、映像シーケンス
を静止ユニットと動きユニットとに分類するための第2
の分類プログラム部分と、静止フレームを、その持続期
間に基づいて安定静止ユニットと不安定静止ユニットと
に分類するための第3の分類プログラム部分と、連続す
る不安定静止ユニットと動きユニットとを活動検出ユニ
ットとして統合するための統合プログラム部分とを含
む。
【0025】請求項11に記載の発明にかかるコンピュ
ータ読取可能な記録媒体は、請求項10に記載の発明の
構成に加えて、反応認識プログラム部分は、安定静止ユ
ニット内のフレームから人物の顔画像の特徴ベクトルを
抽出するための第1の特徴ベクトル抽出プログラム部分
と、第1の特徴ベクトル抽出プログラム部分の出力する
特徴ベクトルを入力として、特徴ベクトルに対応する姿
勢情報を出力する、あらかじめ学習済みの第1のニュー
ラルネットワークプログラム部分と、活動検出ユニット
内のフレーム間差分の情報から人物の顔画像の動きに対
応する特徴ベクトルを抽出するための第2の特徴ベクト
ル抽出プログラム部分と、第2の特徴ベクトル抽出プロ
グラム部分の出力する特徴ベクトルを入力として、特徴
ベクトルに対応するジェスチャー情報を出力する、あら
かじめ学習済みの第2のニューラルネットワークプログ
ラム部分とを含む。
【0026】請求項12に記載の発明にかかるコンピュ
ータ読取可能な記録媒体は、請求項11に記載の発明の
構成に加えて、第1のニューラルネットワークプログラ
ム部分と第2のニューラルネットワークプログラム部分
とのいずれか少なくとも一方は、各々が所定の反応カテ
ゴリーと関連付けられ、第1または第2の特徴ベクトル
抽出プログラム部分の出力する特徴ベクトルを入力とし
て、所定の反応カテゴリとの関連度の高さを出力する、
複数個の1対1ニューラルネットワークプログラム部分
を含む。
【0027】1対1ニューラルネットワークプログラム
部分を用いるため、新たな反応カテゴリを認識対象とし
て追加するときには、その反応カテゴリに対応する1対
1ニューラルネットワークプログラム部分を追加すれば
よく、簡単に機能を拡張できる。
【0028】請求項13に記載の発明にかかるコンピュ
ータ読取可能な記録媒体は、請求項9〜請求項12のい
ずれかに記載の発明の構成に加えて、プログラムはさら
に、映像シーケンスに基づいて、各フレーム内の人物の
顔領域を特定して第1の分類プログラム部分に与えるた
めの顔領域特定プログラム部分を含む。
【0029】請求項14に記載の発明にかかるコンピュ
ータ読取可能な記録媒体は、請求項9〜請求項13のい
ずれかに記載の発明の構成に加えて、顔領域特定プログ
ラム部分は、映像シーケンスに基づいて、第1の手法に
より各フレーム内の人物の顔領域を特定するための第1
のプログラム部分と、映像シーケンスに基づいて、第2
の手法により各フレーム内の人物の顔領域を特定するた
めの第2のプログラム部分と、第1のプログラム部分お
よび第2のプログラム部分による顔領域の特定結果を統
合して顔領域を特定する顔領域の統合プログラム部分と
を含む。
【0030】複数の手法を用いて顔画像領域を決定する
ので、顔画像領域を確実に決定することができる。
【0031】請求項15に記載の発明にかかるコンピュ
ータ読取可能な記録媒体は、請求項14に記載の発明の
構成に加えて、映像シーケンスはRGBカラー映像シー
ケンスであり、第1のプログラム部分はRGBカラー映
像シーケンスをrg色空間に変換した映像中の色分布と
所定の色分布パターンとの類似度に基づいて顔領域を特
定するためのプログラム部分を含む。
【0032】請求項16に記載の発明にかかるコンピュ
ータ読取可能な記録媒体は、請求項14または請求項1
5に記載の発明の構成に加えて、映像シーケンスはRG
Bカラー映像シーケンスであり、第1のプログラム部分
はRGBカラー映像シーケンスをNCb‐NCr色空間
に変換した映像中の色分布と所定の色分布パターンとの
類似度に基づいて顔領域を特定するためのプログラム部
分を含む。
【0033】
【発明の実施の形態】[説明で使用する式]以下の実施
の形態の説明では、以下の式を用い、各式の式番号を用
いて随時参照する。
【0034】
【数1】
【0035】
【数2】
【0036】
【数3】
【0037】
【数4】
【0038】[実施の形態1] [システム全体構成]以下、本発明の実施の形態1にか
かる遠隔放送システムについて説明する。以下に説明す
るシステムは、1箇所において講議をする講師の映像を
複数箇所の受講会場において放送し、この各受講会場の
聴衆の反応を講師に対して提示するシステムである。な
お以下の説明では、説明を簡略化するために、音声に関
する記載はしていないが、講議、講演、ディスカッショ
ン等では音声は不可欠であり、必要に応じて音声を取得
し送受信し再生するための構成が存在することは明らか
である。また、それらを実現するための構成は当業者に
は明白であろう。
【0039】図1を参照して、この遠隔放送システム2
0は、遠隔の複数地点に設けられ、各地点の聴衆の反応
をまとめ抽象化した、反応を示すデータを生成するため
の複数個の受講会場用システム34と、講師が行なう講
議の様子をこれら複数個の受講会場にインターネットを
通じて放送するための講師用システム32と、これら複
数個の受講会場用システム34および講師用システム3
2を結び、各受講会場用システム34の前の聴衆の反応
を総合して講師用システム32に対して送信するための
集計センター30とを含む。なお、講師用システム32
から受講会場用システム34への講議の放送は、インタ
ーネットを通じたもののみでなく、衛星放送または地上
波など通常の電波を用いた放送でもよい。 [ハードウェア構成]この遠隔放送システムは、パーソ
ナルコンピュータまたはワークステーション等、コンピ
ュータ上で実行されるソフトウェアにより実現される。
図2に、この遠隔放送システムを実現するために使用さ
れるコンピュータの外観を示す。集計センター30、講
師用システム32および受講会場用システム34はいず
れもほぼ同様のハードウェア構成であり、この図2に示
したものと同じである。以下に、集計センター30、講
師用システム32および受講会場用システム34を代表
してシステム40として表し、このシステム40につい
て説明する。
【0040】図2を参照してこのシステム40を構成す
るコンピュータ本体60は、CD−ROM(Compact Di
sc Read-Only Memory )ドライブ70およびFD(Flex
ibleDisk )ドライブ72を備えたコンピュータ本体6
0と、コンピュータ本体60に接続された表示装置とし
てのディスプレイ62と、同じくコンピュータ本体60
に接続された入力装置としてのキーボード66およびマ
ウス68と、コンピュータ本体60に接続された、人物
(聴衆)の画像を取込むためのビデオカメラ50と、講
師用システム32から送信されてきた講師の映像を表示
するための、大画面表示装置86とを含む。この実施の
形態の装置では、ビデオカメラ50としてはCCD(固
体撮像素子)を含むビデオカメラを用い、ビデオカメラ
50を聴衆の正面において、大画面表示装置86に表示
される講議に対する聴衆の反応を抽出する処理を行なう
ものとする。なお、簡単のために、以下では撮影される
聴衆の数は1人として説明するが、聴衆が複数いるとき
にも、人数に応じた繰返しを行なうことで容易に対応で
きる。
【0041】図3に、このシステム40の構成をブロッ
ク図形式で示す。図3に示されるようにこのシステム4
0を構成するコンピュータ本体60は、CD−ROMド
ライブ70およびFDドライブ72に加えて、それぞれ
バス92に接続されたCPU(Central Processing Uni
t)76と、ROM(Read Only Memory)78と、RAM
(Random Access Memory)80と、ハードディスク74
と、ビデオカメラ50からの画像を取込むための画像取
得回路88と、バス92を介して得られる、図1に示す
講師用システム32から送信された講議の模様を示すデ
ジタルデータ(圧縮されている)を伸長し、ビデオ信号
に変換するためのビデオ出力回路90とを含んでいる。
CD−ROMドライブ70にはCD−ROM82が装着
される。FDドライブ72にはFD84が装着される。
【0042】既に述べたようにこの遠隔放送システムの
主要部は、コンピュータハードウェアと、CPU76に
より実行されるソフトウェアとにより実現される。一般
的にこうしたソフトウェアはCD−ROM82、FD8
4等の記憶媒体に格納されて流通し、CD−ROMドラ
イブ70またはFDドライブ72等により記憶媒体から
読取られてハードディスク74に一旦格納される。また
は、当該装置がネットワークに接続されている場合に
は、ネットワーク上のサーバから一旦ハードディスク7
4に一旦コピーされる。そうしてさらにハードディスク
74からコンピュータ本体60に読出されてCPU76
により実行される。なお、ネットワーク接続されている
場合には、ハードディスク74に格納することなくRA
M80に直接ロードして実行するようにしてもよい。
【0043】図2および図3に示したコンピュータのハ
ードウェア自体およびその動作原理は一般的なものであ
る。したがって、本発明の最も本質的な部分はCD−R
OM82、FD84、コンピュータ本体60等の記憶媒
体に記憶されたソフトウェアである。
【0044】なお、最近の一般的傾向として、コンピュ
ータのオペレーティングシステムの一部として様々なプ
ログラムモジュールを用意しておき、アプリケーション
プログラムはこれらモジュールを所定の配列で必要な時
に呼び出して処理を進める方式が一般的である。そうし
た場合、当該遠隔放送システムを実現するためのソフト
ウェア自体にはそうしたモジュールは含まれず、当該コ
ンピュータでオペレーティングシステムと協働してはじ
めて遠隔放送システムの構成要素の各機能が実現するこ
とになる。しかし、一般的なプラットフォームを使用す
る限り、そうしたモジュールを含ませたソフトウェアを
流通させる必要はなく、それらモジュールを含まないソ
フトウェア自体およびそれらソフトウェアを記録した記
録媒体(およびそれらソフトウェアがネットワーク上を
流通する場合のデータ信号)が実施の形態を構成すると
考えることができる。 [受講会場用システム34]図4を参照して、本実施の
形態の受講会場用システム34は、ビデオカメラ50
と、ビデオカメラ50から受ける信号をフレームごとに
A/D(アナログ/デジタル)変換し、記憶するための
映像取得部100と、映像取得部100から与えられる
デジタル映像信号に基づいて、映像の各フレームを後述
する「安定静止ユニット」と「活動検出ユニット」とに
分離するための検出・分離サブシステム102と、検出
・分離サブシステム102によって分離された安定静止
ユニットおよび活動検出ユニットに属する各フレームの
画像に基づいて、この会場の聴衆の反応を判定し、反応
を複数個のカテゴリに分類してカテゴリの情報を出力す
るための判定サブシステム104と、判定サブシステム
104から出力された各カテゴリの情報を所定時間集計
し、集計した結果を、講議に対するこの会場の聴衆の反
応を示すスコアとして出力することを所定の間隔で繰返
すための集計部106と、集計部106の出力をインタ
ーネットを通じて集計センター30に送信し、講師用シ
ステム32からの講議の映像データを受信するのを始
め、システム内での通信制御を行なうための送受信部1
08と、送受信部108によって受信された講議の映像
データに対してデータ伸長、データ補間等の必要な処理
を行なった上で映像信号に変換し出力するための画像処
理部110と、画像処理部110からの映像信号を表示
するための、前述した大画面表示装置86とを含む。
【0045】以下、この受講会場用システム34の主要
な機能ブロックの構成についてその詳細を説明する。 [検出・分離サブシステム102]図5を参照して、検
出・分離サブシステム102は、映像取得部100から
与えられる各フレームの画像の中から、聴衆たる人物の
顔の領域を検出するための顔領域検出部120と、顔領
域検出部120によって検出された顔領域について、入
力される映像の中に含まれる画像の動きに着目して、映
像を後述する「静止ユニット」と「動きユニット」とに
分類するための映像ストリームユニット分離部122
と、映像ストリームユニット分離部122によって静止
ユニットに分類されたユニットの継続時間に着目し、あ
るしきい値以上続く静止ユニットを「安定静止ユニッ
ト」に、あるしきい値未満の期間だけ継続する静止ユニ
ットを「不安定静止ユニット」に、それぞれ分類するた
めの静止ユニット分類部124と、映像ストリームユニ
ット分離部122によって動きユニットとして分類され
たユニットと、静止ユニット分類部124によって不安
定静止ユニットに分類されたユニットとを統合して前述
の「活動検出ユニット」として統合するためのユニット
統合部126とを含む。
【0046】静止ユニット、動きユニット、安定静止ユ
ニット、不安定静止ユニットおよび活動検出ユニットに
ついては、図8および図9を参照して後により詳細に説
明する。 [顔領域検出部120]複雑な背景を含む画像から人物
の顔領域を検出するための技術として多くの技術が提案
されている。それらは大別して、目、鼻、口等の顔部品
に代表される、顔面の特徴に基づいて顔領域を検出する
第1の手法と、人物の顔の色彩と背景の色彩との相違に
基づいて顔領域を検出する第2の手法とに分類される。
顔領域を検出できるものであればどちらの手法を用いて
もよいが、本実施例では以下に述べるように第2の手法
を用いる。
【0047】また、本実施の形態のシステムでは、特に
顔領域の検出を確実に行なうために、rgb色空間を用い
る手法と、NCb-NCr色空間を用いる手法とを組合わせ、
双方の手法による結果を統合して顔領域を検出してい
る。これら手法はいずれも、人の顔の色の色分布が、人
の顔の色および照明の色にかかわらず2Dガウス分布で
モデル化できるという事実を利用している。色分布を算
出する際に一方がr,g,bを用い、他方がNCb−N
Crを用いる点のみにおいてこれら手法は異なってい
る。
【0048】図6を参照して、顔領域検出部120は、
入力されるRGB成分からなる映像ストリーム130に
対して、式(1)〜(3)で示される変換を行なうこと
により(r,g,b)成分への色空間変換を行なうため
のrgb色空間変換処理132と、rgb色空間変換処理13
2によって(r,g,b)成分に変換された色成分のう
ち、r,g成分を用いて入力画像の色分布と、あらかじ
め用意されていた色分布との間の類似度マッピングをお
こなうためのr-g空間類似度計算処理134とを含む。
なお、r,g,bの和は式(1)〜(3)より分かるよ
うに必ず「1」となる。すなわち、r,g,bのうちの
どの一つも他の二つの成分によって表わされる。したが
って、r,gのみを用いて色分布を表現することができ
る。
【0049】ここで、人の顔の色における色分布は2D
ガウス分布G1(m1,V1 2)と表現することができる。
ただし、各変数は式(4)〜(7)によって表される値
である。式のうち上線を引いた変数は、各変数のガウス
平均を表わす。V1は2Dガウス分布の共分散行列を表
わす。Nは顔領域内の全画素数を表わす。
【0050】顔領域検出部120はさらに、それぞれrg
b色空間変換処理132およびr-g空間類似度計算処理1
34と同様の処理をNCb−NCr色空間で行なうため
の(NCb, NCr)色空間変換処理136 およびNCb-NCr空間
類似度計算処理138とを含む。NCb,NCrを計算
するためのY,Cb,Cr色成分の値は式(8)〜(1
0)によって計算される。さらにこれらを式(11)
(12)に示されるように正規化することでNCbおよ
びNCr色成分が得られる。
【0051】このNCbおよびNCr色成分を用いて表
わした色分布は2Dガウス分布G2(m2,V2 2)と表
現することができる。ここで、各変数は式(13)〜
(16)で表現される値を表わす。ここでも上線の意味
は式(4)〜(7)における意味と同じである。V2
2Dガウス分布の共分散マトリクスである。
【0052】顔領域検出部120はさらに、r-g空間類
似度計算処理134で計算された類似度マッピングとNC
b-NCr空間類似度計算処理138 で計算された類似度マ
ッピングとを統合して新たな類似度マッピングを生じる
ための類似度計算の統合処理140と、画像に対して後
処理をし、類似度計算の統合処理140によって得られ
た最終的な類似度マッピングにしたがって、顔領域に相
当する部分をだ円または矩形領域で表現してその位置を
示す情報を出力するための後処理142とを含む。
【0053】r-g空間類似度計算処理134およびNCb-N
Cr空間類似度計算処理138における類似度マッピング
としては、式(17)を用いた。式(17)においてk
=1の場合はr,g空間、k=2の場合はNCr−NC
b空間の場合にそれぞれ相当する。また式(17)にお
いてI(x,y)は点(x,y)における各色成分の強
さを表わし、mは色成分の値の平均の平均ベクトル表現
を表わし、Vは共分散マトリクスを表わす。各画素に対
して式(17)(k=1,2)の計算を行ない、その結
果に対してあるしきい値を設けておく。このしきい値よ
り小さい値を持つ画素を顔領域の候補とする。
【0054】類似度計算の統合処理140での統合は次
のようにして行なわれる。すなわち、r-g空間類似度計
算処理134で得られた類似度マッピングの式d
k(i,j)(k=1,2)に対して式(18)の計算
を行なう。その結果によって式(19)にしたがい各画
素が顔領域に属する候補か否かの判定を行なう。式(1
8)(19)において、μkおよびσk 2はそれぞれd
k(i,j)(k=1,2)での平均および分散であ
る。またw1およびw2はそれぞれ所定の重みであり、D
はしきい値である。
【0055】後処理142は二つの処理を含む。類似度
計算の統合処理140の結果、映像の各画素について、
その画素が顔領域に属すると考えられるか否かにしたが
って各画素についてそれぞれ1または0の値が割り当て
られている。そこで、以下の処理によって顔領域を表わ
すだ円または矩形領域を求める。以下の説明では、簡略
化のために顔領域を円として表わす場合を想定する。
【0056】まず、ノイズ除去を行なう。ここでは、顔
領域の候補部分を拡大しその周囲の輪郭を求める。次
に、こうして求められた顔領域の候補部分に対して以下
のアルゴリズムで円領域を顔領域に当てはめる。
【0057】最初に式(20)(21)によって肌色と
思われる領域の中心(Cx、Cy)を求める。ここでJ
(x, y)は上記処理によって顔領域候補画素には1が、そ
うでない画素には0が割当てられている2値画像であ
る。次に肌色と思われる領域の半径Rを式(22)によ
って計算する。こうして得られた、中心が(Cx、C
y)、半径Rの円を顔領域とする。なお式(20)〜
(22)はあくまで一例であり、アプリケーションおよ
び設計思想によってこれら式としては任意のものを選択
できる。
【0058】図7に顔領域検出部120の処理過程およ
び結果の画像を示す。図7(a)がオリジナルの画像で
ある。r-g空間類似度計算処理134の結果得られた画
像を図7(b)に、NCb-NCr空間類似度計算処理138
の結果得られた画像を図7(c)に、それぞれ示す。類
似度計算の統合処理140の結果と、その結果に対して
後処理142が行なった処理によって得られた顔領域を
示す円(だ円)を図7(d)に示す。こうして得られた
円(だ円)を図7(a)のオリジナル画像と合成したの
が図7(e)である。
【0059】こうして一旦顔領域を決定すると、以下は
この顔領域をトラッキングすればよい。また顔領域のト
ラッキングに失敗したときには、上述の処理を再度行な
うことで顔領域を決定することができる。
【0060】次に、映像ストリームユニット分離部12
2、静止ユニット分類部124、およびユニット統合部
126の処理の内容について図8〜図10を参照して説
明する。まず、映像ストリームユニット分離部122
は、入力されるフレーム間の差分をとることにより図8
に示されるフレーム間差分150が得られる。フレーム
間差分の値が得られたら、以下のようにしてユニットの
分離を行なう。
【0061】フレームN1〜フレームN2(N1<N2)の
間の全てのフレームにおいて、そのフレーム間差分があ
るしきい値(典型的には0)より大きく、フレームN1
−1およびフレームN2+1においてフレーム間差分が
このしきい値以下の場合に、フレームN1〜N2を動きユ
ニットと呼ぶ。またフレームN1〜フレームN2(N1
2)の間の全てのフレームにおいて、そのフレーム間
差分がこのしきい値以下であり、フレームN1−1およ
びフレームN2+1においてフレーム間差分がこのしき
い値より大きい場合に、フレームN1〜N2を静止ユニッ
トと呼ぶ。なお、しきい値としては小さい値が選択され
るべきであるが、0に限定されるわけではない。
【0062】映像ストリームユニット分離部122は、
図8に示すフレーム間差分150を、上記した定義にし
たがって、静止ユニット160、164、168、17
2および176、ならびに動きユニット162、16
6、170、174および178に分離する。
【0063】実際のユニット分離の手順を図10に示
す。図10を参照して、まず画像ストリーム内の連続す
る二つのフレームの画像の特徴点抽出およびトラッキン
グを行なう(ステップ220)。このときの特徴点抽出
およびトラッキングには、公知のアルゴリズムを用いる
ことができる。たとえばKLT(Kanade-Lucas-Tomas
i)アルゴリズムを用いることができる。
【0064】次に、ステップ220で抽出された特徴点
の間の対応関係を用いて、フレーム間差分の計算を行な
う(222)。こうして得られたフレーム間差分によっ
てユニット分離を行なう(224)。
【0065】次に、静止ユニット分類部124が静止ユ
ニット160、164、168、172および176を
以下のようにして安定静止ユニットと不安定静止ユニッ
トとに分類する。すなわち静止ユニット分類部124
は、静止ユニットを構成するフレームの数があるしきい
値以上であればそのユニットを安定静止ユニットに分類
し、それ以外の場合にそのユニットを不安定静止ユニッ
トに分類する。たとえば図8に示すフレーム間差分15
0の例では、静止ユニット160および静止ユニット1
68がそれぞれ安定静止ユニットにそれぞれ分類され
る。静止ユニット164、172および176は不安定
静止ユニットに分類される。
【0066】ここで、安定静止ユニットは、ある長さの
時間以上にわたって人の動きがなかった、と考えられる
ことから、人が一定のポーズをとって動かなかった期間
と考えることができる。これは、たとえば人が講議に集
中している可能性もあるし、また講議に退屈して他を見
ている可能性もある。一方、不安定静止ユニットは、動
きユニットに挟まれたごく短い期間のみであるので、な
んらかの動きに含まれる一次的な静止状態に対応すると
考えられる。
【0067】静止ユニット分類部124は、安定静止ユ
ニットに関する情報を判定サブシステム104に、不安
定静止ユニットに関する情報をユニット統合部126
に、それぞれ与える。
【0068】ユニット統合部126は、映像ストリーム
ユニット分離部122から与えられる動きユニットに関
する情報と、静止ユニット分類部124から与えられる
不安定静止ユニットに関する情報とを統合し、活動検出
ユニットとする。つまり、なんらかの動きが人物に検出
されたフレームと、それら動きのあるフレームの間に挟
まれたごく短い期間の静止フレームとによって、たとえ
ば頷く、首をふる、上下を向く、首を傾ける、居眠りを
している、等、聴衆が講議に対して見せる反応を検出す
ることができると考えられるので、活動検出ユニットと
いう分類とする。ただしこれらの活動は必ずしも講議に
対して集中していることを示すと考えられるわけではな
く、講議とは関係のない動きに対応していることも考え
られる。
【0069】さて、再び図4を参照して、こうして分類
された安定静止ユニットに関する情報と活動検出ユニッ
トに関する情報とは判定サブシステム104に与えら
れ、判定サブシステム104がこれら情報と各映像フレ
ームの画像情報とに基づいて聴衆の反応を認識し判定す
る。
【0070】図11を参照して、判定サブシステム10
4は、静止ユニット情報を受けて聴衆の姿勢を推定する
ための姿勢推定部230と、活動検出ユニット情報を受
けて聴衆のジェスチャーを認識するためのジェスチャー
認識部232とを含む。姿勢推定部230は推定姿勢情
報を、ジェスチャー認識部232は推定ジェスチャー情
報を、それぞれ出力する。
【0071】図12を参照して、姿勢推定部230は、
安定静止ユニットフレーム画像240から画像の特徴ベ
クトルを抽出するための特徴ベクトル抽出処理部242
と、特徴ベクトル抽出処理部242からのフレーム画像
の特徴ベクトルを入力として、安定静止ユニットフレー
ム画像240に対応する聴衆の姿勢を示す情報(姿勢カ
テゴリ名)を出力するための、あらかじめ学習が済んで
いるニューラルネットによる姿勢判定部244とを含
む。この実施の形態のシステムでは、ニューラルネット
による姿勢判定部244 は検出対象となる一つの姿勢
カテゴリに対して一つのニューラルネットが対応するよ
うに、あらかじめ学習が済んでいる複数個の1対1ニュ
ラルネット250と、同じ入力特徴ベクトルに対してこ
れら複数個の1対1ニュラルネット250 の出力を調
べ、最も高い出力値を示した1対1ニュラルネット25
0に対応する姿勢カテゴリ名を出力するための最大値検
出部252とを含む。
【0072】このように、一つの姿勢カテゴリに対して
一つの1対1ニュラルネット250を設けるようにする
と、新たな姿勢カテゴリについての認識機能を追加しよ
うとするときに簡単に対応できるという効果がある。す
なわちその場合には、その新たな姿勢カテゴリを検出す
るようあらかじめ学習が行なわれている1対1ニュラル
ネット250 をニューラルネットによる姿勢判定部2
44に追加し、その出力を最大値検出部252への入力
に接続してやればよい。仮にニューラルネットによる姿
勢判定部244の全体を大きなニューラルネットとした
場合には、新たな姿勢カテゴリを検出する機能を追加し
ようとすると、ニューラルネット全体の学習をし直す必
要がある。したがって、実際の応用ではニューラルネッ
トによる姿勢判定部244のように複数個の1対1ニュ
ラルネット250を設けるようにすることが実用的であ
る。
【0073】図13を参照して、ジェスチャー認識部2
32も同様の構成を有する。すなわちジェスチャー認識
部232は、活動検出ユニットフレーム画像情報260
から画像の特徴ベクトルの抽出を行なう特徴ベクトル
の抽出処理262 と、この特徴ベクトルを入力として
聴衆のジェスチャーをカテゴリに分類してその情報(ジ
ェスチャーカテゴリ名)を出力するためのニューラルネ
ットによるジェスチャー判定部264とを含む。
【0074】ニューラルネットによるジェスチャー判定
部264も、それぞれ一つのジェスチャーカテゴリに対
応するように設けられた複数個の1対1ニューラルネッ
ト270と、これら複数個の1対1ニューラルネット2
70の出力を受け、最も出力の大きかった1対1ニュー
ラルネット270に対応するジェスチャーカテゴリ名を
出力するため最大値検出部272とを含む。
【0075】特徴ベクトル抽出処理部242は、この実
施の形態ではウェーブレット変換を用いて安定静止画像
の頭部領域の画像から特徴ベクトルを抽出する。たとえ
ば、入力イメージに対して式(23)〜(25)で示さ
れる関係を持つローパスフィルタHi(Z)(i=0、
1)およびハイパスフィルタGi(Z)(i=0、1)
を用意する。そしてこれらをi=0、1の順序で組合わ
せて元の入力イメージPに適用した結果、H01によっ
てP1が、H01によってI1が、G01によってI
2が、G01によってI3が、それぞれ得られたものとす
る。この結果のP1に対してさらに上述のフィルタを適
用して同様にP2、I1(P1)、I2(P1)、I
3(P3)が得られ、以下同様にPN、I1(PN-1)、I2
(PN-1)、I3(PN- 1)までを得る。こうして得られ
た全ての値と所定のしきい値とを比較して、各値を0ま
たは1のいずれかとする。そしてこれら0または1の値
を所定の順番で並べて特徴ベクトルとする。
【0076】一方、特徴ベクトルの抽出処理262によ
る特徴ベクトル抽出は特徴ベクトル抽出処理部242の
場合とは異なる。この場合は、聴衆の頭部の動きが問題
となるので、連続する2つのフレーム間の差分を基本と
して特徴ベクトルを抽出する。この実施の形態では、公
知の方法を用いて、2フレーム(フレームt−1および
t)間での人物の頭部の動きを表わす角度θt、φtおよ
びρtを求める。θtは光軸周りの回転角度を、φtは対
象に固定された座標軸のx軸と、画像面に平行な回転軸
Φとの間の角度を、ρtはΦ軸周りの角度を、それぞれ
表わす。この値を、連続するN個のフレームに対して求
める。
【0077】さらに、処理をよりロバストにするため
に、他の情報を追加する。これら情報としては、本実施
の形態では頭部の動きの中心の座標、頭部の動きの方
向、x軸方向およびy軸方向の頭部の動きのエネルギー
等がある。本実施の形態ではこれらの値を連続する所定
のN個のフレームから抽出し、上記したNフレーム分の
角度情報と合わせてそれらを並べて特徴ベクトルとして
いる。
【0078】なお、上記したN個は固定された数値と考
えて論じてきたが、たとえば活動検出ユニットに含まれ
るフレーム数がN個より多かったり、少なかったりする
場合がある。これに対しては、次のようにして対処す
る。まず、望ましいNの値を定める。次に、活動検出ユ
ニット内のフレーム数とNとを比較する。フレーム数が
N個より多ければ、最初のN個のフレームのみを用いて
特徴ベクトルを抽出する。フレーム数がN個より少なけ
れば、その足りない部分については最後のフレームと同
じであると仮定して特徴ベクトルを抽出する。このよう
な補正を行なっても、1対1ニューラルネット270を
適切に学習させておくことで正確な判定を行なうことが
可能である。
【0079】次に、図4に示す集計部106の構成につ
いて説明する。集計部106は、実質的にソフトウェア
によって実現されるので、以下にそのソフトウェアで行
なわれる処理の構成について図14を参照して説明す
る。この処理ではまず最初に、必要な記憶領域の確保お
よび初期化を行なう(290)。次に、一定のサンプリ
ング時間の経過を待つ(292)。この処理は、判定サ
ブシステム104の出力があったときに生じるイベント
を待つ処理としてもよい。サンプリング時間が経過する
と(または判定サブシステム104からの出力がある
と)、その時点で判定サブシステム104の出力する姿
勢情報(姿勢カテゴリ名)、ジェスチャー情報(ジェス
チャーカテゴリ名)に基づいて姿勢、ジェスチャーカテ
ゴリのスコアを評価する。この評価は本実施の形態では
以下のようにして行なう。なお、最大値検出部252の
出力する姿勢カテゴリ名として「Frontal-view(正
面)」「Right(右)」「Left(左)」「Up(上)」「D
own(下)」の5種類があり、最大値検出部272の出
力するジェスチャーカテゴリ名として、「nod(頷
く)」「shake head(首をふる)」「Look right(右を
見る)」「Look left(左を見る)」「Look down(下を
見る)」「Look Up(上を見る)」の6通りがあるもの
とする。
【0080】まず、活動検出ユニットについては、次の
ような評価を行なう。 (1) このユニットについてジェスチャーカテゴリが
「nod」または「shakehead」であればこのユニットのス
コアを1とする。
【0081】(2) 直前の安定静止ユニットの姿勢カ
テゴリ名が「Left」であり、この活動検出ユニットのジ
ェスチャーカテゴリが「Look right」であり、かつこの
ユニットの直後の安定静止ユニットの姿勢カテゴリ名が
「Frotal-view」であれば、この活動検出ユニットのス
コアを「1」とする。
【0082】(3) 直前の安定静止ユニットの姿勢カ
テゴリ名が「Right」であり、この活動検出ユニットの
ジェスチャーカテゴリが「Look left」であり、かつこ
のユニットの直後の安定静止ユニットの姿勢カテゴリ名
が「Frotal-view」であれば、この活動検出ユニットの
スコアを「1」とする。
【0083】(4) 直前の安定静止ユニットの姿勢カ
テゴリ名が「Up」であり、この活動検出ユニットのジェ
スチャーカテゴリが「Look down」であり、かつこのユ
ニットの直後の安定静止ユニットの姿勢カテゴリ名が
「Frotal-view」であれば、この活動検出ユニットのス
コアを「1」とする。
【0084】(5) 直前の安定静止ユニットの姿勢カ
テゴリ名が「Down」であり、この活動検出ユニットのジ
ェスチャーカテゴリが「Look up」であり、かつこのユ
ニットの直後の安定静止ユニットの姿勢カテゴリ名が
「Frotal-view」であれば、この活動検出ユニットのス
コアを「1」とする。
【0085】(6) 他の全ての場合についてはスコア
は「1」である。安定静止ユニットについては以下の基
準でスコアを評価する。
【0086】(1) もしもこのユニットの姿勢カテゴ
リ名が「Frontal-view」であればスコアは「1」とす
る。
【0087】(2) 他の場合についてはスコアは
「0」とする。こうして得られたスコアを、所定時間だ
け累算する(ステップ296および298)。所定時間
経過するごとに累算結果を式(26)によって計算し反
応のスコアSfとして出力する(ステップ300)。な
お式(26)においてTは累算時間、Suはu番目のユ
ニットのスコア、tuはu番目のユニットの持続時間を
表わす。なお、このスコア評価方法は1例であって、ア
プリケーションによって任意の評価方法を採用すること
ができる。
【0088】続いて、スコア計算用の作業領域をクリア
して(ステップ302)制御をステップ292に戻し、
以下同じ処理を繰返す。
【0089】上記した最終スコアSfは送受信部108
(図4参照)を介して集計センター30に出力される。
【0090】以上が、受講会場用システム34の構成お
よび動作の概略である。 [集計センター30]図15を参照して、集計センター
30は、受講会場用システム34および講師用システム
32と通信を行なうための送受信部320と、受講会場
用システム34から送信されてくるスコアを全ての受講
会場用システム34にわたって集計するための結果集計
部322と、集計センター30および集計方法等の設定
を行なうためにユーザが操作するためのシステム設定部
324と、システム設定部324によって設定された条
件にしたがって結果集計部322での集計方法を制御
し、集計結果を送受信部320 を介して講師用システ
ム32に定期的に送信するためのシステム管理部326
と、集計センター30の稼動状況、結果集計部322に
よる集計状況等を表示するためにシステム管理部326
が用いる表示装置328 とを含む。
【0091】図15に示されるのは最も単純な構成であ
るが、受講会場用システム34の出力について上記した
とおりの説明に基づけば、当業者であれば一般的なコン
ピュータを用いてこの集計センター30を容易に作成す
ることが可能であろう。なお、この実施の形態では、集
計センター30が講師用システム32または受講会場用
システム34とは別個に設けられている。しかしもちろ
ん本願発明はそのような構成に限定されない。たとえば
集計センター30が講師用システム32または受講会場
用システム34のうちの任意の一つと同じコンピュータ
上で実現されてもよい。 [講師用システム32]図16を参照して、講師用シス
テム32は、講師の映像を出力するためのビデオカメラ
50 と、ビデオカメラ50の出力する映像信号をデジ
タル映像信号に変換し、圧縮するための画像圧縮部34
0と、画像圧縮部340の出力する圧縮された画像を各
受講会場用システム34および集計センター30に送信
し、また集計センター30から聴衆の反応を示すスコア
の集計結果を受信するための送受信部342と、送受信
部342によって集計センター30から受取られた聴衆
の反応のスコアの集計結果に対して、表示のための集
計、受講会場用システム34ごとの集計、分類、順序付
け等、反応を示す情報に対して行なうべき情報処理を実
行するための結果処理部344と、結果処理部344の
出力する結果を、どのような形式で表示するかを設定す
るための表示条件設定部346と、表示条件設定部34
6によって設定された条件にしたがって結果処理部34
4の出力に基づいて、聴衆の反応を分かりやすく表現す
る映像信号を生成するための映像生成部348 と、映
像生成部348の出力する映像信号を表示するための、
前述の大画面表示装置86とを含む。
【0092】反応の表示形式としてはたとえば、単純
に、全ての受講会場用システム34でスコアが「1」と
なったら100パーセントとなるように、反応をパーセ
ントに換算して数字として表示してもよい。なおこの実
施の形態では、このように聴衆の反応を数字として表示
できる。したがって、この数字に基づいてどのような表
示形式を実現することもできる。たとえば受講会場用シ
ステム34ごとに表示区画を設けて受講会場ごとに聴衆
の反応を色で表示すること、または棒グラフ、円グラフ
等のグラフ形式で表示することが考えられる。また、聴
衆を代表する複数(例えば10人から30人程度)の人
物の映像を合成し、それらの人物の反応が、ちょうど全
聴衆の反応の割合に対応するように、これら人物の映像
の姿勢、動き、表情等を制御してもよい。 [システムの動作]上記した構成のこのシステムは以下
のように動作する。あらかじめ、講師用システム32は
集計センター30との接続を確立しておく。受講会場用
システム34はいずれも講師用システム32からの映像
を受信できるように、かつ集計センター30に対して情
報を送信できるように、集計センター30との間で適切
なコネクションをネットワーク上で確立しておく。
【0093】講師用システム32では、講師を撮像した
映像信号(音声信号を含む)を画像圧縮部340によっ
て圧縮し集計センター30に送信する。集計センター3
0は、接続してきた受講会場用システム34に対してこ
の映像を送信する。
【0094】受講会場用システム34は、集計センター
30から送信されてきた講師の映像を伸長し、大画面表
示装置86上に表示する。受講会場用システム34 で
はあわせて、ビデオカメラ50を用いて聴衆を撮像し、
これをフレームごとのデジタル信号に変換する。さら
に、これらフレームを検出・分離サブシステム102に
よって安定静止ユニットと活動検出ユニットとに分類す
る。そして、それらユニットに属するフレームの映像信
号に基づいて、判定サブシステム104が聴衆の反応を
推定しスコアとして出力する。集計部106 が所定時
間ごとにこのスコアを集計して送受信部108 を介し
て集計センター30に最終スコアを送信する。
【0095】集計センター30では、接続されている複
数の受講会場用システム34の全てに対して式(26)
で表わされる計算を行ない、その結果を講師用システム
32に送信する。
【0096】講師用システム32では、この集計結果を
集計センター30から受信し、聴衆の反応を表現するよ
うにあらかじめ設定された表現形式にしたがって講師に
対して聴衆の反応を示す映像を提示する。
【0097】講師は、このようにして提示された聴衆の
反応を見て、話題を変えたり、聴衆の注意をひくための
なんらかの行為、たとえば質問を発する等の適切な行為
を行なったり、聴衆の反応が満足すべきものであればそ
のまま講演を継続したり、という適切な行動をとること
ができる。 [実施の形態2]上記した実施の形態1のシステムは、
講師から各講習会場にいる聴衆への、情報の一方通行を
行なうシステムであった。しかし本発明はこうしたシス
テムのみに適用可能なわけではなく、双方向の情報の送
受信を行なうシステム、たとえば仮想空間を利用した電
子会議システムにも適用可能である。この場合には、シ
ステム内の、集計センターを除く全ての受講会場用シス
テムに、講師用システム32と同様の映像の送信装置お
よび他の受講会場用システムからの反応に基づいて仮想
空間の内容を制御できる機能を追加すればよい。この場
合、講師用システム32に相当するものは不要であり、
集計センター30 と複数個の受講会場用システムとで
システムを構築できる。
【0098】図17に、そうした受講会場用システム3
60のブロック図を示す。図17を参照して、この受講
会場用システム360は、図4に示した受講会場用シス
テムと同様に、ビデオカメラ50、映像取得部100、
検出・分離サブシステム102、判定サブシステム10
4、集計部106を備え、それを備え、それに加えて、
集計部106からの集計結果を集計センター30に送信
し、集計センター30から与えられる他の受講会場用シ
ステムでの反応を受信するための送受信部370と、送
受信部370から得られた他の受講会場用システムでの
聴衆の反応に対して、結果処理部344(図16参照)
と同様の処理を行なうための結果処理部372と、結果
処理部372によって処理された結果に基づき、当該集
計結果を反映するように仮想空間および仮想空間内の人
物に関する情報を更新するための仮想空間維持部374
と、仮想空間維持部374によって維持されている仮想
空間情報にしたがって仮想空間内の環境と人物との映像
を生成する映像生成部376 と、映像生成部376に
よって生成された仮想空間の映像を表示するための大画
面表示装置86とを含む。なお図17において、図4に
示された各ブロックと同じ機能を持つブロックには同じ
参照符号を付してある。それらの構成も同じである。し
たがってここではそれらについての詳細な説明は繰返さ
ない。
【0099】この実施の形態2のシステムでは、1対多
という形式ではなく、様々な場所にいる複数の人物が、
互いに他の人物の反応を把握しながら、ディスカッショ
ンを行なうことができるという効果を奏する。
【0100】今回開示された実施の形態はすべての点で
例示であって制限的なものではないと考えられるべきで
ある。本発明の範囲は上記した説明ではなくて特許請求
の範囲によって示され、特許請求の範囲と均等の意味お
よび範囲内でのすべての変更が含まれることが意図され
る。
【図面の簡単な説明】
【図1】 本願発明の実施の形態1にかかる遠隔放送シ
ステムの全体構成を示す図である。
【図2】 本発明の実施の形態1にかかるシステムを構
成する集計センター30、講師用システム32および受
講会場用システム34を実現するためのコンピュータの
外観図である。
【図3】 図2にかかるコンピュータのハードウェア的
構成を示すブロック図である。
【図4】 本発明の実施の形態1のシステムの受講会場
用システム34のブロック図である。
【図5】 検出・分離サブシステム102の機能ブロッ
ク図である。
【図6】 顔領域検出部120の機能ブロック図であ
る。
【図7】 顔領域検出部120の処理の結果例を示す図
である。
【図8】 映像シーケンスのユニットへの分類方法を説
明するための図である。
【図9】 ユニットを安定静止ユニットと活動検出ユニ
ットとに再構成する方法を説明するための図である。
【図10】 映像シーケンスのユニットへの分類処理の
流れを示す図である。
【図11】 判定サブシステム104の機能ブロック図
である。
【図12】 姿勢推定部230の機能ブロック図であ
る。
【図13】 ジェスチャー認識部232の機能ブロック
図である。
【図14】 集計部106の処理構成を示すフローチャ
ートである。
【図15】 集計センター30の構成を示す機能ブロッ
ク図である。
【図16】 講師用システム32の構成を示す機能ブロ
ック図である。
【図17】 本願発明の実施の形態2にかかる受講会場
用システム360の機能ブロック図である。
【符号の説明】
20 遠隔放送システム、30 集計センター、32講
師用システム、34受講会場用システム、50 カメ
ラ、100 映像取得部、102 検出・分離サブシス
テム、104 判定サブシステム、106 集計部、1
20 顔領域検出部、122 映像ストリームユニット
分離部、124 静止ユニット分類部、126 ユニッ
ト統合部、230 姿勢推定部、232 ジェスチャー
認識部、242、262 特徴ベクトル抽出処理部、2
44 姿勢判定部、264 ジェスチャー判定部。
─────────────────────────────────────────────────────
【手続補正書】
【提出日】平成12年8月18日(2000.8.1
8)
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】0050
【補正方法】変更
【補正内容】
【0050】顔領域検出部120はさらに、それぞれrg
b色空間変換処理132およびr-g空間類似度計算処理1
34と同様の処理をNCb−NCr色空間で行なうため
の(NCb, NCr)色空間変換処理136およびNCb-NCr空間
類似度計算処理138を含む。NCb,NCrを計算す
るためのY,Cb,Cr色成分の値は式(8)〜(1
0)によって計算される。さらにこれらを式(11)
(12)に示されるように正規化することでNCbおよ
びNCr色成分が得られる。
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】0052
【補正方法】変更
【補正内容】
【0052】顔領域検出部120はさらに、r-g空間類
似度計算処理134で計算された類似度マッピングとNC
b-NCr空間類似度計算処理138で計算された類似度マ
ッピングとを統合して新たな類似度マッピングを生じる
ための類似度計算の統合処理140と、画像に対して後
処理をし、類似度計算の統合処理140によって得られ
た最終的な類似度マッピングにしたがって、顔領域に相
当する部分をだ円または矩形領域で表現してその位置を
示す情報を出力するための後処理142とを含む。
【手続補正3】
【補正対象書類名】明細書
【補正対象項目名】0062
【補正方法】変更
【補正内容】
【0062】映像ストリームユニット分離部122は、
図8に示すフレーム間差分150を、上記した定義にし
たがって、静止ユニット160、164、168、17
2および176、ならびに動きユニット162、16
6、170、174および178に分離する。
【手続補正4】
【補正対象書類名】明細書
【補正対象項目名】0071
【補正方法】変更
【補正内容】
【0071】図12を参照して、姿勢推定部230は、
安定静止ユニットフレーム画像240から画像の特徴ベ
クトルを抽出するための特徴ベクトル抽出処理部242
と、特徴ベクトル抽出処理部242からのフレーム画像
の特徴ベクトルを入力として、安定静止ユニットフレー
ム画像240に対応する聴衆の姿勢を示す情報(姿勢カ
テゴリ名)を出力するための、あらかじめ学習が済んで
いるニューラルネットによる姿勢判定部244とを含
む。この実施の形態のシステムでは、ニューラルネット
による姿勢判定部244は検出対象となる一つの姿勢カ
テゴリに対して一つのニューラルネットが対応するよう
に、あらかじめ学習が済んでいる複数個の1対1ニュ
ラルネット250と、同じ入力特徴ベクトルに対してこ
れら複数個の1対1ニュラルネット250の出力を調
べ、最も高い出力値を示した1対1ニュラルネット2
50に対応する姿勢カテゴリ名を出力するための最大値
検出部252とを含む。
【手続補正5】
【補正対象書類名】明細書
【補正対象項目名】0072
【補正方法】変更
【補正内容】
【0072】このように、一つの姿勢カテゴリに対して
一つの1対1ニュラルネット250を設けるようにす
ると、新たな姿勢カテゴリについての認識機能を追加し
ようとするときに簡単に対応できるという効果がある。
すなわちその場合には、その新たな姿勢カテゴリを検出
するようあらかじめ学習が行なわれている1対1ニュ
ラルネット250をニューラルネットによる姿勢判定部
244に追加し、その出力を最大値検出部252への入
力に接続してやればよい。仮にニューラルネットによる
姿勢判定部244の全体を大きなニューラルネットとし
た場合には、新たな姿勢カテゴリを検出する機能を追加
しようとすると、ニューラルネット全体の学習をし直す
必要がある。したがって、実際の応用ではニューラルネ
ットによる姿勢判定部244のように複数個の1対1ニ
ラルネット250を設けるようにすることが実用的
である。
【手続補正6】
【補正対象書類名】明細書
【補正対象項目名】0073
【補正方法】変更
【補正内容】
【0073】図13を参照して、ジェスチャー認識部2
32も同様の構成を有する。すなわちジェスチャー認識
部232は、活動検出ユニットフレーム画像情報26
ら画像の特徴ベクトルの抽出を行なう特徴ベクトルの
抽出処理262と、この特徴ベクトルを入力として聴衆
のジェスチャーをカテゴリに分類してその情報(ジェス
チャーカテゴリ名)を出力するためのニューラルネット
によるジェスチャー判定部264とを含む。
【手続補正7】
【補正対象書類名】明細書
【補正対象項目名】0090
【補正方法】変更
【補正内容】
【0090】以上が、受講会場用システム34の構成お
よび動作の概略である。 [集計センター30]図15を参照して、集計センター
30は、受講会場用システム34および講師用システム
32と通信を行なうための送受信部320と、受講会場
用システム34から送信されてくるスコアを全ての受講
会場用システム34にわたって集計するための結果集計
部322と、集計センター30および集計方法等の設定
を行なうためにユーザが操作するためのシステム設定部
324と、システム設定部324によって設定された条
件にしたがって結果集計部322での集計方法を制御
し、集計結果を送受信部320を介して講師用システム
32に定期的に送信するためのシステム管理部326
と、集計センター30の稼動状況、結果集計部322に
よる集計状況等を表示するためにシステム管理部326
が用いる表示装置328とを含む。
【手続補正8】
【補正対象書類名】明細書
【補正対象項目名】0091
【補正方法】変更
【補正内容】
【0091】図15に示されるのは最も単純な構成であ
るが、受講会場用システム34の出力について上記した
とおりの説明に基づけば、当業者であれば一般的なコン
ピュータを用いてこの集計センター30を容易に作成す
ることが可能であろう。なお、この実施の形態では、集
計センター30が講師用システム32または受講会場用
システム34とは別個に設けられている。しかしもちろ
ん本願発明はそのような構成に限定されない。たとえば
集計センター30が講師用システム32または受講会場
用システム34のうちの任意の一つと同じコンピュータ
上で実現されてもよい。 [講師用システム32]図16を参照して、講師用シス
テム32は、講師の映像を出力するためのビデオカメラ
0と、ビデオカメラ50の出力する映像信号をデジタ
ル映像信号に変換し、圧縮するための画像圧縮部340
と、画像圧縮部340の出力する圧縮された画像を各受
講会場用システム34および集計センター30に送信
し、また集計センター30から聴衆の反応を示すスコア
の集計結果を受信するための送受信部342と、送受信
部342によって集計センター30から受取られた聴衆
の反応のスコアの集計結果に対して、表示のための集
計、受講会場用システム34ごとの集計、分類、順序付
け等、反応を示す情報に対して行なうべき情報処理を実
行するための結果処理部344と、結果処理部344の
出力する結果を、どのような形式で表示するかを設定す
るための表示条件設定部346と、表示条件設定部34
6によって設定された条件にしたがって結果処理部34
4の出力に基づいて、聴衆の反応を分かりやすく表現す
る映像信号を生成するための映像生成部348と、映像
生成部348の出力する映像信号を表示するための、前
述の大画面表示装置86とを含む。
【手続補正9】
【補正対象書類名】明細書
【補正対象項目名】0094
【補正方法】変更
【補正内容】
【0094】受講会場用システム34は、集計センター
30から送信されてきた講師の映像を伸長し、大画面表
示装置86上に表示する。受講会場用システム34で
あわせて、ビデオカメラ50を用いて聴衆を撮像し、こ
れをフレームごとのデジタル信号に変換する。さらに、
これらフレームを検出・分離サブシステム102によっ
て安定静止ユニットと活動検出ユニットとに分類する。
そして、それらユニットに属するフレームの映像信号に
基づいて、判定サブシステム104が聴衆の反応を推定
しスコアとして出力する。集計部106が所定時間ごと
にこのスコアを集計して送受信部108を介して集計セ
ンター30に最終スコアを送信する。
【手続補正10】
【補正対象書類名】明細書
【補正対象項目名】0097
【補正方法】変更
【補正内容】
【0097】講師は、このようにして提示された聴衆の
反応を見て、話題を変えたり、聴衆の注意をひくための
なんらかの行為、たとえば質問を発する等の適切な行為
を行なったり、聴衆の反応が満足すべきものであればそ
のまま講演を継続したり、という適切な行動をとること
ができる。 [実施の形態2]上記した実施の形態1のシステムは、
講師から各講習会場にいる聴衆への、情報の一方通行を
行なうシステムであった。しかし本発明はこうしたシス
テムのみに適用可能なわけではなく、双方向の情報の送
受信を行なうシステム、たとえば仮想空間を利用した電
子会議システムにも適用可能である。この場合には、シ
ステム内の、集計センターを除く全ての受講会場用シス
テムに、講師用システム32と同様の映像の送信装置お
よび他の受講会場用システムからの反応に基づいて仮想
空間の内容を制御できる機能を追加すればよい。この場
合、講師用システム32に相当するものは不要であり、
集計センター30と複数個の受講会場用システムとでシ
ステムを構築できる。
【手続補正11】
【補正対象書類名】明細書
【補正対象項目名】0098
【補正方法】変更
【補正内容】
【0098】図17に、そうした受講会場用システム3
60のブロック図を示す。図17を参照して、この受講
会場用システム360は、図4に示した受講会場用シス
テムと同様に、ビデオカメラ50、映像取得部100、
検出・分離サブシステム102、判定サブシステム10
4、集計部106を備え、それに加えて、集計部106
からの集計結果を集計センター30に送信し、集計セン
ター30から与えられる他の受講会場用システムでの反
応を受信するための送受信部370と、送受信部370
から得られた他の受講会場用システムでの聴衆の反応に
対して、結果処理部344(図16参照)と同様の処理
を行なうための結果処理部372と、結果処理部372
によって処理された結果に基づき、当該集計結果を反映
するように仮想空間および仮想空間内の人物に関する情
報を更新するための仮想空間維持部374と、仮想空間
維持部374によって維持されている仮想空間情報にし
たがって仮想空間内の環境と人物との映像を生成する映
像生成部376と、映像生成部376によって生成され
た仮想空間の映像を表示するための大画面表示装置86
とを含む。なお図17において、図4に示された各ブロ
ックと同じ機能を持つブロックには同じ参照符号を付し
てある。それらの構成も同じである。したがってここで
はそれらについての詳細な説明は繰返さない。
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 7/15 630 G06F 15/70 465A (72)発明者 川戸 慎二郎 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール知能映 像通信研究所内 (72)発明者 大谷 淳 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール知能映 像通信研究所内 Fターム(参考) 2C028 AA12 BA02 BB04 BC05 BD02 CA12 DA06 5B057 AA20 BA02 CA01 CA08 CA12 CA16 DA12 DB02 DB06 DB09 DC08 DC25 DC32 DC40 5C064 AA02 AB04 AC04 AC13 AC18 AD08 AD14 5L096 DA02 FA19 GA08 GA41 HA02 HA04 HA11 JA03 JA11 JA22 KA04 9A001 BB04 EE02 EE05 FF02 GG05 HH06 HH20 HH30 HH31

Claims (16)

    【特許請求の範囲】
  1. 【請求項1】 表示される映像に対する人物の反応を認
    識するための反応認識装置であって、 人物の顔画像の映像シーケンスを取得するための映像取
    得手段と、 取得された映像シーケンスを、映像フレーム間の動きに
    基づいて安定静止ユニットと活動検出ユニットとに分類
    するための第1の分類手段と、 安定静止ユニットに分類されたフレームシーケンスおよ
    び活動検出ユニットに分類されたフレームシーケンスか
    ら人物の反応を認識するための反応認識手段とを含む、
    人物の反応認識装置。
  2. 【請求項2】 前記第1の分類手段は、 隣接するフレーム間のフレーム間差分に基づいて、前記
    映像シーケンスを静止ユニットと動きユニットとに分類
    するための第2の分類手段と、 前記静止フレームを、その持続期間に基づいて前記安定
    静止ユニットと不安定静止ユニットとに分類するための
    第3の分類手段と、 連続する前記不安定静止ユニットと前記動きユニットと
    を前記活動検出ユニットとして統合するための統合手段
    とを含む、請求項1に記載の人物の反応認識装置。
  3. 【請求項3】 前記反応認識手段は、 前記安定静止ユニット内のフレームから人物の顔画像の
    特徴ベクトルを抽出するための第1の特徴ベクトル抽出
    手段と、 前記第1の特徴ベクトル抽出手段の出力する特徴ベクト
    ルを入力として、前記特徴ベクトルに対応する姿勢情報
    を出力する、あらかじめ学習済みの第1のニューラルネ
    ットワークと、 前記前記活動検出ユニット内のフレーム間差分の情報か
    ら人物の顔画像の動きに対応する特徴ベクトルを抽出す
    るための第2の特徴ベクトル抽出手段と、 前記第2の特徴ベクトル抽出手段の出力する特徴ベクト
    ルを入力として、前記特徴ベクトルに対応するジェスチ
    ャー情報を出力する、あらかじめ学習済みの第2のニュ
    ーラルネットワークとを含む、請求項1に記載の人物の
    反応認識装置。
  4. 【請求項4】 前記第1のニューラルネットワークと前
    記第2のニューラルネットワークとのいずれか少なくと
    も一方は、各々が所定の反応カテゴリーと関連付けら
    れ、前記第1または第2の特徴ベクトル抽出手段の出力
    する特徴ベクトルを入力として、前記所定の反応カテゴ
    リとの関連度の高さを出力する、複数個の1対1ニュー
    ラルネットワークを含む、請求項3に記載の人物の反応
    認識装置。
  5. 【請求項5】 前記映像取得手段は、 ビデオカメラと、 前記ビデオカメラの出力する映像信号をフレームごとに
    デジタル信号に変換するための映像信号変換手段と、 前記映像信号変換手段の出力する映像シーケンスに基づ
    いて、各フレーム内の人物の顔領域を特定するための顔
    領域特定手段とを含む、請求項1〜請求項4のいずれか
    に記載の人物の反応認識装置。
  6. 【請求項6】 前記顔領域特定手段は、 前記映像信号変換手段の出力する映像シーケンスに基づ
    いて、第1の手法により各フレーム内の人物の顔領域を
    特定するための第1の手段と、 前記映像信号変換手段の出力する映像シーケンスに基づ
    いて、第2の手法により各フレーム内の人物の顔領域を
    特定するための第2の手段と、 前記第1の手段および前記第2の手段による顔領域の特
    定結果を統合して顔領域を特定する顔領域の統合手段と
    を含む、請求項1〜請求項5のいずれかに記載の人物の
    反応認識装置。
  7. 【請求項7】 前記映像シーケンスはRGB映像シーケ
    ンスであり、前記第1の手段は前記RGBカラー映像シ
    ーケンスをrg色空間に変換した映像中の色分布と所定
    の色分布パターンとの類似度に基づいて顔領域を特定す
    るための手段を含む、請求項6に記載の人物の反応認識
    装置。
  8. 【請求項8】 前記映像シーケンスはRGBカラー映像
    シーケンスであり、前記第1の手段は前記RGBカラー
    映像シーケンスをNCb‐NCr色空間に変換した映像
    中の色分布と所定の色分布パターンとの類似度に基づい
    て顔領域を特定するための手段を含む、請求項6または
    請求項7に記載の人物の反応認識装置。
  9. 【請求項9】 コンピュータを、表示される映像に対す
    る人物の反応を認識するための反応認識装置として動作
    させるためのプログラムを記録したコンピュータ読取可
    能な記録媒体であって、前記プログラムは、 人物の顔画像に対して取得された映像シーケンスを、映
    像フレーム間の動きに基づいて安定静止ユニットと活動
    検出ユニットとに分類するための第1の分類プログラム
    部分と、 安定静止ユニットに分類されたフレームシーケンスおよ
    び活動検出ユニットに分類されたフレームシーケンスか
    ら人物の反応を認識するための反応認識プログラム部分
    とを含む、コンピュータ読取可能な記録媒体。
  10. 【請求項10】 前記第1の分類プログラム部分は、 隣接するフレーム間のフレーム間差分に基づいて、映像
    シーケンスを静止ユニットと動きユニットとに分類する
    ための第2の分類プログラム部分と、 前記静止フレームを、その持続期間に基づいて前記安定
    静止ユニットと不安定静止ユニットとに分類するための
    第3の分類プログラム部分と、 連続する前記不安定静止ユニットと前記動きユニットと
    を前記活動検出ユニットとして統合するための統合プロ
    グラム部分とを含む、請求項9に記載のコンピュータ読
    取可能な記録媒体。
  11. 【請求項11】 前記反応認識プログラム部分は、 前記安定静止ユニット内のフレームから人物の顔画像の
    特徴ベクトルを抽出するための第1の特徴ベクトル抽出
    プログラム部分と、 前記第1の特徴ベクトル抽出プログラム部分の出力する
    特徴ベクトルを入力として、前記特徴ベクトルに対応す
    る姿勢情報を出力する、あらかじめ学習済みの第1のニ
    ューラルネットワークプログラム部分と、 前記前記活動検出ユニット内のフレーム間差分の情報か
    ら人物の顔画像の動きに対応する特徴ベクトルを抽出す
    るための第2の特徴ベクトル抽出プログラム部分と、 前記第2の特徴ベクトル抽出プログラム部分の出力する
    特徴ベクトルを入力として、前記特徴ベクトルに対応す
    るジェスチャー情報を出力する、あらかじめ学習済みの
    第2のニューラルネットワークプログラム部分とを含
    む、請求項10に記載のコンピュータ読取可能な記録媒
    体。
  12. 【請求項12】 前記第1のニューラルネットワークプ
    ログラム部分と前記第2のニューラルネットワークプロ
    グラム部分とのいずれか少なくとも一方は、各々が所定
    の反応カテゴリーと関連付けられ、前記第1または第2
    の特徴ベクトル抽出プログラム部分の出力する特徴ベク
    トルを入力として、前記所定の反応カテゴリとの関連度
    の高さを出力する、複数個の1対1ニューラルネットワ
    ークプログラム部分を含む、請求項11に記載のコンピ
    ュータ読取可能な記録媒体。
  13. 【請求項13】 前記プログラムはさらに、前記映像シ
    ーケンスに基づいて、各フレーム内の人物の顔領域を特
    定して前記第1の分類プログラム部分に与えるための顔
    領域特定プログラム部分を含む、請求項9〜請求項12
    のいずれかに記載のコンピュータ読取可能な記録媒体。
  14. 【請求項14】 前記顔領域特定プログラム部分は、 前記映像シーケンスに基づいて、第1の手法により各フ
    レーム内の人物の顔領域を特定するための第1のプログ
    ラム部分と、 前記映像シーケンスに基づいて、第2の手法により各フ
    レーム内の人物の顔領域を特定するための第2のプログ
    ラム部分と、 前記第1のプログラム部分および前記第2のプログラム
    部分による顔領域の特定結果を統合して顔領域を特定す
    る顔領域の統合プログラム部分とを含む、請求項9〜請
    求項13のいずれかに記載のコンピュータ読取可能な記
    録媒体。
  15. 【請求項15】 前記映像シーケンスはRGBカラー映
    像シーケンスであり、前記第1のプログラム部分は前記
    RGBカラー映像シーケンスをrg色空間に変換した映
    像中の色分布と所定の色分布パターンとの類似度に基づ
    いて顔領域を特定するためのプログラム部分を含む、請
    求項14に記載のコンピュータ読取可能な記録媒体。
  16. 【請求項16】 前記映像シーケンスはRGBカラー映
    像シーケンスであり、前記第1のプログラム部分は前記
    RGBカラー映像シーケンスをNCb‐NCr色空間に
    変換した映像中の色分布と所定の色分布パターンとの類
    似度に基づいて顔領域を特定するためのプログラム部分
    を含む、請求項14または請求項15に記載のコンピュ
    ータ読取可能な記録媒体。
JP24258199A 1999-08-30 1999-08-30 人物の反応認識装置およびそのためのプログラムを記録したコンピュータ読取可能な記録媒体 Pending JP2001067482A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24258199A JP2001067482A (ja) 1999-08-30 1999-08-30 人物の反応認識装置およびそのためのプログラムを記録したコンピュータ読取可能な記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24258199A JP2001067482A (ja) 1999-08-30 1999-08-30 人物の反応認識装置およびそのためのプログラムを記録したコンピュータ読取可能な記録媒体

Publications (1)

Publication Number Publication Date
JP2001067482A true JP2001067482A (ja) 2001-03-16

Family

ID=17091201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24258199A Pending JP2001067482A (ja) 1999-08-30 1999-08-30 人物の反応認識装置およびそのためのプログラムを記録したコンピュータ読取可能な記録媒体

Country Status (1)

Country Link
JP (1) JP2001067482A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2380262A (en) * 2001-07-27 2003-04-02 Hewlett Packard Co Monitoring the reaction of people to a performance
US6888457B2 (en) 2001-07-27 2005-05-03 Hewlett-Packard Development Company, L.P. Monitoring of user response to performances
JP2005198828A (ja) * 2004-01-15 2005-07-28 Seiko Epson Corp 生体情報解析装置、生体情報解析方法、制御プログラムおよび記録媒体
JP2007114885A (ja) * 2005-10-18 2007-05-10 National Institute Of Information & Communication Technology 画像の類似性による分類方法及び装置
JP2010102725A (ja) * 2002-08-22 2010-05-06 Eastman Kodak Co デジタル画像におけるオブジェクト検出方法
JP2015228970A (ja) * 2014-06-04 2015-12-21 日本電信電話株式会社 覚醒度推定装置、覚醒度推定方法及びプログラム
JP2016007363A (ja) * 2014-06-25 2016-01-18 日本電信電話株式会社 集団感情推定装置、集団感情推定方法及び集団感情推定プログラム
JP2018049173A (ja) * 2016-09-21 2018-03-29 富士ゼロックス株式会社 情報処理装置、評価システムおよびプログラム
WO2019203528A1 (en) * 2018-04-17 2019-10-24 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling thereof
JP2021005229A (ja) * 2019-06-26 2021-01-14 株式会社 日立産業制御ソリューションズ 安全管理装置、安全管理方法及び安全管理プログラム
JP2021077255A (ja) * 2019-11-13 2021-05-20 富士フイルム株式会社 画像処理装置、画像処理方法及び画像処理システム

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2380262A (en) * 2001-07-27 2003-04-02 Hewlett Packard Co Monitoring the reaction of people to a performance
GB2380262B (en) * 2001-07-27 2004-12-01 Hewlett Packard Co Monitoring of crowd response to performances
US6888457B2 (en) 2001-07-27 2005-05-03 Hewlett-Packard Development Company, L.P. Monitoring of user response to performances
JP2010102725A (ja) * 2002-08-22 2010-05-06 Eastman Kodak Co デジタル画像におけるオブジェクト検出方法
JP2005198828A (ja) * 2004-01-15 2005-07-28 Seiko Epson Corp 生体情報解析装置、生体情報解析方法、制御プログラムおよび記録媒体
JP4604494B2 (ja) * 2004-01-15 2011-01-05 セイコーエプソン株式会社 生体情報解析システム
JP2007114885A (ja) * 2005-10-18 2007-05-10 National Institute Of Information & Communication Technology 画像の類似性による分類方法及び装置
JP2015228970A (ja) * 2014-06-04 2015-12-21 日本電信電話株式会社 覚醒度推定装置、覚醒度推定方法及びプログラム
JP2016007363A (ja) * 2014-06-25 2016-01-18 日本電信電話株式会社 集団感情推定装置、集団感情推定方法及び集団感情推定プログラム
JP2018049173A (ja) * 2016-09-21 2018-03-29 富士ゼロックス株式会社 情報処理装置、評価システムおよびプログラム
WO2019203528A1 (en) * 2018-04-17 2019-10-24 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling thereof
US10681308B2 (en) 2018-04-17 2020-06-09 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling thereof
JP2021005229A (ja) * 2019-06-26 2021-01-14 株式会社 日立産業制御ソリューションズ 安全管理装置、安全管理方法及び安全管理プログラム
JP2021077255A (ja) * 2019-11-13 2021-05-20 富士フイルム株式会社 画像処理装置、画像処理方法及び画像処理システム
JP7319172B2 (ja) 2019-11-13 2023-08-01 富士フイルム株式会社 画像処理装置、画像処理方法及び画像処理システム
JP7512488B2 (ja) 2019-11-13 2024-07-08 富士フイルム株式会社 画像処理装置、画像処理方法及び画像処理システム

Similar Documents

Publication Publication Date Title
US11783183B2 (en) Method and system for activity classification
CN111191599B (zh) 姿态识别方法、装置、设备及存储介质
CN108198130B (zh) 图像处理方法、装置、存储介质及电子设备
CN111556278A (zh) 一种视频处理的方法、视频展示的方法、装置及存储介质
CN112543936B (zh) 用于动作识别的动作结构自注意力图卷积网络模型
JP2001067482A (ja) 人物の反応認識装置およびそのためのプログラムを記録したコンピュータ読取可能な記録媒体
CN110837750A (zh) 一种人脸质量评价方法与装置
EP4102833A1 (en) Intelligent multi-camera switching with machine learning
JP6859640B2 (ja) 情報処理装置、評価システムおよびプログラム
US20220138536A1 (en) Actional-structural self-attention graph convolutional network for action recognition
US11985417B2 (en) Matching active speaker pose between two cameras
CN113591562A (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
CN111241926A (zh) 考勤与学情分析方法、***、设备及可读存储介质
Kumarage et al. Real-time sign language gesture recognition using still-image comparison & motion recognition
US20220327732A1 (en) Information processing apparatus, information processing method, and program
JP6855737B2 (ja) 情報処理装置、評価システムおよびプログラム
JP6819194B2 (ja) 情報処理システム、情報処理装置およびプログラム
US11657281B2 (en) Method and system for symmetric recognition of handed activities
US11227148B2 (en) Information processing apparatus, information processing method, information processing program, and information processing system
JP6859641B2 (ja) 評価システム、情報処理装置およびプログラム
CN116229507A (zh) 人体姿态检测方法及***
US20210319233A1 (en) Enhanced person detection using face recognition and reinforced, segmented field inferencing
CN113891036A (zh) 自适应高分辨率低功耗视觉***与方法
CN117813581A (zh) 多角度手部跟踪
JP2018049479A (ja) 情報処理装置、評価システムおよびプログラム

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20030218