JP7225735B2 - ビデオ会議システム、通信端末、及び通信端末のマイクロホンの制御方法 - Google Patents

ビデオ会議システム、通信端末、及び通信端末のマイクロホンの制御方法 Download PDF

Info

Publication number
JP7225735B2
JP7225735B2 JP2018220885A JP2018220885A JP7225735B2 JP 7225735 B2 JP7225735 B2 JP 7225735B2 JP 2018220885 A JP2018220885 A JP 2018220885A JP 2018220885 A JP2018220885 A JP 2018220885A JP 7225735 B2 JP7225735 B2 JP 7225735B2
Authority
JP
Japan
Prior art keywords
directivity
information
communication terminal
line
video conference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018220885A
Other languages
English (en)
Other versions
JP2020088618A (ja
Inventor
怜士 川▲崎▼
龍彦 長野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018220885A priority Critical patent/JP7225735B2/ja
Publication of JP2020088618A publication Critical patent/JP2020088618A/ja
Application granted granted Critical
Publication of JP7225735B2 publication Critical patent/JP7225735B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Description

本願は、ビデオ会議システム、通信端末、及び通信端末のマイクロホンの制御方法に関する。
複数の遠隔地を結んで双方向の画像および音声による会議を行うビデオ会議システムが普及している。また、複数のマイクロホンの出力音声を信号処理し、所定の方向の集音の感度を高くする(集音の指向性を制御する)ことで、発言者の音声を高感度に集音し、周囲の不要な音の集音を抑制するビームフォーミング技術が知られている。
一方、ビデオ会議システムでは、ビデオ会議を実行する各拠点に配置された通信端末のうちの何れか1つの通信端末において、音が発生した領域(方向)に基づき、マイクロホンの集音の指向性を決定する技術が開示されている(例えば、特許文献1参照)。
しかしながら、特許文献1の技術では、ビデオ会議の参加者の周囲で大きな音が発生した際に、その音の発生源の方向にマイクロホンの集音の指向性を誤って決定する場合があった。
本発明は、上記の点に鑑みてなされたものであって、マイクロホンの集音の指向性を適切に決定することを課題とする。
開示の技術の一態様に係るビデオ会議システムは、複数の通信端末と、前記通信端末に画像を出力するカメラと、前記通信端末に音声を出力するマイクロホンと、を備え、ビデオ会議を実行するビデオ会議システムであって、前記通信端末は、前記画像から検出した前記ビデオ会議の参加者の視線を示す視線情報を蓄積する視線情報蓄積部と、蓄積された前記視線情報に基づき、前記マイクロホンの集音の指向性を決定する指向性決定部と、決定された前記指向性の情報を記憶する指向性情報記憶部と、記憶された前記指向性の情報を更新する指向性情報更新部と、を有し、前記指向性決定部は、前記指向性情報記憶部を参照して取得した前記指向性の情報に基づき、前記指向性を決定する
本発明の一実施形態によれば、マイクロホンの集音の指向性を適切に決定することができる。
実施形態に係るビデオ会議システムの構成の一例を説明する図である。 実施形態に係る通信端末のハードウェア構成の一例を示すブロック図である。 第1の実施形態に係る通信端末の機能構成の一例を示すブロック図である。 参加者の視線の一例を説明する図である。 第1の実施形態に係る視線情報の一例を説明する図である。 第1の実施形態に係る時間に応じた視線変化の一例を説明する図である。 第1の実施形態に係る注目領域の一例を説明する図である。 第1の実施形態に係るサブパケットに含まれる情報の一例を説明する図である。 マイクロホンの集音の指向性について説明する図であり、(a)はビームフォーミングの集音方向を説明する図であり、(b)は注目領域情報と集音方向との対応関係を説明する図である。 第1の実施形態に係る注目領域の検出処理の一例を示すフローチャートである。 第1の実施形態に係る指向性の制御処理の一例を示すフローチャートである。 第1の実施形態に係るビデオ会議システムの動作の一例を示すシーケンス図である。 第1の実施形態に係るビデオ会議システムの効果の一例を説明する図であり、(a)は比較例に係る通信端末を用いるビデオ会議を説明する図であり、(b)は第1の実施形態に係る通信端末を用いるビデオ会議を説明する図である。 第2の実施形態に係る通信端末の機能構成の一例を示すブロック図である。 第2の実施形態に係るビデオ会議システムの動作の一例を示すシーケンス図である。 第3の実施形態に係る通信端末の機能構成の一例を示すブロック図である。 第3の実施形態に係る入力画面の一例を説明する図である。
以下、図面を参照して発明を実施するための形態について説明する。各図面において、同一の構成部分には同一符号を付し、重複した説明を省略する場合がある。
実施形態では、拠点Aに設置された通信端末2A、或いは2Bを例に説明する場合があるが、何れの拠点に設置された通信端末2も、説明に係る通信端末2A、或いは2Bと同様の機能を有し、同様の動作を実行可能であるものとする。
<実施形態に係るビデオ会議システムの構成>
図1は、実施形態に係るビデオ会議システムの構成の一例を説明する図である。図1に示すように、拠点Aに通信端末2Aが設置され、拠点Bに通信端末2Bが設置されている。通信端末2A及び2B(以下では、区別しない場合は、通信端末2という)は、インターネットやLAN(Local Area Network)等のネットワーク3を介してサーバ4と接続されている。但し、これに限定されるものではなく、ビデオ会議システム1に含まれる通信端末2の数(拠点の数)は任意に変更可能である。
サーバ4は、各通信端末2がサーバ4と接続しているか否かを監視し、ビデオ会議開始時における通信端末2A及び2Bの呼び出し制御等のビデオ会議時に必要な制御を行う。
ビデオ会議時の通信端末2A及び2Bは、自端末のデータ送信時は、サーバ4に対して画像データ及び音声データの少なくとも1つ(以下、画像・音声データという)を送信し、サーバ4は、相手側の他の通信端末2に対して画像・音声データを送信する。
一方、データ受信時は、サーバ4を介して、相手側の他の通信端末2の画像・音声データを受信する。例えば拠点Aと拠点Bでビデオ会議を行った場合、拠点Aの通信端末2Aが送信したデータは、サーバ4を介して拠点Bの通信端末2Bに送信され、他の通信端末2(ビデオ会議に参加していない通信端末2)には送信されない。
同様に、拠点Bの通信端末2Bが送信した画像・音声データは、サーバ4を介して、ビデオ会議に参加している拠点Aの通信端末2Aに送信され、会議に参加していない他の通信端末2には送信されない。このような制御を行うことで、複数の通信端末2(複数の拠点間)でビデオ会議を行うことができる。
なお、図1に示すビデオ会議システム1の構成は、一例であって他の構成であってもよい。
また、通信端末2は、通信機能を備えた装置であれば、PJ(Projector:プロジェクタ)、画像形成装置、IWB(Interactive White Board:相互通信が可能な電子式の黒板機能を有する白板)、デジタルサイネージ等の出力装置、HUD(Head Up Display)装置、産業機械、撮像装置、集音装置、医療機器、ネットワーク家電、ノートPC(Personal Computer)、携帯電話、スマートフォン、タブレット端末、ゲーム機、PDA(Personal Digital Assistant)、デジタルカメラ、ウェアラブルPCまたはデスクトップPC等であってもよい。
<実施形態に係る通信端末のハードウェア構成>
次に、実施形態に係る通信端末のハードウェア構成について説明する。図2は、通信端末2のハードウェア構成の一例を説明する図である。通信端末2は一例としてIWBである。
通信端末2は、CPU(Central Proccesing Unit)201と、ROM(Read Only Memory)202と、RAM(Random Access Memory)203と、SSD(Solid State Drive)204と、ネットワークコントローラ205と、センサコントローラ206と、キャプチャデバイス207とを有している。また通信端末2は、電子ペンコントローラ208と、外部記憶コントローラ209と、GPU210と、ディスプレイコントローラ211と、カメラコントローラ212と、マイクロホンコントローラ213と、スピーカコントローラ214とを有している。これらはバスBを介して相互に接続されている。
CPU201は、ROM202やSSD204等の記憶装置からプログラムやデータをRAM203上に読み出し、処理を実行することで、通信端末2全体の制御や機能を実現する演算装置である。
ROM202は、電源を切ってもプログラムやデータを保持することが可能な不揮発性の半導体メモリ(記憶装置)である。ROM202には、通信端末2の起動時に実行されるBIOS(Basic Input/Output System)、OS設定、及びネットワーク設定等のプログラムやデータが格納されている。RAM203は、プログラムやデータを一時保持する揮発性の半導体メモリ(記憶装置)である。
SSD204は、IWBの座標検出システム用のアプリケーションや各種データが記憶された不揮発メモリである。なお、座標検出システム用のアプリケーションは、外部メモリ216に記憶された状態で取得されてもよいし、ネットワークコントローラ205を介してサーバ等からダウンロードされてもよい。ネットワークコントローラ205は、ネットワーク3(図1参照)を介してサーバなどと通信する際に通信プロトコルに基づく処理を実行することができる。なお、SSD204はHDD(Hard Disk Drive)であってもよい。
センサコントローラ206は、IWBの備えるディスプレイ217に、電子ペン215、及び指が接触した場合に、接触位置の座標検出処理を実行することができる。キャプチャデバイス207は、PC221に電気的に接続され、PC221の備える表示装置に表示されている画像、又は映像をキャプチャすることができる。電子ペンコントローラ208は、入力装置である電子ペン215に電気的に接続され、電子ペン215による超音波や赤外線等の発生を制御することができる。
外部記憶コントローラ209は、着脱可能な外部メモリ216に対する書き込み、或いは外部メモ216リからの読み出しを行うことができる。外部メモリ216は、USB(Universal Serial Bus)メモリやSDカード等である。
GPU(Graphics Processing Unit)210は、ディスプレイ217の各ピクセルの画素値を演算する描画専用のプロセッサである。ディスプレイコントローラ211は、ディスプレイ217に電気的に接続されており、GPU210が生成した画像をディスプレイ217に出力することができる。ディスプレイ217は、ビデオ会議を実行する他の通信端末2からネットワーク3を介して伝送されたビデオ会議参加者の映像を表示することができる。
カメラコントローラ212は、カメラ218に電気的に接続され、カメラ218による撮像を制御することができる。カメラ218は、後述するように、ビデオ会議時の参加者を撮像するために用いられ、カメラ218で撮像された画像から参加者の視線が検出される。カメラコントローラ212は、カメラ218により撮像された画像データをCPU201に出力することができる。なお、参加者の視線検出のために、カメラの代わりに独立した視線センサモジュールを用いてもよい。
マイクロホンコントローラ213は、マイクロホン219に電気的に接続され、マイクロホン219の集音の感度の高さ及び指向性等を制御することができる。なお、マイクロホン219の指向性については、別途詳述する。
スピーカコントローラ214は、スピーカ220に電気的に接続され、スピーカ220により発生させる音の大きさ等を制御することができる。
<第1の実施形態に係る通信端末の機能構成>
次に、第1の実施形態に係るビデオ会議システムについて説明する。先ず、第1の実施形態に係る通信端末の機能構成について説明する。図3は、本実施形態に係る通信端末の機能構成の一例を説明するブロック図である。
通信端末2Aは、撮像部21と、視線検出部22と、視線情報蓄積部23と、注目領域検出部24と、サブパケット生成部25と、送信部26と、受信部27と、指向性決定部28と、指向性制御部29とを有している。
撮像部21は、ビデオ会議に参加している拠点Aでの参加者の画像を撮像し、撮像した画像情報を視線検出部22に出力する機能を有する。参加者の画像には、参加者の視線を検出するために、少なくとも参加者の目が含まれている。
視線検出部22は、撮像部21から入力した画像情報から参加者の視線を検出し、視線情報蓄積部23に出力する機能を有する。また、視線情報蓄積部23は視線検出部22から入力した視線情報を蓄積する機能を有する。
ここで、図4は、参加者の視線の一例を説明する図である。図4は、拠点Aでの参加者101が、拠点Bでの参加者102a~102dの映像が表示されているディスプレイ217を観察している様子を示している。
例えば、拠点Bで参加者102aが発言をした場合、参加者101はディスプレイ217で参加者102aが表示されている領域に視線を向け、また参加者102dが発言をした場合、参加者101はディスプレイ217で参加者102dが表示されている領域に視線を向ける。参加者の視線情報は、このように、参加者101がディスプレイ217で視線を向けている領域を示す情報をいう。
視線検出部22は、拠点Aで撮像部21が撮像した参加者の画像を画像処理することで、視線情報を検出することができる。視線検出部22は、画像処理として、例えば、画像から人物の目の黒目に該当する画像領域を抽出し、黒目の重心位置座標を視線情報として算出する処理を実行することができる。視線検出の画像処理方法には、公知技術を適用することができるため、ここでは詳細な説明を省略する。
図5は、視線検出部22が検出し、視線情報蓄積部23が蓄積する視線情報の一例を説明する図である。視線検出部22は、時間に応じて変化する参加者の視線を検出し、順次に視線情報蓄積部23に出力することができる。また、視線情報蓄積部23は、図5に示すように、視線情報を示す重心位置座標を時間毎で蓄積することができる。
ここで、図6は、時間に応じた視線変化の一例を説明する図である。図6は、ディスプレイ217上での視線の軌跡を表す視線情報分布61を示している。
拠点Aでのビデオ会議の参加者が複数人いる場合は、視線検出部22は各人の視線情報を検出し、視線情報蓄積部23は、人数分の視線情報を蓄積することができる。
図3に戻り、各機能部の説明を続ける。
注目領域検出部24は、視線情報蓄積部23が蓄積した視線情報に基づき、拠点Aで参加者が注目している注目領域を検出し、検出した注目領域情報をサブパケット生成部25に出力する機能を有する。
例えば、注目領域検出部24は、視線が集中する時間を閾値とし、予め定められた時間閾値以上に視線が集中した領域を注目領域として検出することができる。具体的には、時間閾値を2秒とし、視線検出の検出時間間隔を10ミリ秒とすると、20回以上の検出で同じ領域に視線が向けられていた場合、注目領域検出部24は、この領域を注目領域として検出することができる。
なお、この「領域」は、注目領域を検出する単位領域として予め決定されている。単位領域は、1×1画素の領域や10×10画素の領域等を任意に設定することができる。時間を閾値にすることで、参加者が凝視した領域を注目領域として検出することができる。
また、注目領域検出部24は、視線が集中する回数を閾値とし、予め定められた回数閾値以上に視線が集中した領域を注目領域として検出することもできる。時間を閾値にした場合との違いとしては、同じ領域を複数回の検出で連続して取得した場合に、集中した時間によらず1回とカウントする点である。
具体的には、回数の閾値を10回とし、視線検出の検出時間間隔を10ミリ秒とすると、同じ領域が不連続に10回検出された場合に、注目領域検出部24は、この領域を注目領域として検出することができる。回数を閾値にすることで、注目しているときに時折視線を外すことがあっても、適切に注目領域を検出することが可能となる。
また、注目領域検出部24は、視線を集中した参加者の人数を閾値として、予め定められた人数閾値以上の参加者が視線を集中した領域を注目領域として検出することもできる。拠点Aでのビデオ会議の参加者が複数いる場合は、視線情報分布61(図6)が人数分得られるが、注目領域検出部24は、閾値以上の人数の参加者の視線が集中した領域を、注目領域として検出することができる。
人数を閾値にすることで、よそ見をしている参加者がいたとしても、他の参加者の視線情報から適切に注目領域を検出することが可能となる。
注目領域を検出するための閾値は、上述の時間、回数、及び人数を組み合わせて用いてもよい。組み合わせることで、注目領域の検出精度をより向上させることができる。
図7は、注目領域の一例を説明する図である。視線情報分布61において、破線で囲った領域62a~62dが注目領域として検出されている。
図3に戻り、説明を各機能部の説明を続ける。
サブパケット生成部25は、注目領域検出部24が検出した注目領域情報を入力し、拠点B等の他拠点に送信するためのサブパケットを生成し、送信部26に出力する機能を有する。また送信部26は、入力したサブパケットを、参加者の映像及び音声や同期データ等の会議データに含ませて、他の拠点に送信する機能を有する。なお、送信部26がサブパケットを送信する他の拠点に設置された通信端末2Bは、「他の第1通信端末」の一例である。また、注目領域検出部24が検出した注目領域情報は、「所定の座標情報」の一例である。
ここで、図8は、サブパケットに含まれる情報の一例を説明する図である。図8では、注目領域のX、Y座標が一覧で示されている。単位領域が複数画素(10×10画素等)で構成される場合は、単位領域の中心座標等が注目領域の座標情報となる。
ここで、サブパケット生成部25は、注目領域の全ての座標情報ではなく、一部の座標情報からサブパケットを生成してもよい。一部の座標としては、X座標の最大値、X座標の最小値、Y座標の最大値、及びY座標の最小値の少なくとも1つ等が挙げられる。
マイクロホン219の指向性の決定(詳細は後述)に影響が大きいのは、注目領域のうちの端部の領域であるため、最大値及び最小値という端部のデータからサブパケットを生成してもよい。また、Y座標と比較してX座標は指向性の決定に影響が大きいため、X座標からサブパケットを生成してもよい。このように注目領域の一部の座標情報からサブパケットを生成することで、送信するデータ量を削減し、通信の負荷を低減し、また通信速度を上げることができる。
一方で、ビデオ会議を行う他の拠点で、同じ画素数、及び/又は画面サイズのディスプレイを使用しているとは限らない。そのため、この差異に起因して、注目領域情報に基づいたマイクロホン219の指向性の決定を適切に行えない場合がある。
そこで、サブパケット生成部25は、注目領域情報とともに、製品のモデル識別番号をサブパケットに含めてもよい。受信側でディスプレイの画素数、及び/又は画面サイズの差異の影響を補正することで、適切にマイクロホン219の指向性を決定することができる。
ここで、マイクロホン219の集音の指向性について説明する。本実施形態では、マイクロホン219の集音の指向性の制御のために、ビームフォーミング技術を用いることができる。マイクロホンのビームフォーミング(以降では、単にビームフォーミングという)とは、複数のマイクロホンを用い、所定の方向に音波の指向性を高める技術である。
具体的には、複数のマイクロホンが出力する音声を信号処理することで、集音の感度を所定の方向では高く、それ以外の方向では低くするようにする。これにより、ビデオ会議において、発言者の音は集音感度を上げて聞こえやすくし、周囲の不要な音は集音感度を下げて聞こえ難くすることができる。
図9は、マイクロホンの集音の指向性について説明する図である。(a)はビームフォーミングの集音方向を説明する図であり、(b)は注目領域情報と集音方向との対応関係を説明する図である。
本実施形態では、図9(a)に示すように、ディスプレイ217のディスプレイ面に垂直な方向を集音方向の0度とし、図中左側に回転する方向を正の集音方向とし、右側に回転する方向を負の集音方向としている。また、図9(a)の±90度方向(水平方向)に対応する方向を撮像部21による画像のX方向とした場合に、注目領域情報と集音方向とを図6(b)に示す対応関係としている。
図6(b)の対応関係を参照して、注目領域情報のX座標に基づき、マイクロホンの集音方向の最大値と最小値を示す角度、すなわち指向性を設定することができる。例えば、注目領域情報のX座標の最大値が280画素で最小値が240画素の場合、指向性は最小値0度~最大値25度に設定され、この方向に位置する参加者101a及び101bの発する音に対する集音感度が上がり、逆に参加者101c及び101dの発する音に対する集音感度は下がる。このようにして注目領域に応じて指向性が決定される。図9(b)の対応関係を示すデータは、予め決定され、SSD204等のメモリに記憶されている。
なお、注目領域情報のY座標は、ディスプレイから参加者までの距離に対応するため、参加者までの距離が長い場合は、マイクロホンの集音感度を上げる等、Y座標の値に応じてマイクロホンの集音感度を決定してもよい。
図3に戻り、各機能部の説明を続けると、受信部27は、他の拠点から注目領域情報を受信し、指向性決定部28に出力する機能を有する。なお、受信部27が受信する注目領域情報を送信する、他の拠点に設置された通信端末2Bは、「他の第2通信端末」の一例である。なお、上述の「他の第1の通信端末」と「他の第2の通信端末」は、同じ通信端末であってもよいし、異なる通信端末であってもよい。
指向性決定部28は、受信部27が受信した注目領域情報に基づき、SSD204等に記憶された図9(b)の対応関係を示すデータを参照してマイクロホン219の集音の指向性を決定し、決定した指向性情報を指向性制御部29に出力する機能を有する。
指向性制御部29は、入力した指向性情報に基づき、マイクロホン219の集音の指向性を制御することができる。
なお、本実施形態では、公知のビームフォーミング技術を適用することができるため、ビームフォーミング制御技術等の詳細な説明は省略する。
<第1の実施形態に係るビデオ会議システムの動作>
次に、図10は、本実施形態に係る通信端末2Aによる注目領域の検出処理の一例を示すフローチャートである。
先ず、ステップS101において、撮像部21は、拠点Aでのビデオ会議への参加者の画像を撮像し、撮像した画像情報を視線検出部22に出力する。
続いて、ステップS102において、視線検出部22は、入力した画像情報から参加者の視線を検出し、検出した視線情報を視線情報蓄積部23に出力する。なお、参加者が複数いる場合は、各参加者の視線を検出し、各参加者の視線情報を視線情報蓄積部23に出力する。
続いて、ステップS103において、視線情報蓄積部23は、入力した視線情報を蓄積する。なお、参加者が複数いる場合は、各参加者の視線情報を蓄積する。
続いて、ステップS104において、視線検出部22は、所定の時間を経過したか否かを判定する。この「所定の時間」は、視線情報を蓄積するために予め定められた時間である。
所定の時間が経過していないと判断された場合は(ステップS104、No)、ステップS101に戻る。一方、所定の時間が経過していると判断された場合は(ステップS104、Yes)、ステップS105において、注目領域検出部24は、視線情報蓄積部23により蓄積された視線情報に基づき、拠点Aで参加者が注目している注目領域を検出する。そして、検出した注目領域情報をサブパケット生成部25に出力する。
続いて、ステップS106において、サブパケット生成部25は、入力した注目領域情報から拠点B等の他拠点に送信するためのサブパケットを生成し、送信部26に出力する。
続いて、ステップS107において、送信部26は、入力したサブパケットを、参加者の映像及び音声や、同期データ等の会議データに含ませて、拠点B等の他の拠点に送信する。
このようにして、通信端末2Aは拠点Aでのビデオ会議への参加者の注目領域情報を、拠点B等の他拠点に送信することができる。
次に、図11は、本実施形態に係る通信端末2Aによる指向性の制御処理の一例を示すフローチャートである。
先ず、ステップS111において、受信部27は、注目領域情報が含まれるサブパケットを受信したか否かを判定する。注目領域情報が含まれるサブパケットを受信していない場合は(ステップS111、No)、再度ステップS111の処理を実行する。一方、注目領域情報を受信した場合は(ステップS111、Yes)、ステップS112において、受信部27は受信した注目領域情報を指向性決定部28に出力する。指向性決定部28は、入力した注目領域情報に基づき、SSD204等に記憶された注目領域情報と集音方向との対応関係を示すデータを参照し、マイクロホン219の集音の指向性を決定する。そして、決定した指向性情報を指向性制御部29に出力する。
続いて、ステップS113において、指向性制御部29は、入力した指向性情報に基づき、マイクロホン219の集音の指向性を制御する。
このようにして、通信端末2Aは、拠点B等の他拠点から受信した注目領域情報に基づき、通信端末2Aの備えるマイクロホン219の指向性を決定し、制御することができる。
次に、図12は、本実施形態に係るビデオ会議システムの動作の一例を示すシーケンス図である。
先ず、ステップS121において、通信端末2Aは、通信端末2Bに対してビデオ会議の開始を要求する信号を送信する。
続いて、ステップS122において、通信端末2Bは、ビデオ会議を開始可能である場合は、その旨を示す要求応答信号を通信端末2Aに送信する。
続いて、ステップS123において、通信端末2Aは、図10で説明した注目領域検出処理を実行する。
続いて、ステップS124において、通信端末2Aは、注目領域情報を含むサブパケットを、会議データに含めて通信端末Bに送信する。
続いて、ステップS125において、通信端末2Bは、受信したサブパケットに含まれる注目領域情報に基づいて、図11で説明した指向性の制御処理を実行する。
続いて、ステップS126において、ビデオ会議を終了する場合は、通信端末2Aは、通信端末2Bに対してビデオ会議の終了を要求する信号を送信する。
続いて、ステップS127において、通信端末2Bは、ビデオ会議を終了可能である場合は、その旨を示す要求応答信号を通信端末2Aに送信する。
このようにして、ビデオ会議システム1はビデオ会議を実行することができる。
<第1の実施形態に係るビデオ会議システムの効果>
次に、本実施形態に係るビデオ会議システムの効果について説明する。
図13は、本実施形態に係るビデオ会議システムの効果の一例を説明する図である。(a)は比較例に係る通信端末を用いるビデオ会議を説明する図であり、(b)は本実施形態に係る通信端末を用いるビデオ会議を説明する図である。
図13(a)において、比較例に係る通信端末5Aは、通信端末5Aothに隣接して設置されている。通信端末5Aが使用されるビデオ会議10と、通信端末5Aothが使用されるビデオ会議10othは別のビデオ会議である。また、通信端末5Aは、音の発生した方向(領域)の音声を集音するように、マイクロホンの指向性を制御する機能を備えている。
図13(a)の場合、通信端末5Aと通信端末5Aothとの距離が近いと、通信端末5Aは、ビデオ会議10othの参加者501aの発言に反応し、参加者501aの方向(矢印131)の音声を集音するように、マイクロホンの指向性を誤って決定する場合がある。
一方、図13(b)において、本実施形態に係る通信端末2Aは、図13(a)の場合と同様に、通信端末5Aothに隣接して設置されている。また、通信端末2Aが使用されるビデオ会議10と、通信端末5Aothが使用されるビデオ会議10othは別のビデオ会議である。
本実施形態では、上述のように、拠点B等の他拠点の通信端末2Bから送信される注目領域情報に基づき、マイクロホン219の指向性を制御する。別のビデオ会議に参加している参加者501aが拠点Bでの参加者の注目領域に含まれることはないため、参加者501aが発言しても、通信端末2Aはマイクロホン219の指向性を参加者501aの方向に向けるような誤った決定を行うことはない。
このようにして、本実施形態では、マイクロホン219の集音の指向性を、ビデオ会議10の参加者101aの方向に、適切に決定することができる。
なお、通信端末2Aの備える撮像部21は、別のビデオ会議に参加している参加者が撮像した画像に含まれないように、撮像視野が予め設定されていてもよい。これにより、別のビデオ会議に参加している参加者が、拠点Bでの参加者の注目領域に確実に含まれないようにできるため、マイクロホンの指向性を参加者501aの方向に向けるような誤決定を確実に防ぐことができる。
また、本実施形態では、通信端末2Aは、検出した注目領域情報を他の第1通信端末に送信し、他の第2通信端末から受信した注目領域情報に基づいて指向性を決定する例を説明したが、これに限定されるものではない。
例えば、通信端末2Aは、検出した視線情報を他の第1通信端末に送信し、他の第2通信端末から受信した視線情報を蓄積し、蓄積した視線情報に基づき、注目領域を検出し、検出した注目領域情報に基づいて指向性を決定してもよい。この場合に送信される視線情報は、「所定の座標情報」の一例である。
或いは、通信端末2Aは、検出した注目領域に基づき決定した指向性情報を他の第1通信端末に送信し、他の第2通信端末から受信した指向性情報に基づいて指向性を制御してもよい。
ここで、通信端末2Aが注目領域情報、又は指向性情報を他の第1通信端末に送信する場合は、視線情報を他の第1通信端末に送信する場合と比較して、送信するデータ量を削減できる効果を得ることができる。
[第2の実施形態]
次に、第2の実施形態に係るビデオ会議システムを説明する。なお、既に説明した実施形態と同一の構成部についての説明は省略する。
ここで、通信端末2が会議室等の所定の場所に固定されて設置されている場合、参加者が着席する場所は、ビデオ会議毎でほとんど変わらないため、前回行ったビデオ会議で決定された指向性情報を、今回行うビデオ会議でそのまま適用できる場合がある。
そこで、本実施形態では、前回行ったビデオ会議における指向性情報を指向性情報記憶部30に記憶しておき、指向性決定部28aは、今回行うビデオ会議において、指向性情報記憶部30を参照して取得した指向性情報に基づき、指向性を決定する。
図14は、本実施形態に係るビデオ会議システム1aの備える通信端末2Aaの機能構成の一例を説明するブロック図である。
通信端末2Aaは、指向性決定部28aと、指向性情報記憶部30と、指向性情報更新部31とを有している。
指向性情報記憶部30は、指向性決定部28aが決定した指向性情報を、指向性情報更新部31を介して入力し、入力した指向性情報を記憶する機能を有する。
また指向性決定部28aは、注目領域情報に基づき、マイクロホン219の集音の指向性を決定する機能とともに、指向性情報記憶部30から取得した指向性情報に基づき、マイクロホン219の集音の指向性を決定する機能を有する。
指向性情報更新部31は、指向性情報記憶部30に記憶された指向性情報を更新する機能を有する。
図15は、本実施形態に係るビデオ会議システムの動作の一例を示すシーケンス図である。
先ず、ステップS151において、通信端末2Aaは、通信端末2Baに対してビデオ会議の開始を要求する信号を送信する。
続いて、ステップS152において、通信端末2Baは、ビデオ会議を開始可能である場合は、その旨を示す要求応答信号を通信端末2Aaに送信する。
続いて、ステップS153において、通信端末2Baは、通信端末2Baの指向性情報記憶部30から取得した指向性情報に基づき、マイクロホン219の集音の指向性を決定する。
続いて、ステップS154において、通信端末2Baは、指向性情報に基づき、マイクロホン219の集音の指向性を制御する。
続いて、ステップS155において、通信端末2Aaは、図10で説明した注目領域検出処理を実行する。
続いて、ステップS156において、通信端末2Aaは、注目領域情報を含むサブパケットを、会議データに含めて通信端末Baに送信する。
続いて、ステップS157において、通信端末2Baは、受信したサブパケットに含まれる注目領域情報に基づいて、図11で説明した指向性の制御処理を実行する。
続いて、ステップS158において、通信端末2Baは、今回決定した指向性情報により、通信端末2Baの指向性情報記憶部30に記憶された指向性情報を更新する。
続いて、ステップS159において、ビデオ会議を終了する場合は、通信端末2Aaは、通信端末2Baに対してビデオ会議の終了を要求する信号を送信する。
続いて、ステップS160において、通信端末2Baは、ビデオ会議を終了可能である場合は、その旨を示す要求応答信号を通信端末2Aaに送信する。
このようにして、ビデオ会議システム1はビデオ会議を実行することができる。
以上説明したように、本実施形態では、前回行ったビデオ会議における指向性情報を指向性情報記憶部30に記憶しておき、指向性決定部28aは、今回行うビデオ会議において、指向性情報記憶部30を参照して取得した指向性情報に基づき、指向性を決定する。
ビデオ会議の開始直後は、視線検出や視線情報の蓄積等で、指向性を決定するまでに一定の時間がかかるが、本実施形態によれば、ビデオ会議の開始の直後に、前回行ったビデオ会議における指向性情報に基づき指向性を決定するため、ビデオ会議の開始の直後から指向性を適切に設定することができ、ビデオ会議を開始直後から円滑に実行することができる。
なお、上述したもの以外の効果は、第1の実施形態で説明したものと同様である。
[第3の実施形態]
次に、第3の実施形態に係るビデオ会議システムを説明する。
図16は、本実施形態に係るビデオ会議システム1bの備える通信端末2Abの機能構成の一例を説明するブロック図である。
通信端末2Abは、入力画面表示部32と、設定入力部33とを有している。
入力画面表示部32は、ビデオ会議システム1bのユーザが、注目領域を検出するための時間閾値、回数閾値、及び人数閾値の少なくとも1つ以上と、指向性決定部28が指向性を決定するための条件とを入力する入力画面を表示する機能を有する。
ここで、図17は、このような入力画面の一例を説明する図である。図17に示すように、入力画面321には、入力項目として、指向性制御処理を実行するか否かを入力するための「マイク指向性制御」と、視線情報を取得する「所定の時間」(図10参照)を入力するための「視線情報取得時間」と、注目領域の検出で用いられる閾値の種類及び閾値を入力するための「注目領域検出条件」とが含まれている。
このような入力画面321はディスプレイ217に表示され、ビデオ会議システム1bのユーザは、入力画面321を通じて注目領域を検出するための閾値や、指向性を決定するための条件を入力することができる。なお、ビデオ会議システム1bの管理者がこのような入力を行うようにしてもよい。また、図17に示した入力項目は一例であって、他の入力項目を追加し、或いは図17に示した入力項目と置き換えてもよい。
図16に戻り、説明を続ける。設定入力部33は、ディスプレイ217に表示された入力画面321を通じてユーザが入力した設定情報を入力し、視線検出部22及び注目領域検出部24に出力する。なお、この出力先は、入力項目に応じて決定することができる。
以上説明したように、本実施形態では、ビデオ会議システム1bのユーザが各種閾値や指向性決定の条件等の設定情報を入力する入力画面を表示し、入力された設定情報に応じて通信端末の設定を行う。
周囲の不要な音の大きさ等、ビデオ会議を行う環境によって、指向性を決定するための適切な条件が異なる場合があるが、本実施形態によれば、会議環境に応じて適切に指向性を決定し、制御することができる。
尚、本発明は、具体的に開示された上記の実施形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。
また実施形態は、通信端末のマイクロホンの制御方法も含む。例えば、通信端末のマイクロホンの制御方法は、カメラから画像の入力を受け、および、マイクロホンから音声の入力を受け、ビデオ会議で用いられる通信端末の前記マイクロホンの制御方法であって、前記カメラによって前記ビデオ会議の参加者の画像を撮像する工程と、前記画像から検出した前記参加者の視線を示す視線情報を蓄積する工程と、蓄積された前記視線情報に基づき、前記マイクロホンによる集音の指向性を決定する工程と、を含む。このような通信端末のマイクロホンの制御方法により、上述のビデオ会議システムと同様の効果を得ることができる。
また、上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。
1、1a、1b ビデオ会議システム
2、2A 通信端末
2B 通信端末(他の第1通信端末の一例、他の第2通信端末の一例)
3 ネットワーク
4 サーバ
21 撮像部
22 視線検出部
23 視線情報蓄積部
24 注目領域検出部
25 サブパケット生成部
26 送信部
27 受信部
28 指向性決定部
29 指向性制御部
30 指向性情報記憶部
31 指向性情報更新部
32 入力画面表示部
33 設定入力部
201 CPU
202 RON
203 RAM
204 SSD
205 ネットワークコントローラ
206 センサコントローラ
207 キャプチャデバイス
208 電子ペンコントローラ
209 外部記憶コントローラ
210 GPU
211 ディスプレイコントローラ
212 カメラコントローラ
213 マイクロホンコントローラ
214 スピーカコントローラ
215 電子ペン
216 外部メモリ
217 ディスプレイ
218 カメラ
219 マイクロホン
220 スピーカ
特開2017-034502号公報

Claims (7)

  1. 複数の通信端末と、前記通信端末に画像を出力するカメラと、前記通信端末に音声を出力するマイクロホンと、を備え、ビデオ会議を実行するビデオ会議システムであって、
    前記通信端末は、
    前記画像から検出した前記ビデオ会議の参加者の視線を示す視線情報を蓄積する視線情報蓄積部と、
    蓄積された前記視線情報に基づき、前記マイクロホンの集音の指向性を決定する指向性決定部と、
    決定された前記指向性の情報を記憶する指向性情報記憶部と、
    記憶された前記指向性の情報を更新する指向性情報更新部と、を有し、
    前記指向性決定部は、前記指向性情報記憶部を参照して取得した前記指向性の情報に基づき、前記指向性を決定する
    ビデオ会議システム。
  2. 蓄積された前記視線情報に基づき、前記参加者が注目する注目領域を検出する注目領域検出部と、
    検出された前記注目領域を他の第1通信端末に送信する送信部と、を有し、
    前記指向性決定部は、他の第2通信端末から受信した前記注目領域に基づき、前記指向性を決定する
    請求項1に記載のビデオ会議システム。
  3. 前記視線情報から抽出した所定の座標情報が含まれるサブパケットを生成するサブパケット生成部を有し、
    前記送信部は前記サブパケットを送信する
    請求項2に記載のビデオ会議システム。
  4. 前記指向性決定部は、予め定められた時間閾値以上の時間で前記参加者の視線が向けられた領域、予め定められた回数閾値以上の回数で前記参加者の視線が向けられた領域、及び予め定められた人数閾値以上の人数で前記参加者の視線が向けられた領域の少なくとも1つに基づき、前記指向性を決定する
    請求項1乃至3の何れか1項に記載のビデオ会議システム。
  5. 前記ビデオ会議システムのユーザが、前記時間閾値、前記回数閾値、及び前記人数閾値の少なくとも1つ以上と、前記指向性決定部が前記指向性を決定するための条件と、を入力する入力画面を表示する入力画面表示部を有する
    請求項4に記載のビデオ会議システム。
  6. カメラから画像の入力を受け、および、マイクロホンから音声の入力を受け、ビデオ会議で用いられる通信端末であって、
    前記画像から検出した前記ビデオ会議の参加者の視線を示す視線情報を蓄積する視線情報蓄積部と、
    蓄積された前記視線情報に基づき、前記マイクロホンの集音の指向性を決定する指向性決定部と、
    決定された前記指向性の情報を記憶する指向性情報記憶部と、
    記憶された前記指向性の情報を更新する指向性情報更新部と、を有し、
    前記指向性決定部は、前記指向性情報記憶部を参照して取得した前記指向性の情報に基づき、前記指向性を決定する
    通信端末。
  7. カメラから画像の入力を受け、および、マイクロホンから音声の入力を受け、ビデオ会議で用いられる通信端末の前記マイクロホンの制御方法であって、
    前記カメラによって前記ビデオ会議の参加者の画像を撮像する工程と、
    前記画像から検出した前記参加者の視線を示す視線情報を蓄積する工程と、
    蓄積された前記視線情報に基づき、前記マイクロホンによる集音の指向性を決定する工程と、
    決定された前記指向性の情報を、指向性情報記憶部により記憶する工程と、
    記憶された前記指向性の情報を更新する工程と、を含み、
    前記指向性を決定する工程は、前記指向性情報記憶部を参照して取得した前記指向性の情報に基づき、前記指向性を決定する
    通信端末のマイクロホンの制御方法。
JP2018220885A 2018-11-27 2018-11-27 ビデオ会議システム、通信端末、及び通信端末のマイクロホンの制御方法 Active JP7225735B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018220885A JP7225735B2 (ja) 2018-11-27 2018-11-27 ビデオ会議システム、通信端末、及び通信端末のマイクロホンの制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018220885A JP7225735B2 (ja) 2018-11-27 2018-11-27 ビデオ会議システム、通信端末、及び通信端末のマイクロホンの制御方法

Publications (2)

Publication Number Publication Date
JP2020088618A JP2020088618A (ja) 2020-06-04
JP7225735B2 true JP7225735B2 (ja) 2023-02-21

Family

ID=70910147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018220885A Active JP7225735B2 (ja) 2018-11-27 2018-11-27 ビデオ会議システム、通信端末、及び通信端末のマイクロホンの制御方法

Country Status (1)

Country Link
JP (1) JP7225735B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113905204B (zh) * 2021-09-07 2023-02-14 深圳壹秘科技有限公司 图像显示方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010211485A (ja) 2009-03-10 2010-09-24 Nippon Telegr & Teleph Corp <Ntt> 注視度合測定装置、注視度合測定方法、注視度合測定プログラムおよびそのプログラムを記録した記録媒体
JP2012213013A (ja) 2011-03-31 2012-11-01 Nippon Telegr & Teleph Corp <Ntt> Tv会議システム
JP2017085372A (ja) 2015-10-28 2017-05-18 株式会社リコー 通信システム、通信装置、通信方法およびプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09275533A (ja) * 1996-04-08 1997-10-21 Sony Corp 信号処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010211485A (ja) 2009-03-10 2010-09-24 Nippon Telegr & Teleph Corp <Ntt> 注視度合測定装置、注視度合測定方法、注視度合測定プログラムおよびそのプログラムを記録した記録媒体
JP2012213013A (ja) 2011-03-31 2012-11-01 Nippon Telegr & Teleph Corp <Ntt> Tv会議システム
JP2017085372A (ja) 2015-10-28 2017-05-18 株式会社リコー 通信システム、通信装置、通信方法およびプログラム

Also Published As

Publication number Publication date
JP2020088618A (ja) 2020-06-04

Similar Documents

Publication Publication Date Title
JP7379907B2 (ja) 情報処理装置、情報処理プログラム、情報処理システム、情報処理方法
US10075491B2 (en) Directing communications using gaze interaction
CN104580992B (zh) 一种控制方法及移动终端
WO2018161426A1 (zh) 一种拍照方法和终端
EP2509070A1 (en) Apparatus and method for determining relevance of input speech
JP2012040655A (ja) ロボット制御方法、プログラム、及びロボット
CN108495032B (zh) 图像处理方法、装置、存储介质及电子设备
WO2014085369A1 (en) Methods, apparatuses and computer readable medium for triggering a gesture recognition mode and device pairing and sharing via non-touch gestures
JP2017525024A (ja) 入力データを管理するためのアーキテクチャ
CN111045511B (zh) 基于手势的操控方法及终端设备
TW201246950A (en) Method of controlling audio recording and electronic device
US9037737B1 (en) Collaboration of device resources
US10468022B2 (en) Multi mode voice assistant for the hearing disabled
JP2016151798A (ja) 情報処理装置および方法、並びにプログラム
TW201403379A (zh) 分析人的手勢命令的技術
JP6505327B2 (ja) ビデオデータを取得するための方法、装置、及びシステム並びにコンピュータ可読記憶媒体
CN110798327B (zh) 消息处理方法、设备及存储介质
US20190286255A1 (en) Electronic whiteboard, image display method, and recording medium
CN108881721B (zh) 一种显示方法及终端
WO2019137535A1 (zh) 物距测量方法及终端设备
JP7225735B2 (ja) ビデオ会議システム、通信端末、及び通信端末のマイクロホンの制御方法
JP7259447B2 (ja) 発話者検出システム、発話者検出方法及びプログラム
CN112507798B (zh) 活体检测方法、电子设备与存储介质
US20130179139A1 (en) Method for applying virtual person and portable electronic device for use with the method
CN114245148A (zh) 直播互动方法、装置、终端、服务器及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230123

R151 Written notification of patent or utility model registration

Ref document number: 7225735

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151