JP2022098825A - Web conference system - Google Patents

Web conference system Download PDF

Info

Publication number
JP2022098825A
JP2022098825A JP2020212442A JP2020212442A JP2022098825A JP 2022098825 A JP2022098825 A JP 2022098825A JP 2020212442 A JP2020212442 A JP 2020212442A JP 2020212442 A JP2020212442 A JP 2020212442A JP 2022098825 A JP2022098825 A JP 2022098825A
Authority
JP
Japan
Prior art keywords
unit
display
concentration
viewer
presenter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020212442A
Other languages
Japanese (ja)
Inventor
信行 松川
Nobuyuki Matsukawa
勝 川▲崎▼
Masaru Kawasaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2020212442A priority Critical patent/JP2022098825A/en
Priority to PCT/JP2021/045706 priority patent/WO2022131178A1/en
Publication of JP2022098825A publication Critical patent/JP2022098825A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

To provide a web conference system configured to allow participants to flexibly act in a web conference in accordance with circumstances.SOLUTION: A web conference system comprising a plurality of participant terminals which can communicate information with each other over a network and which are used by participants participating in a web conference includes: a display unit arranged in each of the participant terminals to display the contents of the web conference; a line-of-sight information acquisition unit which acquires line-of-sight information of the participants; a determination unit which sets a target area on the display unit at a predetermined timing, and determines whether lines of sight of the participants on the display unit coincide with the target area or not, on the basis of the acquired line-of-sight information; a concentration calculation unit which calculates concentration of the participants on the basis of a determination result; and a display control unit which causes at least one display unit to display the concentration of the participants.SELECTED DRAWING: Figure 2

Description

本発明は、ウェブ会議システムに関する。 The present invention relates to a web conferencing system.

複数人で行う会議として、いわゆるウェブ会議が知られている。ウェブ会議は、対面型の会議とは異なり、参加者同士が離れた場所から端末及びネットワークを介して行うものである。ウェブ会議では、対面型の会議に比べて、他の参加者の反応や表情を把握することが難しい。これに対して、例えば、ウェブ会議の参加者のしぐさを検出して発言要求レベルをカウントし、一定以上カウントされたら挙手マークを表示することで、発言要求の高い参加者を容易に把握することが可能な技術が提案されている(例えば、特許文献1参照)。 A so-called web conference is known as a conference held by multiple people. Unlike a face-to-face conference, a web conference is held by participants from a remote location via a terminal and a network. In a web conference, it is more difficult to grasp the reactions and facial expressions of other participants than in a face-to-face conference. On the other hand, for example, by detecting the gestures of the participants in the web conference, counting the speech request level, and displaying the raised hand mark when the count exceeds a certain level, it is possible to easily grasp the participants with high speech requests. (For example, see Patent Document 1).

特許第5613102号公報Japanese Patent No. 5613102

しかしながら、特許文献1に記載の技術では、参加者の集中度を把握することが難しく、参加者の集中度に応じて臨機応変に対応することが困難である。 However, with the technique described in Patent Document 1, it is difficult to grasp the concentration level of the participants, and it is difficult to respond flexibly according to the concentration level of the participants.

本発明は、上記に鑑みてなされたものであり、ウェブ会議において参加者が雰囲気に応じて臨機応変に対応することが可能なウェブ会議システムを提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide a web conferencing system in which participants can respond flexibly according to the atmosphere in a web conferencing.

本発明に係るウェブ会議システムは、ネットワークを介して互いに情報を通信可能であり、ウェブ会議に参加する参加者が使用する複数の参加者端末を備え、前記参加者端末ごとに設けられ、前記ウェブ会議の内容を表示可能な表示部と、前記参加者の視線情報を取得する視線情報取得部と、所定のタイミングで前記表示部に目標領域を設定し、取得された前記視線情報に基づいて前記表示部における前記参加者の視線が前記目標領域に合致するか否かを判定する判定部と、判定結果に基づいて前記参加者の集中度を算出する集中度算出部と、前記参加者の前記集中度を少なくとも1つの前記表示部に表示させる表示制御部とを備える。 The web conferencing system according to the present invention is capable of communicating information with each other via a network, includes a plurality of participant terminals used by participants participating in the web conference, and is provided for each of the participant terminals. A display unit that can display the contents of the conference, a line-of-sight information acquisition unit that acquires the line-of-sight information of the participants, and a target area are set in the display unit at a predetermined timing, and the target area is set in the display unit, and the target area is set based on the acquired line-of-sight information. A determination unit that determines whether or not the line of sight of the participant matches the target area on the display unit, a concentration degree calculation unit that calculates the concentration degree of the participant based on the determination result, and the participant's above. A display control unit for displaying the degree of concentration on at least one display unit is provided.

本発明によれば、ウェブ会議において参加者が雰囲気に応じて臨機応変に対応することが可能となる。 According to the present invention, it is possible for a participant to respond flexibly according to the atmosphere in a web conference.

図1は、本実施形態に係るウェブ会議システムの一例を模式的示す図である。FIG. 1 is a diagram schematically showing an example of a web conferencing system according to the present embodiment. 図2は、ウェブ会議システムの一例を示すブロック図である。FIG. 2 is a block diagram showing an example of a web conferencing system. 図3は、キャリブレーション処理の一例を示す図である。FIG. 3 is a diagram showing an example of the calibration process. 図4は、表示部の表示が変化する場合の一例を示す図である。FIG. 4 is a diagram showing an example of a case where the display of the display unit changes. 図5は、表示部の表示が変化する場合の他の例を示す図である。FIG. 5 is a diagram showing another example when the display of the display unit changes. 図6は、所定のタイミングが発生する他の例を示す図である。FIG. 6 is a diagram showing another example in which a predetermined timing occurs. 図7は、所定のキーワードが検出されるタイミングの他の例を示す図である。FIG. 7 is a diagram showing another example of the timing at which a predetermined keyword is detected. 図8は、記憶部に記憶される集中度の一例を模式的に示す図である。FIG. 8 is a diagram schematically showing an example of the degree of concentration stored in the storage unit. 図9は、表示部に表示される集中度の一例を示す図である。FIG. 9 is a diagram showing an example of the degree of concentration displayed on the display unit. 図10は、本実施形態に係るウェブ会議システムの動作の流れの一例を示すフローチャートである。FIG. 10 is a flowchart showing an example of the operation flow of the web conferencing system according to the present embodiment.

以下、本発明に係るウェブ会議システムの実施形態を図面に基づいて説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。 Hereinafter, embodiments of the web conferencing system according to the present invention will be described with reference to the drawings. The present invention is not limited to this embodiment. In addition, the components in the following embodiments include those that can be easily replaced by those skilled in the art, or those that are substantially the same.

図1は、本実施形態に係るウェブ会議システム100の一例を模式的示す図である。図2は、ウェブ会議システム100の一例を示すブロック図である。図1及び図2に示すように、本実施形態において、ウェブ会議システム100は、視聴者端末10と、発表者端末20とを備える。視聴者端末10及び発表者端末20は、ネットワークNWを介して互いに情報を通信可能であり、ウェブ会議に参加する参加者が使用する参加者端末である。本実施形態では、ウェブ会議の参加者として、所定の会議内容を発表する発表者と、発表者の発表内容を視聴する視聴者とが存在する場合を例に挙げて説明する。 FIG. 1 is a diagram schematically showing an example of the web conferencing system 100 according to the present embodiment. FIG. 2 is a block diagram showing an example of the web conferencing system 100. As shown in FIGS. 1 and 2, in the present embodiment, the web conferencing system 100 includes a viewer terminal 10 and a presenter terminal 20. The viewer terminal 10 and the presenter terminal 20 are participant terminals that can communicate information with each other via the network NW and are used by participants participating in the web conference. In the present embodiment, a case where there is a presenter who announces a predetermined conference content and a viewer who watches the presenter's presentation content as participants of the web conference will be described as an example.

視聴者端末10は、ウェブ会議の視聴者が使用する端末である。発表者端末20は、ウェブ会議の発表者が使用する端末である。本実施形態では、発表者の発言内容を発表者端末20から視聴者端末10に送信し、視聴者端末10で受信した発言内容を視聴者が視聴する態様でウェブ会議が行われる。 The viewer terminal 10 is a terminal used by the viewer of the web conference. The presenter terminal 20 is a terminal used by the presenter of the web conference. In the present embodiment, the web conference is held in such a manner that the content of the remarks made by the presenter is transmitted from the presenter terminal 20 to the viewer terminal 10 and the content of the remarks received by the viewer terminal 10 is viewed by the viewer.

視聴者端末10は、入力部11と、表示部12と、通信部13と、記憶部14と、制御部15とを有する。入力部11、表示部12、通信部13、記憶部14及び制御部15は、例えばバスライン等を介して接続されている。視聴者端末10としては、例えば携帯電話、スマートフォン、タブレット、ノート型パーソナルコンピュータ、デスクトップ型パーソナルコンピュータ等の情報端末が挙げられる。 The viewer terminal 10 has an input unit 11, a display unit 12, a communication unit 13, a storage unit 14, and a control unit 15. The input unit 11, the display unit 12, the communication unit 13, the storage unit 14, and the control unit 15 are connected via, for example, a bus line or the like. Examples of the viewer terminal 10 include information terminals such as mobile phones, smartphones, tablets, notebook personal computers, and desktop personal computers.

入力部11は、情報を入力するための所定の入力操作が可能である。入力部11は、入力操作に応じて、制御部15に対する指示信号を出力する。入力部11としては、例えばタッチパネル等の入力装置が用いられる。なお、入力部11として、タッチパネルに加えて又はタッチパネルに代えて、ボタン、レバー、ダイヤル、スイッチ又は他の入力装置が用いられてもよい。入力部11は、所定の入力操作に応じた指示信号を出力する。 The input unit 11 can perform a predetermined input operation for inputting information. The input unit 11 outputs an instruction signal to the control unit 15 in response to the input operation. As the input unit 11, for example, an input device such as a touch panel is used. As the input unit 11, a button, a lever, a dial, a switch, or another input device may be used in addition to the touch panel or in place of the touch panel. The input unit 11 outputs an instruction signal corresponding to a predetermined input operation.

表示部12は、文字及び画像を含む各種情報を表示する。表示部12は、液晶パネル等の表示パネルを有する。表示部12は、視聴者端末10ごとに設けられる。表示部12は、ウェブ会議の内容等の情報を表示可能である。表示部12の動作は、不図示の表示制御部により行われる。 The display unit 12 displays various information including characters and images. The display unit 12 has a display panel such as a liquid crystal panel. The display unit 12 is provided for each viewer terminal 10. The display unit 12 can display information such as the contents of the web conference. The operation of the display unit 12 is performed by a display control unit (not shown).

通信部13は、有線又は無線によりネットワークNWを介して発表者端末20等の外部機器との間で情報の通信を行う。 The communication unit 13 communicates information with an external device such as the presenter terminal 20 via the network NW by wire or wirelessly.

記憶部14は、例えばハードディスクドライブ、ソリッドステートドライブ等のストレージを有している。なお、記憶部14として、リムーバブルディスク等の外部記憶媒体が用いられてもよい。記憶部14は、視聴者端末10のオペレーティングシステムや、入力部11、表示部12及び通信部13の動作を制御するための各種プログラム及びデータ等を記憶する。 The storage unit 14 has storage such as a hard disk drive or a solid state drive. An external storage medium such as a removable disk may be used as the storage unit 14. The storage unit 14 stores the operating system of the viewer terminal 10, various programs and data for controlling the operations of the input unit 11, the display unit 12, and the communication unit 13.

制御部15は、入力部11、表示部12及び通信部13の各部の制御を行う。また、制御部15は、入力部11による指示信号に応じた演算、処理等を行う。制御部15は、CPU(Central Processing Unit)等の処理装置や、RAM(Random Access Memory)、ROM(Read Only Memory)等の記憶装置を有している。 The control unit 15 controls each unit of the input unit 11, the display unit 12, and the communication unit 13. Further, the control unit 15 performs calculations, processing, and the like according to the instruction signal from the input unit 11. The control unit 15 has a processing device such as a CPU (Central Processing Unit) and a storage device such as a RAM (Random Access Memory) and a ROM (Read Only Memory).

制御部15は、図2に示すように、視線情報取得部16と、判定部17と、集中度算出部18と、通信制御部19とを有する。 As shown in FIG. 2, the control unit 15 includes a line-of-sight information acquisition unit 16, a determination unit 17, a concentration ratio calculation unit 18, and a communication control unit 19.

視線情報取得部16は、視聴者の視線情報を取得する。視線情報取得部16は、例えばカメラC1で撮影される視聴者の眼の映像に基づいて画像解析を行うことで、視聴者の視線情報を取得可能である。視線情報取得部16は、例えば視聴者の瞳孔の位置と角膜反射像の位置とに基づいて視線を検出すること、又は視聴者の目頭の位置と虹彩の位置とに基づいて視線を検出すること等、各種の手法により視聴者の視線を検出することができる。視線情報取得部16は、所定期間ごと、例えばカメラC1から出力されるフレーム同期信号の周期ごとに視線情報を取得することができる。 The line-of-sight information acquisition unit 16 acquires the line-of-sight information of the viewer. The line-of-sight information acquisition unit 16 can acquire the line-of-sight information of the viewer by performing image analysis based on, for example, an image of the viewer's eyes taken by the camera C1. The line-of-sight information acquisition unit 16 detects the line of sight based on, for example, the position of the pupil of the viewer and the position of the corneal reflex image, or detects the line of sight based on the position of the inner corner of the viewer's eye and the position of the iris. The line of sight of the viewer can be detected by various methods such as. The line-of-sight information acquisition unit 16 can acquire line-of-sight information at predetermined periods, for example, at intervals of the frame synchronization signal output from the camera C1.

判定部17は、所定のタイミングで表示部12に目標領域を設定し、取得された視線情報に基づいて表示部12における視聴者の視線が目標領域に合致するか否かを判定する。判定部17は、表示部12において例えば所定の画像が表示される位置に目標領域を設定することができる。判定部17は、目標領域が設定される期間に、視聴者の視線が目標領域に存在するか否かをそれぞれ判定する。判定部34は、所定期間ごと、例えばカメラC1から出力されるフレーム同期信号の周期と同一の周期とすることができる。 The determination unit 17 sets a target area on the display unit 12 at a predetermined timing, and determines whether or not the line of sight of the viewer on the display unit 12 matches the target area based on the acquired line-of-sight information. The determination unit 17 can set a target area at a position where a predetermined image is displayed on the display unit 12, for example. The determination unit 17 determines whether or not the viewer's line of sight exists in the target area during the period in which the target area is set. The determination unit 34 may have a predetermined period, for example, the same period as the period of the frame synchronization signal output from the camera C1.

所定のタイミングとしては、例えば、表示部12の表示が変化するタイミング、他の視聴者端末10のマイクM1又は後述する発表者端末20のマイクM2等の音声入力部により取得される他の視聴者又は発表者の音声から所定のキーワードが検出されるタイミング、及びスピーカS1等の音声出力部から他の視聴者又は発表者の音声が出力されなくなってから一定期間が経過したタイミング、の少なくとも1つを含む。また、所定のタイミングとしては、「ところで」「話は変わりますが」等の話題の切り替えを示すキーワードが検出されたタイミング、「ところが」「しかし」などの逆接の接続詞が検出されたタイミング、発表者の資料に含まれるワードと発表者の音声に含まれるワードが一致したタイミング、一定時間ごとのタイミング、視聴者をカメラC1で撮影している場合には当該視聴者の動きの程度が所定値よりも低くなったタイミング、等が挙げられる。 The predetermined timing is, for example, a timing at which the display of the display unit 12 changes, another viewer acquired by a voice input unit such as a microphone M1 of another viewer terminal 10 or a microphone M2 of the presenter terminal 20 described later. Or at least one of the timing when a predetermined keyword is detected from the voice of the presenter and the timing when a certain period has passed since the voice of another viewer or the presenter is no longer output from the voice output unit such as the speaker S1. including. In addition, as predetermined timings, the timing when a keyword indicating switching of topics such as "by the way" and "the story changes" is detected, the timing when a reverse conjunction such as "where" and "but" is detected, and the announcement. The timing at which the word contained in the material of the person and the word contained in the voice of the presenter match, the timing at regular intervals, and the degree of movement of the viewer when the viewer is photographed by the camera C1 are predetermined values. The timing when it became lower than that, etc. can be mentioned.

集中度算出部18は、判定部17の判定結果に基づいて、視聴者の集中度を算出する。集中度算出部18は、視聴者端末10ごと、つまり視聴者ごとの視線情報の特性を算出し、判定部17の判定結果と特性情報の算出結果とに基づいて集中度を算出してもよい。視聴者ごとの視線情報の特性については、例えばウェブ会議が開始された直後等に行うことができる。集中度算出部18は、例えば判定部17において判定された回数と、視線が目標領域に存在すると判定された回数との割合に基づいて、集中度を算出することができる。 The concentration degree calculation unit 18 calculates the concentration degree of the viewer based on the determination result of the determination unit 17. The concentration degree calculation unit 18 may calculate the characteristics of the line-of-sight information for each viewer terminal 10, that is, for each viewer, and calculate the concentration degree based on the determination result of the determination unit 17 and the calculation result of the characteristic information. .. The characteristics of the line-of-sight information for each viewer can be, for example, immediately after the start of the web conference. The concentration degree calculation unit 18 can calculate the concentration degree based on the ratio of the number of times determined by the determination unit 17, for example, to the number of times the line of sight is determined to exist in the target region.

通信制御部19は、通信部13を介してネットワークNWにアクセスし、発表者端末20との間で情報の送受信を行う。通信制御部19は、例えば発表者端末20から発表者の発言内容を含む映像及び音声の少なくとも一方を通信部13に受信させる。通信制御部19は、視線情報、判定部の判定結果、視聴者の特性、集中度等の各情報を通信部13から発表者端末20に送信させる。 The communication control unit 19 accesses the network NW via the communication unit 13 and transmits / receives information to / from the presenter terminal 20. The communication control unit 19 causes the communication unit 13 to receive at least one of video and audio including the content of the presenter's remarks from, for example, the presenter terminal 20. The communication control unit 19 causes the communication unit 13 to transmit each information such as the line-of-sight information, the determination result of the determination unit, the characteristics of the viewer, and the degree of concentration to the presenter terminal 20.

発表者端末20は、入力部21と、表示部22と、通信部23と、記憶部24と、制御部25とを有する。入力部21、表示部22、通信部23、記憶部24及び制御部25は、例えばバスライン等を介して接続されている。発表者端末20としては、視聴者端末10と同様、例えば携帯電話、スマートフォン、タブレット、ノート型パーソナルコンピュータ、デスクトップ型パーソナルコンピュータ等の情報端末が挙げられる。 The presenter terminal 20 has an input unit 21, a display unit 22, a communication unit 23, a storage unit 24, and a control unit 25. The input unit 21, the display unit 22, the communication unit 23, the storage unit 24, and the control unit 25 are connected via, for example, a bus line or the like. Examples of the presenter terminal 20 include information terminals such as mobile phones, smartphones, tablets, notebook personal computers, and desktop personal computers, as in the case of the viewer terminal 10.

入力部21は、情報を入力するための所定の入力操作が可能である。入力部21は、入力操作に応じて、制御部25に対する指示信号を出力する。入力部21としては、例えばタッチパネル等の入力装置が用いられる。なお、入力部21として、タッチパネルに加えて又はタッチパネルに代えて、ボタン、レバー、ダイヤル、スイッチ又は他の入力装置が用いられてもよい。入力部21は、所定の入力操作に応じた指示信号を出力する。 The input unit 21 can perform a predetermined input operation for inputting information. The input unit 21 outputs an instruction signal to the control unit 25 in response to the input operation. As the input unit 21, for example, an input device such as a touch panel is used. As the input unit 21, a button, a lever, a dial, a switch, or another input device may be used in addition to the touch panel or in place of the touch panel. The input unit 21 outputs an instruction signal corresponding to a predetermined input operation.

表示部22は、文字及び画像を含む各種情報を表示する。表示部22は、液晶パネル等の表示パネルを有する。表示部22は、映像を含む情報を表示可能である。 The display unit 22 displays various information including characters and images. The display unit 22 has a display panel such as a liquid crystal panel. The display unit 22 can display information including video.

通信部23は、有線又は無線によりネットワークNWを介して視聴者端末10等の外部機器との間で情報の通信を行う。通信部23は、視聴者端末10から送信された視線情報、判定部の判定結果、視聴者の特性、集中度等の各情報を受信する。 The communication unit 23 communicates information with an external device such as a viewer terminal 10 via a network NW by wire or wirelessly. The communication unit 23 receives each information such as the line-of-sight information transmitted from the viewer terminal 10, the determination result of the determination unit, the characteristics of the viewer, and the degree of concentration.

記憶部24は、例えばハードディスクドライブ、ソリッドステートドライブ等のストレージを有している。なお、記憶部24として、リムーバブルディスク等の外部記憶媒体が用いられてもよい。記憶部24は、発表者端末20のオペレーティングシステムや、入力部21、表示部22及び通信部23の動作を制御するための各種プログラム及びデータ等を記憶する。 The storage unit 24 has storage such as a hard disk drive and a solid state drive. An external storage medium such as a removable disk may be used as the storage unit 24. The storage unit 24 stores the operating system of the presenter terminal 20, various programs and data for controlling the operations of the input unit 21, the display unit 22, and the communication unit 23.

制御部25は、入力部21、表示部22及び通信部23の各部の制御を行う。また、制御部25は、入力部21による指示信号に応じた演算、処理等を行う。制御部25は、CPU等の処理装置や、RAM、ROM等の記憶装置を有している。制御部25は、集中度取得部26と、表示制御部27と、通信制御部28とを有する。 The control unit 25 controls each unit of the input unit 21, the display unit 22, and the communication unit 23. Further, the control unit 25 performs calculations, processing, and the like according to the instruction signal from the input unit 21. The control unit 25 has a processing device such as a CPU and a storage device such as RAM and ROM. The control unit 25 includes a concentration ratio acquisition unit 26, a display control unit 27, and a communication control unit 28.

集中度取得部26は、視聴者端末10から送信され、通信部23で受信された集中度を取得する。 The concentration level acquisition unit 26 acquires the concentration level transmitted from the viewer terminal 10 and received by the communication unit 23.

表示制御部27は、例えばカメラC2で撮影された発表者の映像及びカメラC1で撮影された視聴者の映像を表示部22に表示することができる。表示制御部27は、取得した集中度を表示部22に表示する。この場合、表示制御部27は、例えば集中度を視聴者の映像に重畳させる等、視聴者の映像と対応付けた状態で表示することができる。 The display control unit 27 can display, for example, the image of the presenter captured by the camera C2 and the image of the viewer captured by the camera C1 on the display unit 22. The display control unit 27 displays the acquired concentration ratio on the display unit 22. In this case, the display control unit 27 can display the image in a state of being associated with the image of the viewer, for example, by superimposing the degree of concentration on the image of the viewer.

通信制御部28は、通信部23を介してネットワークNWにアクセスし、視聴者端末10との間で情報の送受信を行う。通信制御部28は、発表者の発表内容を含む映像及び音声の少なくとも一方を取得して通信部23から視聴者端末10に送信させる。通信制御部28は、例えばカメラC2により発表者を撮影した発表者の映像を取得することができる。通信制御部28は、例えばマイクM2に入力された発表者の音声を取得することができる。 The communication control unit 28 accesses the network NW via the communication unit 23, and transmits / receives information to / from the viewer terminal 10. The communication control unit 28 acquires at least one of the video and audio including the presentation content of the presenter and causes the communication unit 23 to transmit the video and audio to the viewer terminal 10. The communication control unit 28 can acquire the image of the presenter who has taken the presenter by, for example, the camera C2. The communication control unit 28 can acquire, for example, the voice of the presenter input to the microphone M2.

次に、上記のように構成されたウェブ会議システム100の動作の一例を説明する。以下、発表者端末20において発表者が所定の内容を発表し、発表内容をカメラC2及びマイクM2で撮影及び録音により取得し、取得した発表内容を通信部23から視聴者端末10に送信し、視聴者が視聴者端末10において発表内容を視聴する場合を例に挙げて説明する。 Next, an example of the operation of the web conferencing system 100 configured as described above will be described. Hereinafter, the presenter announces a predetermined content on the presenter terminal 20, the presentation content is acquired by shooting and recording with the camera C2 and the microphone M2, and the acquired presentation content is transmitted from the communication unit 23 to the viewer terminal 10. A case where the viewer views the presentation content on the viewer terminal 10 will be described as an example.

発表者が発表者端末20を用いて所定の内容を発表する場合、発表内容をカメラC2及びマイクM2で撮影及び録音により取得し、取得した発表内容を通信部23から視聴者端末10に送信する。発表者は、発表開始の際、視聴者端末10において視聴者の特性を算出させるため、キャリブレーションを行わせるようにする。 When the presenter announces a predetermined content using the presenter terminal 20, the announcement content is acquired by shooting and recording with the camera C2 and the microphone M2, and the acquired announcement content is transmitted from the communication unit 23 to the viewer terminal 10. .. At the start of the presentation, the presenter is made to perform calibration in order to calculate the characteristics of the viewer on the viewer terminal 10.

図3は、キャリブレーション処理の一例を示す図である。図3に示すように、発表者は、視聴者端末10の表示部12の画面共有領域12mにターゲットT1からT4が順に表示されるように発表を開始する。ターゲットT1~T4は、視聴者に視認可能な形状、文字、模様等の表示態様とすることができる。ここでは円形のターゲットを例に挙げているが、これに限定されず、他の表示態様であってもよい。このとき、発表者は、「ターゲットを見てください」というように視聴者にターゲットを見るように案内する旨の発言を行うようにしてもよい。また、視聴者にターゲットを見るように案内する文字情報を画面共有領域12mに表示させるようにしてもよい。 FIG. 3 is a diagram showing an example of the calibration process. As shown in FIG. 3, the presenter starts the presentation so that the targets T1 to T4 are sequentially displayed in the screen sharing area 12m of the display unit 12 of the viewer terminal 10. The targets T1 to T4 can be displayed in a shape, characters, patterns, etc. that can be visually recognized by the viewer. Here, a circular target is taken as an example, but the present invention is not limited to this, and other display modes may be used. At this time, the presenter may make a statement to guide the viewer to look at the target, such as "Please look at the target". Further, the character information that guides the viewer to see the target may be displayed in the screen sharing area 12m.

判定部17は、ターゲットT1からT4が表示される期間、当該ターゲットT1からT4のそれぞれ位置に対応する目標領域ARを設定する。視線情報取得部16は、視聴者の視線情報を取得する。判定部17は、視聴者の視線が目標領域ARに存在するか否かを判定する。 The determination unit 17 sets the target area AR corresponding to each position of the targets T1 to T4 during the period when the targets T1 to T4 are displayed. The line-of-sight information acquisition unit 16 acquires the line-of-sight information of the viewer. The determination unit 17 determines whether or not the viewer's line of sight is in the target area AR.

例えば、最初のターゲットT1が表示されてから視聴者の視線がターゲットT1に対応する目標領域ARに存在すると判定されるまでの時間は、視聴者によって異なる場合がある。同様に、ターゲットT1からターゲットT2に表示が切り替わる場合、表示が切り替わってから視聴者の視線がターゲットT2に対応する目標領域ARに存在すると判定されるまでの時間は、視聴者によって異なる場合がある。このように、表示開始又は表示内容の変更から、視聴者が反応するまでの反応時間には、個人差が含まれる。 For example, the time from when the first target T1 is displayed until it is determined that the line of sight of the viewer exists in the target region AR corresponding to the target T1 may differ depending on the viewer. Similarly, when the display is switched from the target T1 to the target T2, the time from the switching of the display until it is determined that the line of sight of the viewer exists in the target area AR corresponding to the target T2 may differ depending on the viewer. .. As described above, the reaction time from the start of display or the change of the display content to the reaction of the viewer includes individual differences.

本実施形態では、このような反応時間の個人差を発表開始直後に行うことで、以降の視聴期間において、視聴者の視線情報から集中度を算出する場合に、反応時間の個人差を反映させることができる。例えば、集中度算出部18は、判定部17において判定された回数と、視線が目標領域に存在すると判定された回数との割合を算出した場合、反応時間が相対的に遅い視聴者については、反応時間が相対的に速い視聴者に比べて、当該割合が低くても同程度の集中度とすることができる。このように、視聴者ごとの特性を反映させることで、集中度を精度よく算出できる。 In the present embodiment, by performing such an individual difference in reaction time immediately after the start of presentation, the individual difference in reaction time is reflected when the degree of concentration is calculated from the line-of-sight information of the viewer in the subsequent viewing period. be able to. For example, when the concentration ratio calculation unit 18 calculates the ratio between the number of times determined by the determination unit 17 and the number of times the line of sight is determined to exist in the target region, the reaction time is relatively slow for the viewer. Compared to a viewer whose reaction time is relatively fast, the degree of concentration can be the same even if the ratio is low. In this way, by reflecting the characteristics of each viewer, the degree of concentration can be calculated accurately.

キャリブレーション処理の後、視線情報取得部16は、予め設定された所定のタイミング(トリガー)が発生したか否かを検出する。所定のタイミングとしては、例えば、表示部12の表示が変化するタイミングが挙げられる。図4は、表示部12の表示が変化する場合の一例を示す図である。図4の上側に示すように、表示部12の画面共有領域12mには、「資料1」を示すページ12aが表示されている。この状態から、図4の下側に示すように、画面共有領域12mの表示が、「資料2」を示すページ12bに切り替わる場合、判定部17は、所定のタイミングが発生したと判定することができる。この場合、判定部17は、ページ12bの上部に目標領域AR1を設定する。 After the calibration process, the line-of-sight information acquisition unit 16 detects whether or not a predetermined predetermined timing (trigger) set in advance has occurred. Examples of the predetermined timing include the timing at which the display of the display unit 12 changes. FIG. 4 is a diagram showing an example of a case where the display of the display unit 12 changes. As shown on the upper side of FIG. 4, a page 12a indicating "Material 1" is displayed in the screen sharing area 12m of the display unit 12. From this state, as shown in the lower part of FIG. 4, when the display of the screen sharing area 12m is switched to the page 12b indicating "Material 2", the determination unit 17 may determine that a predetermined timing has occurred. can. In this case, the determination unit 17 sets the target area AR1 at the upper part of the page 12b.

図5は、表示部12の表示が変化する場合の他の例を示す図である。表示部12の表示が変化するタイミングの他の例として、表示部12に表示されるポインタ等の指示指標が移動した場合が挙げられる。図5の上側に示すように、表示部12の画面共有領域12mには、指示指標であるポインタ12pが資料を示すページ12cの上部に配置されている。この状態から、図5の下側に示すように、ポインタ12pがページ12cの下部に移動した場合、判定部17は、所定のタイミングが発生したと判定することができる。この場合、判定部17は、表示部12のうちポインタ12pの移動先及びその周囲に目標領域AR2を設定する。 FIG. 5 is a diagram showing another example when the display of the display unit 12 changes. As another example of the timing at which the display of the display unit 12 changes, there is a case where an instruction index such as a pointer displayed on the display unit 12 moves. As shown on the upper side of FIG. 5, in the screen sharing area 12m of the display unit 12, the pointer 12p, which is an instruction index, is arranged on the upper part of the page 12c showing the material. From this state, when the pointer 12p moves to the lower part of the page 12c as shown in the lower part of FIG. 5, the determination unit 17 can determine that a predetermined timing has occurred. In this case, the determination unit 17 sets the target area AR2 in and around the movement destination of the pointer 12p in the display unit 12.

所定のタイミングとしては、上記の他に、例えば発表者がマイクM2を介して入力した音声のうち、所定のキーワードが検出されるタイミングが挙げられる。例えば、発表者は、マイクM2を介して「○○の位置を見てください」というように、視聴者にどこを見てほしいかを指示する旨の発言を行う場合がある。この発言により、視聴者が発表者の指示通りの位置を見ているかどうかを検出することで、視聴者の集中の度合いを求めることができる。 In addition to the above, the predetermined timing includes, for example, the timing at which a predetermined keyword is detected in the voice input by the presenter via the microphone M2. For example, the presenter may make a statement via the microphone M2 to instruct the viewer where to look, such as "Please look at the position of XX". From this statement, it is possible to determine the degree of concentration of the viewer by detecting whether or not the viewer is looking at the position as instructed by the presenter.

具体的には、発表者が表示部12における特定の位置を見るように案内する内容のキーワードを、予め記憶部14に記憶させておく。このようなキーワードとしては、例えば上下左右、真ん中、端等の方向又は位置を示すワード、文章、図面、写真等、表示対象を示すワード等が挙げられる。判定部17は、発表者の発言内容と記憶部14に記憶されたキーワードとを対比して、一致するワードを検出した場合に、トリガーが発生したと判定することができる。 Specifically, a keyword having a content that guides the presenter to look at a specific position on the display unit 12 is stored in the storage unit 14 in advance. Examples of such keywords include words indicating directions or positions such as up / down / left / right, center, and edges, and words indicating display targets such as sentences, drawings, and photographs. The determination unit 17 can determine that the trigger has occurred when the presenter's remark content and the keyword stored in the storage unit 14 are compared and a matching word is detected.

図6は、所定のタイミングが発生する他の例を示す図である。図6に示すように、発表者は、例えば「左下の図面を見てください」という旨の発言を行ったとする。この場合、発表者の音声は、視聴者端末10のスピーカS1から出力される。図6に示す例では、左下の画面を見るように発表者が案内する発言に基づいて、判定部17は、「左下」「図面」というワードを検出し、トリガーが発生したと判定できる。この場合、判定部17は、検出したキーワードに基づいて、「左下」「図面」に対応する領域に目標領域AR3を設定する。図6に示す例では、図面F1、F2、F3が示されている。このうち、図面F1はページ12dの左上に配置されている。図面F2は、ページ12dの真ん中(やや右より)に配置されている。図面F3は、ページ12dの左下に配置されている。また、ページ12dの右上、右下は、文章が表示されている。このため、判定部17は、左下の図面F3を含む領域に目標領域AR3を設定することができる。 FIG. 6 is a diagram showing another example in which a predetermined timing occurs. As shown in FIG. 6, it is assumed that the presenter makes a statement saying, for example, "Please see the drawing on the lower left". In this case, the sound of the presenter is output from the speaker S1 of the viewer terminal 10. In the example shown in FIG. 6, the determination unit 17 detects the words "lower left" and "drawing" based on the statement that the presenter guides to see the lower left screen, and can determine that the trigger has occurred. In this case, the determination unit 17 sets the target area AR3 in the area corresponding to the “lower left” and “drawing” based on the detected keyword. In the example shown in FIG. 6, drawings F1, F2, and F3 are shown. Of these, drawing F1 is arranged at the upper left of page 12d. The drawing F2 is arranged in the center of page 12d (slightly from the right). The drawing F3 is arranged at the lower left of page 12d. In addition, sentences are displayed in the upper right and lower right of page 12d. Therefore, the determination unit 17 can set the target area AR3 in the area including the lower left drawing F3.

所定のキーワードが検出されるタイミングの他の例として、発表者がマイクM2を介して「画面を共有します」という旨の発言を行う場合が挙げられる。画面が共有される場合、画面共有領域が表示部12に表示される。したがって、発表者の「画面を共有します」の発言により、視聴者が画面共有領域を見ているかどうかを検出することで、視聴者の集中の度合いを求めることができる。 Another example of the timing at which a predetermined keyword is detected is the case where the presenter makes a statement to the effect that "the screen is shared" via the microphone M2. When the screen is shared, the screen sharing area is displayed on the display unit 12. Therefore, the degree of concentration of the viewer can be obtained by detecting whether or not the viewer is viewing the screen sharing area by the presenter's remark "Share the screen".

具体的には、発表者が画面を共有する旨を示すキーワードを、予め記憶部14に記憶させておく。このようなキーワードとしては、例えば画面、共有等のワードが挙げられる。判定部17は、発表者の発言内容と記憶部14に記憶されたキーワードとを対比して、一致するワードを検出した場合に、トリガーが発生したと判定することができる。 Specifically, a keyword indicating that the presenter shares the screen is stored in the storage unit 14 in advance. Examples of such keywords include words such as screen and sharing. The determination unit 17 can determine that the trigger has occurred when the presenter's remark content and the keyword stored in the storage unit 14 are compared and a matching word is detected.

図7は、所定のキーワードが検出されるタイミングの他の例を示す図である。図7の上側に示すように、画面が共有されていない場合、視聴者の表示部12には、例えば発表者を示す画面12eと、他の視聴者を示す画面12fとが並んだ状態で表示される。この状態から、発表者が画面を共有する旨の発言を行ったとする。 FIG. 7 is a diagram showing another example of the timing at which a predetermined keyword is detected. As shown in the upper part of FIG. 7, when the screen is not shared, for example, the screen 12e indicating the presenter and the screen 12f indicating another viewer are displayed side by side on the display unit 12 of the viewer. Will be done. From this state, it is assumed that the presenter makes a statement to share the screen.

この場合、発表者の音声は、視聴者端末10のスピーカS1から出力される。発表者の「画面を共有します」という発言から、判定部17は、「画面」「共有」というワードを検出し、トリガーが発生したと判定できる。発表者によって画面を共有する旨の操作が行われた場合、図7の下側に示すように、発表者の画面が拡大され、画面共有領域12mが表示される。判定部17は、検出したキーワードに基づいて、画面共有領域12mに目標領域AR4を設定することができる。図7に示す例では、画面共有領域12mにページ12gが示されている。判定部17は、画面共有領域12mに表示されるページ12g内に目標領域AR4を設定することができる。 In this case, the sound of the presenter is output from the speaker S1 of the viewer terminal 10. From the presenter's remark "Share the screen", the determination unit 17 can detect the words "screen" and "share" and determine that the trigger has occurred. When the presenter performs an operation to share the screen, the presenter's screen is enlarged and the screen sharing area 12 m is displayed as shown in the lower part of FIG. 7. The determination unit 17 can set the target area AR4 in the screen sharing area 12m based on the detected keyword. In the example shown in FIG. 7, the page 12g is shown in the screen sharing area 12m. The determination unit 17 can set the target area AR4 in the page 12g displayed in the screen sharing area 12m.

また、図7の上側に示すように表示部12において発表者を示す画面12eと他の視聴者を示す画面12fとが並んだ状態から、図7の下側に示すように発表者を示す画面12eを画面共有領域12mに移動させる場合、上記のキーワードをトリガーとする態様に限定されない。例えば、発表者を示す画面12eが画面共有領域12mに移動したことをトリガーとしてもよい。この場合、判定部17は、画面共有領域12mの全体又は一部に目標領域を設定することができる。なお、この構成では、例えば視聴者端末10が、ステレオスピーカー又はステレオヘッドフォンと、音場定位が可能な処理部とを有する構成とすることができる。この場合、視聴者端末10の表示部12上のうち発表者を示す画面12e(移動後は画面共有領域12m)の位置から発表者の音声が聞こえるようにすることで、視聴者の視線誘導を活発化させることができる。このように、表示部12の一部に画面12e等の対象物が表示された状態から、当該対象物が表示部12の他の場所に移動した場合、判定部17は、この対象物の移動をトリガーとすることができる。この場合、判定部17は、移動先の対象物に対応する領域に目標領域を設定することができる。対象物は、発表者を示す画面12eに限定されず、他の表示物(任意の画像)であってもよい。 Further, from the state where the screen 12e indicating the presenter and the screen 12f indicating other viewers are arranged side by side on the display unit 12 as shown on the upper side of FIG. 7, the screen showing the presenter is shown on the lower side of FIG. When moving 12e to the screen sharing area 12m, the mode is not limited to the above-mentioned keyword as a trigger. For example, the trigger may be that the screen 12e indicating the presenter has moved to the screen sharing area 12m. In this case, the determination unit 17 can set the target area in the whole or a part of the screen sharing area 12m. In this configuration, for example, the viewer terminal 10 can have a stereo speaker or a stereo headphone and a processing unit capable of sound field localization. In this case, the viewer's line of sight is guided by allowing the presenter's voice to be heard from the position of the screen 12e (screen sharing area 12 m after movement) indicating the presenter on the display unit 12 of the viewer terminal 10. It can be activated. In this way, when an object such as the screen 12e is displayed on a part of the display unit 12 and the object moves to another place of the display unit 12, the determination unit 17 moves the object. Can be a trigger. In this case, the determination unit 17 can set the target area in the area corresponding to the object to be moved. The object is not limited to the screen 12e showing the presenter, and may be another display object (arbitrary image).

例えば、図4の下側において、「資料2」を示すページ12bに切り替わる場合、発表者の画像を「資料2」の左上付近(図4の目標領域AR1の近く)に表示する。同時に、発表者の画像とページ12bの上部を含む領域を目標領域AR1に設定する。このとき、発表者の画像のみを目標領域AR1に設定してもよい。また、発表者の画像ではなく任意の画像を表示し、その画像を含む領域を目標領域AR1に設定してもよい。 For example, when switching to page 12b indicating "Material 2" on the lower side of FIG. 4, the image of the presenter is displayed near the upper left of "Material 2" (near the target area AR1 in FIG. 4). At the same time, the area including the image of the presenter and the upper part of the page 12b is set as the target area AR1. At this time, only the image of the presenter may be set in the target area AR1. Further, an arbitrary image may be displayed instead of the image of the presenter, and the area including the image may be set as the target area AR1.

また、例えば、図5の上側において、ポインタ12pの近くに発表者の画像を表示すると共に、ポインタ12pと発表者の画像を含む領域を目標領域AR2に設定する。この状態から、図5の下側において、ポインタ12pが下へ移動するにつれて発表者の画像も移動すると共に、ポインタ12pと発表者の画像を含む領域を目標領域AR2に設定するようにしてもよい。このとき、ポインタ12pが下へ移動するのと、発表者の画像が下へ移動するのは同時でなくてもよい。あるいは、ポインタ12pは表示せず、発表者の画像のみを表示するようにして、発表者の画像を含む領域を目標領域AR2に設定してもよい。また、発表者の画像ではなく任意の画像を表示し、その画像を含む領域を目標領域AR2に設定してもよい。さらに、ポインタ12p、発表者の画像、任意の画像のいずれかの移動をもって、トリガーとしてもよい。 Further, for example, on the upper side of FIG. 5, the image of the presenter is displayed near the pointer 12p, and the area including the pointer 12p and the image of the presenter is set in the target area AR2. From this state, on the lower side of FIG. 5, the image of the presenter may move as the pointer 12p moves downward, and the area including the pointer 12p and the image of the presenter may be set in the target area AR2. .. At this time, the pointer 12p does not have to move downward and the presenter's image does not have to move downward at the same time. Alternatively, the pointer 12p may not be displayed and only the image of the presenter may be displayed, and the area including the image of the presenter may be set in the target area AR2. Further, an arbitrary image may be displayed instead of the image of the presenter, and the area including the image may be set in the target area AR2. Further, the movement of the pointer 12p, the image of the presenter, or any image may be used as a trigger.

上記した例の他、トリガーの発生として、例えばスピーカS1等の音声出力部から他の視聴者又は発表者の音声が出力されなくなってから一定期間が経過したタイミングとすることができる。音声が出力されなくなってから一定期間が経過した場合、集中している視聴者は、例えば視聴者端末10に異常が生じたか否かを確認する操作を行おうとする場合がある。この場合、例えば表示部12に表示されるツールバー等を見ようとして、表示部12の上下左右の辺側に視線を移動させる。したがって、判定部17は、スピーカS1等の音声出力部から他の視聴者又は発表者の音声が出力されなくなってから一定期間が経過した場合に、トリガーが発生したと判定することができる。この場合、判定部17は、例えば表示部12の上下左右の辺に沿った領域に目標領域を設定することができる。 In addition to the above example, the trigger can be generated at a timing when a certain period of time has elapsed since the audio of another viewer or presenter is no longer output from the audio output unit such as the speaker S1. When a certain period of time has passed since the sound is no longer output, the concentrated viewer may try to perform an operation for confirming whether or not an abnormality has occurred in the viewer terminal 10, for example. In this case, for example, the line of sight is moved to the up, down, left, and right sides of the display unit 12 in order to see the toolbar or the like displayed on the display unit 12. Therefore, the determination unit 17 can determine that the trigger has occurred when a certain period of time has elapsed after the audio of another viewer or presenter is no longer output from the audio output unit such as the speaker S1. In this case, the determination unit 17 can set a target area in an area along the top, bottom, left, and right sides of the display unit 12, for example.

判定部17により目標領域が設定された場合、視線情報取得部16は、視聴者の視線情報を取得する。判定部17は、視聴者の視線が目標領域に合致するか否かを判定する。集中度算出部18は、視聴者ごとの特性と、判定結果とに基づいて、集中度を算出することができる。集中度算出部18は、例えば集中度が、低い(0)及び高い(1)の2段階、又は集中度が、低い(0)、やや低い(1)、普通(2)、やや高い(3)、高い(4)等の段階の値として、集中度を算出することができる。 When the target area is set by the determination unit 17, the line-of-sight information acquisition unit 16 acquires the line-of-sight information of the viewer. The determination unit 17 determines whether or not the line of sight of the viewer matches the target area. The concentration ratio calculation unit 18 can calculate the concentration ratio based on the characteristics of each viewer and the determination result. The concentration calculation unit 18 has, for example, two stages of low (0) and high (1), or low (0), slightly low (1), normal (2), and slightly high (3). ), High (4), etc., the degree of concentration can be calculated.

通信制御部19は、参照情報及び集中度の情報を、例えばリアルタイムで通信部13から発表者端末20に送信させる。 The communication control unit 19 causes the communication unit 13 to transmit the reference information and the concentration level information from the communication unit 13 to the presenter terminal 20 in real time, for example.

発表者端末20において、通信部23は、視聴者端末10から送信された上記各情報を受信する。集中度取得部26は、それぞれの視聴者端末10から送信され、通信部23で受信された集中度を取得する。集中度取得部26は、取得した集中度を視聴者と対応付けて記憶部24に記憶させる。図8は、記憶部24に記憶される集中度の一例を模式的に示す図である。図8に示すように、記憶部24には、例えば視聴者1~視聴者5と、判定結果1~判定結果5と、視聴者ごとの特性1~特性5と、集中度(やや低い、普通、やや高い、高い、やや高い)とが対応して記憶される。 In the presenter terminal 20, the communication unit 23 receives the above-mentioned information transmitted from the viewer terminal 10. The concentration level acquisition unit 26 acquires the concentration level transmitted from each viewer terminal 10 and received by the communication unit 23. The concentration level acquisition unit 26 stores the acquired concentration level in the storage unit 24 in association with the viewer. FIG. 8 is a diagram schematically showing an example of the degree of concentration stored in the storage unit 24. As shown in FIG. 8, in the storage unit 24, for example, viewers 1 to 5, determination results 1 to determination results 5, characteristics 1 to characteristics 5 for each viewer, and a degree of concentration (slightly low, normal). , Slightly high, high, slightly high) are memorized correspondingly.

表示制御部27は、取得した集中度を表示部22に表示する。図9は、表示部22に表示される集中度の一例を示す図である。図9に示すように、表示制御部27は、発表者の発表内容をカメラC2で撮影した映像を表示する発表者表示画面22aと、視聴者の様子をカメラC1で撮影した映像を表示する視聴者表示画面22bとを表示部22に表示する。表示制御部27は、記憶部24に記憶された集中度を、例えば視聴者表示画面22bに重畳して表示することができる。この場合、表示制御部27は、集中度の大きさを示す数値、アイコン、インジケータ等の各種の表示態様により集中度を表示することができる。図9では、顔のアイコン22cが集中度として表示されている。この例では、アイコン22cの表情について、表情に笑顔の度合いが強く含まれるほど集中度が高く、怒った顔の度合いが強く含まれるほど集中度が低いことを示している。なお、集中度の表示例としては、これに限定されず、数値又はインジケータ等の他の表示態様であってもよい。 The display control unit 27 displays the acquired concentration ratio on the display unit 22. FIG. 9 is a diagram showing an example of the degree of concentration displayed on the display unit 22. As shown in FIG. 9, the display control unit 27 displays the presenter display screen 22a that displays the image of the presenter's presentation taken by the camera C2, and the viewing that displays the image of the viewer taken by the camera C1. The person display screen 22b is displayed on the display unit 22. The display control unit 27 can display the concentration level stored in the storage unit 24, for example, by superimposing it on the viewer display screen 22b. In this case, the display control unit 27 can display the concentration degree by various display modes such as a numerical value indicating the magnitude of the concentration degree, an icon, and an indicator. In FIG. 9, the face icon 22c is displayed as the degree of concentration. In this example, regarding the facial expression of the icon 22c, the stronger the degree of smile is included in the facial expression, the higher the concentration is, and the stronger the degree of angry face is, the lower the concentration is. The display example of the degree of concentration is not limited to this, and may be another display mode such as a numerical value or an indicator.

発表者は、表示部22に表示される集中度を見て、集中度が向上するように発表の内容や発表の仕方等に反映させることができる。
図10は、本実施形態に係るウェブ会議システム100の動作の流れの一例を示すフローチャートである。図10では、視聴者端末10での処理と、発表者端末20での処理とを分けた状態でフローチャートを記載している。発表者が発表者端末20を用いて所定の内容を発表する場合、発表内容をカメラC2及びマイクM2で撮影及び録音により取得し、取得した発表内容を通信部23から視聴者端末10に送信する(ステップS101)。
視聴者端末10では、発表者端末20から送信された発表内容を受信して出力する(ステップS102)。視聴者は、出力された発表内容を視聴する。視聴者端末10において、集中度算出部18は、発表内容の出力が開始された場合、視聴者ごとの特性を算出するキャリブレーション処理を行う(ステップS103)。キャリブレーション処理の後、判定部17は、予め設定された所定のタイミング(トリガー)が発生したか否かを検出する(ステップS104)。判定部17は、トリガーを検出しない場合(ステップS104のNo)、ステップS104の処理を繰り返し行う。ステップS104においてトリガーを検出した場合(ステップS104のYes)、判定部17は、表示部12に目標領域を設定する(ステップS105)。目標領域が設定された場合、視線情報取得部16は、視聴者の視線情報を取得する(ステップS106)。判定部17は、視線情報に基づいて、視聴者の視線が目標領域に合致するか否かを判定する(ステップS107)。集中度算出部18は、当該判定結果と、視聴者ごとの特性とに基づいて、集中度を算出する(ステップS108)。通信制御部19は、算出された集中度を通信部13から発表者端末20に送信する(ステップS109)。
The presenter can see the degree of concentration displayed on the display unit 22 and reflect it in the content of the presentation, the method of presentation, and the like so as to improve the degree of concentration.
FIG. 10 is a flowchart showing an example of the operation flow of the web conferencing system 100 according to the present embodiment. In FIG. 10, a flowchart is described in a state where the processing on the viewer terminal 10 and the processing on the presenter terminal 20 are separated. When the presenter announces a predetermined content using the presenter terminal 20, the announcement content is acquired by shooting and recording with the camera C2 and the microphone M2, and the acquired announcement content is transmitted from the communication unit 23 to the viewer terminal 10. (Step S101).
The viewer terminal 10 receives and outputs the presentation content transmitted from the presenter terminal 20 (step S102). The viewer views the output content of the announcement. In the viewer terminal 10, the concentration ratio calculation unit 18 performs a calibration process for calculating the characteristics of each viewer when the output of the presentation content is started (step S103). After the calibration process, the determination unit 17 detects whether or not a predetermined predetermined timing (trigger) set in advance has occurred (step S104). When the determination unit 17 does not detect the trigger (No in step S104), the determination unit 17 repeats the process of step S104. When the trigger is detected in step S104 (Yes in step S104), the determination unit 17 sets the target area on the display unit 12 (step S105). When the target area is set, the line-of-sight information acquisition unit 16 acquires the line-of-sight information of the viewer (step S106). The determination unit 17 determines whether or not the viewer's line of sight matches the target region based on the line-of-sight information (step S107). The concentration degree calculation unit 18 calculates the concentration degree based on the determination result and the characteristics of each viewer (step S108). The communication control unit 19 transmits the calculated concentration ratio from the communication unit 13 to the presenter terminal 20 (step S109).

その後、視聴者端末10では、制御部15において、発表者の発表が終了したか否かの判定を行う(ステップS110)。発表者の発表が終了したと判定された場合(ステップS110のYes)、処理を終了する。また、発表者の発表が終了していないと判定された場合(ステップS110のNo)、ステップS106以降の処理を繰り返し行う。 After that, in the viewer terminal 10, the control unit 15 determines whether or not the presenter's presentation has been completed (step S110). When it is determined that the presenter's presentation is completed (Yes in step S110), the process is terminated. If it is determined that the presenter's presentation has not been completed (No in step S110), the processes after step S106 are repeated.

発表者端末20では、ステップS109で送信される集中度を通信部23において受信し、受信された集中度を集中度取得部26において取得する(ステップS111)。集中度取得部26は、取得した集中度を記憶部24に記憶させる。表示制御部27は、記憶部24に記憶された集中度を表示部22に表示する(ステップS112)。 In the presenter terminal 20, the concentration degree transmitted in step S109 is received by the communication unit 23, and the received concentration ratio is acquired by the concentration degree acquisition unit 26 (step S111). The concentration degree acquisition unit 26 stores the acquired concentration degree in the storage unit 24. The display control unit 27 displays the degree of concentration stored in the storage unit 24 on the display unit 22 (step S112).

その後、発表者端末20では、制御部25において、発表者の発表が終了したか否かの判定を行う(ステップS113)。発表者の発表が終了したと判定された場合(ステップS113のYes)、処理を終了する。また、発表者の発表が終了していないと判定された場合(ステップS113のNo)、ステップS111以降の処理を繰り返し行う。 After that, in the presenter terminal 20, the control unit 25 determines whether or not the presenter's presentation has been completed (step S113). When it is determined that the presenter's presentation is completed (Yes in step S113), the process is terminated. If it is determined that the presenter's presentation has not been completed (No in step S113), the processes after step S111 are repeated.

以上のように、本実施形態に係るウェブ会議システム100は、ネットワークNWを介して互いに情報を通信可能であり、視聴者端末10及び発表者端末20ごとに設けられ、ウェブ会議の内容を表示可能な表示部12と、視聴者の視線情報を取得する視線情報取得部16と、所定のタイミングで表示部12に目標領域を設定し、取得された視線情報に基づいて表示部12における視聴者の視線が目標領域に合致するか否かを判定する判定部17と、判定結果に基づいて視聴者の集中度を算出する集中度算出部18と、視聴者の集中度を表示部22に表示させる表示制御部27とを備える。 As described above, the web conferencing system 100 according to the present embodiment can communicate information with each other via the network NW, and is provided for each of the viewer terminal 10 and the presenter terminal 20 to display the contents of the web conferencing. A target area is set in the display unit 12 at a predetermined timing, the line-of-sight information acquisition unit 16 for acquiring the line-of-sight information of the viewer, and the viewer in the display unit 12 based on the acquired line-of-sight information. The determination unit 17 that determines whether or not the line of sight matches the target area, the concentration calculation unit 18 that calculates the concentration of the viewer based on the determination result, and the display unit 22 display the concentration of the viewer. A display control unit 27 is provided.

本実施形態によれば、ウェブ会議において、視聴者の視線が目標領域に合致するか否かに基づいて視聴者の集中度が算出され、算出された集中度が表示部22に表示されるため、発表者は表示部22を見ることで視聴者の集中度を把握することができる。したがって、発表者がウェブ会議の雰囲気を容易に把握することができる。この結果、例えば発表者が雰囲気に応じてウェブ会議を臨機応変に進行することが可能となる。このように、参加者が雰囲気に応じてウェブ会議に臨機応変に対応することが可能となる。 According to the present embodiment, in the web conference, the concentration of the viewer is calculated based on whether or not the line of sight of the viewer matches the target area, and the calculated concentration is displayed on the display unit 22. , The presenter can grasp the concentration degree of the viewer by looking at the display unit 22. Therefore, the presenter can easily grasp the atmosphere of the web conference. As a result, for example, the presenter can flexibly proceed with the web conference according to the atmosphere. In this way, the participants can respond flexibly to the web conference according to the atmosphere.

本実施形態に係るウェブ会議システム100において、表示部12は、所定の画像を表示可能であり、判定部17は、所定の画像が表示される位置に目標領域を設定する。この構成では、表示部12に表示される所定の画像を見ているか否かに基づいて視聴者の集中度を適切に求めることができる。 In the web conferencing system 100 according to the present embodiment, the display unit 12 can display a predetermined image, and the determination unit 17 sets a target area at a position where the predetermined image is displayed. In this configuration, the degree of concentration of the viewer can be appropriately obtained based on whether or not the predetermined image displayed on the display unit 12 is being viewed.

本実施形態に係るウェブ会議システム100において、所定のタイミングは、表示部12の表示が変化するタイミング、音声入力部により取得される参加者の音声から所定のキーワードが検出されるタイミング、及び音声出力部から参加者の音声が出力されなくなってから一定期間が経過したタイミングの少なくとも1つを含む。この構成では、視聴者の視線を判定開始するタイミングを設定することで、集中度を適切に求めることができる。 In the web conferencing system 100 according to the present embodiment, the predetermined timings are the timing when the display of the display unit 12 changes, the timing when the predetermined keyword is detected from the voice of the participant acquired by the voice input unit, and the voice output. Includes at least one of the timings when a certain period of time has passed since the participant's voice was no longer output from the department. In this configuration, the degree of concentration can be appropriately obtained by setting the timing at which the viewer's line of sight is determined.

本実施形態に係るウェブ会議システム100において、集中度算出部18は、参加者端末ごとの視線情報の特性を算出し、判定結果と特性とに基づいて、集中度を算出する。この構成では、視聴者の特性を反映させることで集中度を適切に算出できる。 In the web conferencing system 100 according to the present embodiment, the concentration calculation unit 18 calculates the characteristics of the line-of-sight information for each participant terminal, and calculates the concentration based on the determination result and the characteristics. In this configuration, the degree of concentration can be appropriately calculated by reflecting the characteristics of the viewer.

本実施形態に係るウェブ会議システム100において、集中度算出部18は、ウェブ会議の開始時に特性の算出を行う。この構成では、ウェブ会議の開始時に特性の算出を行うことで、以降のウェブ会議において特性が集中度に反映されることになる。 In the web conferencing system 100 according to the present embodiment, the concentration calculation unit 18 calculates the characteristics at the start of the web conferencing. In this configuration, by calculating the characteristics at the start of the web conference, the characteristics will be reflected in the concentration level in the subsequent web conferences.

本発明の技術範囲は上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。例えば、上記した実施形態では、参加者のうち視聴者の集中度を算出する場合を例に挙げて説明したが、これに限定されない。例えば、発表者の集中度を算出可能な構成であってもよい。この場合、発表者端末20の制御部25には、視線情報取得部16、判定部17及び集中度算出部18と同様の構成が設けられ、制御部25において発表者の集中度が算出される。表示制御部27は、算出された発表者の集中度を、例えば図9に示すように、発表者端末20の表示部22の発表者表示画面22aにアイコン22d等として表示することができる。なお、算出された発表者の集中度が視聴者端末10に送信され、視聴者端末10の表示部12に表示される構成であってもよい。 The technical scope of the present invention is not limited to the above-described embodiment, and changes can be made as appropriate without departing from the spirit of the present invention. For example, in the above-described embodiment, the case of calculating the concentration ratio of the viewers among the participants has been described as an example, but the present invention is not limited to this. For example, the configuration may be such that the concentration of presenters can be calculated. In this case, the control unit 25 of the presenter terminal 20 is provided with the same configuration as the line-of-sight information acquisition unit 16, the determination unit 17, and the concentration degree calculation unit 18, and the control unit 25 calculates the concentration degree of the presenter. .. The display control unit 27 can display the calculated concentration ratio of the presenters as an icon 22d or the like on the presenter display screen 22a of the display unit 22 of the presenter terminal 20, as shown in FIG. 9, for example. The calculated concentration ratio of the presenters may be transmitted to the viewer terminal 10 and displayed on the display unit 12 of the viewer terminal 10.

また、上記実施形態では、視聴者の集中度が発表者端末20の表示部22に表示される場合を例に挙げて説明したが、これに限定されない。例えば、視聴者の集中度が視聴者端末10の表示部12に表示される構成であってもよい。この構成により、視聴者が自身の集中度を把握しながら発表者の発表内容を視聴することができる。 Further, in the above embodiment, the case where the concentration level of the viewer is displayed on the display unit 22 of the presenter terminal 20 has been described as an example, but the present invention is not limited to this. For example, the degree of concentration of the viewer may be displayed on the display unit 12 of the viewer terminal 10. With this configuration, the viewer can watch the presentation contents of the presenter while grasping his / her concentration level.

また、上記実施形態では、視線情報取得部16、判定部17及び集中度算出部18が視聴者端末10に設けられる構成を例に挙げて説明したが、これに限定されない。例えば、ウェブ会議システム100が、視聴者端末10及び発表者端末20に加えて、ネットワークNWを介して視聴者端末10及び発表者端末20と通信可能な不図示のサーバ装置を備える構成である場合、当該サーバ装置に判定部17及び集中度算出部18の少なくとも一方が設けられる構成であってもよい。この場合、視聴者端末10及び発表者端末20では、サーバ装置で判定された判定結果を通信部13、23が受信し、受信した判定結果に基づいて集中度を算出することができる。また、視聴者端末10及び発表者端末20では、サーバ装置で算出された集中度を受信し、受信した集中度を表示部12、22に表示することができる。 Further, in the above embodiment, the configuration in which the line-of-sight information acquisition unit 16, the determination unit 17, and the concentration ratio calculation unit 18 are provided in the viewer terminal 10 has been described as an example, but the present invention is not limited thereto. For example, when the web conferencing system 100 is configured to include, in addition to the viewer terminal 10 and the presenter terminal 20, a server device (not shown) capable of communicating with the viewer terminal 10 and the presenter terminal 20 via the network NW. The server device may be provided with at least one of a determination unit 17 and a concentration calculation unit 18. In this case, in the viewer terminal 10 and the presenter terminal 20, the communication units 13 and 23 receive the determination result determined by the server device, and the concentration ratio can be calculated based on the received determination result. Further, the viewer terminal 10 and the presenter terminal 20 can receive the concentration degree calculated by the server device and display the received concentration degree on the display units 12 and 22.

また、上記実施形態では、集中度算出部18がスコアの累積結果に基づいて集中度を算出する構成を例に挙げて説明したが、これに限定されない。集中度算出部18は、例えば端末(視聴者端末10、参加者端末20)の使用期間(例えば、視聴期間、発表期間)のうちの一部におけるスコアを算出し、当該スコアに基づいて集中度を算出してもよい。 Further, in the above embodiment, the configuration in which the concentration degree calculation unit 18 calculates the concentration degree based on the cumulative result of the score has been described as an example, but the present invention is not limited to this. The concentration calculation unit 18 calculates a score in a part of the usage period (for example, viewing period, presentation period) of the terminal (viewer terminal 10, participant terminal 20), and the concentration ratio is based on the score. May be calculated.

C1,C2…カメラ、M1,M2…マイク、S1…スピーカ、T1,T2…ターゲット、AR,AR1,AR2,AR3,AR4…目標領域、NW…ネットワーク、1,5…視聴者,特性、10…視聴者端末、11,21…入力部、12,22…表示部、12a,12b,12c,12d,12g…ページ、12e,12f…画面、12m…画面共有領域、12p…ポインタ、13,23…通信部、14,24…記憶部、15,25…制御部、16…視線情報取得部、17,34…判定部、18…集中度算出部、19,28…通信制御部、20…発表者端末、22a…発表者表示画面、22b…視聴者表示画面、22c,22d…アイコン、26…集中度取得部、27…表示制御部、100…ウェブ会議システム C1, C2 ... camera, M1, M2 ... microphone, S1 ... speaker, T1, T2 ... target, AR, AR1, AR2, AR3, AR4 ... target area, NW ... network, 1,5 ... viewer, characteristics, 10 ... Viewer terminal 11,21 ... Input unit, 12,22 ... Display unit, 12a, 12b, 12c, 12d, 12g ... Page, 12e, 12f ... Screen, 12m ... Screen sharing area, 12p ... Pointer, 13,23 ... Communication unit, 14, 24 ... Storage unit, 15, 25 ... Control unit, 16 ... Line-of-sight information acquisition unit, 17, 34 ... Judgment unit, 18 ... Concentration calculation unit, 19, 28 ... Communication control unit, 20 ... Presenter Terminal, 22a ... Presenter display screen, 22b ... Viewer display screen, 22c, 22d ... Icon, 26 ... Concentration acquisition unit, 27 ... Display control unit, 100 ... Web conferencing system

Claims (5)

ネットワークを介して互いに情報を通信可能であり、ウェブ会議に参加する参加者が使用する複数の参加者端末を備え、
前記参加者端末ごとに設けられ、前記ウェブ会議の内容を表示可能な表示部と、
前記参加者の視線情報を取得する視線情報取得部と、
所定のタイミングで前記表示部に目標領域を設定し、取得された前記視線情報に基づいて前記表示部における前記参加者の視線が前記目標領域に合致するか否かを判定する判定部と、
判定結果に基づいて前記参加者の集中度を算出する集中度算出部と、
前記参加者の前記集中度を少なくとも1つの前記表示部に表示させる表示制御部と
を備えるウェブ会議システム。
It is capable of communicating information with each other over a network and has multiple participant terminals used by participants attending a web conference.
A display unit provided for each participant terminal and capable of displaying the contents of the web conference,
The line-of-sight information acquisition unit that acquires the line-of-sight information of the participants,
A determination unit that sets a target area on the display unit at a predetermined timing and determines whether or not the line of sight of the participant in the display unit matches the target area based on the acquired line-of-sight information.
The concentration calculation unit that calculates the concentration of the participants based on the judgment result,
A web conferencing system including a display control unit that displays the concentration level of the participants on at least one display unit.
前記表示部は、所定の画像を表示可能であり、
前記判定部は、前記所定の画像が表示される位置に前記目標領域を設定する
請求項1に記載のウェブ会議システム。
The display unit can display a predetermined image and can display a predetermined image.
The web conferencing system according to claim 1, wherein the determination unit sets the target area at a position where the predetermined image is displayed.
前記所定のタイミングは、前記表示部の表示が変化するタイミング、音声入力部により取得される前記参加者の音声から所定のキーワードが検出されるタイミング、及び音声出力部から前記参加者の音声が出力されなくなってから一定期間が経過したタイミングの少なくとも1つを含む
請求項1又は請求項2に記載のウェブ会議システム。
The predetermined timing is the timing at which the display of the display unit changes, the timing at which the predetermined keyword is detected from the voice of the participant acquired by the voice input unit, and the voice of the participant is output from the voice output unit. The web conferencing system according to claim 1 or 2, which includes at least one of the timings at which a certain period of time has elapsed since the computer is no longer used.
前記集中度算出部は、前記参加者端末ごとの前記視線情報の特性を算出し、前記判定結果と前記特性とに基づいて、前記集中度を算出する
請求項1から請求項3のいずれか一項に記載のウェブ会議ステム。
The concentration calculation unit calculates the characteristics of the line-of-sight information for each participant terminal, and calculates the concentration based on the determination result and the characteristics. Any one of claims 1 to 3. Web conferencing system described in section.
前記集中度算出部は、前記ウェブ会議の開始時に前記特性の算出を行う
請求項4に記載のウェブ会議システム。
The web conferencing system according to claim 4, wherein the concentration calculation unit calculates the characteristics at the start of the web conferencing.
JP2020212442A 2020-12-15 2020-12-22 Web conference system Pending JP2022098825A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020212442A JP2022098825A (en) 2020-12-22 2020-12-22 Web conference system
PCT/JP2021/045706 WO2022131178A1 (en) 2020-12-15 2021-12-10 Web conferencing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020212442A JP2022098825A (en) 2020-12-22 2020-12-22 Web conference system

Publications (1)

Publication Number Publication Date
JP2022098825A true JP2022098825A (en) 2022-07-04

Family

ID=82261778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020212442A Pending JP2022098825A (en) 2020-12-15 2020-12-22 Web conference system

Country Status (1)

Country Link
JP (1) JP2022098825A (en)

Similar Documents

Publication Publication Date Title
EP3047356B1 (en) Configuration of a touch screen display for conferencing
JP6798484B2 (en) Information processing systems, control methods, and programs
EP3937154A1 (en) Method for video interaction and electronic device
CN109407822B (en) Nausea and video streaming prevention techniques for collaborative virtual reality
US12015874B2 (en) System and methods to determine readiness in video collaboration
US20220224735A1 (en) Information processing apparatus, non-transitory computer readable medium storing program, and method
CN111601064B (en) Information interaction method and information interaction device
JP2014225801A (en) Conference system, conference method and program
US11836282B2 (en) Method and device for surfacing physical environment interactions during simulated reality sessions
US20170279898A1 (en) Method for Accessing Virtual Desktop and Mobile Terminal
US20220232191A1 (en) Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method
KR20190121758A (en) Information processing apparatus, information processing method, and program
US20170208022A1 (en) Chat system
WO2018061173A1 (en) Tv conference system, tv conference method, and program
KR20170124758A (en) Method for providing conference service and apparatus thereof
US20230093298A1 (en) Voice conference apparatus, voice conference system and voice conference method
JP2022098825A (en) Web conference system
WO2022131178A1 (en) Web conferencing system
WO2015079865A1 (en) Input device, communication information identification method, processing device, display device, program, and recording medium
US20240171418A1 (en) Information processing device and information processing method
JP7152453B2 (en) Information processing device, information processing method, information processing program, and information processing system
JP7257986B2 (en) Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method
JP2021121913A (en) Information processing device and information processing method
JP2022094736A (en) Web conference system
JP7150114B1 (en) COMMUNICATION SUPPORT SYSTEM, COMMUNICATION SUPPORT METHOD, AND COMMUNICATION SUPPORT PROGRAM