JP2022018733A - 提供プログラム、提供方法、および提供装置 - Google Patents

提供プログラム、提供方法、および提供装置 Download PDF

Info

Publication number
JP2022018733A
JP2022018733A JP2020122063A JP2020122063A JP2022018733A JP 2022018733 A JP2022018733 A JP 2022018733A JP 2020122063 A JP2020122063 A JP 2020122063A JP 2020122063 A JP2020122063 A JP 2020122063A JP 2022018733 A JP2022018733 A JP 2022018733A
Authority
JP
Japan
Prior art keywords
participant
information
avatar
reaction
presenter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020122063A
Other languages
English (en)
Inventor
信裕 木村
Nobuhiro Kimura
克拓 佐々木
Katsuhiro Sasaki
祐通 今谷
Sukemichi Imatani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2020122063A priority Critical patent/JP2022018733A/ja
Publication of JP2022018733A publication Critical patent/JP2022018733A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】ウェブ発表の発表者に対して参加者の反応を容易に把握させることができる技術を提供することを目的とする。【解決手段】本願に係る提供プログラムは、検知情報に基づいて、ウェブ発表に参加する参加者の状態を特定する特定手順と、前記特定手順によって特定された前記参加者の状態に応じた情報であって、当該参加者の前記ウェブ発表に対する反応を示す反応情報を前記ウェブ発表の発表者に提供する提供手順とをコンピュータに実行させることを特徴とする。【選択図】図1

Description

本発明は、提供プログラム、提供方法、および提供装置に関する。
近年、インターネット環境の発展に伴い、また、ソーシャルディスタンスを確保する観点から、対面形式での発表に代えて、ウェブ会議システムなどのコミュニケーションツールを利用したウェブ上での発表(ウェブ発表)が盛んに行われている。
特開2020-009164号公報
しかしながら、上述した従来技術において、ウェブ発表の発表者は、対面形式での発表と比べて、発表に対する参加者の反応が把握しにくい場合がある。
本願は、上記に鑑みてなされたものであって、ウェブ発表の発表者に対して参加者の反応を容易に把握させることができる技術を提供することを目的とする。
本願に係る提供プログラムは、検知情報に基づいて、ウェブ発表に参加する参加者の状態を特定する特定手順と、前記特定手順によって特定された前記参加者の状態に応じた情報であって、当該参加者の前記ウェブ発表に対する反応を示す反応情報を前記ウェブ発表の発表者に提供する提供手順とをコンピュータに実行させることを特徴とする。
実施形態の一態様によれば、ウェブ発表の発表者に対して参加者の反応を容易に把握させることができる。
図1は、実施形態に係る提供処理の説明図である。 図2は、実施形態に係る提供システムの構成例を示す図である。 図3は、実施形態に係る参加者端末の機能構成の一例を示す図である。 図4は、実施形態に係る提供サーバの機能構成の一例を示す図である。 図5は、参加者情報の一例を示す図である。 図6は、発表者情報の一例を示す図である。 図7は、実施形態に係る発表者端末の機能構成の一例を示す図である。 図8は、実施形態に係るウェブ会議システムによる情報処理の一例を示すシーケンス図である。 図9は、実施形態に係る提供システムによる情報処理の一例を示すシーケンス図である。 図10は、ハードウェア構成の一例を示す図である。
以下に、本願に係る提供プログラム、提供方法、および提供装置を実施するための形態(以下、「実施形態」と記載する)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る提供プログラム、提供方法、および提供装置が限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
〔1.提供処理の一例〕
まず、図1を参照して、実施形態に係る提供処理の一例について説明する。図1は、実施形態に係る提供処理の説明図である。
以下の説明では、実施形態に係る提供処理の一例として、参加者端末101~103と発表者端末200と提供サーバ300とが協働して行う提供処理について説明する。実施形態において提供サーバ300は、実施形態に係る提供プログラムを実行し、参加者端末101~103および発表者端末200と協働することで、実施形態に係る提供処理を行う。
図1に示すように、実施形態に係る提供システム1は、参加者端末101~103と、発表者端末200と、提供サーバ300とを含む。
参加者端末101~103および発表者端末200は、例えば、デスクトップPC(Personal Computer)やノートPC等の情報処理装置であり、ネットワークを介して提供サーバ300およびその他の情報処理装置との間でデータ通信を行うことができる。なお、参加者端末101~103および発表者端末200は、スマートフォンやタブレット等の携帯端末装置であってもよい。
また、参加者端末101~103および発表者端末200は、ネットワークを介してウェブ会議サーバ(図示は、省略)に接続されており、ウェブ会議サーバとともにウェブ会議システムを構成している。発表者端末200は、このウェブ会議システムを利用して発表(以下、「ウェブ発表」と記載する)を行う発表者Pの端末装置であり、参加者端末101~103は、ウェブ発表に参加している参加者U1~U3の端末装置である。
ウェブ会議システムは、例えば、発表者端末200の表示画面、具体的には、発表用データが表示された画面(以下、「発表画面D」と記載する)をネットワーク経由で参加者端末101~103に配信する機能を有する。また、ウェブ会議システムは、参加者端末101~103および発表者端末200に対し、参加者U1~U3および発表者Pの顔画像や音声をネットワーク経由で配信する機能を有する。
かかるウェブ会議システムにより、参加者U1~U3は、発表画面Dを発表者Pと共有しつつ、発表者Pの発表を聞いたり発表内容について発表者Pと話し合ったりすることができる。
一方、ウェブ発表における発表者Pは、従来の対面形式での発表と比べて、参加者U1~U3の反応が把握しにくい場合がある。
例えば、ウェブ発表においては、発表画面Dが全画面表示される場合がある。この場合、発表者Pは、参加者U1~U3の表情や動きを確認することができない。また、発表画面Dとは別の領域に参加者U1~U3の顔画像が表示される場合もあるが、発表中に表示される顔画像は小さいことが多いため、発表者Pは、参加者U1~U3の表情や動きを確認することが難しい。このように、ウェブ発表の発表者Pは、参加者U1~U3の反応を把握しつつ発表を行うことが難しい。
そこで、実施形態に係る提供システム1では、参加者U1~U3の反応を示す反応情報を発表者Pに提供することとした。
まず、参加者端末101~103が、カメラやマイクなどの検知部から検知情報を取得する。検知部は、参加者端末101~103に内蔵されたもの(内蔵カメラ、内蔵マイク)であってもよいし、参加者端末101~103に外部接続されたものであってもよい。
例えば検知部がカメラである場合、参加者端末101~103は、検知情報として動画像や静止画像などの画像情報を取得する。また、検知部がマイクである場合、参加者端末101~103は、検知情報として音声情報を取得する。
つづいて、参加者端末101~103は、取得した検知情報に基づいて、参加者U1~U3の状態を特定する。
参加者U1~U3の状態の特定は、機械学習により行われる。参加者端末101~103が行う機械学習は、例えばディープニューラルネットワークを利用したディープラーニング(深層学習)等でもよい。また、参加者端末101~103は、データマイニングやその他の機械学習アルゴリズムを利用してもよい。
参加者U1~U3の状態の特定に用いられる学習モデルは、後述する提供サーバ300に予め記憶されている。参加者端末101~103は、例えばウェブ発表の開始前に提供サーバ300にアクセスして、提供サーバ300から学習モデルを予め取得(ダウンロード)しておく。これにより、参加者端末101~103は、参加者U1~U3の状態の特定を自装置にて行うことが可能となる。
参加者U1~U3の状態としては、例えば、参加者U1~U3の表情および動作が挙げられる。参加者U1~U3の表情および動作は、例えば、画像情報に基づいて特定することができる。
また、参加者U1~U3の表情および動作は、音声情報に基づいて特定されてもよい。例えば、参加者端末101~103は、手をたたく音が検知情報として入力された場合に、参加者U1~U3が拍手していると特定してもよい。
例えば、図1に示す例において、参加者端末101は、参加者U1を撮像した撮像画像に基づいて、参加者U1の表情として「笑顔」を特定する。また、参加者端末102は、参加者U2を撮像した撮像画像に基づいて、参加者U2の表情として「大笑い」を特定するとともに、動作として「いいね!ポーズ(親指を立てるポーズ)」を特定する。また、参加者端末103は、参加者U3の音声情報に基づいて、参加者U3の動作として「拍手」を特定する。
つづいて、参加者端末101~103は、特定した参加者U1~U3の状態を示す状態情報をネットワーク経由で提供サーバ300に送信する。
提供サーバ300は、サーバやクラウドシステム等により実現される。提供サーバ300を使用する事業者は、必ずしもウェブ会議システムを提供する事業者と同一であることを要しない。
提供サーバ300は、参加者端末101~103から参加者U1~U3の状態を取得する。そして、提供サーバ300は、特定された参加者U1~U3の状態に応じた情報であって、参加者U1~U3のウェブ発表に対する反応を示す反応情報をネットワーク経由で発表者端末200に送信する。
反応情報は、例えば、参加者U1~U3の反応を模した図柄のアバターである。アバターは、参加者U1~U3の分身となるキャラクターであり、動画像(アニメーション)または静止画像により表現される。
提供サーバ300から発表者端末200への反応情報の送信は、リアルタイムで、すなわち、発表者Pがウェブ発表を行っているタイミング(言い換えれば、参加者U1~U3が発表者Pの発表を視聴しているタイミング)で行われる。
つづいて、発表者端末200は、提供サーバ300から取得した反応情報に基づき、参加者U1~U3のアバターA1~A3を発表画面Dに重畳して表示する。アバターA1~A3は、発表画面Dの手前に重畳される。
各アバターA1~A3は、対応する参加者U1~U3のウェブ発表に対する反応を模している。例えば、参加者端末101からの反応情報によって示される反応が「笑顔」である場合、発表者端末200は、笑っている状態を模した図柄のアバターA1を発表画面Dに重畳して表示する。
また、参加者端末102からの反応情報によって示される反応が「大笑い」および「いいね!ポーズ」である場合、発表者端末200は、大笑いしながらいいね!ポーズを取っている状態を模した図柄のアバターA2を発表画面Dに重畳して表示する。また、参加者端末103からの反応情報によって示される反応が「拍手」である場合、発表者端末200は、拍手している状態を模した図柄のアバターA3を発表画面Dに重畳して表示する。
このように、実施形態に係る提供システム1では、参加者端末101~103が、カメラやマイクなどの検知部によって取得された検知情報に基づいて、ウェブ発表に参加する参加者U1~U3の状態(表情および動きなど)を特定し、特定した状態を示す状態情報を提供サーバ300に送信する。また、実施形態に係る提供システム1では、提供サーバ300が、取得した状態情報に応じた情報であって、参加者U1~U3のウェブ発表に対する反応を示す反応情報を発表者端末200に送信する。
これにより、実施形態に係る提供システム1は、参加者U1~U3の反応が把握しにくいウェブ発表において、参加者U1~U3の反応を発表者Pに対して容易に把握させることができる。ひいては、参加者U1~U3および発表者P間のコミュニケーションを円滑化することができる。
参加者端末101~103は、参加者U1~U3の表情や動作だけでなく、例えば、性別、年齢、服装、人種といった身体的特徴をさらに特定してもよい。この場合、提供システム1は、参加者U1~U3の反応だけでなく身体的特徴を模したアバターA1~A3を発表者Pに提供することができる。例えば、発表者端末200は、参加者端末101によって特定された参加者U1の状態に基づき、ブラウスを着用した女性のアバターA1を表示させることができる。また、発表者端末200は、参加者端末102によって特定された参加者U2の状態に基づき、スーツを着用した男性のアバターA2を表示させることができる。
また、ここでは、反応情報としてアバターA1~A3を用いる場合の例を示したが、反応情報は、例えば、複数の状態情報に基づく統計情報であってもよい。統計情報は、例えば、所定期間(例えば直近の10秒間)における、ポジティブな反応の数、ネガティブな反応の数、ポジティブな反応とネガティブな反応との比率などである。このように、反応情報として統計情報を用いることで、例えばウェブ発表の参加者が多数存在する場合に、集団としての反応の傾向を発表者に容易に把握させることができる。
また、反応情報は、参加者U1~U3のウェブ発表に対する反応がポジティブおよびネガティブのいずれであるかを示す情報であってもよい。ポジティブな反応とは、参加者U1~U3がウェブ発表に対して良い(プラスの)印象を持っていることを示す反応であり、例えば笑顔や拍手などがポジティブな反応に該当する。また、ネガティブな反応とは、参加者U1~U3がウェブ発表に対して良くない(マイナスの)印象を持っていることを示す反応であり、例えば顰め面や首を傾げる動作などがネガティブな反応に該当する。
また、ここでは一例として、提供サーバ300が、参加者端末101~103によって取得された参加者U1~U3の状態をアバターA1~A3などの反応情報に変換して発表者端末200に送信することとした。これに限らず、例えば、参加者端末101~103が、特定した参加者U1~U3の状態(表情および動作など)を反応情報(ポジティブ反応、ネガティブ反応など)に変換して提供サーバ300に送信し、提供サーバ300が、参加者端末101~103から取得した反応情報を発表者端末200に送信してもよい。また、発表者端末200は、提供サーバ300経由で参加者端末101~103から参加者U1~U3の状態を取得し、取得した参加者U1~U3の状態をアバターA1~A3などの反応情報に変換してもよい。
〔2.提供システムの構成〕
図2は、実施形態に係る提供システム1の構成例を示す図である。なお、以下では、参加者端末101~103を総称して「参加者端末100」と記載する場合がある。また、以下では、参加者U1~U3を総称して「参加者U」と記載する場合がある。
図2に示すように、実施形態に係る提供システム1は、参加者端末100と、発表者端末200と、提供サーバ300とを含む。
参加者端末100、発表者端末200および提供サーバ300は、ネットワークNを介して有線または無線により通信可能に接続される。ネットワークNは、LAN(Local Area Network)、WAN(Wide Area Network)、電話網(携帯電話網、固定電話網等)、地域IP(Internet Protocol)網、インターネット等の通信ネットワークである。ネットワークNには、有線ネットワークが含まれていてもよいし、無線ネットワークが含まれていてもよい。
図2に示す提供システム1に含まれる参加者端末100、発表者端末200および提供サーバ300の台数は、図示の例に限定されない。
また、図2に示すように、参加者端末100および発表者端末200は、ネットワークNを介してウェブ会議サーバ400に接続される。参加者端末100、発表者端末200およびウェブ会議サーバ400は、ウェブ会議システム2の少なくとも一部を構成する。
〔3.参加者端末の構成〕
次に、図3を用いて、実施形態に係る参加者端末100の構成について説明する。図3は、実施形態に係る参加者端末100の機能構成の一例を示す図である。図3に示すように、参加者端末100は、通信部110と、表示部120と、操作部130と、音声出力部140と、撮像部150と、音声入力部160と、制御部170と、記憶部180とを有する。
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、提供サーバ300との間で情報の送受信を行う。
表示部120は、各種情報を表示するための表示装置である。例えば、表示部120は、液晶ディスプレイ等によって実現される。操作部130は、参加者Uから各種操作を受け付ける入力装置である。例えば、操作部130は、キーボードやマウスや操作キー等によって実現される。なお、参加者端末100にタッチパネルが採用される場合、表示部120と操作部130とは一体化される。音声出力部140は、スピーカやオーディオ用端子(ヘッドホン端子)等によって実現される。スピーカはワイヤレスであってもよい。
撮像部150および音声入力部160は、参加者Uの状態を検知するための検知部の一例に相当する。
撮像部150は、撮像素子を内蔵し、静止画像や動画像を撮像するデバイスである。撮像素子は、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)など何れでもよい。例えば、撮像部150は、レンズから取り込んだ映像を静止画像として写真撮影したり、動画撮影したりすることができる。撮像部150は、撮影した画像、具体的には、参加者を撮像した撮像画像を検知情報として制御部170に出力する。
音声入力部160は、周囲の音を取得するデバイスである。例えば、音声入力部160は、マイク等によって実現される。音声入力部160は、取得した音声、具体的には、参加者から発せられる音(声や手をたたく音など)を検知情報として制御部170に出力する。
制御部170は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、参加者端末100内部の記憶装置(図示は、省略)に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部170は、提供サーバ300内部の記憶装置(図示は、省略)に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現されてもよい。また、制御部170は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
例えば、制御部170は、CPUやMPU等によって、提供サーバ300内部の記憶装置に記憶されている各種プログラム(提供プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。例えば、この各種プログラムは、ウェブブラウザを利用するアプリケーションプログラム、いわゆるウェブアプリケーションに該当する。また、制御部170は、CPUやMPU等によって、ウェブ会議サーバ400内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。
図3に示すように、制御部170は、出力制御部171と、特定部172と、送信制御部173とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部170の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部170が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。
出力制御部171は、ウェブ会議サーバ400と連携して、ウェブ会議サーバ400から配信される発表画面Dを表示部120に表示させる。また、出力制御部171は、ウェブ会議サーバ400から配信される音声を音声出力部140から出力させる。これにより、参加者Uは、発表画面Dや音声を発表者Pと共有することができる。
特定部172は、撮像部150または音声入力部160から検知情報を取得した場合に、取得した検知情報に基づいて、ウェブ発表に参加する参加者Uの状態を特定する。
具体的には、特定部172は、参加者Uの状態として、参加者Uの表情および動作を特定する。また、特定部172は、参加者Uの状態として、身体的特徴、例えば性別、年齢、服装、人種等をさらに特定する。
参加者Uの状態の特定は、記憶部180に記憶された学習モデル335を用いた機械学習により行われる。すなわち、特定部172は、撮像部150によって撮像された参加者Uの画像または音声入力部160によって取得された参加者Uの音声を学習モデル335に入力することにより、「笑顔」や「いいね!ポーズ」といった参加者Uの状態を出力する。
送信制御部173は、特定部172によって特定された参加者Uの状態を示す状態情報を通信部110およびネットワークNを介して提供サーバ300へ送信する。
また、送信制御部173は、操作部130によって取得された参加者Uの操作情報に基づくアバター指定情報を通信部110およびネットワークNを介して提供サーバ300へ送信する。アバター指定情報は、参加者Uのアバターとして使用する図柄の指定または参加者Uのアバターとしての使用を禁止する図柄の指定を含む情報である。
例えば、表示部120には、身体的特徴を模した図柄として予め用意された複数の図柄が表示される。この処理は、例えば出力制御部171によって行われる。参加者Uは、表示部120に表示された複数の図柄から、操作部130を用いて、自身のアバターとして使用する図柄または自身のアバターとしての使用を禁止する図柄を指定する。送信制御部173は、この情報をアバター指定情報として提供サーバ300へ送信する。
また、送信制御部173は、ウェブ会議サーバ400と連携して、音声入力部160によって取得された音声を通信部110およびネットワークNを介してウェブ会議サーバ400に送信する。ウェブ会議サーバ400に送信された音声は、他の参加者Uの参加者端末100および発表者端末200間で共有される。
記憶部180は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部180は、学習モデル335を記憶する。
〔4.提供サーバの構成〕
次に、図4を用いて、実施形態に係る提供サーバ300の構成について説明する。図4は、実施形態に係る提供サーバ300の機能構成の一例を示す図である。図4に示すように、提供サーバ300は、通信部310と、制御部320と、記憶部330とを有する。
通信部310は、例えば、NIC等によって実現される。そして、通信部310は、ネットワークNと有線または無線で接続され、参加者端末100および発表者端末200との間で情報の送受信を行う。
制御部320は、例えば、CPUやMPU等によって、提供サーバ300内部の記憶装置(図示は、省略)に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部320は、例えば、ASICやFPGA等の集積回路により実現されてもよい。
例えば、制御部320は、CPUやMPU等によって、提供サーバ300内部の記憶装置に記憶されている各種プログラム(提供プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。
制御部320は、取得部321と、判定部322と、アバター決定部323と、統計処理部324と、提供部325とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部320の内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部320が有する各処理部の接続関係は、図4に示した接続関係に限られず、他の接続関係であってもよい。
取得部321は、参加者端末100および発表者端末200から各種情報を取得する。例えば、取得部321は、状態情報取得部326と、参加者側受付部327と、発表者側受付部328とを有する。
状態情報取得部326は、参加者端末100からネットワークNおよび通信部310を介して状態情報を取得する。また、状態情報取得部326は、取得した状態情報を記憶部330に記憶させる。
ここで、参加者情報331の一例について図5を参照して説明する。図5は、参加者情報331の一例を示す図である。
図5に示すように、参加者情報331は、「ユーザID(Identifier)」、「会議ID」、「表情」、「動作」、「反応」、「性別」、「年齢」、「服装」、「使用可能アバター」、「使用不可アバター」等の項目を有する。
「ユーザID」は、参加者Uを識別するための識別情報を示す。「会議ID」は、ユーザIDにより識別される参加者Uが参加しているウェブ会議を識別するための識別情報を示す。「表情」は、ユーザIDにより識別される参加者Uの表情を示す。「動作」は、ユーザIDにより識別される参加者Uの動作を示す。「性別」は、ユーザIDにより識別される参加者Uの性別を示す。「年齢」は、ユーザIDにより識別される参加者Uの年齢を示す。例えば、「年齢」は、20代などの年代で示されるものとするが、例えば25歳などの具体的な年齢であってもよい。「服装」は、ユーザIDにより識別される参加者Uの服装を示す。
参加者端末100から送信される状態情報には、例えば「ユーザID」、「会議ID」、「表情」、「動作」、「性別」、「年齢」および「服装」が含まれる。状態情報取得部326は、状態情報に含まれる「ユーザID」および「会議ID」と同一のユーザIDおよび会議IDに対応付けられた「表情」、「動作」、「性別」、「年齢」および「服装」の各項目に、状態情報に含まれる情報を格納する。なお、「性別」、「年齢」および「服装」の情報は、参加者Uによって予め登録された情報であってもよい。
「反応」は、ユーザIDによって識別される参加者Uのウェブ発表に対する反応がポジティブおよびネガティブの何れであるかを示す。「反応」の情報は、後述する判定部322によって記憶部330に格納される。
「使用可能アバター」は、ユーザIDによって識別される参加者Uによって使用が許可されたアバターを示す。また、「使用不可アバター」は、ユーザIDによって識別される参加者Uによって使用が禁止されたアバターを示す。
参加者端末100から送信されるアバター指定情報には、「ユーザID」および「会議ID」と、「使用可能アバター」および「使用不可アバター」の少なくとも一方とが含まれる。後述する参加者側受付部327は、アバター指定情報に含まれる「ユーザID」および「会議ID」と同一のユーザIDおよび会議IDに対応付けられた「使用可能アバター」および「使用不可アバター」の各項目にアバター指定情報に含まれる情報を格納する。
例えば、図5に示す参加者情報331は、ユーザID「U1」により識別される参加者Uが、会議ID「M1」により識別されるウェブ会議に参加していることを示している。また、図5に示す参加者情報331は、ユーザID「U1」により識別される参加者Uの現在の表情が「笑顔」、性別が「女性」、年齢が「20代」、服装が「ブラウス」であることを示している。また、図5に示す参加者情報331は、ユーザID「U1」により識別される参加者Uのウェブ会議に対する現在の反応が「ポジティブ」であることを示している。また、図5に示す参加者情報331は、ユーザID「U1」により識別される参加者Uが、「A1」により識別されるアバターおよび「A11」により識別されるアバター等の使用を許可しており、「A2」により識別されるアバターおよび「A21」により識別されるアバター等の使用を禁止していることを示している。
図5に示す例では、「U1」および「M1」といった抽象的な値を用いて図示するが、「U1」および「M1」には、具体的な文字列や数値等の情報が記憶されるものとする。以下、他の情報に関する図においても、抽象的な値を図示する場合がある。
参加者側受付部327は、身体的特徴を模した図柄として予め用意された複数の図柄のうち、参加者Uのアバターとして使用する図柄の指定または参加者Uのアバターとしての使用を禁止する図柄の指定を参加者から受け付ける。具体的には、参加者側受付部327は、参加者端末100からネットワークNおよび通信部310を介してアバター指定情報を取得し、取得したアバター指定情報に従って参加者情報331における「使用可能アバター」または「使用不可アバター」の項目を更新する。
発表者側受付部328は、アバターの表示時間および大きさの少なくとも1つの指定を発表者から受け付ける。具体的には、発表者側受付部328は、発表者端末200から後述する表示態様情報を取得し、取得した表示態様情報に従って記憶部330に記憶された発表者情報332を更新する。
ここで、発表者情報332の一例について図6を参照して説明する。図6は、発表者情報332の一例を示す図である。
図6に示すように、発表者情報332は、「ユーザID」、「会議ID」、「表示時間」、「表示サイズ」、「表示位置」、「表示形式」等の項目を有する。
「ユーザID」は、発表者Pを識別するための識別情報を示す。「会議ID」は、ユーザIDにより識別される発表者Pが参加しているウェブ会議を識別するための識別情報を示す。「表示時間」は、各アバターが発表画面Dに対して重畳表示される時間を示す。ここでは一例として、「表示時間」が1秒等の具体的な時間で示されているが、「表示時間」は、例えば「短い」、「普通」、「長い」のように段階的に示されてもよい。「表示サイズ」は、発表画面Dに重畳される各アバターの大きさを示す。ここでは一例として、「表示サイズ」が「大」、「中」、「小」のように段階的に示されるものとする。「表示位置」は、各アバターが発表画面Dに対して重畳される位置を示す。ここでは一例として、「表示位置」が「画面下」、「画面中央」、「画面上」のように段階的に示されるものとする。「表示形式」は、反応情報の表示形式がアバター形式および統計形式の何れかであるかを示す。
例えば、図6に示す発表者情報332は、ユーザID「P1」により識別される発表者Pが、会議ID「M1」により識別されるウェブ会議に参加していることを示している。また、図6に示す発表者情報332は、ユーザID「P1」により識別される発表者Pにより、アバターの表示態様として、表示時間が「1秒」、表示サイズが「中」、表示位置が「画面下」、表示形式が「アバター」に指定されていることを示している。
判定部322は、参加者情報331と属性情報333とに基づき、参加者Uのウェブ発表に対する反応がポジティブおよびネガティブの何れであるかを判定する。
属性情報333は、複数の表情および複数の動作の各々に、「ポジティブ」および「ネガティブ」の何れかを属性として対応付けた情報である。例えば、「笑顔」、「大笑い」、「いいね!ポーズ」および「拍手」には、属性として「ポジティブ」が対応付けられているものとする。
判定部322は、参加者情報331に含まれる「表情」および「動作」と、属性情報333とに基づいて、参加者Uのウェブ発表に対する反応が「ポジティブ」および「ネガティブ」の何れであるかを判定する。例えば、参加者情報331に、ユーザID「U1」により識別される参加者Uの表情として「笑顔」が格納されているとする。この場合、判定部322は、属性情報333に基づき参加者Uのウェブ発表に対する反応が「ポジティブ」であると判定する。そして、判定部322は、参加者情報331におけるユーザID「U1」に対応付けられた「反応」の項目に「ポジティブ」を格納する。
なお、参加者情報331において、1つのユーザIDに対して複数の表情および動作が対応付けられている場合、判定部322は、これら複数の表情および動作の各々の属性を属性情報を用いて特定した上で、「ポジティブ」および「ネガティブ」のうちより多い方の属性を「反応」項目に格納してもよい。
アバター決定部323は、参加者情報331およびアバター変換情報334に基づいて、参加者Uに対応するアバターの図柄を決定する。アバター変換情報334は、表情、動作、性別、年齢、服装の各々またはこれらの組み合わせ毎に、アバターの図柄を対応付けた情報である。
例えば、参加者情報331において、ユーザID「U1」に対し、表情「笑顔」、性別「女性」、年齢「20代」、服装「ブラウス」が対応付けられているとする。この場合、アバター決定部323は、ユーザID「U1」により識別される参加者Uのアバターとして、参加者情報331に登録された使用可能アバターの中から、ブラウスを着用した20代の笑顔の女性のアバターをアバター変換情報334に基づき決定する。
なお、アバター変換情報334には、ウェブ発表に対するポジティブな反応を模した図柄のポジティブアバターと、ウェブ発表に対するネガティブな反応を模したネガティブアバターとが含まれていてもよい。この場合、アバター決定部323は、参加者情報331に含まれる「反応」項目に基づき、ポジティブアバターおよびネガティブアバターの何れかを参加者Uのアバターとして決定してもよい。例えば、上述した例において、ブラウスを着用した20代の笑顔の女性のアバターが、参加者情報331に登録された使用不可アバターに該当する場合、アバター決定部323は、当該アバターに代えて、ポジティブアバターを参加者Uのアバターとして決定してもよい。
統計処理部324は、参加者情報331に基づき、複数の参加者のウェブ発表に対する反応の統計情報を生成する。例えば、統計処理部324は、参加者情報331を参照し、同一の会議IDが対応付けられている参加者Uの「反応」項目を集計し、集計結果(例えば、「ポジティブ10名、ネガティブ3名」等)を含む統計情報を生成してもよい。また、統計処理部324は、「反応」項目の集計結果からポジティブな反応とネガティブな反応との比率(例えば、「ポジティブ70%、ネガティブ30%」等)を算出し、算出した比率を含む統計情報を生成してもよい。
なお、統計情報は、「反応」項目の集計結果に限らず、その他の項目、具体的には、「表情」項目や「動作」項目の集計結果に基づく情報であってもよい。
提供部325は、反応情報を通信部310およびネットワークNを介して発表者端末200に送信する。具体的には、提供部325は、アバター決定部323によって決定されたアバターの画像情報(以下、「アバター情報」と記載する)または統計処理部324によって生成された統計情報を発表者端末200に送信する。
提供部325は、発表者情報332の「表示形式」項目を参照することにより、アバター情報および統計情報の何れを送信するかを決定してもよい。また、提供部325は、参加者Uの人数が予め設定された閾値以下である場合には、アバター情報を送信し、閾値を超えている場合には、統計情報を送信するようにしてもよい。
また、提供部325は、反応情報とともに、反応情報の発表画面Dへの重畳態様を示す重畳態様情報と発表者端末200に送信する。具体的には、提供部325は、反応情報の送信先である発表者PのユーザIDに対応付けられた「表示時間」、「表示サイズ」および「表示位置」の情報を発表者情報332から取得し、取得した情報を反応情報とともに発表者端末200に送信する。
なお、例えば、発表者情報332に「表示時間」、「表示サイズ」および「表示位置」の情報が格納されていない場合、すなわち、発表者Pによって反応情報の発表画面Dへの重畳態様が指定されていない場合、提供部325は、ポジティブアバターとネガティブアバターとで発表画面Dへの重畳態様を異ならせてもよい。
例えば、提供部325は、ポジティブアバターの表示時間と比べて、ネガティブアバターの表示時間を短くしてもよい。また、提供部325は、ポジティブアバターの表示サイズと比べて、ネガティブアバターの表示サイズを小さくしてもよい。また、提供部325は、ポジティブアバターの表示位置を「画面中央」とし、ネガティブアバターの表示位置を「画面下」としてもよい。
記憶部330は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部330は、参加者情報331、発表者情報332、属性情報333、アバター変換情報334および学習モデル335を記憶する。
〔5.発表者端末の構成〕
次に、図7を用いて、実施形態に係る発表者端末200の構成について説明する。図7は、実施形態に係る発表者端末200の機能構成の一例を示す図である。図7に示すように、発表者端末200は、通信部210と、表示部220と、操作部230と、音声出力部240と、撮像部250と、音声入力部260と、制御部270と、記憶部280とを有する。
通信部210は、例えば、NIC等によって実現される。そして、通信部210は、ネットワークNと有線または無線で接続され、提供サーバ300との間で情報の送受信を行う。
表示部220は、各種情報を表示するための表示装置である。例えば、表示部220は、液晶ディスプレイ等によって実現される。操作部230は、発表者Pから各種操作を受け付ける入力装置である。例えば、操作部230は、キーボードやマウスや操作キー等によって実現される。なお、発表者端末200にタッチパネルが採用される場合、表示部220と操作部230とは一体化される。音声出力部240は、スピーカやオーディオ用端子(ヘッドホン端子)等によって実現される。スピーカはワイヤレスであってもよい。
撮像部250は、撮像素子を内蔵し、静止画像や動画像を撮像するデバイスである。撮像素子は、CCD、CMOSなど何れでもよい。例えば、撮像部250は、レンズから取り込んだ映像を静止画像として写真撮影したり、動画撮影したりすることができる。撮像部250は、撮影した画像、具体的には、発表者Pの画像を制御部270に出力する。
音声入力部260は、周囲の音を取得するデバイスである。例えば、音声入力部260は、マイク等によって実現される。音声入力部260は、取得した音声、具体的には、発表者Pの音声を制御部270に出力する。
制御部270は、例えば、CPUやMPU等によって、発表者端末200内部の記憶装置(図示は、省略)に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部270は、提供サーバ300内部の記憶装置(図示は、省略)に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現されてもよい。また、制御部270は、例えば、ASICやFPGA等の集積回路により実現されてもよい。
例えば、制御部270は、CPUやMPU等によって、提供サーバ300内部の記憶装置に記憶されている各種プログラム(提供プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。例えば、この各種プログラムは、ウェブブラウザを利用するアプリケーションプログラム、いわゆるウェブアプリケーションに該当する。また、制御部270は、CPUやMPU等によって、ウェブ会議サーバ400内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。
図7に示すように、制御部270は、表示制御部271と、送信制御部272とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部270の内部構成は、図7に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部270が有する各処理部の接続関係は、図7に示した接続関係に限られず、他の接続関係であってもよい。
表示制御部271は、記憶部280に記憶された発表用データ281を表示部220に表示させる。これにより、表示部220には、発表画面Dが表示される。
また、表示制御部271は、アバター表示部273と、統計表示部274とを有する。アバター表示部273は、提供サーバ300から取得した反応情報および重畳態様情報に従って、発表画面Dにアバターを重畳表示させる。統計表示部274は、提供サーバ300から取得した反応情報および重畳態様情報に従って、発表画面Dに統計情報を重畳表示させる。
送信制御部272は、表示部220に表示された画面の情報(以下、「共有画面情報」と記載する)を通信部210およびネットワークNを介してウェブ会議サーバ400に送信する。また、送信制御部272は、撮像部250によって撮像された発表者Pの画像および音声入力部260によって取得された発表者Pの音声を通信部210およびネットワークNを介してウェブ会議サーバ400に送信する。
記憶部280は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部280は、発表用データ2821を記憶する。
〔6.ウェブ会議システムによる情報処理〕
次に、図8を用いて、ウェブ会議システム2による情報処理の内容について説明する。図8は、実施形態に係るウェブ会議システム2による情報処理の一例を示すシーケンス図である。
図8に示すように、ウェブ会議システム2では、参加者端末100およびウェブ会議サーバ400間で会議開始処理が行われる(ステップS101)。また、発表者端末200およびウェブ会議サーバ400間でも会議開始処理が行われる(ステップS102)。
例えば、発表者端末200は、発表者Pの操作部230への操作に従って、ウェブブラウザ上からウェブ会議サーバ400にアクセスし、ユーザIDおよびパスワードをウェブ会議サーバ400に送信する。ウェブ会議サーバ400は、取得したユーザID及びパスワードに基づきユーザ認証を行う。参加者端末100のユーザ認証についても同様の手順で行われる。これにより、参加者Uおよび発表者Pがウェブ会議に参加した状態となる。
つづいて、発表者端末200は、記憶部280に記憶された発表用データ281を表示部220に表示させる(ステップS103)。また、発表者端末200は、共有画面情報、および、音声入力部260によって取得された発表者Pの音声情報をウェブ会議サーバ400に送信する。そして、ウェブ会議サーバ400は、発表者端末200から取得した共有画面情報および音声情報を参加者端末100に送信する(ステップS104)。
〔7.提供システムによる情報処理〕
次に、図9を用いて、提供システム1による情報処理の内容について説明する。図9は、実施形態に係る提供システム1による情報処理の一例を示すシーケンス図である。
なお、図9に示す処理に先立ち、提供システム1では、同一のウェブ会議に参加する参加者端末100および発表者端末200を特定する処理が行われてもよい。一例として、発表者端末200は、提供サーバ300に会議情報を送信する。会議情報には、例えば、発表者Pに関する情報(メールアドレス、名称など)、参加者Uに関する情報(メールアドレス、名称など)、ウェブ会議に関する情報(開催日時など)が含まれる。提供サーバ300は、取得した会議情報に基づき、今回のウェブ発表に参加する参加者Uおよび発表者Pの欄を参加者情報331および発表者情報332に新たに作成して、参加者Uおよび発表者Pに固有のユーザID(たとえば、メールアドレス)と、参加者Uおよび発表者Pに共通の会議IDとをそれぞれ格納する。
参加者端末100および発表者端末200は、操作部130,230への操作に従って、ウェブブラウザ上から提供サーバ300にアクセスして、参加者Uおよび発表者Pのメールアドレスを提供サーバ300に送信する。これにより、同じウェブ会議に参加する参加者Uおよび発表者Pが特定される。
また、他の例として、提供サーバ300は、発表者端末200からの要求に従って今回のウェブ発表に固有のURLを生成する。そして、このURLにアクセスした参加者端末100のユーザを、今回のウェブ発表に参加する参加者Uと判定してもよい。
図9に示すように、提供システム1では、提供サーバ300が、参加者端末100からの要求に従って、記憶部330に記憶された学習モデル335を送信する(ステップS201)。参加者端末100は、取得した学習モデル335を記憶部180に記憶させる。
つづいて、参加者端末100は、撮像部150または音声入力部160から検知情報(参加者Uの画像、参加者Uにより発せられた音)を取得し(ステップS202)、取得した検知情報に基づき、学習モデル335を用いて参加者Uの状態を特定する(ステップS203)。そして、参加者端末100は、特定した参加者Uの状態を示す状態情報を提供サーバ300に送信する(ステップS204)。提供サーバ300に送信された状態情報は、参加者情報331として記憶部330に記憶される。
つづいて、提供サーバ300は、参加者情報331等に基づいて反応情報(アバター情報または統計情報)を決定または生成し(ステップS205)、決定または生成した反応情報を発表者端末200に送信する(ステップS206)。
そして、発表者端末200は、提供サーバ300から取得した反応情報を発表画面Dに重畳表示させる(ステップS207)。
反応情報が重畳表示された発表画面Dは、ウェブ会議システム2によって参加者端末100に送信される。これにより、参加者Uもアバターや統計情報といった反応情報を見ることができる。
〔8.適用対象について〕
上述した実施形態では、一例として、発表者Pがウェブ会議システム2を利用したウェブ発表を行う場合の例を示したが、実施形態は、これに限定されるものではない。例えば、実施形態に係る提供システム1は、発表者Pが、動画配信サービスを利用して動画像のライブ配信を行う場合にも適用可能である。この場合、図2に示すウェブ会議サーバ400は、動画配信サーバに置き換えられる。動画配信サーバは、ライブ動画の配信サービスを提供する事業者により使用される情報処理装置であり、例えば、サーバやクラウドシステム等により実現される。例えば、動画配信サーバは、発表者端末200からライブ動画を受付けると、受付けたライブ動画を参加者端末100へと配信する。
〔9.その他〕
上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。提供サーバ300が備えるものとして説明した機能や情報の一部は、参加者端末100または発表者端末200が備えていてもよい。また、参加者端末100および発表者端末200が備えるものとして説明した機能や情報の一部は、提供サーバ300が備えていてもよい。
また、上記してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
〔10.プログラム〕
また、上述してきた実施形態に係る参加者端末100、発表者端末200および提供サーバ300は、例えば図10に示すような構成のコンピュータ1000によって実現される。図10は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD、フラッシュメモリ等により実現される。
出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。
ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
例えば、コンピュータ1000が参加者端末100として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部170の機能を実現する。また、コンピュータ1000が提供サーバ300として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部320の機能を実現する。また、コンピュータ1000が発表者端末200として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部270の機能を実現する。
〔11.効果〕
上述したように、提供サーバ300は、取得部321と、提供部325とを備える。取得部321は、ウェブ発表に参加する参加者Uの状態を示す状態情報を参加者端末100から取得する。提供部325は、取得部321によって取得された参加者Uの状態に応じた情報であって、当該参加者Uのウェブ発表に対する反応を示す反応情報をウェブ発表の発表者が使用する発表者端末200に提供する。これにより、対面形式での発表と比べて参加者Uの反応が把握しにくいウェブ発表において、発表者Pに対して参加者Uの反応を容易に把握させることができる。
発表者端末200は、アバター表示部273を備えていてもよい。アバター表示部273は、提供サーバ300によって提供された反応情報によって示されるアバターであって、参加者Uのウェブ発表に対する反応を模した図柄のアバターをウェブ発表における発表画面Dに重畳して表示する。このように、参加者Uの反応をアバターによって示すことで、参加者Uの反応を発表者Pに対して容易に把握させることができる。
参加者端末100は、特定部172を備えていてもよい。特定部172は、検知情報に基づいて、ウェブ発表に参加する参加者Uの状態を特定する。また、特定部172は、参加者Uの画像および参加者から発せられる音の少なくとも1つを検知情報として取得し、取得した検知情報に基づいて、参加者Uの表情および動作の少なくとも1つを参加者Uの状態として特定してもよい。この場合、発表者端末200のアバター表示部273は、参加者Uの表情および動作の少なくとも一つを模した図柄のアバターを発表画面Dに重畳して表示してもよい。参加者Uの表情や動作を模したアバターを表示することで、参加者Uの反応を発表者Pに対して容易に把握させることができる。
参加者端末100の特定部172は、検知情報に基づいて、参加者Uの身体的特徴をさらに特定してもよい。この場合、発表者端末200のアバター表示部273は、参加者Uの表情および動作の少なくとも一つに加え、参加者Uの身体的特徴をさらに模した図柄のアバターを発表画面Dに重畳して表示してもよい。アバターの外見を参加者に近づけることで、例えばウェブ発表への親近感を参加者に与えることができる。これにより、例えば、参加者Uに対してウェブ発表への積極的な参加を促すことができる。
提供サーバ300は、参加者側受付部327を備えていてもよい。参加者側受付部327は、身体的特徴を模した図柄として予め用意された複数の図柄のうち、参加者Uのアバターとして使用する図柄の指定または参加者Uのアバターとしての使用を禁止する図柄の指定を参加者Uから受け付ける。これにより、例えば、参加者Uの希望に反する身体的特徴の図柄が参加者Uのアバターとして設定されることを抑制することができる。
提供サーバ300は、発表者側受付部328を備えていてもよい。発表者側受付部328は、アバターの表示時間および大きさの少なくとも1つの指定を発表者Pから受け付ける。アバターの重畳態様を発表者P側でコントロールできるようにすることで、例えば、アバターが目立って表示されることによりウェブ発表の進行が阻害されることを抑制することができる。
発表者端末200のアバター表示部273は、アバターであって発表に対してポジティブな反応を模した図柄のポジティブアバターの発表画面Dへの重畳態様と、アバターであって発表に対してネガティブな反応を模した図柄のネガティブアバターの発表画面Dへの重畳態様とを異ならせてもよい。例えば、ポジティブアバターと比較して、ネガティブアバターを目立たない位置や大きさで重畳させることで、発表者Pの画面を共有している参加者Uに対してネガティブアバターを認識させにくくすることができる。
発表者端末200は、統計表示部274を備えていてもよい。統計表示部274は、複数の参加者の状態に基づく反応の統計情報を発表画面Dに重畳して表示する。これにより、例えば、ウェブ発表の参加者Uが多数である場合に、集団としての反応の傾向を発表者Pに容易に把握させることができる。
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、配信部は、配信手段や配信回路に読み替えることができる。
1 :提供システム
2 :ウェブ会議システム
100 :参加者端末
170 :制御部
180 :記憶部
200 :発表者端末
270 :制御部
280 :記憶部
300 :提供サーバ
320 :制御部
330 :記憶部
400 :ウェブ会議サーバ
D :発表画面
P :発表者
U :参加者

Claims (10)

  1. 検知情報に基づいて、ウェブ発表に参加する参加者の状態を特定する特定手順と、
    前記特定手順によって特定された前記参加者の状態に応じた情報であって、当該参加者の前記ウェブ発表に対する反応を示す反応情報を前記ウェブ発表の発表者に提供する提供手順と
    をコンピュータに実行させることを特徴とする提供プログラム。
  2. 前記提供手順によって提供された前記反応情報によって示されるアバターであって、前記参加者の前記ウェブ発表に対する反応を模した図柄のアバターを前記ウェブ発表における発表画面に重畳して表示するアバター表示手順
    をコンピュータに実行させることを特徴とする請求項1に記載の提供プログラム。
  3. 前記特定手順は、
    前記参加者の画像および前記参加者から発せられる音の少なくとも1つを前記検知情報として取得し、取得した前記検知情報に基づいて、前記参加者の表情および動作の少なくとも1つを前記参加者の状態として特定し、
    前記アバター表示手順は、
    前記参加者の表情および動作の少なくとも一つを模した図柄の前記アバターを前記発表画面に重畳して表示する
    ことを特徴とする請求項2に記載の提供プログラム。
  4. 前記特定手順は、
    前記検知情報に基づいて、前記参加者の身体的特徴をさらに特定し、
    前記アバター表示手順は、
    前記参加者の表情および動作の少なくとも一つに加え、前記参加者の身体的特徴をさらに模した図柄の前記アバターを前記発表画面に重畳して表示する
    ことを特徴とする請求項3に記載の提供プログラム。
  5. 前記身体的特徴を模した図柄として予め用意された複数の図柄のうち、前記参加者のアバターとして使用する図柄の指定または前記参加者のアバターとしての使用を禁止する図柄の指定を前記参加者から受け付ける参加者側受付手順
    をコンピュータに実行させることを特徴とする請求項4に記載の提供プログラム。
  6. 前記アバターの表示時間および大きさの少なくとも1つの指定を前記発表者から受け付ける発表者側受付手順
    をコンピュータに実行させることを特徴とする請求項2~5のいずれか一つに記載の提供プログラム。
  7. 前記アバター表示手順は、
    前記アバターであって前記ウェブ発表に対してポジティブな前記反応を模した図柄のポジティブアバターの前記発表画面への重畳態様と、前記アバターであって前記ウェブ発表に対してネガティブな前記反応を模した図柄のネガティブアバターの前記発表画面への重畳態様とを異ならせること
    を特徴とする請求項2~6のいずれか一つに記載の提供プログラム。
  8. 複数の前記参加者の状態に基づく前記反応の統計情報を前記ウェブ発表における発表画面に重畳して表示する統計表示手順
    をコンピュータに実行させることを特徴とする請求項1~7のいずれか一つに記載の提供プログラム。
  9. コンピュータが実行する提供方法であって、
    検知情報に基づいて、ウェブ発表に参加する参加者の状態を特定する特定工程と、
    前記特定工程によって特定された前記参加者の状態に応じた情報であって、当該参加者の前記ウェブ発表に対する反応を示す反応情報を前記ウェブ発表の発表者に提供する提供工程と
    を含むことを特徴とする提供方法。
  10. ウェブ発表に参加する参加者の状態を取得する取得部と、
    前記取得部によって取得された前記参加者の状態に応じた情報であって、当該参加者の前記ウェブ発表に対する反応を示す反応情報を前記ウェブ発表の発表者に提供する提供部と
    を有することを特徴とする提供装置。
JP2020122063A 2020-07-16 2020-07-16 提供プログラム、提供方法、および提供装置 Pending JP2022018733A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020122063A JP2022018733A (ja) 2020-07-16 2020-07-16 提供プログラム、提供方法、および提供装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020122063A JP2022018733A (ja) 2020-07-16 2020-07-16 提供プログラム、提供方法、および提供装置

Publications (1)

Publication Number Publication Date
JP2022018733A true JP2022018733A (ja) 2022-01-27

Family

ID=80203983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020122063A Pending JP2022018733A (ja) 2020-07-16 2020-07-16 提供プログラム、提供方法、および提供装置

Country Status (1)

Country Link
JP (1) JP2022018733A (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014225801A (ja) * 2013-05-16 2014-12-04 株式会社ニコン 会議システム、会議方法およびプログラム
JP2015170018A (ja) * 2014-03-05 2015-09-28 任天堂株式会社 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法
JP2016053929A (ja) * 2014-09-04 2016-04-14 シャープ株式会社 情報提示装置、端末装置、および制御方法
WO2016088566A1 (ja) * 2014-12-03 2016-06-09 ソニー株式会社 情報処理装置および情報処理方法、並びにプログラム
JP2016115328A (ja) * 2014-12-17 2016-06-23 富士ゼロックス株式会社 計算実行方法、計算処理システム及びプログラム
WO2019008320A1 (en) * 2017-07-05 2019-01-10 Maria Francisca Jones METHOD AND SYSTEM FOR INDICATING RESPONSE FROM A PARTICIPANT AT A VIRTUAL MEETING
JP2019061594A (ja) * 2017-09-28 2019-04-18 株式会社野村総合研究所 会議支援システムおよび会議支援プログラム
WO2019082366A1 (ja) * 2017-10-26 2019-05-02 サン電子株式会社 会議システム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014225801A (ja) * 2013-05-16 2014-12-04 株式会社ニコン 会議システム、会議方法およびプログラム
JP2015170018A (ja) * 2014-03-05 2015-09-28 任天堂株式会社 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法
JP2016053929A (ja) * 2014-09-04 2016-04-14 シャープ株式会社 情報提示装置、端末装置、および制御方法
WO2016088566A1 (ja) * 2014-12-03 2016-06-09 ソニー株式会社 情報処理装置および情報処理方法、並びにプログラム
JP2016115328A (ja) * 2014-12-17 2016-06-23 富士ゼロックス株式会社 計算実行方法、計算処理システム及びプログラム
WO2019008320A1 (en) * 2017-07-05 2019-01-10 Maria Francisca Jones METHOD AND SYSTEM FOR INDICATING RESPONSE FROM A PARTICIPANT AT A VIRTUAL MEETING
JP2019061594A (ja) * 2017-09-28 2019-04-18 株式会社野村総合研究所 会議支援システムおよび会議支援プログラム
WO2019082366A1 (ja) * 2017-10-26 2019-05-02 サン電子株式会社 会議システム

Similar Documents

Publication Publication Date Title
US11250887B2 (en) Routing messages by message parameter
US11372608B2 (en) Gallery of messages from individuals with a shared interest
US9854219B2 (en) Gallery of videos set to an audio time line
TW201719567A (zh) 頭像管理和選擇的系統及方法
CN109819341B (zh) 视频播放方法、装置、计算设备及存储介质
JP2022018733A (ja) 提供プログラム、提供方法、および提供装置
US11656834B2 (en) Information processing device, non-transitory recording medium, and information processing system
JP7521757B2 (ja) 情報処理システム、情報処理方法及びプログラム
KR102429901B1 (ko) 부분 영상을 생성하기 위한 전자 장치 및 그의 동작 방법
JP6867989B2 (ja) コミュニケーション提供システム及びコミュニケーション提供方法
TWI652582B (zh) 以虛擬實境/擴增實境為基礎並結合即時通訊服務的檔案分享系統及方法
US20240089408A1 (en) Visual feedback for video muted participants in an online meeting
JP2014195229A (ja) サーバ装置プログラム、サーバ装置及び通信装置プログラム
WO2024038699A1 (ja) 表情加工装置、表情加工方法および表情加工プログラム
US20240177361A1 (en) Human to avatar transformation
US20240233274A9 (en) Electronic device and method for displaying modification of virtual object and method thereof
TWI511024B (zh) 透過資料觸發之物件操作方法及系統,及其電腦程式產品
JP2023067859A (ja) エフェクト提供方法、コンピュータ装置、およびコンピュータプログラム
JP2023015877A (ja) 会議制御装置、会議制御方法及びコンピュータープログラム
TW202133627A (zh) 線上直播的即時互動方法及應用於線上直播之即時互動的用戶端手持式裝置
JP2021090786A (ja) 情報処理装置およびゲーム画像表示方法
KR20240054150A (ko) 사용자 간 비공개 연결을 설정하는 방법 및 디스플레이 장치
CN116506391A (zh) 显示消息的方法、装置、设备及存储介质
JP2021093625A (ja) システム、情報配信サーバ、情報処理装置およびプログラム
TW201911891A (zh) 通訊資料之推播管理方法及系統,及其電腦程式產品

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230106

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230425