JP6905775B1 - プログラム、情報処理装置及び方法 - Google Patents

プログラム、情報処理装置及び方法 Download PDF

Info

Publication number
JP6905775B1
JP6905775B1 JP2020179455A JP2020179455A JP6905775B1 JP 6905775 B1 JP6905775 B1 JP 6905775B1 JP 2020179455 A JP2020179455 A JP 2020179455A JP 2020179455 A JP2020179455 A JP 2020179455A JP 6905775 B1 JP6905775 B1 JP 6905775B1
Authority
JP
Japan
Prior art keywords
viewer
information
video
facility
matched
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020179455A
Other languages
English (en)
Other versions
JP2022070404A (ja
Inventor
壮太郎 五十嵐
壮太郎 五十嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Theater Guild Inc
Original Assignee
Theater Guild Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Theater Guild Inc filed Critical Theater Guild Inc
Priority to JP2020179455A priority Critical patent/JP6905775B1/ja
Priority to JP2021102313A priority patent/JP2022070805A/ja
Priority to US18/248,683 priority patent/US20230394878A1/en
Priority to PCT/JP2021/026847 priority patent/WO2022091493A1/ja
Application granted granted Critical
Publication of JP6905775B1 publication Critical patent/JP6905775B1/ja
Publication of JP2022070404A publication Critical patent/JP2022070404A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Tourism & Hospitality (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】映画館等の施設で映像コンテンツを視聴した視聴者同士をつなげることが可能な技術を提供する。【解決手段】映像提供システム1のサーバ20は、その機能として、カメラ40により視聴者を撮影し、撮影した画像データを取得するカメラ撮影制御モジュール2034と、視聴者を個別に識別し、視聴者データベース2021に格納されている視聴者情報と紐付けを行う視聴者識別モジュール2035と、画像データを解析して視聴者の視聴状態を示す視聴状態情報をそれぞれ取得し、視聴者情報との紐付けを行う視聴状態取得モジュール2036と、視聴状態情報に基づき、施設において同時に映像コンテンツを視聴している視聴者間のマッチングを行う視聴者マッチングモジュール2037と、を備える。【選択図】図4

Description

本開示は、プログラム、情報処理装置及び方法に関する。
近年、映画等の映像コンテンツを上映する映画館等の施設では、観客(視聴者)動員数をどのように拡大させていくかが課題となっている。この背景として、映像コンテンツの配信サービスの普及、低額化、家庭におけるテレビの大型化により、家庭で良質な映像コンテンツの視聴が可能になり、映画館に足を運ぶ必要がなくなっていることが挙げられる。また、昨今のコロナウイルスの影響により、この傾向はさらに進んでいるといえる。
そのため、例えば、映像コンテンツをカフェ等の飲食店で上映することで、新たな観客の拡大を図るように、従来とは異なる新たな取り組みが見られている。
また、特許文献1には、映像の再生中における、視聴者の心理的な状態に応じて、映像の内容を変える再生システムの技術が開示されている。特許文献1に記載の再生システムでは、視聴者の生体情報を検知し、視聴者の生体情報に応じて、異なる複数のストーリーの映像から選択して再生するように構成されている。
特開2014−053672号公報
ところで、良質な映像コンテンツを視聴した視聴者には、映像コンテンツの感想を他人と共感したいという欲求がある。例えば、SNS等の普及により、視聴者が映像コンテンツの感想を投稿することで他人と共感することも考えられるが、映像コンテンツを視聴していない者が参照する可能性のある場所で、映像コンテンツの内容が分かってしまうようなこと(いわゆるネタバレ)を書き込むのは、一般的にはマナー違反とされている。そのため、映画館等の施設において、映像コンテンツを同時に視聴した者同士でつながり、感想を話し合うことが可能であれば、共感したいという欲求を満たすことが可能になる。
そこで、本開示では、映画館等の施設で映像コンテンツを視聴した視聴者同士をつなげることが可能な技術について説明する。
本開示の一実施形態によると、プロセッサと、メモリとを備えるコンピュータに実行させるためのプログラムが提供される。プログラムは、メモリに、映像を上映する施設において、映像を視聴する視聴者として登録されている視聴者情報を記憶させ、プログラムは、プロセッサに、映像を視聴する複数の視聴者を撮影した画像データから、視聴者を個別に識別し、視聴者情報とそれぞれ紐付けを行うステップと、画像データを視聴者ごとに解析し、視聴者の視聴状態を示す視聴状態情報をそれぞれ取得し、視聴者情報とそれぞれ紐付けを行うステップと、視聴者ごとの視聴状態情報に基づき、施設における視聴者間のマッチングを行うステップと、を実行させる。
本開示の一実施形態によると、制御部と、記憶部とを備える情報処理装置が提供される。記憶部は、映像を上映する施設において、映像を視聴する視聴者として登録されている視聴者情報を記憶し、制御部は、映像を視聴する複数の視聴者を撮影した画像データから、視聴者を個別に識別し、視聴者情報とそれぞれ紐付けを行うステップと、画像データを視聴者ごとに解析し、視聴者の視聴状態を示す視聴状態情報をそれぞれ取得し、視聴者情報とそれぞれ紐付けを行うステップと、視聴者ごとの視聴状態情報に基づき、当該施設における視聴者間のマッチングを行うステップと、を実行する。
また、一実施形態によると、プロセッサと、メモリとを備えるコンピュータにより実行されるための方法が提供される。方法は、メモリに、映像を上映する施設において、映像を視聴する視聴者として登録されている視聴者情報を記憶し、方法は、プロセッサが、映像を視聴する複数の視聴者を撮影した画像データから、視聴者を個別に識別し、視聴者情報とそれぞれ紐付けを行うステップと、画像データを視聴者ごとに解析し、視聴者の視聴状態を示す視聴状態情報をそれぞれ取得し、視聴者情報とそれぞれ紐付けを行うステップと、視聴者ごとの視聴状態情報に基づき、当該施設における視聴者間のマッチングを行うステップと、を実行する。
本開示によれば、視聴者の視聴状態を示す視聴状態情報をそれぞれ取得し、視聴状態情報に基づき、当該施設における視聴者間のマッチングを行う。そのため、当該施設で映像を視聴した視聴者同士をつなげることが可能である。
映像提供システム1の全体の構成を示す図である。 映像提供システム1が設置された施設の外観の例を示す鳥瞰図である。 実施の形態1の映像提供システム1を構成する端末装置10の機能的な構成を示すブロック図である。 実施の形態1の映像提供システム1を構成するサーバ20の機能的な構成を示すブロック図である。 図4の視聴者識別モジュール2035における視聴者を識別する具体的手法を示す模式図である。 図4の視聴状態取得モジュール2036における視聴状態を示す涙腺の状態を取得する具体的手法を示す模式図である。 サーバ20が記憶する視聴者データベース2021、映像コンテンツデータベース2022のデータ構造を示す図である。 実施の形態1の映像提供システム1による視聴者識別処理を行う流れの一例を示すフローチャートである。 実施の形態1の映像提供システム1による視聴状態取得処理を行う流れの一例を示すフローチャートである。 実施の形態1の映像提供システム1による視聴者マッチング処理を行う流れの一例を示すフローチャートである。 視聴者マッチング処理におけるマッチング相手を通知する端末装置10の画面例を示す図である。 視聴者マッチング処理におけるマッチング相手を通知する端末装置10の他の画面例を示す図である。 視聴者マッチング処理における集合場所を通知する端末装置10の画面例を示す図である。 実施の形態2の映像提供システム1を構成するサーバ20の機能的な構成を示すブロック図である。
以下、図面を参照しつつ、本開示の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称及び機能も同じである。従って、それらについての詳細な説明は繰り返さない。
<概要>
以下、映像提供システムにおける、映像コンテンツを視聴した視聴者の視聴状態情報を取得し、視聴者同士をマッチングする処理について説明する。映像提供システムは、映画館のような施設において、映画のような映像コンテンツを表示(上映)して視聴者に視聴する機会を提供し、視聴者が当該映像コンテンツを視聴している状態を撮影し、撮影した画像データから視聴者の視聴状態の解析を行い、視聴者同士をマッチングするシステムである。
映像コンテンツを視聴している視聴者は、その映像コンテンツを面白い、楽しいと感じている場合、集中度合いが上昇すると考えられ、その映像コンテンツをつまらない、退屈なものだと感じている場合、集中度合いが散漫になって低下すると考えられる。一般に、(映像コンテンツに限らず)何かを視聴している者がその対象について集中して視聴している場合、目(瞼)の開きが大きくなり、まばたきの回数が減少することが経験的に知られているため、映像コンテンツを視聴している視聴者が、上記のような反応を示している場合、当該視聴者はその映像コンテンツの視聴に集中していると考えられる。また、映像コンテンツの視聴に集中した場合、その映像コンテンツへの満足度も高いと考えられる。そのため、視聴者の視聴状態を撮影して解析することにより、視聴者の映像コンテンツへの集中度合い、及び満足度が推定できると考えられる。
また、映像コンテンツを視聴している視聴者は、その映像コンテンツのストーリーが悲しいとき、悲しいと感じると涙が出そうになり、目の状態が充血し、涙腺に涙がたまるように目の状態が変化することが経験的に知られている。そのため、視聴者の顔の状態を解析することにより、視聴者のそのときの感情、覚醒/睡眠の状態が推定できると考えられる。
そこで、本開示の映像提供システムでは、視聴者が映像コンテンツを視聴している状態をカメラで撮影し、撮影した画像データから、視聴者の顔を識別してそれぞれの視聴者の顔を検知する。画像データにおける視聴者の顔の状態から、顔の表情や目の状態、涙腺の状態を解析し、視聴者の覚醒/睡眠の状態、視聴者の映像コンテンツに対する集中度、満足度、感情を示す情報を取得し、視聴者情報と紐付けを行う。このように構成することで、視聴者の顔の反応に基づく、視聴者の映像コンテンツに対する集中度、満足度、感情等のような視聴状態情報を視聴者情報に紐づけて把握することを可能にしている。
また、本開示の映像提供システムでは、視聴者の映像コンテンツに対する視聴状態情報に基づき、視聴者同士をマッチングするように構成されている。映画館等の施設において、映像コンテンツを同じタイミングで視聴した視聴者の視聴状態情報を解析することで、同じ映像コンテンツを視聴した者がどのシーンで感情を変化させたか、集中していたか等が把握できるので、同じような反応をした者同士は、感想を共感しやすいと考えられる。そのため、視聴状態情報が類似する視聴者同士をマッチングすることで、感想を話し合うことや、お互いに共感することができるようになっている。なお、このような構成にするため、視聴者は会員登録され、視聴者情報が登録されていることが前提である。このように構成することで、同じ映画を視聴する、という共通の体験について、同じような感想を有する者同士をつなげて共感させることを可能にし、映画館の新たな価値を提供することを可能にしている。
さらに、本開示の映像提供システムでは、映像コンテンツを視聴している視聴者をそれぞれ識別し、視聴者情報と紐付けを行っている。これにより、視聴者の属性ごとに視聴状態情報を取得し、映像コンテンツに対する評価を分析することを可能にしている。
<第1の実施の形態>
以下、映像提供システム1について説明する。
<1 映像提供システム1の全体構成>
図1は、映像提供システム1の全体の構成を示す図である。映像提供システムは、映画のような映像コンテンツ(映像)を表示(上映)して視聴者に視聴する機会を提供し、視聴者が当該映像コンテンツを視聴している状態を撮影し、撮影した画像データから視聴者の視聴状態の解析を行い、視聴者同士をマッチングするシステムである。図1に示すように、映像提供システム1は、複数の端末装置(図1では、端末装置10A及び端末装置10Bを示している。以下、総称して「端末装置10」ということもある)と、サーバ20と、映像出力装置30と、カメラ40とを含む。端末装置10とサーバ20と映像出力装置30とカメラ40とは、ネットワーク80を介して相互に通信可能に接続されている。ネットワーク80は、有線または無線ネットワークにより構成される。
端末装置10は、各ユーザ(視聴者)が操作する装置である。端末装置10は、移動体通信システムに対応したスマートフォン、タブレット等の携帯端末等により実現される。この他、端末装置10は、例えば持ち運び可能なノートPC(Personal Computer)、ラップトップPCであるとしてもよい。図1に端末装置10Bとして示すように、端末装置10は、通信IF(Interface)12と、入力装置13と、出力装置14と、メモリ15と、記憶部16と、プロセッサ19とを備える。
端末装置10は、ネットワーク80を介してサーバ20と通信可能に接続される。端末装置10は、4G、5G、LTE(Long Term Evolution)等の通信規格に対応した無線基地局81、IEEE(Institute of Electrical and Electronics Engineers)802.11等の無線LAN(Local Area Network)規格に対応した無線LANルータ82等の通信機器と通信することにより、ネットワーク80に接続される。
通信IF12は、端末装置10が外部の装置と通信するため、信号を入出力するためのインタフェースである。入力装置13は、ユーザからの入力操作を受け付けるための入力装置(例えば、タッチパネルや、タッチパッド、マウス等のポインティングデバイス、キーボード等)である。出力装置14は、ユーザに対し情報を提示するための出力装置(ディスプレイ、スピーカ等)である。メモリ15は、プログラム、及び、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。記憶部16は、データを保存するための記憶装置であり、例えばフラッシュメモリ、HDD(Hard Disc Drive)、SSD(Solid State Drive)である。プロセッサ19は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路などにより構成される。
サーバ20は、視聴者の情報、視聴者に視聴させる映像コンテンツ、視聴者を撮影した画像データ、及び、視聴者ごとの映像コンテンツを視聴した際の視聴状態情報を管理する装置である。サーバ20は、映像コンテンツの映像データを映像出力装置30へ送信する。また、サーバ20は、視聴者同士をマッチングした結果を、視聴者の端末装置10へ送信する。
サーバ20は、ネットワーク80に接続されたコンピュータである。サーバ20は、通信IF22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備える。サーバ20は、ネットワーク80を介して端末装置10、映像出力装置30、及びカメラ40と通信可能に接続される。
通信IF22は、サーバ20が外部の装置と通信するため、信号を入出力するためのインタフェースである。入出力IF23は、ユーザからの入力操作を受け付けるための入力装置(例えば、マウス等のポインティングデバイス、キーボード)、及び、ユーザに対し情報を提示するための出力装置(ディスプレイ、スピーカ等)とのインタフェースとして機能する。メモリ25は、プログラム、及び、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。ストレージ26は、データを保存するための記憶装置であり、例えばフラッシュメモリ、HDD(Hard Disc Drive)、SSD(Solid State Drive)である。プロセッサ29は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路などにより構成される。
映像出力装置30は、サーバ20からの指示により、映像コンテンツの映像データを受信して映像として表示(上映)を行う装置であり、例えば、フレームの縁にLED素子を配列したLEDパネルや、有機ELディスプレイ、または液晶ディスプレイにより構成されている。この映像出力装置30は、映画館のような上映施設等に設けられている。なお、映像出力装置30は、例えば複数のLEDパネルを並列に配置して数100インチ程度の大型ビジョンとして構成し、一度に大人数の視聴者により視聴が可能に構成してもよい。さらに、映像出力装置30は1つに限られず、複数の映像出力装置30により構成してもよく、複数の映像出力装置30を備えた施設を1のサーバ20で、例えば遠隔により制御するように構成してもよい。
カメラ40は、サーバ20からの指示により、映像コンテンツを視聴している視聴者を撮影する装置であり、例えば、CCD(Charge Coupled Device)イメージセンサ等の撮像装置と、撮影した画像をデジタル信号からなる画像データに変換するA/D変換装置とを備えるデジタルカメラ等により構成されている。カメラ40は、サーバ20の制御により撮影する方向を変更するように構成してもよく、広範囲を撮影可能にするために撮影方向を適宜動かせるように構成してもよい。
カメラ40は、映像コンテンツを視聴している視聴者を動画として撮影し、または所定の時間間隔で静止画として撮影し、動画または静止画の画像データへの変換を行う。また、カメラ40は、撮影した画像データをサーバ20へ送信する。なお、カメラ40は1つに限られず、1つの施設に複数のカメラ40が設けられてもよい。また、カメラ40は単体の装置とは限られず、例えば、移動体通信システムに対応したスマートフォン、タブレット等の携帯端末に設けられたカメラ機能により構成してもよい。
<1.1 映像出力装置30及びカメラ40の構成>
図2は、映像提供システム1が設置された施設の外観の例を示す鳥瞰図である。映像提供システム1は、例えば映画館のように映像コンテンツの上映を行うスペースに設置される。図2に示す映像提供システム1は、視聴者がヘッドホン等の音声出力装置を装着して音声を取得するように構成された例を示しており、この場合、この施設は映像コンテンツを視聴する以外の、飲食やその他の作業も可能となっており、いわゆるカフェスペースも併設され、多目的スペースを構成している施設である。
図2に示す映像提供システム1は、映像コンテンツの上映を行う上映スペースと、カフェスペースとが併設されたフロアFに設けられ、フロアFの所定の箇所(図2に示す右上方向)に映像出力装置30とカメラ40とが設置されている。映像出力装置30が映像コンテンツの映像情報を上映する正面側には、映像コンテンツを視聴者Wが視聴するために着座する席が設けられている。視聴者Wは、前述のように映像コンテンツを視聴する際に音声出力装置を装着する。
この施設では、視聴者Wが入室するためには会員登録が必要であり、視聴者Wの氏名、性別、年齢等の属性情報を管理し、それぞれの視聴者の動きがカメラ40による撮影により把握されるようになっている。なお、音声出力装置は、当該施設の管理者により貸与されたものであってもよい。これにより、会員登録されている視聴者Wの属性情報と、カメラ40が撮影した視聴者Wの画像データとが対応付けられるようになっており、視聴者Wの属性ごとの視聴状態情報を把握することが可能になっている。
さらに、このような構成により、視聴者Wは周囲の状況を気にすることなく、映像コンテンツの視聴に集中することが可能となっており、また、カフェスペースの利用者のように映像コンテンツを視聴していない者は、映像コンテンツの音声を気にすることなく飲食やその他の行為が可能となっている。
また、映像出力装置30はLEDパネル等により構成されているため、一定の明るさの光を視聴者W側に照射する。そのため、カメラ40は、その光により視聴者Wを一定の解像度で撮影することが可能になっている。
映像提供システム1が設置された施設は、図2に示すように、映画館のような閉鎖空間とは限られず、例えばコンビニエンスストアのイートインコーナーや、イベントスペースのような商業施設の空間であってもよい。また、飲食店内や、ホテルのラウンジ、マンションのような集合住宅の共有スペースのように、一定の静音性が確保されているスペースに映像提供システム1を設置してもよい。さらに、パチンコやパチスロ店のような遊技施設や、ゲームセンター、アミューズメント施設のように、一定の雑音がある施設に映像提供システム1を設置してもよい。
<1.2 端末装置10の構成>
図3は、実施の形態1の映像提供システム1を構成する端末装置10の機能的な構成を示すブロック図である。図2に示すように、端末装置10は、複数のアンテナ(アンテナ111、アンテナ112)と、各アンテナに対応する無線通信部(第1無線通信部121、第2無線通信部122)と、操作受付部130(タッチ・センシティブ・デバイス131及びディスプレイ132を含む)と、音声処理部140と、マイク141と、スピーカ142と、位置情報センサ150と、カメラ160と、記憶部170と、制御部180とを含む。端末装置10は、図2では特に図示していない機能及び構成(例えば、電力を保持するためのバッテリー、バッテリーから各回路への電力の供給を制御する電力供給回路など)も有している。図3に示すように、端末装置10に含まれる各ブロックは、バス等により電気的に接続される。
アンテナ111は、端末装置10が発する信号を電波として放射する。また、アンテナ111は、空間から電波を受信して受信信号を第1無線通信部121へ与える。
アンテナ112は、端末装置10が発する信号を電波として放射する。また、アンテナ112は、空間から電波を受信して受信信号を第2無線通信部122へ与える。
第1無線通信部121は、端末装置10が他の無線機器と通信するため、アンテナ111を介して信号を送受信するための変復調処理などを行う。第2無線通信部122は、端末装置10が他の無線機器と通信するため、アンテナ112を介して信号を送受信するための変復調処理などを行う。第1無線通信部121と第2無線通信部122とは、チューナー、RSSI(Received Signal Strength Indicator)算出回路、CRC(Cyclic Redundancy Check)算出回路、高周波回路などを含む通信モジュールである。第1無線通信部121と第2無線通信部122とは、端末装置10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部180へ与える。
操作受付部130は、ユーザの入力操作を受け付けるための機構を有する。具体的には、操作受付部130は、タッチスクリーンとして構成され、タッチ・センシティブ・デバイス131と、ディスプレイ132とを含む。なお、操作受付部130は、例えばキーボードやマウス等により構成してもよい。
タッチ・センシティブ・デバイス131は、端末装置10のユーザの入力操作を受け付ける。タッチ・センシティブ・デバイス131は、例えば静電容量方式のタッチパネルを用いることによって、タッチパネルに対するユーザの接触位置を検出する。タッチ・センシティブ・デバイス131は、タッチパネルにより検出したユーザの接触位置を示す信号を入力操作として制御部180へ出力する。
ディスプレイ132は、制御部180の制御に応じて、画像、動画、テキストなどのデータを表示する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイによって実現される。
音声処理部140は、音声信号の変復調を行う。音声処理部140は、マイク141から与えられる信号を変調して、変調後の信号を制御部180へ与える。また、音声処理部140は、音声信号をスピーカ142へ与える。音声処理部140は、例えば音声処理用のプロセッサによって実現される。マイク141は、音声入力を受け付けて、当該音声入力に対応する音声信号を音声処理部140へ与える。スピーカ142は、音声処理部140から与えられる音声信号を音声に変換して当該音声を端末装置10の外部へ出力する。
位置情報センサ150は、端末装置10の位置を検出するセンサであり、例えばGPS(Global Positioning System)モジュールである。GPSモジュールは、衛星測位システムで用いられる受信装置である。衛星測位システムでは、少なくとも3個または4個の衛星からの信号を受信し、受信した信号に基づいて、GPSモジュールが搭載される端末装置10の現在位置を検出する。
カメラ160は、受光素子により光を受光して、撮影画像として出力するためのデバイスである。カメラ160は、例えば、カメラ160から撮影対象までの距離を検出できる深度カメラである。
記憶部170は、例えばフラッシュメモリ等により構成され、端末装置10が使用するデータ及びプログラムを記憶する。ある局面において、記憶部170は、視聴者情報171を記憶する。
視聴者情報171は、映像提供システム1に会員登録されている視聴者の視聴者情報である。視聴者情報としては、サーバ20に登録されている視聴者を識別する情報(視聴者ID)、氏名、年齢、性別等が含まれる。
制御部180は、記憶部170に記憶されるプログラムを読み込んで、プログラムに含まれる命令を実行することにより、端末装置10の動作を制御する。制御部180は、例えば予め端末装置10にインストールされているアプリケーションである。制御部180は、プログラムにしたがって動作することにより、入力操作受付部181と、送受信部182と、データ処理部183と、通知制御部184としての機能を発揮する。
入力操作受付部181は、タッチ・センシティブ・デバイス131等の入力装置に対するユーザの入力操作を受け付ける処理を行う。入力操作受付部181は、タッチ・センシティブ・デバイス131に対してユーザが自己の指等を接触させた座標の情報に基づき、ユーザの操作がフリック操作であるか、タップ操作であるか、ドラッグ(スワイプ)操作であるか等の操作の種別を判定する。
送受信部182は、端末装置10が、サーバ20等の外部の装置と、通信プロトコルにしたがってデータを送受信するための処理を行う。
データ処理部183は、端末装置10が入力を受け付けたデータに対し、プログラムにしたがって演算を行い、演算結果をメモリ等に出力する処理を行う。
通知制御部184は、ユーザに対し情報を提示する処理を行う。通知制御部184は、表示画像をディスプレイ132に表示させる処理、音声をスピーカ142に出力させる処理、振動をカメラ160に発生させる処理等を行う。
<1.3 サーバ20の機能的な構成>
図4は、実施の形態1の映像提供システム1を構成するサーバ20の機能的な構成を示す図である。図4に示すように、サーバ20は、通信部201と、記憶部202と、制御部203としての機能を発揮する。
通信部201は、サーバ20が外部の装置と通信するための処理を行う。
記憶部202は、サーバ20が使用するデータ及びプログラムを記憶する。記憶部202は、視聴者データベース2021と、映像コンテンツデータベース2022と、カメラ撮影画像データベース2023等を記憶する。
視聴者データベース2021は、映像提供システム1を利用する視聴者の情報と、視聴者ごとの映像コンテンツを視聴した際の視聴状態情報を保持するためのデータベースである。詳細は後述する。なお、視聴者データベース2021は、当該施設に登録されている会員情報(属性情報を含む)を格納してもよい。
映像コンテンツデータベース2022は、映像提供システム1において提供する映像コンテンツ及びその上映時間の情報、すなわち映像出力装置30の上映スケジュールを保持するためのデータベースである。詳細は後述する。
カメラ撮影画像データベース2023は、映像提供システム1により映像コンテンツを視聴する視聴者を撮影した、カメラ40の画像データを時系列で保持するためのデータベースである。カメラ40の画像データは、日時情報が付加されてカメラ40からサーバ20へ送信されるので、その検知信号が格納される。
制御部203は、サーバ20のプロセッサがプログラムに従って処理を行うことにより、各種モジュールとして受信制御モジュール2031、送信制御モジュール2032、映像コンテンツ出力制御モジュール2033、カメラ撮影制御モジュール2034、視聴者識別モジュール2035、視聴状態取得モジュール2036、視聴者マッチングモジュール2037、及びレコメンドモジュール2038に示す機能を発揮する。
受信制御モジュール2031は、サーバ20が外部の装置から通信プロトコルに従って信号を受信する処理を制御する。
送信制御モジュール2032は、サーバ20が外部の装置に対し通信プロトコルに従って信号を送信する処理を制御する。
映像コンテンツ出力制御モジュール2033は、映像コンテンツを視聴者に視聴させるため、映像コンテンツの映像データ(音声データを含む)を映像出力装置30へ送信する処理を制御する。映像コンテンツ出力制御モジュール2033は、映像コンテンツデータベース2022を参照し、映像コンテンツを上映させる日時を示すスケジュール情報に基づき、映像コンテンツの画像データを送信すると共に、映像コンテンツを上映させるように制御信号を送信し、映像コンテンツのデータ容量やデータ形式、解像度等の情報も送信する。
このとき、映像コンテンツ出力制御モジュール2033は、映像出力装置30に対して、画像データを一括送信して上映させてもよく、ストリーミング形式で順次送信して上映させてもよい。なお、映像コンテンツ出力制御モジュール2033は、映像コンテンツの上映時間やクリエイターの氏名または名称等のクレジット情報を送信しても良い。
カメラ撮影制御モジュール2034は、カメラ40により視聴者を撮影し、撮影した画像データを生成する処理を制御する。例えば、図2に示す施設に新たな視聴者が来場した場合、必要に応じてカメラ40の撮影方向を移動させ、カメラ40に当該視聴者を撮影するように制御し、視聴者の動きに応じて追跡して撮影し、撮影した画像データを生成する。カメラ撮影制御モジュール2034により撮影された視聴者の画像データは、後述する視聴者識別モジュール2035による視聴者情報との紐付けに使用される。なお、図2に示す施設の入口付近に人感センサ(図示は省略)を設置して新たな視聴者を検知し、カメラ40の撮影方向を検知した視聴者の方向に移動させて撮影を継続するように制御してもよい。
また、カメラ撮影制御モジュール2034は、カメラ40による視聴者の撮影を、視聴者の目の状態や、目の周囲の状態を識別できるような解像度で撮影するように制御する。この画像データは、後述する視聴状態取得モジュール2036による視聴状態情報の取得に使用される。なお、人の目のまばたきを画像データとして取得するためには、一般には50fps(frame per second)以上のフレームレートが必要とされているため、カメラ40では、50fps以上のフレームレートで撮影が行われる。
視聴者識別モジュール2035は、カメラ40が撮影した画像データを取得し、画像データを解析して視聴者を個別に識別し、視聴者データベース2021に格納されている視聴者情報と紐付けを行う処理を制御する。例えば、視聴者識別モジュール2035は、カメラ40が撮影した画像データから抽出した視聴者の顔画像データと、視聴者データベース2021に格納されている視聴者の顔写真とを比較し、視聴者を個別に識別して視聴者情報と紐付けを行う。視聴者を個別に識別する手法としては、例えば、公知技術である機械学習等による顔画像の画像認識技術が用いられる。
また、視聴者識別モジュール2035は、図2に示す施設の入口で視聴者である会員の登録情報を、視聴者データベース2021に格納されている視聴者情報に照会して確認するので、その状態をカメラ40で撮影し、視聴者データベース2021に格納されている視聴者情報と紐付けを行ってもよい。さらに、視聴者識別モジュール2035は、会員登録されている視聴者が使用している端末装置10と通信を行い、位置情報センサ150による位置情報と、カメラ40が撮影した画像データとの位置関係を識別し、視聴者データベース2021に格納されている視聴者情報に含まれる各視聴者の端末装置10の情報と照会し、視聴者データベース2021に格納されている視聴者情報と紐付けを行ってもよい。
図5は、図4の視聴者識別モジュール2035における視聴者を識別する具体的手法を示す模式図である。視聴者識別モジュール2035では、図5に示す画像データW1において視聴者H1,H2の画像を抽出したフレームFLから、視聴者H1,H2の顔を示す顔画像F1,F2を識別して認識するため、公知技術である顔認識の手法が用いられる。この顔認識の手法は、例えば、図示しないデータベースとして保有している顔情報のデータベースと、フレームFL内の物体を照合し、眉、目、鼻、口のような各パーツと、その物体の輪郭の位置関係とから顔であるか否かを判定することにより行われる。これにより、視聴者の属性、例えば視聴者の年齢層や性別を判定することが可能である。
視聴状態取得モジュール2036は、カメラ40が撮影した画像データを取得し、画像データを解析して視聴者の視聴状態を示す視聴状態情報をそれぞれ取得し、視聴状態情報と、視聴者データベース2021に格納されている視聴者情報との紐付けを行う処理を制御する。ここで、視聴状態情報とは、例えば視聴者の涙腺の状態、視聴者の覚醒/睡眠の状態、視聴者の映像コンテンツに対する集中度、視聴者の映像コンテンツに対する満足度、視聴者の感情を示す情報である。視聴状態取得モジュール2036は、例えば、これらの視聴状態情報を、それぞれの情報を示す数値化した値としてそれぞれ算出し、それぞれの瞬間の値を取得し、さらにその値を積分した値を累積値として算出して取得してもよい。さらに、視聴状態取得モジュール2036は、これらの視聴状態情報の値から、統計学的な手法による外れ値を検出し、特異情報としてもよい。視聴状態取得モジュール2036は、例えば、視聴状態情報を、映像コンテンツの上映開始からの経過時間の情報と紐付けて、時系列で取得する。また、例えば、視聴状態取得モジュール2036は、図5に示す顔画像F1,F2から視聴者H1,H2の目の周囲の画像データを抽出し、視聴者の涙腺の状態を検出する。
図6は、図4の視聴状態取得モジュール2036における視聴状態を示す涙腺の状態を取得する具体的手法を示す模式図である。視聴状態取得モジュール2036では、図6に示す目Eの周囲の画像データから、目Eの情報にある涙腺ERの状態を検出する。一般的に、人が悲しい感情になり、涙を流しそうになると、涙腺ERが涙液を分泌して涙を流す状態になるため、涙腺ERが腫れた状態になる。これを検出することにより、視聴者の感情が悲しい状態であることを判定することが可能である。そのため、視聴状態取得モジュール2036は、視聴状態情報として涙腺ERの状態を通常の状態(例えば、映像コンテンツの視聴開始時)と比較して腫れた割合を取得し、この数値に基づき、視聴者の感情が悲しい状態であることを数値化して取得する。
他の例として、視聴状態取得モジュール2036は、図6に示す上瞼EL1と下瞼EL2との開閉の頻度を分析する。一般的に、人が何かに集中しているときは目の開閉は減少する傾向にあるため、目の開閉の頻度を分析することにより、視聴者の集中度を推定できると考えられる。また、視聴者が映像コンテンツの視聴に集中している場合、満足度も高いと考えられる。そのため、視聴状態取得モジュール2036は、視聴状態情報として上瞼EL1と下瞼EL2との開閉の頻度(回数)を取得し、この数値に基づき、視聴者の映像コンテンツに対する集中度、及び満足度を数値化して取得する。さらに、図6に示す上瞼EL1と下瞼EL2とが一定時間以上閉じている場合、視聴者が覚醒しておらず、睡眠状態であると考えられる。そのため、視聴状態取得モジュール2036は、視聴状態情報として上瞼EL1と下瞼EL2とが開いている状態の時間、または閉じている状態の時間を取得し、この数値に基づき、視聴者が覚醒/睡眠の状態(時間)を取得する。
さらに他の例として、視聴状態取得モジュール2036は、図5に示す顔画像F1,F2から、視聴者H1,H2ごとに表情の分析を行う。視聴状態取得モジュール2036は、図5に示す顔画像F1,F2から、視聴者H1,H2の表情を分析して視聴者の感情等を読み取るため、公知技術であるFACS(Facial Action Coding System:顔面動作符号化システム)等の手法が用いられる。このFACSは、顔の表情筋それぞれにアクションユニットと呼ばれるコードが割り振られ、顔の表情筋の動きに応じて変化するアクションユニットの強度やバランスに対応してそのときの感情を特定する手法であり、人の感情を認識するための人工知能技術である。そのため、視聴状態取得モジュール2036は、視聴状態情報として顔画像F1,F2の表情の状態を取得し、この表情筋の状態を示す数値に基づき、視聴者の感情を取得する。
視聴者マッチングモジュール2037は、視聴状態取得モジュール2036が取得した視聴状態情報に基づき、図2に示すような施設において同時に映像コンテンツを視聴している視聴者間のマッチングを行う処理を制御する。例えば、視聴者マッチングモジュール2037は、視聴していた映像コンテンツにおける近似する時間帯(同じシーン)で感情が変動した2人以上の視聴者同士、映像コンテンツの作品全体として満足度が近い2人以上の視聴者同士をマッチングする。なお、視聴者マッチングモジュール2037は、映像コンテンツを視聴した視聴者の、当該映像コンテンツに対する集中度、満足度のランキングを視聴者全員に提示し、視聴者同士でアクセス可能なようにすることで、視聴者同士のマッチングを促すように構成してもよい。このときの集中度及び満足度は、映像コンテンツの作品全体としての値でもよく、瞬間的な最大値でもよい。
また、視聴者マッチングモジュール2037は、視聴していた映像コンテンツに対する感情の種類(楽しい、興奮、嬉しい、悲しい等)が近似する2人以上の視聴者同士をマッチングする。さらに、視聴者マッチングモジュール2037は、視聴していた映像コンテンツに対する集中度、及び満足度が近似する2人以上の視聴者同士をマッチングする。
レコメンドモジュール2038は、視聴者マッチングモジュール2037によるマッチング結果を、マッチングされた当該視聴者へそれぞれレコメンドする処理を制御する。具体的には、レコメンドモジュール2038は、マッチングされた当該視聴者の端末装置10へ、レコメンドする通知として送信し、当該視聴者へ通知する。このとき、レコメンドモジュール2038は、どのような理由によりマッチングされたのかを示す視聴状態情報(例えば、映像コンテンツの所定のシーンで同じような感情の変化を示した、または当該映像コンテンツに対する満足度等)を通知してもよく、視聴者情報を通知してもよい。
例えば、レコメンドモジュール2038は、図2に示す施設の中において、マッチングされた相手の視聴者がいる位置情報を通知する。位置情報とは、映画館のような施設における席の番号、図2に示すようなカフェスペース等のテーブル番号である。また、レコメンドモジュール2038は、図2に示す施設のレイアウト情報(平面図)を端末装置10へ表示(提示)させ、マッチングされた相手の視聴者がいる位置をレイアウト情報の中に表示(提示)してもよい。
また、レコメンドモジュール2038は、マッチングされた視聴者同士が、施設の中または近傍の所定の場所(例えば、施設内におけるロビー)に移動して集合するように通知する。さらに、レコメンドモジュール2038は、図2に示す施設または近傍のレイアウト情報(平面図)を端末装置10へ表示(提示)させ、マッチングされた視聴者同士が移動する位置をレイアウト情報の中に表示(提示)してもよい。
また、レコメンドモジュール2038は、マッチングされた視聴者同士がその場で交流するように促すだけではなく、連絡先を通知して(例えば、非対面で)交流するように促してもよい。連絡先として、メールアドレス、各種SNSのアカウント情報でもよく、映像提供システム1で提供する(交流サイト等の)アカウント情報であってもよい。さらにまた、レコメンドモジュール2038は、マッチングされた相手の視聴者が視聴した映像コンテンツをレコメンドしてもよく、マッチング情報の通知後、相手の視聴者が視聴した映像コンテンツをレコメンドしてもよく、相手の視聴者が視聴する予定の映像コンテンツの日時情報をレコメンドして再開を促してもよい。
さらに、レコメンドモジュール2038は、マッチングされた視聴者の通知に対する可否情報、具体的には会うことを許可または拒否する入力を促し、端末装置10へ表示(提示)させてもよい。この場合、レコメンドモジュール2038は、許可または拒否する入力を受け付けると、マッチングされた相手の視聴者へ通知してもよい。
<2 データ構造>
図7は、サーバ20が記憶する視聴者データベース2021、映像コンテンツデータベース2022のデータ構造を示す図である。
図7に示すように、視聴者データベース2021のレコードのそれぞれは、「視聴者ID」と、項目「視聴者名」と、項目「年齢」と、項目「性別」と、項目「顔写真データ」と、項目「視聴映像」と、項目「視聴状態情報」と、項目「マッチングID」等を含む。
項目「視聴者ID」は、映像提供システム1を利用する施設に会員登録されている視聴者それぞれを識別する情報である。
項目「視聴者名」は、映像提供システム1を利用する施設に会員登録されている視聴者の氏名を示す情報である。
項目「年齢」は、映像提供システム1を利用する施設に会員登録されている視聴者の年齢を示す情報である。
項目「性別」は、映像提供システム1を利用する施設に会員登録されている視聴者の性別を示す情報である。
項目「顔写真データ」は、映像提供システム1を利用する施設に会員登録されている視聴者の顔を撮影した写真画像データを示す情報である。
項目「視聴映像」は、映像提供システム1を利用して当該視聴者が視聴した映像コンテンツそれぞれを識別する情報であり、後述する映像コンテンツデータベース2022の項目「コンテンツID」に対応している。なお、視聴者データベース2021における当該項目以降の情報は、当該視聴者が視聴した映像コンテンツの数だけ格納されている。
項目「視聴状態情報」は、映像提供システム1を利用して当該視聴者が、項目「視聴映像」に示す映像コンテンツを視聴した際の視聴状態情報であり、例えば、視聴時間、涙腺の状態、集中度等の情報が格納されている。視聴状態取得モジュール2036が取得した情報である。
項目「マッチングID」は、映像提供システム1を利用した当該視聴者にマッチングされた視聴者それぞれを識別する情報であり、項目「視聴者ID」に対応している。
サーバ20の視聴状態取得モジュール2036は、映像提供システム1を利用して視聴者が映像コンテンツを視聴して視聴者の視聴状態情報を取得するごとに、視聴者データベース2021を更新する。視聴者マッチングモジュール2037は、視聴者同士をマッチングするごとに、視聴者データベース2021を更新する。
映像コンテンツデータベース2022のレコードのそれぞれは、項目「施設ID」と、項目「施設名」と、項目「コンテンツ上映情報」等を含む。
項目「施設ID」は、映像提供システム1が設置された施設それぞれを識別する情報である。1つの施設に映像出力装置30が複数設置され、それぞれ異なる映像コンテンツを上映する場合、異なる値の項目「施設ID」が付与され、別々に管理される。
項目「施設名」は、映像提供システム1が設置された施設の名称を示す情報である。
項目「コンテンツ上映情報」は、映像提供システム1を利用する施設で上映される映画等の映像コンテンツの上映スケジュールの情報であり、具体的には、項目「開始日時」と、項目「終了時刻」と、項目「コンテンツID」等を含む。図7に示すように、1の項目「施設ID」に対して、1または複数の項目「コンテンツ上映情報」が時系列で格納されている。
項目「開始日時」は、当該施設で上映される映像コンテンツの開始日及び開始時刻を示す情報である。
項目「終了時刻」は、当該施設で上映される映像コンテンツの終了時刻を示す情報である。
項目「コンテンツID」は、当該施設で上映される映像コンテンツそれぞれを識別する情報である。
サーバ20は、施設の管理者から映像コンテンツの上映情報の入力を受け付けることに伴って、映像コンテンツデータベース2022を更新する。
<3 動作>
以下、図8ないし図10を参照しながら、第1の実施の形態における映像提供システム1による視聴者識別、視聴状態取得、及び視聴者マッチングの各処理について説明する。
図8は、実施の形態1の映像提供システム1による視聴者識別処理を行う流れの一例を示すフローチャートである。
ステップS121において、カメラ40は、視聴者を撮影し、撮影した画像データを生成する。例えば、新たな視聴者が来場した場合、必要に応じて撮影方向を移動させ、当該視聴者の動きに応じて追跡して撮影する。カメラ40は、撮影した画像データをサーバ20へ送信する。
ステップS111において、サーバ20のカメラ撮影制御モジュール2034は、カメラ40から送信された画像データを、通信部201を介して受信する。また、カメラ撮影制御モジュール2034は、受信した画像データをカメラ撮影画像データベース2023へ格納する。
ステップS112において、サーバ20の視聴者識別モジュール2035は、ステップS111で受信した画像データを解析し、視聴者を個別に識別する。
ステップS113において、サーバ20の視聴者識別モジュール2035は、ステップS112識別した視聴者について、視聴者データベース2021に格納されている視聴者情報と紐付けを行う。例えば、視聴者識別モジュール2035は、カメラ40が撮影した画像データから抽出した視聴者の顔画像データと、視聴者データベース2021に格納されている視聴者の顔写真とを比較し、視聴者を個別に識別して視聴者情報との紐付けを行う。
以上のように、映像提供システム1は、カメラ40で視聴者を撮影し、視聴者を個別に識別して視聴者情報との紐付けを行う。これにより、視聴者を個別にトレーシングし、後続の視聴状態情報の取得処理やマッチング処理に結びつける。
図9は、実施の形態1の映像提供システム1による視聴状態取得処理を行う流れの一例を示すフローチャートである。
ステップS221において、サーバ20の映像コンテンツ出力制御モジュール2033は、映像コンテンツデータベース2022を参照し、映像コンテンツを上映させる日時を管理する。映像コンテンツ出力制御モジュール2033は、映像コンテンツを上映するために送信すべき時間になると、ステップS222の処理へ進む。
ステップS222において、サーバ20の映像コンテンツ出力制御モジュール2033は、映像コンテンツを視聴者に視聴させるため、映像コンテンツの映像データを映像出力装置30へ、通信部201を介して送信する。
ステップS212において、映像出力装置30は、サーバ20が送信する映像コンテンツの映像データを受信し、映像として上映する。
ステップS233において、カメラ40は、映像を視聴している視聴者を撮影し、撮影した画像データを生成する。カメラ40は、撮影した画像データをサーバ20へ送信する。
ステップS223において、サーバ20のカメラ撮影制御モジュール2034は、カメラ40から送信された画像データを、通信部201を介して受信する。また、カメラ撮影制御モジュール2034は、受信した画像データをカメラ撮影画像データベース2023へ格納する。
ステップS224において、サーバ20の視聴状態取得モジュール2036は、ステップS223で受信した画像データを解析して視聴者の視聴状態情報をそれぞれ取得し、視聴状態情報と、視聴者データベース2021に格納されている視聴者情報との紐付けを行う。例えば、視聴状態取得モジュール2036は、視聴状態情報を、映像コンテンツの上映開始からの経過時間の情報と紐付けて、時系列で取得する。
ステップS225において、サーバ20の視聴状態取得モジュール2036は、視聴状態情報を視聴者データベース2021へ格納する。
以上のように、映像提供システム1は、所定の時間になると映像コンテンツの映像データを映像出力装置30へ送信する。映像出力装置30は、映像データを映像として上映する。この映像を視聴する視聴者をカメラ40で撮影し、撮影した画像データから、視聴状態情報を取得する。これにより、映像コンテンツに対する視聴者の反応を視聴者情報に紐づけて把握することが可能になる。
図10は、実施の形態1の映像提供システム1による視聴者マッチング処理を行う流れの一例を示すフローチャートである。
ステップS311において、サーバ20の視聴者マッチングモジュール2037は、ステップS224で取得した視聴状態情報に基づき、図2に示すような施設において同時に映像コンテンツを視聴している視聴者間のマッチングを行う。例えば、視聴者マッチングモジュール2037は、視聴していた映像コンテンツにおける近似する時間帯(同じシーン)で感情が変動した2人以上の視聴者同士をマッチングする。
ステップS312において、サーバ20のレコメンドモジュール2038は、ステップS311でマッチングしたマッチング結果を、マッチングされた当該視聴者の端末装置10へ、レコメンドする通知として通信部201を介して送信する。
ステップS322において、端末装置10の送受信部172は、サーバ20から送信されたマッチング結果を受信する。
ステップS323において、端末装置10の通知制御部174は、受信したマッチング結果を、ディスプレイ132に表示させる。
以上のように、映像提供システム1のサーバ20は、視聴者の視聴状態情報に基づき、映画館等の施設において同時に映像コンテンツを視聴している視聴者間のマッチングを行い、当該視聴者へ通知する。これにより、同じ映像コンテンツを視聴して同じような反応を示した視聴者同士をつなげ、視聴者同士で共感してもらうことが可能になる。
<4 画面例>
以下、図11ないし図13を参照しながら、映像提供システム1による視聴者マッチング処理の画面例について説明する。
図11は、視聴者マッチング処理におけるマッチング相手を通知する端末装置10の画面例を示す図である。図11の画面例は、サーバ20のレコメンドモジュール2038による、マッチングされた当該視聴者へのレコメンドの通知内容を表示した画面例を示す。図10のステップS323に相当する。
図11に示すように、端末装置10のディスプレイ132には、視聴者マッチングモジュール2037によるマッチング結果として、映画館等の施設の中におけるマッチング相手の視聴者がいる席の番号である位置情報1031aと、視聴者マッチングモジュール2037によるマッチング理由1031bと、当該マッチング相手への連絡を許可することを通知する許可通知ボタン1031cと、当該マッチング相手への連絡を許可しないことを通知する拒否通知ボタン1031dとが表示されている。
このマッチング結果が通知された視聴者は、位置情報1031aに、視聴していた映像コンテンツに対する感想等が共通する視聴者がいることを知ることができる。また、このマッチング相手と会うことを希望する場合には許可通知ボタン1031cを押下し、会うことを希望しない場合には拒否通知ボタン1031dを押下する。このような許可通知ボタン1031c及び拒否通知ボタン1031dにより、マッチング相手への通知が容易になる。
図12は、視聴者マッチング処理におけるマッチング相手を通知する端末装置10の他の画面例を示す図である。図12の画面例は、サーバ20のレコメンドモジュール2038による、マッチングされた当該視聴者へのレコメンドの通知内容を表示した画面例を示す。図10のステップS323に相当する。
図12に示すように、端末装置10のディスプレイ132には、映画館等の施設のレイアウト情報を示す座席表1032aと、レイアウト情報における席の位置を示す席情報1032bと、視聴者マッチングモジュール2037によるマッチング結果として、レイアウト情報においてマッチング相手の視聴者がいる席の位置である席情報1032cとが表示されている。このようなレイアウト情報にマッチング相手の視聴者の位置情報を表示することにより、マッチング相手の位置を把握することが容易になる。
図13は、視聴者マッチング処理における集合場所を通知する端末装置10の画面例を示す図である。図13の画面例は、サーバ20のレコメンドモジュール2038による、マッチングされた当該視聴者へのレコメンドの通知内容を表示した画面例を示す。図10のステップS323に相当する。
図13に示すように、端末装置10のディスプレイ132には、映画館等の施設のレイアウト情報を示す座席表1033aと、レイアウト情報における席の位置を示す席情報1033bと、視聴者マッチングモジュール2037によるマッチング結果として、レイアウト情報においてマッチング相手の視聴者と集合する位置である席情報1033cとが表示されている。このようなレイアウト情報にマッチング相手の視聴者との集合位置の情報を表示することにより、集合する位置を把握することが容易になる。
<小括>
以上のように、本実施形態によると、視聴者が映像コンテンツを視聴している状態をカメラで撮影し、撮影した画像データから、視聴者の顔を識別してそれぞれの視聴者の顔を検知し、視聴者情報との紐付けを行う。これにより、視聴者の行動を追跡するトラッキングが可能になり、視聴者の行動を把握することが可能になる。
また、画像データにおける視聴者の顔の状態から、顔の表情や目の状態、涙腺の状態を解析し、視聴者の覚醒/睡眠の状態、視聴者の映像コンテンツに対する集中度、満足度、感情を示す視聴状態情報を取得し、視聴者情報と紐付けを行う。そのため、映像コンテンツに対する視聴者の反応を示す情報を、視聴者情報に紐づけて取得することができる。これにより、視聴者情報に含まれる視聴者の属性ごとに映像コンテンツに対する視聴者の反応を示す情報を取得することができるので、視聴者の属性ごとの分析が可能になる。
さらに、視聴者の視聴状態情報に基づき、映画館等の施設において同時に映像コンテンツを視聴している視聴者間のマッチングを行い、当該視聴者へ通知する。これにより、同じ映像コンテンツを視聴する、という共通の体験について、同じような感想を有する者同士をつなげて共感させることを可能にし、映画館の新たな価値を提供することが可能になる。
<第2の実施の形態>
以下、映像提供システム1の他の実施の形態について説明する。
<1 映像提供システム1の全体構成>
図13は、実施の形態2の映像提供システム1を構成するサーバ20の機能的な構成を示す図である。第2の実施の形態における映像提供システム1の全体の構成、端末装置10の構成は、第1の実施の形態と同様であるので、繰り返して説明しない。サーバ20の構成については、図13に示すように、新たに映像コンテンツ評価モジュール2039の機能を備える以外、第1の実施の形態と同様である。以下、第2の実施の形態における映像コンテンツ評価モジュール2039の機能について説明する。
映像コンテンツ評価モジュール2039は、視聴状態取得モジュール2036が取得した視聴状態情報に基づき、対象となる映像コンテンツの評価情報を生成する処理を制御する。上記のように、視聴状態情報には、映像コンテンツに対する集中度、映像コンテンツに対する満足度、視聴者の感情が含まれるため、これらの情報に基づき、当該映像コンテンツの評価情報を生成する。
例えば、ある映像コンテンツを視聴した視聴者の視聴状態情報が一定数収集できると、当該映像コンテンツを視聴した視聴者がどのシーンで感情を変化させたか、集中したか等の情報が取得できる。これにより、当該映像コンテンツを視聴した視聴者の集中度や満足度、感情の傾向を把握することが可能であり、これによる映像コンテンツの評価が可能になる。また、このような評価は、視聴者の属性に基づいて行うことが可能である。映像コンテンツ評価モジュール2039は、このような映像コンテンツに対する評価情報を生成する。
また、映像コンテンツの評価情報は、映像コンテンツの経過時間に対応させて取得してもよい。このような経過時間に対応した評価情報により、視聴者が最も感動した、興奮したシーン等を把握することができるので、当該映像コンテンツのプロモーションに活用することが可能になる。
<2 データ構造>
実施の形態2におけるデータ構造は、実施の形態1と同様である。
<3 動作>
実施の形態2における動作は、実施の形態1と同様である。
<小括>
以上のように、本実施形態によると、映像コンテンツの視聴者の視聴状態情報に基づき、対象となる映像コンテンツの評価情報を生成する。これにより、映像コンテンツに対する評価に基づき、プロモーション等の手法を分析することが可能になる。
以上、開示に係る実施形態について説明したが、これらはその他の様々な形態で実施することが可能であり、種々の省略、置換及び変更を行なって実施することができる。これらの実施形態及び変形例ならびに省略、置換及び変更を行なったものは、特許請求の範囲の技術的範囲とその均等の範囲に含まれる。
<付記>
以上の各実施形態で説明した事項を、以下に付記する。
(付記1)プロセッサと、メモリとを備えるコンピュータに実行させるためのプログラムであって、プログラムは、メモリに、映像を上映する施設において、映像を視聴する視聴者として登録されている視聴者情報を記憶させ、プログラムは、プロセッサに、映像を視聴する複数の視聴者を撮影した画像データから、視聴者を個別に識別し、視聴者情報とそれぞれ紐付けを行うステップと、画像データを視聴者ごとに解析し、視聴者の視聴状態を示す視聴状態情報をそれぞれ取得し、視聴者情報とそれぞれ紐付けを行うステップと、視聴者ごとの視聴状態情報に基づき、当該施設における視聴者間のマッチングを行うステップと、を実行させる、プログラム。
(付記2)プログラムはプロセッサに、さらに、マッチングされた視聴者に関する視聴者情報を、マッチングされた相手の視聴者へそれぞれレコメンドするステップを実行させる、(付記1)に記載のプログラム。
(付記3)マッチングされた視聴者の施設における位置情報を、マッチングされた相手の視聴者へそれぞれ通知する、(付記2)に記載のプログラム。
(付記4)施設のレイアウト情報を提示し、マッチングされた視聴者の位置情報をレイアウト情報の中に提示する、(付記3)に記載のプログラム。
(付記5)施設の中または施設の近傍に、マッチングされた視聴者同士が移動するようにレコメンドする、(付記2)に記載のプログラム。
(付記6)施設のレイアウト情報を提示し、マッチングされた視聴者同士が移動する移動先の位置をレイアウト情報の中に提示する、(付記5)に記載のプログラム。
(付記7)視聴者情報とともに、視聴者情報にかかる視聴者の視聴状態情報を通知する、(付記2)から(付記6)のいずれかに記載のプログラム。
(付記8)視聴者情報とともに、視聴者情報にかかる視聴者が視聴した映像の情報を通知する、(付記2)から(付記7)のいずれかに記載のプログラム。
(付記9)プログラムはプロセッサに、さらに、マッチングされた視聴者に対する、マッチング結果の可否情報を受け付け、マッチングされた相手の視聴者へそれぞれ通知するステップを実行させる、(付記2)から(付記8)のいずれかに記載のプログラム。
(付記10)視聴状態情報を、映像の上映開始からの経過時間の情報と紐付けて時系列で取得する、(付記1)から(付記9)のいずれかに記載のプログラム。
(付記11)画像データを解析し、視聴者の涙腺の状態、視聴者の覚醒/睡眠の状態、視聴者の映像に対する集中度、視聴者の映像に対する満足度、視聴者の感情のいずれか1つまたは複数を示す情報を、視聴状態情報として取得する、(付記1)から(付記10)のいずれかに記載のプログラム。
(付記12)視聴者の涙腺の状態、視聴者の覚醒/睡眠の状態、視聴者の映像に対する集中度、視聴者の映像に対する満足度、視聴者の感情を示す数値化した値としてそれぞれ算出して取得する、(付記11)に記載のプログラム。
(付記13)プログラムはプロセッサに、さらに、視聴者ごとの視聴状態情報に基づき、映像の評価情報を生成する、(付記1)から(付記12)のいずれかに記載のプログラム。
(付記14)映像の評価情報に基づき、当該施設における視聴者間のマッチングを行う、(付記1)から(付記13)のいずれかに記載のプログラム。
(付記15)制御部と、記憶部とを備える情報処理装置であって、記憶部は、映像を上映する施設において、映像を視聴する視聴者として登録されている視聴者情報を記憶し、制御部は、映像を視聴する複数の視聴者を撮影した画像データから、視聴者を個別に識別し、視聴者情報とそれぞれ紐付けを行うステップと、画像データを視聴者ごとに解析し、視聴者の視聴状態を示す視聴状態情報をそれぞれ取得し、視聴者情報とそれぞれ紐付けを行うステップと、視聴者ごとの視聴状態情報に基づき、当該施設における視聴者間のマッチングを行うステップと、を実行する、情報処理装置。
(付記16)プロセッサと、メモリとを備えるコンピュータにより実行されるための方法であって、方法は、メモリに、映像を上映する施設において、映像を視聴する視聴者として登録されている視聴者情報を記憶し、方法は、プロセッサが、映像を視聴する複数の視聴者を撮影した画像データから、視聴者を個別に識別し、視聴者情報とそれぞれ紐付けを行うステップと、画像データを視聴者ごとに解析し、視聴者の視聴状態を示す視聴状態情報をそれぞれ取得し、視聴者情報とそれぞれ紐付けを行うステップと、視聴者ごとの視聴状態情報に基づき、当該施設における視聴者間のマッチングを行うステップと、を実行する、方法。
10 端末装置、20 サーバ、80 ネットワーク、130 操作受付部、171 ユーザ情報、22 通信IF、23 入出力IF、25 メモリ、26 ストレージ、29 プロセッサ、201 通信部、202 記憶部、2021 視聴者データベース、2022 映像コンテンツデータベース、2023 カメラ撮影画像データベース、203 制御部、301 通信部、302 記憶部、303 制御部

Claims (12)

  1. プロセッサと、メモリとを備えるコンピュータに実行させるためのプログラムであって、
    前記プログラムは、前記メモリに、
    映像を上映する施設において、前記映像を視聴する視聴者として登録されている視聴者情報を記憶させ、
    前記プログラムは、前記プロセッサに、
    前記映像を視聴する複数の視聴者を撮影した画像データから、前記視聴者を個別に識別し、前記視聴者情報とそれぞれ紐付けを行うステップと、
    前記画像データを前記視聴者ごとに解析し、前記視聴者の視聴状態を示す視聴状態情報をそれぞれ取得し、前記視聴者情報とそれぞれ紐付けを行うステップと、
    前記視聴者ごとの前記視聴状態情報に基づき、当該施設における前記視聴者間のマッチングを行うステップと
    前記視聴者が使用する端末装置の位置情報センサによる位置情報を取得し、前記位置情報センサによる位置情報と、前記画像データにおける位置情報とから、前記視聴者を個別に識別し、前記視聴者の前記施設における位置情報を取得するステップと、
    マッチングされた前記視聴者に関する前記視聴者情報を、マッチングされた相手の前記視聴者へそれぞれレコメンドし、マッチングされた前記視聴者の前記施設における位置情報と、マッチングされた前記視聴者のマッチングされた理由とを、マッチングされた相手の前記視聴者へ通知するステップと、を実行させる、プログラム。
  2. 前記端末装置にあらかじめ記憶された前記施設のレイアウト情報を提示し、マッチングされた前記視聴者の位置情報に基づき特定された前記レイアウト情報における前記視聴者の位置情報を前記レイアウト情報の中に提示する、請求項1に記載のプログラム。
  3. 前記視聴者情報とともに、前記視聴者情報にかかる前記視聴者の前記視聴状態情報を通知する、請求項1または請求項2に記載のプログラム。
  4. 前記視聴者情報とともに、前記視聴者情報にかかる前記視聴者が視聴した映像の情報を通知する、請求項1から請求項3のいずれか1項に記載のプログラム。
  5. 前記プログラムは前記プロセッサに、さらに、
    マッチングされた前記視聴者に対する、マッチング結果の可否情報を受け付け、マッチングされた相手の前記視聴者へそれぞれ通知するステップを実行させる、請求項1から請求項4のいずれか1項に記載のプログラム。
  6. 前記視聴状態情報を、前記映像の上映開始からの経過時間の情報と紐付けて時系列で取得する、請求項1から請求項5のいずれか1項に記載のプログラム。
  7. 前記画像データを解析し、前記視聴者の涙腺の状態、前記視聴者の覚醒/睡眠の状態、前記視聴者の前記映像に対する集中度、前記視聴者の前記映像に対する満足度、前記視聴者の感情のいずれか1つまたは複数を示す情報を、前記視聴状態情報として取得する、請求項1から請求項6のいずれか1項に記載のプログラム。
  8. 前記視聴者の涙腺の状態、前記視聴者の覚醒/睡眠の状態、前記視聴者の前記映像に対する集中度、前記視聴者の前記映像に対する満足度、前記視聴者の感情を示す数値化した値としてそれぞれ算出して取得する、請求項7に記載のプログラム。
  9. 前記プログラムは前記プロセッサに、さらに、
    前記視聴者ごとの前記視聴状態情報に基づき、前記映像の評価情報を生成する、請求項1から請求項8のいずれか1項に記載のプログラム。
  10. 前記映像の評価情報に基づき、当該施設における前記視聴者間のマッチングを行う、請求項1から請求項9のいずれか1項に記載のプログラム。
  11. 制御部と、記憶部とを備える情報処理装置であって、
    前記記憶部は、
    映像を上映する施設において、前記映像を視聴する視聴者として登録されている視聴者情報を記憶し、
    前記制御部は、
    前記映像を視聴する複数の視聴者を撮影した画像データから、前記視聴者を個別に識別し、前記視聴者情報とそれぞれ紐付けを行うステップと、
    前記画像データを前記視聴者ごとに解析し、前記視聴者の視聴状態を示す視聴状態情報をそれぞれ取得し、前記視聴者情報とそれぞれ紐付けを行うステップと、
    前記視聴者ごとの前記視聴状態情報に基づき、当該施設における前記視聴者間のマッチングを行うステップと
    前記視聴者が使用する端末装置の位置情報センサによる位置情報を取得し、前記位置情報センサによる位置情報と、前記画像データにおける位置情報とから、前記視聴者を個別に識別し、前記視聴者の前記施設における位置情報を取得するステップと、
    マッチングされた前記視聴者に関する前記視聴者情報を、マッチングされた相手の前記視聴者へそれぞれレコメンドし、マッチングされた前記視聴者の前記施設における位置情報と、マッチングされた前記視聴者のマッチングされた理由とを、マッチングされた相手の前記視聴者へ通知するステップと、を実行する、情報処理装置。
  12. プロセッサと、メモリとを備えるコンピュータにより実行されるための方法であって、
    前記方法は、前記メモリに、
    映像を上映する施設において、前記映像を視聴する視聴者として登録されている視聴者情報を記憶し、
    前記方法は、前記プロセッサが、
    前記映像を視聴する複数の視聴者を撮影した画像データから、前記視聴者を個別に識別し、前記視聴者情報とそれぞれ紐付けを行うステップと、
    前記画像データを前記視聴者ごとに解析し、前記視聴者の視聴状態を示す視聴状態情報をそれぞれ取得し、前記視聴者情報とそれぞれ紐付けを行うステップと、
    前記視聴者ごとの前記視聴状態情報に基づき、当該施設における前記視聴者間のマッチングを行うステップと
    前記視聴者が使用する端末装置の位置情報センサによる位置情報を取得し、前記位置情報センサによる位置情報と、前記画像データにおける位置情報とから、前記視聴者を個別に識別し、前記視聴者の前記施設における位置情報を取得するステップと、
    マッチングされた前記視聴者に関する前記視聴者情報を、マッチングされた相手の前記視聴者へそれぞれレコメンドし、マッチングされた前記視聴者の前記施設における位置情報と、マッチングされた前記視聴者のマッチングされた理由とを、マッチングされた相手の前記視聴者へ通知するステップと、を実行する、方法。
JP2020179455A 2020-10-27 2020-10-27 プログラム、情報処理装置及び方法 Active JP6905775B1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020179455A JP6905775B1 (ja) 2020-10-27 2020-10-27 プログラム、情報処理装置及び方法
JP2021102313A JP2022070805A (ja) 2020-10-27 2021-06-21 プログラム、情報処理装置及び方法
US18/248,683 US20230394878A1 (en) 2020-10-27 2021-07-16 Program, information processing device, and method
PCT/JP2021/026847 WO2022091493A1 (ja) 2020-10-27 2021-07-16 プログラム、情報処理装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020179455A JP6905775B1 (ja) 2020-10-27 2020-10-27 プログラム、情報処理装置及び方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021102313A Division JP2022070805A (ja) 2020-10-27 2021-06-21 プログラム、情報処理装置及び方法

Publications (2)

Publication Number Publication Date
JP6905775B1 true JP6905775B1 (ja) 2021-07-21
JP2022070404A JP2022070404A (ja) 2022-05-13

Family

ID=76918246

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020179455A Active JP6905775B1 (ja) 2020-10-27 2020-10-27 プログラム、情報処理装置及び方法
JP2021102313A Pending JP2022070805A (ja) 2020-10-27 2021-06-21 プログラム、情報処理装置及び方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021102313A Pending JP2022070805A (ja) 2020-10-27 2021-06-21 プログラム、情報処理装置及び方法

Country Status (3)

Country Link
US (1) US20230394878A1 (ja)
JP (2) JP6905775B1 (ja)
WO (1) WO2022091493A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102626061B1 (ko) * 2023-04-21 2024-01-16 주식회사 티빙 콘텐츠에 대한 사용자의 감정 정보에 기반하여 서비스를 제공하는 방법 및 장치

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002063378A (ja) * 2000-08-15 2002-02-28 Nippon Telegr & Teleph Corp <Ntt> 情報提示方法および装置
JP2003058482A (ja) * 2001-08-14 2003-02-28 Fujitsu Ltd エリアチャットルーム提供方法,端末側エリアチャット処理方法,エリアチャットルーム提供処理プログラム記録媒体,エリアチャットルーム提供装置
JP2007036874A (ja) * 2005-07-28 2007-02-08 Univ Of Tokyo 視聴者情報測定システム及びこれを用いたマッチングシステム
JP2011128790A (ja) * 2009-12-16 2011-06-30 Jvc Kenwood Holdings Inc ユーザ情報処理プログラム、ユーザ情報処理装置、及び、ユーザ情報処理方法
WO2017056245A1 (ja) * 2015-09-30 2017-04-06 楽天株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JP2020021375A (ja) * 2018-08-02 2020-02-06 大日本印刷株式会社 情報処理装置、情報処理方法及びプログラム
JP2020035130A (ja) * 2018-08-29 2020-03-05 Kddi株式会社 出会い支援システム、端末装置、サーバ装置、出会い支援方法及びコンピュータプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002063378A (ja) * 2000-08-15 2002-02-28 Nippon Telegr & Teleph Corp <Ntt> 情報提示方法および装置
JP2003058482A (ja) * 2001-08-14 2003-02-28 Fujitsu Ltd エリアチャットルーム提供方法,端末側エリアチャット処理方法,エリアチャットルーム提供処理プログラム記録媒体,エリアチャットルーム提供装置
JP2007036874A (ja) * 2005-07-28 2007-02-08 Univ Of Tokyo 視聴者情報測定システム及びこれを用いたマッチングシステム
JP2011128790A (ja) * 2009-12-16 2011-06-30 Jvc Kenwood Holdings Inc ユーザ情報処理プログラム、ユーザ情報処理装置、及び、ユーザ情報処理方法
WO2017056245A1 (ja) * 2015-09-30 2017-04-06 楽天株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JP2020021375A (ja) * 2018-08-02 2020-02-06 大日本印刷株式会社 情報処理装置、情報処理方法及びプログラム
JP2020035130A (ja) * 2018-08-29 2020-03-05 Kddi株式会社 出会い支援システム、端末装置、サーバ装置、出会い支援方法及びコンピュータプログラム

Also Published As

Publication number Publication date
WO2022091493A1 (ja) 2022-05-05
US20230394878A1 (en) 2023-12-07
JP2022070404A (ja) 2022-05-13
JP2022070805A (ja) 2022-05-13

Similar Documents

Publication Publication Date Title
US11587272B2 (en) Intelligent interactive and augmented reality cloud platform
CN112292866B (zh) 一种涉及视频会议的方法、***及存储介质
CN109564706B (zh) 基于智能交互式增强现实的用户交互平台
US20230045762A1 (en) Sharing digital media assets for presentation within an online social network
Alharbi et al. I can't be myself: effects of wearable cameras on the capture of authentic behavior in the wild
KR20210046085A (ko) 이미지를 분석하기 위한 웨어러블기기 및 방법
US20100060713A1 (en) System and Method for Enhancing Noverbal Aspects of Communication
WO2018049430A2 (en) An intelligent interactive and augmented reality based user interface platform
US11483618B2 (en) Methods and systems for improving user experience
CN102577367A (zh) 时移视频通信
CN105431852A (zh) 提供健康状态信息的电子装置及其控制方法,以及计算机可读存储介质
KR20170012979A (ko) 영상 공유 서비스를 위한 전자 장치 및 방법
JP2010272077A (ja) 情報再生方法及び情報再生装置
JP6728863B2 (ja) 情報処理システム
US11647147B2 (en) User-specific customization of video conferences using multimodal biometric characterization
US10848711B2 (en) Communication system for use with protected persons
WO2022091493A1 (ja) プログラム、情報処理装置及び方法
EP3965369A1 (en) Information processing apparatus, program, and information processing method
KR20210070119A (ko) 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템
JP6887146B2 (ja) 作業支援装置、作業支援方法、およびプログラム
US20240220752A1 (en) Artificial Reality System for Code Recognition and Health Metrics
US20220230469A1 (en) Device and method for determining engagment of a subject
JP6856959B1 (ja) 情報処理装置、システム、方法及びプログラム
US20220398545A1 (en) Information processing apparatus, environment setting system, and non-transitory recording medium
JP2023062752A (ja) プログラム、情報処理装置及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201027

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201027

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210621

R150 Certificate of patent or registration of utility model

Ref document number: 6905775

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250