JPWO2016158014A1 - 情報処理装置、通信システム、情報処理方法及びプログラム - Google Patents

情報処理装置、通信システム、情報処理方法及びプログラム Download PDF

Info

Publication number
JPWO2016158014A1
JPWO2016158014A1 JP2017509349A JP2017509349A JPWO2016158014A1 JP WO2016158014 A1 JPWO2016158014 A1 JP WO2016158014A1 JP 2017509349 A JP2017509349 A JP 2017509349A JP 2017509349 A JP2017509349 A JP 2017509349A JP WO2016158014 A1 JPWO2016158014 A1 JP WO2016158014A1
Authority
JP
Japan
Prior art keywords
user
line
sight
face
communication partner
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017509349A
Other languages
English (en)
Inventor
雅人 赤尾
雅人 赤尾
岡田 良平
良平 岡田
田中 潤一
潤一 田中
西堀 一彦
一彦 西堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2016158014A1 publication Critical patent/JPWO2016158014A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M9/00Arrangements for interconnection not involving centralised switching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Geometry (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

本開示に係る情報処理装置は、遠隔コミュケーションを行う通信相手端末から通信相手のユーザの視線に関する情報を取得する受信部と、前記通信相手端末から受信した通信相手のユーザの顔を含む映像信号に基づいて、通信相手のユーザの顔の位置及び大きさに関する情報を検出する顔検出部と、前記通信相手のユーザの視線に関する情報と前記通信相手のユーザの顔の位置及び大きさに関する情報とに基づいて、前記通信相手のユーザの視線位置を前記通信相手のユーザの顔を含む映像信号に重畳して表示させる重畳部と、を備える。【選択図】図9

Description

本開示は、情報処理装置、通信システム、情報処理方法及びプログラムに関する。
近時においては、情報処理端末にカメラを装着して遠隔コミュニケーションを行い、双方の端末に会話者の映像を表示する技術が用いられている。このような状況の中、下記の非特許文献1には、複数視点映像から補間により中間の視点を生成することが記載されている。また、下記の非特許文献2には、映像中の目玉の視線方向を変化させることが記載されている。
Ott, M., Lewis, J. P., & Cox, I. (1993). Teleconferencing eyecontact using a virtual camera. Paper presented at INTERACT '93 and CHI '93conference companion on Human factors in computing systems in Amsterdam, TheNetherlands, 109-110 Jerald, J., & Daily, M. (2002). Eye gaze correction forvideoconferencing. Proceedings of the 2002 symposium on Eye tracking research& applications. New Orleans, Louisiana, USA, 77-81.
遠隔コミュニケーションを行い、双方の端末に会話者の映像を表示する場合においては、双方の会話者の視線が一致していることが円滑なコミュニケーションに繋がる。しかしながら、上記従来技術に記載された技術は、目の向きを変化させることを想定した技術であり、双方の端末に会話者の映像を表示する場合に、視線の向きを定量的に変化させて完全に視線を合わせることは困難である。
そこで、会話者の映像を表示する場合に、簡素な構成で視線の向きを把握することで、視線を一致させることが望まれていた。
本開示によれば、遠隔コミュケーションを行う通信相手端末から通信相手のユーザの視線に関する情報を取得する受信部と、前記通信相手端末から受信した通信相手のユーザの顔を含む映像信号に基づいて、通信相手のユーザの顔の位置及び大きさに関する情報を検出する顔検出部と、前記通信相手のユーザの視線に関する情報と前記通信相手のユーザの顔の位置及び大きさに関する情報とに基づいて、前記通信相手のユーザの視線位置を前記通信相手のユーザの顔を含む映像信号に重畳して表示させる重畳部と、を備える、情報処理装置が提供される。
また、本開示によれば、自装置のユーザの顔を含む映像信号を取得する映像信号取得部と、前記自装置のユーザの顔を含む映像信号から自装置のユーザの視線位置に関する情報を取得する視線検出部と、自装置のユーザの顔を含む映像信号に基づいて、自装置のユーザの顔の位置及び大きさに関する情報を検出する顔検出部と、前記自装置のユーザの視線位置に関する情報と前記自装置のユーザの顔の位置及び大きさに関する情報とに基づいて、前記自装置のユーザの視線位置を前記自装置のユーザの顔を含む映像信号に重畳して表示させる重畳部と、を備える、情報処理装置が提供される。
また、本開示によれば、遠隔コミュケーションを行う第2の通信装置から前記第2の通信装置のユーザの視線位置に関する情報を取得する受信部と、前記第2の通信装置から受信した前記第2の通信装置のユーザの顔を含む映像信号に基づいて、前記第2の通信装置のユーザの顔の位置及び大きさに関する情報を検出する顔検出部と、前記第2の通信装置のユーザの視線位置に関する情報と前記第2の通信装置のユーザの顔の位置及び大きさに関する情報とに基づいて、前記第2の通信装置のユーザの視線位置を前記第2の通信装置のユーザの顔を含む映像信号に重畳して表示させる重畳部と、を有する、第1の通信装置と、遠隔コミュケーションを行う前記第1の通信装置から前記第1の通信装置のユーザの視線位置に関する情報を取得する受信部と、前記第1の通信装置から受信した前記第1の通信装置のユーザの顔を含む映像信号に基づいて、前記第1の通信装置のユーザの顔の位置及び大きさに関する情報を検出する顔検出部と、前記第1の通信装置のユーザの視線位置に関する情報と前記第1の通信装置のユーザの顔の位置及び大きさに関する情報とに基づいて、前記第1の通信装置のユーザの視線位置を前記第1の通信装置のユーザの顔を含む映像信号に重畳して表示させる重畳部と、を有する、前記第2の通信装置と、を備える、通信システムが提供される。
また、本開示によれば、遠隔コミュケーションを行う通信相手端末から通信相手のユーザの視線に関する情報を取得することと、前記通信相手端末から受信した通信相手のユーザの顔を含む映像信号に基づいて、通信相手のユーザの顔の位置及び大きさに関する情報を検出することと、前記通信相手のユーザの視線に関する情報と前記通信相手のユーザの顔の位置及び大きさに関する情報とに基づいて、前記通信相手のユーザの視線位置を前記通信相手のユーザの顔を含む映像信号に重畳して表示させることと、を備える、情報処理方法が提供される。
また、本開示によれば、遠隔コミュケーションを行う通信相手端末から通信相手のユーザの視線に関する情報を取得する手段、前記通信相手端末から受信した通信相手のユーザの顔を含む映像信号に基づいて、通信相手のユーザの顔の位置及び大きさに関する情報を検出する手段、前記通信相手のユーザの視線に関する情報と前記通信相手のユーザの顔の位置及び大きさに関する情報とに基づいて、前記通信相手のユーザの視線位置を前記通信相手のユーザの顔を含む映像信号に重畳して表示させる手段と、としてコンピュータを機能させるためのプログラムが提供される。
以上説明したように本開示によれば、会話者の映像を表示する場合に、簡素な構成で視線の向きを把握することで、視線を一致させることができる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の第1の実施形態に係るシステムの概要を示す模式図である。 カメラの位置によってユーザAの視線が異なる様子を示す模式図である。 ユーザAとユーザBの身長が異なる場合を示す模式図である。 ユーザAとユーザBの視線を一致させてアイコンタクトを再現した状態を示す模式図である。 ユーザBの端末の構成を示す模式図である。 第1の実施形態のシステムを示す模式図である。 マーカーの例を示す模式図である。 図6に示した視線位置表示の処理を示すフローチャートである。 図6に示した視線位置表示を実現する端末の主要な構成を詳細に示すブロック図である。 視線ずれ量算出部による処理を示すフローチャートである。 重畳部による処理を示すフローチャートである。 視線ずれ量算出部が視線ずれ量を算出する手法を説明するための模式図である。 第2の実施形態のシステムを示す模式図である。 第2の実施形態の端末の主要な構成を詳細に示すブロック図である。 第3の実施形態のシステムを示す模式図である。 キャリブレーションの様子を示す模式図である。 キャリブレーションの様子を示す模式図である。 第3の実施形態の処理を示すフローチャートである。 第3の実施形態に係る端末の構成を示す模式図である。 図18に示した視線位置表示を実現する端末の主要な構成を詳細に示すブロック図である。 視線指示部による処理を示すフローチャートである。 視線変換部による処理を示すフローチャートである。 視線変換量と画面内の視線の変化を示す模式図である。 重畳部の処理を示すフローチャートである。 キャリブレーション処理の状態遷移を示す模式図である。 第3の実施形態のシステムを示す模式図である。 キャリブレーションによって視線の方向が変わる様子を示す模式図である。 キャリブレーションによって視線の方向が変わる様子を示す模式図である。 第4の実施形態におけるキャリブレーションを示す模式図である。 第4の実施形態におけるキャリブレーションを示す模式図である。 第4の実施形態の処理を示すフローチャートである。 第4の実施形態に係る端末の構成を示す模式図である。 視点信号処理部の構成を示す模式図である。 幾何変換部の処理を示すフローチャートである。 重畳部の処理を示すフローチャートである。 キャリブレーション処理の状態遷移を示す模式図である。 第5の実施形態のシステムを示す模式図である。 第5の実施形態の処理を示すフローチャートである。 第5の実施形態に係る端末の主要な構成を示す模式図である。 視線指示部の処理を示すフローチャートである。 視線変換部の処理を示すフローチャートである。 第6の実施形態のシステムを示す模式図である。 第6の実施形態の処理を示すフローチャートである。 第6の実施形態に係る端末の主要な構成を示す模式図である。 重畳部の処理を示すフローチャートである。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.第1の実施の形態
1.1.システムの概要
1.2.端末の構成例
1.3.システムの構成例
1.4.端末の主要構成
2.第2の実施の形態
2.1.システムの概要
2.2.端末の主要構成
3.第3の実施の形態
3.1.システムの概要
3.2.端末の主要構成
4.第4の実施の形態
4.1.システムの概要
4.2.端末の構成例
5.第5の実施の形態
5.1.システムの概要
5.2.端末の主要構成
6.第6の実施の形態
6.1.システムの概要
6.2.端末の主要構成
<1.第1の実施形態>
[1.1.システムの概要]
まず、図1を参照して、本開示の第1の実施形態に係るシステムの概要について説明する。図1に示すように、第1の実施形態のシステムは、ユーザAの端末1000と、ユーザBの端末2000とを有し、ユーザAとユーザBとが端末1000、端末2000を用いて遠隔コミュニケーションを行う。なお、図1においては、端末1000,2000の正面図と右側面図をそれぞれ示している。
端末1000にはカメラ1010が設けられ、ユーザAを撮影する。端末2000にはカメラ2010が設けられ、ユーザBを撮影する。なお、図1では1台のカメラ1010,2010が各端末1000,2000に設けられているが、カメラ1010は1台に限定されるものではない。視線検出や視線変換を行う場合、2台以上のカメラ1010,2010を各端末1000,2000が使用することもできる。端末1000と端末2000はインターネットなどのネットワーク100を介して接続され、端末2000の画面2020にはカメラ1010が撮影したユーザAの画像が表示され、端末1000の画面1020にはカメラ2010が撮影したユーザBの画像が表示される。また、端末1000はユーザAの音声を取得するマイクを備え、ユーザAの音声はネットワーク100を介して端末2000に送信され、発音される。また、端末2000はユーザBの音声を取得するマイクを備え、ユーザBの音声はネットワーク100を介して端末1000に送信され、発音される。これにより、ユーザAとユーザBは、各端末1000,2000の画面上で相手を見ながらコミュニケーションを行うことができる。
図2は、カメラ1010の位置によってユーザAの視線が異なる様子を示す模式図である。ユーザAは、画面1020に表示されたユーザBを見ながら会話を行う。一方、カメラ1010は、画面1020の上下左右に配置される。カメラが画面1020の正面に対して上下左右に位置すると、撮影される顔の向きが変化する。例えば、カメラ1010が画面1020の上にあると、通信相手(ユーザB)にはユーザAの視線が下を向いているように画面2020上に表示される。同様に、カメラ1010が画面1020の下にあると、ユーザAの視線が上を向いているように画面2020上に表示される。また、カメラ1010が画面1020の右にあるとユーザAの視線が左を向いているように画面2020上に表示され、カメラ1010が画面1020の左にあるとユーザAの視線が右を向いているように画面2020上に表示される。
遠隔コミュニケーションを行う場合、双方のユーザA,Bが現実と同様にアイコンタクトをしていることが、円滑なコミュニケーションに繋がる。図2に示したように、カメラ1010の位置に起因して視線の方向が正面を向いていない場合は、コミュニケーションに違和感が生じてしまう。
図3は、ユーザAとユーザBの身長が異なる場合を示す模式図である。ユーザAとユーザBの身長の高さの違いを考慮して現実のアイコンタクトを再現するためには、ユーザA、ユーザBの厳密な位置関係を検出し、ユーザA、ユーザBを厳密な位置・大きさ・角度で表示しなければいけない。例えば、図3では、ユーザAとユーザBの身長差に応じて、画面1020内の上方にユーザBの顔が表示され、画面2020内の下方にユーザAの顔が表示されている。このような場合においても、図4に示すように、ユーザAとユーザBの視線を一致させてアイコンタクトを再現できれば、円滑なコミュニケーションが可能である。
このため、本実施形態では、アイコンタクトを実現する前提として、画面1020,2020内において、相手の視線が何処を向いているかを示すマーカーを相手の画像と重畳して表示する。以下、詳細に説明する。
[1.2.端末の構成例]
図5は、端末2000の構成を示す模式図である。なお、端末1000の構成は端末2000と同様である。図5に示すように、端末2000は、センサー部2100、自地点信号処理部2200、符号化部2300、送信部2400、受信部2500、複合部2600、相手地点信号処理部2700、提示部2800を有して構成されている。センサー部2100は、CCD/CMOS等のイメージセンサー(含複数台)からなるカメラ2020、赤外線等によるデプスセンサー、マイクなどを含む。符号化部2300は、H.320/H.323など通信プロトコルに対応するブロックであり、映像符号化(H.26x)、音声符号化(G.7xx)などを行う。提示部2080は、画像を表示するためのディスプレイ、音声を発するスピーカ等を含む。なお、以下では、音声に関連する説明は省略する。
[1.3.システムの構成例]
図6は、本実施形態のシステムを示す模式図である。上述したように、端末2000の画面2020内にはユーザAが表示される。そして、ユーザAがどこを見ているかが分かるように、ユーザBの端末2000の画面2020には図形や絵などのマーカー(スーパー)2030が重畳表示される。
図6に示すように、ユーザAが端末1000の画面1020内のユーザBの顔(目)を見ている場合、ユーザBの端末2000の画面2020に表示されたユーザAの顔(目)の位置にマーカー2030が重畳表示される。この際、ユーザBが視線を外さなくても分かる位置にマーカー2030が重畳される。
また、ユーザAが端末1000の画面1020内のユーザBの顔を見ていない場合、ユーザBの端末2000の画面2020にはマーカー2030を重畳表示しない。
図7は、マーカー2030の例を示す模式図である。マーカー2030の色、形状、大きさ、明るさ、透過度は適宜変更可能である。また、例えばマーカー2030を、視点位置を囲むようにして、視点位置以外に設けることも可能である。視点位置以外の透過度、明るさ、色を変更することも可能である。
図6のシステムによれば、ユーザBは、画面2020内のマーカー2030を確認することで、ユーザAが画面1020内に表示されたユーザBの顔(の目)に視線を向けているか否かを判別することができる。
図8は、図6に示した視線位置表示(マーカー2030の表示)の処理を示すフローチャートである。先ず、ステップS10では、ユーザAの端末1000で、ユーザAの視点位置を検出する。次のステップS12では、ユーザAの端末1000で、画面1020に表示されたユーザBの顔の表示位置、サイズを検出する。次のステップS14では、ユーザAの視点位置とユーザBの顔の表示位置のずれ量を算出し、ユーザBの端末2000に送信する。次のステップS16では、ユーザBの端末2000で、画面2020に表示されたユーザAの顔の表示位置、サイズを検出する。次のステップS18では、ユーザAの視線位置をユーザBの端末2000での座標系に変換する。次のステップS19では、ユーザBの端末2000で、ユーザAの視線位置をマーカー2030で重畳表示する。ステップS19の後は処理を終了する。
[1.4.端末の主要構成]
図9は、図6に示した視線位置表示を実現する端末2000の主要な構成を詳細に示すブロック図である。なお、端末1000は端末2000と同様に構成されている。図9に示すように、端末2000の自地点信号処理部2200は、視線検出部2210、視線ずれ量算出部2220を備えている。また、相手地点信号処理部2700は、顔検出部2710、重畳部2720を備えている。なお、図5、図9等に示す端末2000の各構成要素は、ハードウェア(回路)、又はCPUなどの中央演算処理装置とこれを機能させるためのプログラム(ソフトウェア)によって構成されることができる。この場合に、そのプログラムは、装置内部に設けられるメモリ、または外部から接続されるメモリ等の記録媒体に格納されることができる。
センサー部2100のカメラ2010がユーザBを撮像して得られた映像信号は、視線検出部2210へ入力される。視線検出部2210は、ユーザBの撮像画像からユーザBの視線の方向を検出する。
また、端末1000から送信されて復号部2600が復号した端末1000の映像信号と視線ずれ量とは、顔検出部2710と重畳部2720へ送られる。顔検出部2710は、映像信号に基づいて、ユーザAの顔位置とサイズを検出する。なお、顔検出部2710による画像から顔の位置及びサイズの検出は、例えば特開2005−157679号公報に記載された手法により行うことができる。この方法では、以下の手順により顔の位置及びサイズを検出する。先ず、複数の弱判別器を重み付け加算した顔領域の判別器を用意する(ステップA)。顔画像群と非顔画像群を入力として、ステップAの重み係数を機械学習する(ステップB)。ステップBの機械学習後の判別器を用いて、入力画像の顔領域を検出する(ステップC)。
視線ずれ量算出部2220は、視線検出部2210が検出した視線の方向と、顔検出部2710が検出したユーザAの顔位置及びサイズとに基づいて、ユーザBの視線ずれ量を算出する。視線ずれ量は、映像信号とともに符号化部2300へ送られる。なお、視線検出部2210による視線の検出は、例えば特開2006−202181号公報、特開平2−224637号公報に記載された手法を用いることができる。特開2006−202181号公報の方法では、以下の手順により視線を検出している。先ず、ユーザの左右からの顔画像を取得する(ステップD)。ステップDの結果から左右の顔を検出する(ステップE)。ステップEの結果から顔の向きを検出する(ステップF)。ステップEの結果から眼球・虹彩を検出する(ステップG)。ステップF,Gからユーザの視線方向を検出する(ステップH)。また、特開平2−224637号公報の方法では、以下の手順により視線を検出している。先ず、顔画像から頭部の位置と方向を検出する(ステップI)。顔画像から眼の特徴点(黒眼の位置など)を検出する(ステップJ)。ステップI,Jから視線方向を検出する(ステップK)。
重畳部2720は、端末1000から受信したユーザAの視線ずれ量と、顔検出部2710が検出したユーザAの顔位置及びサイズから求まるマーカー2230を映像信号に重畳し、提示部2800へ出力する。
図10は、視線ずれ量算出部2220による処理を示すフローチャートである。先ず、ステップS20では、視線位置と顔位置の変位を算出する。次のステップS22では、変位を顔サイズを基準に正規化する。ステップS22の後は処理を終了する。
図11は、重畳部2720による処理を示すフローチャートである。先ず、ステップS30では、視線ずれ量が所定の閾値より小さいか否かを判定し、視線ずれ量が所定の閾値より小さい場合はステップS32へ進む。ステップS32では、視線ずれ量と顔サイズから画面2020上の視線位置を計算する。次のステップS34では画面2020上の視線位置にマーカー2030を重畳し、ステップS36では映像信号を出力する。
また、ステップS30で視線ずれ量が所定の閾値以上の場合はステップS36へ進み、マーカー2030を重畳することなく映像信号を出力する。
図12は、視線ずれ量算出部2220が視線ずれ量を算出する手法を説明するための模式図である。視線ずれ量は、画面に表示されている顔の大きさを基準にして、基準座標からどれほど視線がずれているかを表すベクトル量である。顔の大きさの基準となるものは、顔の横サイズ、縦サイズなどの情報である。また、基準座標(原点)は、例えば眉間の位置とする。
図12に示すように、検出側の装置(ユーザAの端末1000)では、画面1020に表示されたユーザBの顔の原点O(眉間)と、ユーザAの視線位置Pとのずれを視線ずれ量として算出する。視線ずれ量は、XY座標系により以下の式で表すことができる。画面上でのユーザBの顔のサイズをLとする。この視線ずれ量は、映像信号とともに端末2000へ送られる。
視線ずれ量=[lx/L,ly/L]
表示側の装置(ユーザBの端末2000)では、端末1000から送られた視線ずれ量に基づいて、座標系の変換を行い、視線ずれ量m=(mx,my)を求める。座標系の変換により得られた視線ずれ量mxは、端末2000の画面2020上でユーザAの顔のサイズをMとすると、以下の式で表すことができる。
mx=M*lx/L
my=M*ly/L
以上説明したように第1の実施形態によれば、ユーザBは、端末2000の画面に表示された通信相手のユーザAの顔とともに、ユーザAの視線位置を視認することができる。そして、ユーザAが自身の端末1000に表示されているユーザBの顔に視線を合わせた場合、ユーザBは、端末2000の画面2020上でユーザAの顔に重畳されたマーカー2030を視認する。従って、ユーザBは、ユーザAが自身の端末1000の画面1020上でユーザBの顔に視線を向けているか否かを容易に認識することができる。
<2.第2の実施形態>
[2.1.システムの概要]
次に、本開示の第2の実施形態について説明する。図13は、第2の実施形態のシステムを示す模式図である。第2の実施形態に係るシステムの基本的な構成は、第1の実施形態と同様である。第1の実施形態では端末1000と端末2000の間で視線ずれ量を送信するが、第2の実施形態では視線ずれ量の代わりに視線位置を送り、視線ずれ量は受信側の装置で算出する点で第1の実施形態と相違する。端末1000,2000の構成は、図4に示した第1の実施形態と同様である。
[2.2.端末の主要構成]
図14は、第2の実施形態の端末2000の主要な構成を詳細に示すブロック図である。なお、端末1000は端末2000と同様に構成されている。図14に示すように、端末2000の自地点信号処理部2200は、視線検出部2210、顔検出部2212、視線ずれ量算出部2220を備えている。また、相手地点信号処理部2700は、顔検出部2710、重畳部2720を備えている。
第2の実施形態では、センサー部2100のカメラ2010がユーザBを撮像して得られた映像信号は、視線検出部2210と顔検出部2212へ入力される。視線検出部2210は、第1の実施形態と同様にユーザBの視線位置を検出する。第2の実施形態では、視線位置に基づいて視線ずれ量を算出することなく、検出された視線位置は映像信号とともに符号化部2300へ送られる。
また、端末1000から送信された端末1000の映像信号とユーザAの視線位置とは復号部2600が復号する。ユーザAの視線位置は視線ずれ量算出部2220へ送られる。視線ずれ量算出部2220は、顔検出部2212が検出したユーザBの顔位置、サイズと、端末1000から受信したユーザAの視線位置とに基づいて、ユーザAの視線ずれ量を算出する。
第1の実施形態と同様、顔検出部2710は、映像信号に基づいて、ユーザAの顔位置とサイズを検出する。重畳部2720は、視線ずれ量算出部2220が算出したユーザAの視線ずれ量と、顔検出部2710が検出したユーザAの顔位置及びサイズから求まるマーカー2230を映像信号に重畳し、提示部2800へ出力する。
以上説明したように第2の実施形態によれば、端末1000と端末2000の間で視線位置を送り、視線ずれ量は受信側の装置で算出する。これにより、第1の実施形態と同様に、ユーザAが自身の端末1000に表示されているユーザBの顔に視線を合わせた場合、ユーザBは、端末2000の画面2020上で通信相手のユーザAの顔に重畳されたマーカー2030を視認することができる。
<3.第3の実施形態>
[3.1.システムの概要]
次に、本開示の第3の実施形態について説明する。第3の実施形態は、第1又は第2の実施形態の手法により相手ユーザの視線位置を示すマーカーを相手ユーザの顔に重畳表示した状態で、相手ユーザの視線位置を最適な位置にキャリブレーションするものである。
図15は、第3の実施形態のシステムを示す模式図である。第3の実施形態に係るシステムの基本的な構成は、第1の実施形態と同様である。図13に示すように、第3の実施形態では、端末1000の画面に相手のユーザBの目を見るよう「相手の目を見てください」とのアナウンスが表示される。また、「相手の目を見てください」との音声ガイダンスを発しても良い。この状態で、ユーザBは、指示装置3000を用いて端末2000に表示されたユーザAの画像の視線をキャリブレーションし、ユーザAの視線を正面に補正する。
図16A及び図16Bは、キャリブレーションの様子を示す模式図である。図15に示すように端末1000,2000のカメラ1010,2012が画面1020,2020の上部に配置されている場合、図2で説明したように、ユーザAが正面を向いていたとしても、端末2000の画面2010上では、図16Aに示したようにユーザAの視線は下向きに表示される。第3の実施形態では、上述したアナウンスを表示し、端末2000の画面2020上でマーカー2030がユーザAの目の位置に表示されている状態で、図16Aに示す状態から図16Bに示すユーザAの目が正面を向いた状態にキャリブレーションをする。これにより、ユーザAが端末1000の画面1020上でユーザBの画像の目を見ている状態で、端末2000の画面2020上でユーザAの画像の目がユーザBを見ている状態となる。なお、図16Aから図16Bに至る視線の変化は、非特許文献2に記載されている技術により行うことができる。非特許文献2に記載されている技術では、先ず、目玉の位置をトラッキングして特定する(ステップL)。目標とする視線の向きから、変換後の目玉の位置を決定する(ステップM)、画素毎に異なる向きに画素をWarpingする画像処理を行うことで、目玉の位置を移動する(ステップN)。Warping量は目の大きさや目玉の中心からの距離などに依存して決定する(ステップO)。
ユーザBの端末2000においても同様に、「相手の目を見てください」とのアナウンスが表示される。ユーザBが画面2020内のユーザAの画像の目を見ると、ユーザAの端末1000の画面1020において、ユーザBの画像の目の位置にマーカー1030が表示される。この状態でユーザAが図16A及び図16Bと同様のキャリブレーションを行うことにより、ユーザBが端末2000の画面2020上でユーザAの画像の目を見ている状態で、端末1000の画面1020上でユーザBの画像の目がユーザAを見ている状態となる。
これにより、双方のユーザA,Bが現実と同様にアイコンタクトをしている状態となり、円滑なコミュニケーションを実現することができる。
図17は、第3の実施形態の処理を示すフローチャートである。先ず、ステップS40では、ユーザBがキャリブレーション開始を指示する。次のステップS42では、ユーザAの端末1000に、画面1020内の相手(ユーザB)の目を見るように促すテロップを重畳表示する。次のステップS44では、ユーザAが画面1020内の相手(ユーザB)の目を見たことにより、ユーザBの端末2000に表示されたユーザAの目の位置に、ユーザAの視線位置(マーカー2030)が重畳表示される。
次のステップS46では、ユーザBの端末2000の画面2020に表示されているユーザAの視線がユーザBを向いているか否かを判定する。そして、ユーザBの端末2000の画面2020に表示されているユーザAの視線がユーザBを向いていない場合は、ステップS48へ進み、ユーザBは、ユーザAの目が自分を向くように指示装置で視線変換を指示する。次のステップS50では、ステップS48で指示された視線変換量に基づいて視線変換を行う。
一方、ステップS46において、ユーザBの端末2000の画面2020に表示されているユーザAの視線がユーザBを向いている場合は、キャリブレーションを終了する。テレビ会議などに適用した場合、会議の開始前にこのフローを実施することによって、視線が一致した状態に初期設定することができる。なお、上述の例では、カメラが上(下)にある場合を例に挙げて、視点を上下方向に変換する例を示すが、カメラが左(右)にある場合は左右方向に変換することも同様に可能である。
[3.2.端末の主要構成]
図18は、第3の実施形態に係る端末2000の構成を示す模式図である。基本的な構成は図5と同様であるが、図5の構成に対して、指示装置3000による指示を行うことで、相手のユーザAの端末1000から受信した映像信号において、画面2020内のユーザAの画像中の視線の向きを補正可能に構成されている。
図19は、図18に示した視線位置表示を実現する端末2000の主要な構成を詳細に示すブロック図である。基本的な構成は図9と同様であるが、相手地点信号処理部2700は、視線指示部2730、視線変換部2740、視線変換量記憶部2750を更に備えている。
図16Aから図16Bに至るキャリブレーションの際には、ユーザBの操作によって指示装置3000から「+1」、「+2」などのコマンドが視線指示部2730へ送られる。ここでは、“+”のコマンドによって画面2020内のユーザAの視線が上向きに変化し、“−”のコマンドによって画面2020内のユーザAの視線が下向きに変化するものとする。また、コマンドの絶対値が大きいほど、視線の向きの変化量が増加するものとする。
視線変化量記憶部2750は、指示装置3000から指定されたコマンドの値を記憶する。視線変換部2730には、復号部2600から映像信号が入力される。視線変換部2730は、視線指示部2730から指定された視線変換量に基づいて、視線変換を行う。これにより、図16Bに示したように、視線の向きが変化する。重畳部2720は、視線変換部2730によって視線の向きが変化した映像信号とマーカー2030とを重畳し、提示部2800へ送る。
また、指示装置3000によるコマンドは、センサー部からの映像信号、視線ずれ量と重畳されて、符号化部により符号化されて端末1000へ送られる。また、復号部は、端末1000から、映像信号、視線ずれ量とともに、ユーザAが指示したコマンドを受信する。受信したコマンドは、重畳部に送られる。従って、重畳部は、コマンドを受信することにより端末1000においてキャリブレーションがオンであるか否かを判定できる。そして、端末1000においてキャリブレーションがオンである場合は、画面2020に上述したテロップを重畳表示する。
図20は、視線指示部2730による処理を示すフローチャートである。先ず、ステップS60では、視線変換量記憶部2750に記憶されている視線変換量を読み出す。次のステップS62では、指示装置3000からコマンドを受信したか否かを判定し、コマンドを受信していない場合はステップS64へ進む。ステップS64では、受信したコマンドに基づいて視線変換量を更新する。次のステップS66では、更新した視線変換量を視線変換量記憶部2750に保存する。次のステップS68では、更新した視線変換量を視線変換部2730へ出力する。
一方、ステップS62において指示装置3000からコマンドを受信していない場合は、ステップS68へ進み、視線変換量記憶部2750から読み出した視線変換量を視線変換部2730へ出力する。
図21は、視線変換部2730による処理を示すフローチャートである。先ず、ステップS70では、視線指示部2730から視線変換量を取得する。次のステップS72では、視線変換量に基づいて画面内の視線を変換する。ステップS72の後は処理を終了する。
図22は、視線変換量と画面内の視線の変化を示す模式図である。図22に示すように、視線変換量の値が大きくなるほど、画面内の視線の向きが上向きに変化する。
図23は、重畳部の処理を示すフローチャートである。先ず、ステップS80では、キャリブレーション処理の状態を判定し、自端末がオンであるか、相手端末がオンであるか、あるいはオフであるかを判定する。自端末がオンの場合は、図11のステップS30〜S36と同様の処理を行う。すなわち、ステップS82では、視線ずれ量が所定の閾値よりも小さいか否かを判定する。そして、視線ずれ量が所定の閾値よりも小さい場合はステップS84へ進み、視線ずれ量と顔サイズから画面2020上の視線位置を計算する。次のステップS86では画面2020上の視線位置にマーカー2030を重畳し、ステップS88では映像信号を出力する。
ステップS80で相手端末がオンの場合は、ステップS89へ進み、視線合わせ指示のテロップを画面2020に重畳表示する。ステップS89の後はステップS88へ進み、映像信号を出力する。また、ステップS80で自端末、および相手端末がオフの場合は、ステップS88へ進み、映像信号を出力する。
図24は、キャリブレーション処理の状態遷移を示す模式図である。自端末及び相手端末の双方がオフの状態から、自端末のキャリブレーション開始コマンドを自端末へ送ることで、自端末がオンとなる。また、相手端末のキャリブレーション開始コマンドを相手端末に送ることによって、相手端末がオンとなる。
また、自端末のキャリブレーション終了コマンドによりキャリブレーションがオフとなる。また、相手端末のキャリブレーション終了コマンドによりキャリブレーションがオフとなる。
以上説明したように第3の実施形態によれば、端末2000の画面2020上でマーカー2030がユーザAの目の位置に表示されている状態で、ユーザAの目が正面を向いた状態にキャリブレーションをする。また、端末1000の画面1020上でマーカー1030がユーザBの目の位置に表示されている状態で、ユーザBの目が正面を向いた状態にキャリブレーションをする。これにより、双方のユーザA,Bが現実と同様にアイコンタクトをしている状態となり、円滑なコミュニケーションを実現することができる。
<4.第4の実施形態>
[4.1.システムの概要]
次に、本開示の第4の実施形態について説明する。第4の実施形態は、第3の実施形態と同様にキャリブレーションを行うものであるが、相手端末とは通信を行わずに、デジタルミラーで視線一致のキャリブレーションを行う。デジタルミラー使用開始前に、このフローを実施することによって、視線が一致した状態に初期設定することができる。以下、詳細に説明する。
図25は、第3の実施形態のシステムを示す模式図である。第1〜第3の実施形態では、カメラ1010,2010の撮像によって得られた映像信号が相手端末に送信され、相端末に送信された映像信号により表示が行われた。第4の実施形態は、1の端末(ここでは端末4000とする)のみを備え、端末4000のカメラ4010の撮像により得られた画像は端末4000の画面4020に表示される。そして、端末4000のユーザCをデジタルミラーで画面4020表示した状態でキャリブレーションを行い、視線位置を最適に調整する。
図25に示すように、画面4020には、「自分の目をみてください」というテロップが表示される。この状態でユーザCが画面4020内に表示された自分の目を見ると、図2で説明したように、キャリブレーションが行われていない状態では、図26Aに示すように、視線が下を向いている。この状態で第3の実施形態と同様のキャリブレーションを行うことで、図26Bに示すように、視線を正面に向けることができる。
また、ユーザCと端末4000との相対的な位置関係により、画面4020内に表示されるユーザCの位置や大きさが変化する。デジタルミラーとして機能するには、等身大で正面の位置に表示されることが望ましい。第4の実施形態では、ユーザCが指示装置3000を使って図27に示すキャリブレーションを行うことで、画面4020内に適正な大きさ、位置でユーザCを表示する。
図27の中段に示すように、ユーザCと端末2000の距離が適正である場合、画面2020内の中央にユーザCが等身大で表示される。一方、ユーザCと端末2000が遠い場合、カメラ2010が画面2020の上にあるため、ユーザCは画面2020内の高い位置に小さく表示される。また、一方、ユーザCと端末2000が近い場合、ユーザCは画面2020内の低い位置に大きく表示される。
このため、第4の実施形態では、図28に示す2段階のキャリブレーションを行う。図28に示すように、先ず画面2020内でユーザCの大きさ、位置を適正化するキャリブレーション(第1のキャリブレーション)を行う。そして、このキャリブレーションが完了した後、第3の実施形態と同様の視線を変化させるキャリブレーション(第2のキャリブレーション)を行う。
図29は、第4の実施形態の処理を示すフローチャートである。先ず、ステップS90では、ユーザCがキャリブレーション開始を指示する。次のステップS92では、ユーザCの端末2000の画面2020に、自分の目を見るように促すテロップを重畳表示する。次のステップS94では、テロップに従ってユーザCが自分の目を見る。この際、ユーザCの視点位置をカメラ2010で検出して、画面2020に重畳表示しても良い。
次のステップS96では、ユーザCの端末4000の画面4020に表示されているユーザCの視線がユーザC自身の目に向いているか否かを判定し、視線がユーザC自身の目に向いていない場合は、ステップS98へ進む。ステップS98では、画面4020内のユーザCの視線が自分を向くように指示装置3000で幾何変換、視線変換を指示する。次のステップS99では、指示された幾何変化量や視線変換量に基づいて、端末4000が幾何変換、視線変換を実行する。なお、幾何変換は上述した第1のキャリブレーションに相当し、映像の拡大、縮小、上下左右シフトを行う。視線変換は第2のキャリブレーションに相当する。
一方、ステップS96で、画面2020内のユーザCの視線がユーザC自身の目に向いている場合は、処理を終了する。
[4.2.端末の構成例]
図30は、第4の実施形態に係る端末4000の構成を示す模式図である。図4に示すように、端末4000は、センサー部4100、視点信号処理部4200、提示部4300を備える。なお、デジタルミラー表示をするため、第1〜第3の実施形態とは異なり、通信機能は必須ではない。視点信号処理部4200は、指示装置3000からのコマンドに基づいて、幾何変換、視線変換の双方を行う。なお、幾何変換の機能は、第3の実施形態に組み込むこともできる。
図31は、視点信号処理部4200の構成を示す模式図である。視点信号処理部4200は、視線検出部4210、視線ずれ量算出部4220、幾何変換部4230、幾何変換量記憶部4240、顔検出部4250、重畳部4260、視線指示部4270、視線変換量記憶部4280、視線変換部4290を有して構成される。視線検出部4210、視線ずれ量算出部4220、顔検出部4250、重畳部4260、視線指示部4270、視線変換量記憶部4280、視線変換部4290等の基本的な機能は、第3の実施形態と同様である。
図32は、幾何変換部の処理を示すフローチャートである。先ず、ステップS100では、幾何変換量記憶部4280から幾何変換量を読み出す。次のステップS102では、指示装置3000からコマンドを受信したか否かを判定し、コマンドを受信した場合はステップS104で幾何変換量を更新する。次のステップS106では、更新した幾何変換量を幾何変換量記憶部4280に記憶する。次のステップS108では、更新した幾何変換量により幾何変換した映像信号を提示部430へ出力する。ステップS108の後は処理を終了する。
また、ステップS102で指示装置3000からのコマンドを受信していない場合は、ステップS108へ進み、幾何変換量記憶部4280から読み出した幾何変換量により幾何変換した映像を提示部430へ出力する。
図33は、重畳部の処理を示すフローチャートである。先ず、ステップS110では、キャリブレーション処理の状態を判定し、端末がオンであるか、あるいはオフであるかを判定する。端末がオンの場合は、ステップS112へ進む、視線ずれ量が所定の閾値よりも小さいか否かを判定する。そして、視線ずれ量が所定の閾値よりも小さい場合はステップS114へ進み、視線ずれ量と顔サイズから端末4000の画面4020上の視線位置を計算する。次のステップS116では画面上の視線位置にマーカーを重畳する。次のステップS118では、視線合わせ指示のテロップを映像信号に重畳し、次のステップS119では、映像信号を提示部430へ出力する。ステップS119の後は処理を終了する。なお、デジタルミラーの場合、マーカーを重畳しなくても、ユーザ自身が画面4020に表示された自身の画像の顔の目を自立的に見ることができる。従って、マーカーの表示は必須ではない。
図34は、キャリブレーション処理の状態遷移を示す模式図である。キャリブレーション開始コマンドによりキャリブレーション処理の状態がオンとなり、キャリブレーション終了コマンドによりキャリブレーション処理の状態がオフとなる。
以上説明したように第4の実施形態によれば、デジタルミラーのようにユーザC自身を端末4000の画面4020に表示する場合において、視線位置のキャリブレーションを行うことで、表示されたユーザC自身の目を正面に向けることが可能となる。また、表示されたユーザCの顔の大きさ、位置をキャリブレーションすることで、最適な位置に顔を配置することが可能となる。
<5.第5の実施形態>
[5.1.システムの概要]
次に、本開示の第5の実施形態について説明する。第3の実施形態において、ユーザAの顔位置がずれると、視線が一致しなくなる場合が考えられる。第5の実施形態では、キャリブレーションの際に複数の顔位置で登録を行うことにより、ユーザAの顔位置が少し移動した場合であっても簡単には視線が外れないようにする。
図35は、第5の実施形態のシステムを示す模式図である。第5の実施形態に係るシステムの基本的な構成は、第3の実施形態と同様である。第5の実施形態では、端末1000に「顔位置をずらしてから相手の目を見てください」というテロップが表示される。なお、「上に顔位置をずらしてください」、「右に顔位置をずらしてください」などと順番に顔位置をずらす方向を指示したり、目標位置にマークを重畳表示して「このマークの位置まで顔位置をずらしてください」などと指示したりすることも可能である。このテロップに従ってユーザAは、顔位置を移動する。ユーザBは、ユーザAの複数の顔位置に応じてキャリブレーションを行う。
図36は、第5の実施形態の処理を示すフローチャートである。先ず、ステップS120では、ユーザBがキャリブレーション開始を指示する。次のステップS122では、ユーザAの端末1000に、顔位置をずらして相手の目を見るように促すテロップを重畳する。次のステップS124では、ユーザAが相手の目を見ると、ユーザB側の端末2000にユーザAの視点位置(マーカー2030)を重畳する。次のステップS126では、端末2000に表示されているユーザAの視線がユーザBを向いているか否かを判定し、ユーザBを向いている場合はステップS128へ進む。ステップS128では、ユーザBは、ユーザAの視線が自分を向くように指示装置で視線変換を指示する。次のステップS130では、端末2000は、指示された視線変換量に基づいて視線変換を行う。
一方、ステップS26で端末2000に表示されているユーザAの視線がユーザBを向いていない場合は、ステップS132へ進む。ステップS132では、規定回数以上のユーザAの顔位置で調整したか否かを判定し、規定回数以上の顔位置で調整した場合は処理を終了する。規定回数以上の顔位置で調整していない場合は、ステップS122へ戻り、以降の処理を再度行う。
[5.2.端末の主要構成]
図37は、第5の実施形態に係る端末2000の主要な構成を示す模式図である。基本的な構成は図19と同様であるが、図37に示す構成では、視線指示部2730に視線ずれ量が送られる。視線指示部2730は、視線ずれ量と視線変換量の組を視線変換量記憶部2750に保存する。
図38は、視線指示部2730の処理を示すフローチャートである。先ず、ステップS140では、視線変更量記憶部2750から始点変換量を読み出す。次のステップS142では、指示装置3000からコマンドを受信したか否かを判定し、コマンドを受信した場合はステップS144へ進み、視線変換量を更新する。次のステップS146では、視線変換量と端末1000から受信した視線ずれ量の組を視線変換量記憶部1750に保存する。次のステップS148では、視線変換量を視線変換部1740へ出力する。ステップS144,S146の処理は、ユーザAが顔位置を複数の場所に移動した際に、移動場所毎に行われる。
また、ステップS142で指示装置142からコマンドを受信していない場合は、視線変換量記憶部2750に保存された視線変換量を視線変更部1740へ出力する。
図39は、視線変換部2740の処理を示すフローチャートである。先ず、ステップS150では、相手側のキャリブレーション処理中か否かを判定し、相手側のキャリブレーション処理中の場合はステップS152へ進み、視線指示部152から視線変換量を取得する。次のステップS154では、視線変換量に基づいて視線を変換する。
一方、ステップS150で相手側のキャリブレーション処理中でない場合は、ステップS156へ進む。ステップS156では、視線変換量記憶部1750から視線変更量と視線ずれ量の組を読み込む。次のステップS158では、端末1000から受信した視線ずれ量に基づいて、視線変換量を補間計算する。次のステップS154では、補間計算した視線変換量に基づいて、視線を変換する。
ステップS158において、例えば[視線ずれ量,視線変換量]の組として、[x0,y0]、[x1,y1]が保存されている場合、視線ずれ量がxであれば、保存されている2組の値から視線変換量yを補間計算する。この場合、視線変換量yは以下の式から算出できる。
y=y0+(y1−y0)*(x−x0)/(x1−x0)
以上説明したように第5の実施形態によれば、複数の顔位置でキャリブレーションを行い、視線ずれ量と視線変換量の組を保存しておくことで、顔位置の位置ずれを考慮した上で視線変換を行うことが可能となる。従って、顔位置がずれた場合であっても、視線位置を高精度に設定することが可能となる。
<6.第6の実施形態>
[6.1.システムの概要]
次に、本開示の第6の実施形態について説明する。第3の実施形態において、ユーザAの顔位置は、時間の経過とともに位置ずれを生じることが想定される。顔位置に位置ずれが生じると、視線の位置が一致しなくなる。このため、第6の実施形態では、ユーザAの顔位置が経時変化したかを検出し、閾値以上ずれた場合に再キャリブレーションの指示を出す。
図40は、第6の実施形態のシステムを示す模式図である。第6の実施形態に係るシステムの基本的な構成は、第3の実施形態と同様である。図40に示すように、ユーザAの視線ずれ量の変化を計測し、視線ずれ量が閾値を超えた場合に、ユーザBの端末2000に再キャリブレーションを促すテロップを表示する。端末2000が再キャリブレーションを行うことで、視線ずれ量が閾値を超えた場合に、ユーザAの視線位置を適正な位置に設定することができる。
図41は、第6の実施形態の処理を示すフローチャートである。先ず、ステップS160では、端末2000がキャリブレーション処理を行う。次のステップS162では、視線ずれ量の変化の履歴を取得する。次のステップS164では、視線ずれ量が経時変化しているか否かを判定し、視線ずれ量が経時変化している場合はステップS166へ進み、再キャリブレーションを促すテロップを端末2000に表示する。ステップS166の後はステップS160へ戻る。ステップS164における判定では、視線ずれ量が所定の閾値を超えた場合に視線ずれ量が経時変化していると判定することができる
[6.2.端末の主要構成]
図42は、第6の実施形態に係る端末2000の主要な構成を示す模式図である。基本的な構成は図19と同様であるが、図42に示す構成では、端末1000から受信した視線ずれ量が視線変換量記憶部2750に送られる。そして、視線変換量記憶部2750から視線ずれ量の履歴が重畳部2720に送られる。重畳部2720は、視線ずれ量が所定の閾値を超えた場合に、再キャリブレーションを促すテロップを表示する。
図43は、重畳部2720の処理を示すフローチャートである。先ず、ステップS170では、キャリブレーション処理の状態を判定する。自端末のキャリブレーションがオンの場合は、ステップS172へ進み、視線ずれ量が閾値よりも小さいか否かを判定し、視線ずれ量が閾値よりも小さい場合はステップS174へ進む。ステップS174では、視線ずれ量と顔サイズから画面上の視線位置を計算する。次のステップS176では、視線位置にマーカー2030を重畳する。次のステップS178では、映像信号を提示部2800へ出力する。
ステップS170で相手の端末1000のキャリブレーションがオンの場合は、ステップS180へ進み、視線合わせ指示のテロップ「ユーザAの目に視線を合わせてください」を表示する。ステップS180の後はステップS178へ進む。
また、ステップS170でキャリブレーションがオフの場合は、ステップS182へ進む。ステップS182では、視線ずれ量の移動平均が閾値を超えているか否かを判定し、視線ずれ量の移動平均が閾値を超えている場合はステップS184へ進み、再キャリブレーションのテロップを重畳する。一方、ステップS182で視線ずれ量の移動平均が閾値を超えていない場合は、ステップS178へ進む。
以上説明したように第6の実施形態によれば、視線ずれ量に経時変化が生じた場合は、再キャリブレーションを促すテロップを表示するため、相手端末との間で視線の位置を確実に一致させることが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1) 遠隔コミュケーションを行う通信相手端末から通信相手のユーザの視線に関する情報を取得する受信部と、
前記通信相手端末から受信した通信相手のユーザの顔を含む映像信号に基づいて、通信相手のユーザの顔の位置及び大きさに関する情報を検出する顔検出部と、
前記通信相手のユーザの視線に関する情報と前記通信相手のユーザの顔の位置及び大きさに関する情報とに基づいて、前記通信相手のユーザの視線位置を前記通信相手のユーザの顔を含む映像信号に重畳して表示させる重畳部と、
を備える、情報処理装置。
(2) 前記通信相手の視線に関する情報は、自装置のユーザの顔を含む映像信号に基づいて前記通信相手端末に表示された自装置のユーザの顔に対する前記通信相手のユーザの視線ずれ量である、前記(1)に記載の情報処理装置。
(3) 自装置のユーザの顔を含む映像信号を取得する映像信号取得部と、
前記自装置のユーザの顔を含む映像信号から自装置のユーザの視線に関する情報を取得する視線検出部と、
前記自装置のユーザの顔を含む映像信号と前記自装置のユーザの視線に関する情報を前記通信相手端末へ送信する送信部と、
を更に備える、前記(1)に記載の情報処理装置。
(4) 前記自装置のユーザの視線に関する情報と、前記通信相手のユーザの顔の位置及び大きさに関する情報とに基づいて、前記通信相手のユーザの顔に対する自装置のユーザの視線ずれ量を算出する視線ずれ量算出部を備え、
前記送信部は、前記通信相手のユーザの顔に対する自装置のユーザの視線ずれ量を前記通信相手端末へ送信する、前記(3)に記載の情報処理装置。
(5) 前記通信相手のユーザの視線に関する情報は、前記通信相手のユーザの視線位置の情報であり、
前記自装置のユーザの顔を含む映像信号に基づいて、自装置のユーザの顔の位置及び大きさに関する情報を検出する顔検出部と、
前記通信相手のユーザの視線位置の情報と、前記自装置のユーザの顔の位置及び大きさに関する情報とに基づいて、自装置のユーザの顔に対する通信相手のユーザの視線のずれ量を算出する視線ずれ量算出部を備える、前記(3)に記載の情報処理装置。
(6) 前記重畳部は、前記通信相手のユーザの顔の目の位置に前記通信相手のユーザの視線位置を示すマーカーであって、所定の大きさ、色、形状、透過度、又は明るさを有する前記マーカーを重畳表示させる、前記(1)〜(5)のいずれかに記載の情報処理装置。
(7) 前記重畳部は、前記通信相手のユーザの顔の目を覆うように前記マーカーを重畳表示させる、前記(6)に記載の情報処理装置。
(8) 前記重畳部は、前記通信相手のユーザの眉間の位置に前記マーカーを重畳表示させる、前記(6)に記載の情報処理装置。
(9) 視線位置のキャリブレーションのために自装置のユーザが入力したコマンドに基づいて、視線変換量を出力する視線指示部と、
前記通信相手端末から受信した前記通信相手のユーザの顔を含む映像信号において、前記視線変換量に基づいて、前記通信相手のユーザの視線の方向を変換する視線変換部と、
を更に備える、前記(1)〜(8)のいずれかに記載の情報処理装置。
(10) 前記コマンドは、前記通信相手のユーザの視線位置が前記通信相手のユーザの顔の目に重畳して表示された状態で入力される、前記(9)に記載の情報処理装置。
(11) 前記視線指示部が前記コマンドに基づいて出力した前記視線変換量を記憶する視線変換量記憶部を備える、前記(9)に記載の情報処理装置。
(12) 前記通信相手の視線に関する情報は、自装置のユーザの顔を含む映像信号に基づいて前記通信相手端末に表示された自装置のユーザの顔に対する前記通信相手のユーザの視線ずれ量であり、
前記視線変換量記憶部は、前記視線変換量と当該視線変換量に対応する前記視線ずれ量の組を記憶し、
前記視線指示部には前記通信相手端末から取得した前記視線ずれ量が入力され、
前記視線指示部は、前記視線変換量と当該視線変換量に対応する前記視線ずれ量の組に基づいて、入力された前記視線ずれ量を補間することで入力された前記視線ずれ量に対応する前記視線変換量を出力する、前記(11)に記載の情報処理装置。
(13) 前記重畳部は、前記通信相手のユーザの視線位置に関する情報が経時変化した場合は、再キャリブレーションを促す情報を重畳して表示させる、前記(9)に記載の情報処理装置。
(14) 自装置のユーザの顔を含む映像信号を取得する映像信号取得部と、
前記自装置のユーザの顔を含む映像信号から自装置のユーザの視線位置に関する情報を取得する視線検出部と、
自装置のユーザの顔を含む映像信号に基づいて、自装置のユーザの顔の位置及び大きさに関する情報を検出する顔検出部と、
前記自装置のユーザの視線位置に関する情報と前記自装置のユーザの顔の位置及び大きさに関する情報とに基づいて、前記自装置のユーザの視線位置を前記自装置のユーザの顔を含む映像信号に重畳して表示させる重畳部と、
を備える、情報処理装置。
(15) 視線位置のキャリブレーションのために自装置のユーザが入力したコマンドに基づいて、視線変換量を出力する視線指示部と、
前記自装置のユーザの顔を含む映像信号において、前記視線変換量に基づいて、前記自装置のユーザの視線の方向を変換する視線変換部を更に備える、前記(14)に記載の情報処理装置。
(16) 遠隔コミュケーションを行う第2の通信装置から前記第2の通信装置のユーザの視線位置に関する情報を取得する受信部と、前記第2の通信装置から受信した前記第2の通信装置のユーザの顔を含む映像信号に基づいて、前記第2の通信装置のユーザの顔の位置及び大きさに関する情報を検出する顔検出部と、前記第2の通信装置のユーザの視線位置に関する情報と前記第2の通信装置のユーザの顔の位置及び大きさに関する情報とに基づいて、前記第2の通信装置のユーザの視線位置を前記第2の通信装置のユーザの顔を含む映像信号に重畳して表示させる重畳部と、を有する、第1の通信装置と、
遠隔コミュケーションを行う前記第1の通信装置から前記第1の通信装置のユーザの視線位置に関する情報を取得する受信部と、前記第1の通信装置から受信した前記第1の通信装置のユーザの顔を含む映像信号に基づいて、前記第1の通信装置のユーザの顔の位置及び大きさに関する情報を検出する顔検出部と、前記第1の通信装置のユーザの視線位置に関する情報と前記第1の通信装置のユーザの顔の位置及び大きさに関する情報とに基づいて、前記第1の通信装置のユーザの視線位置を前記第1の通信装置のユーザの顔を含む映像信号に重畳して表示させる重畳部と、を有する、前記第2の通信装置と、
を備える、通信システム。
(17) 遠隔コミュケーションを行う通信相手端末から通信相手のユーザの視線に関する情報を取得することと、
前記通信相手端末から受信した通信相手のユーザの顔を含む映像信号に基づいて、通信相手のユーザの顔の位置及び大きさに関する情報を検出することと、
前記通信相手のユーザの視線に関する情報と前記通信相手のユーザの顔の位置及び大きさに関する情報とに基づいて、前記通信相手のユーザの視線位置を前記通信相手のユーザの顔を含む映像信号に重畳して表示させることと、
を備える、情報処理方法。
(18) 遠隔コミュケーションを行う通信相手端末から通信相手のユーザの視線に関する情報を取得する手段、
前記通信相手端末から受信した通信相手のユーザの顔を含む映像信号に基づいて、通信相手のユーザの顔の位置及び大きさに関する情報を検出する手段、
前記通信相手のユーザの視線に関する情報と前記通信相手のユーザの顔の位置及び大きさに関する情報とに基づいて、前記通信相手のユーザの視線位置を前記通信相手のユーザの顔を含む映像信号に重畳して表示させる手段と、
としてコンピュータを機能させるためのプログラム。
2100,4100 センサー部
2210,4210 視線検出部
2212,2710,4250 顔検出部
2220 視線ずれ量算出部
2400 送信部
2500 受信部
2720,4260 重畳部
2730,4270 視線指示部
2740,4290 視線変換部
2750 視線変換量記憶部

Claims (18)

  1. 遠隔コミュケーションを行う通信相手端末から通信相手のユーザの視線に関する情報を取得する受信部と、
    前記通信相手端末から受信した通信相手のユーザの顔を含む映像信号に基づいて、通信相手のユーザの顔の位置及び大きさに関する情報を検出する顔検出部と、
    前記通信相手のユーザの視線に関する情報と前記通信相手のユーザの顔の位置及び大きさに関する情報とに基づいて、前記通信相手のユーザの視線位置を前記通信相手のユーザの顔を含む映像信号に重畳して表示させる重畳部と、
    を備える、情報処理装置。
  2. 前記通信相手の視線に関する情報は、自装置のユーザの顔を含む映像信号に基づいて前記通信相手端末に表示された自装置のユーザの顔に対する前記通信相手のユーザの視線ずれ量である、請求項1に記載の情報処理装置。
  3. 自装置のユーザの顔を含む映像信号を取得する映像信号取得部と、
    前記自装置のユーザの顔を含む映像信号から自装置のユーザの視線に関する情報を取得する視線検出部と、
    前記自装置のユーザの顔を含む映像信号と前記自装置のユーザの視線に関する情報を前記通信相手端末へ送信する送信部と、
    を更に備える、請求項1に記載の情報処理装置。
  4. 前記自装置のユーザの視線に関する情報と、前記通信相手のユーザの顔の位置及び大きさに関する情報とに基づいて、前記通信相手のユーザの顔に対する自装置のユーザの視線ずれ量を算出する視線ずれ量算出部を備え、
    前記送信部は、前記通信相手のユーザの顔に対する自装置のユーザの視線ずれ量を前記通信相手端末へ送信する、請求項3に記載の情報処理装置。
  5. 前記通信相手のユーザの視線に関する情報は、前記通信相手のユーザの視線位置の情報であり、
    前記自装置のユーザの顔を含む映像信号に基づいて、自装置のユーザの顔の位置及び大きさに関する情報を検出する顔検出部と、
    前記通信相手のユーザの視線位置の情報と、前記自装置のユーザの顔の位置及び大きさに関する情報とに基づいて、自装置のユーザの顔に対する通信相手のユーザの視線のずれ量を算出する視線ずれ量算出部を備える、請求項3に記載の情報処理装置。
  6. 前記重畳部は、前記通信相手のユーザの顔の目の位置に、前記通信相手のユーザの視線位置を示すマーカーであって、所定の大きさ、色、形状、透過度、又は明るさを有する前記マーカーを重畳表示させる、請求項1に記載の情報処理装置。
  7. 前記重畳部は、前記通信相手のユーザの顔の目を覆うように前記マーカーを重畳表示させる、請求項6に記載の情報処理装置。
  8. 前記重畳部は、前記通信相手のユーザの眉間の位置に前記マーカーを重畳表示させる、請求項6に記載の情報処理装置。
  9. 視線位置のキャリブレーションのために自装置のユーザが入力したコマンドに基づいて、視線変換量を出力する視線指示部と、
    前記通信相手端末から受信した前記通信相手のユーザの顔を含む映像信号において、前記視線変換量に基づいて、前記通信相手のユーザの視線の方向を変換する視線変換部と、
    を更に備える、請求項1に記載の情報処理装置。
  10. 前記コマンドは、前記通信相手のユーザの視線位置が前記通信相手のユーザの顔の目に重畳して表示された状態で入力される、請求項9に記載の情報処理装置。
  11. 前記視線指示部が前記コマンドに基づいて出力した前記視線変換量を記憶する視線変換量記憶部を備える、請求項9に記載の情報処理装置。
  12. 前記通信相手の視線に関する情報は、自装置のユーザの顔を含む映像信号に基づいて前記通信相手端末に表示された自装置のユーザの顔に対する前記通信相手のユーザの視線ずれ量であり、
    前記視線変換量記憶部は、前記視線変換量と当該視線変換量に対応する前記視線ずれ量の組を記憶し、
    前記視線指示部には前記通信相手端末から取得した前記視線ずれ量が入力され、
    前記視線指示部は、前記視線変換量と当該視線変換量に対応する前記視線ずれ量の組に基づいて、入力された前記視線ずれ量を補間することで入力された前記視線ずれ量に対応する前記視線変換量を出力する、請求項11に記載の情報処理装置。
  13. 前記重畳部は、前記通信相手のユーザの視線位置に関する情報が経時変化した場合は、再キャリブレーションを促す情報を重畳して表示させる、請求項9に記載の情報処理装置。
  14. 自装置のユーザの顔を含む映像信号を取得する映像信号取得部と、
    前記自装置のユーザの顔を含む映像信号から自装置のユーザの視線位置に関する情報を取得する視線検出部と、
    自装置のユーザの顔を含む映像信号に基づいて、自装置のユーザの顔の位置及び大きさに関する情報を検出する顔検出部と、
    前記自装置のユーザの視線位置に関する情報と前記自装置のユーザの顔の位置及び大きさに関する情報とに基づいて、前記自装置のユーザの視線位置を前記自装置のユーザの顔を含む映像信号に重畳して表示させる重畳部と、
    を備える、情報処理装置。
  15. 視線位置のキャリブレーションのために自装置のユーザが入力したコマンドに基づいて、視線変換量を出力する視線指示部と、
    前記自装置のユーザの顔を含む映像信号において、前記視線変換量に基づいて、前記自装置のユーザの視線の方向を変換する視線変換部を更に備える、請求項14に記載の情報処理装置。
  16. 遠隔コミュケーションを行う第2の通信装置から前記第2の通信装置のユーザの視線位置に関する情報を取得する受信部と、前記第2の通信装置から受信した前記第2の通信装置のユーザの顔を含む映像信号に基づいて、前記第2の通信装置のユーザの顔の位置及び大きさに関する情報を検出する顔検出部と、前記第2の通信装置のユーザの視線位置に関する情報と前記第2の通信装置のユーザの顔の位置及び大きさに関する情報とに基づいて、前記第2の通信装置のユーザの視線位置を前記第2の通信装置のユーザの顔を含む映像信号に重畳して表示させる重畳部と、を有する、第1の通信装置と、
    遠隔コミュケーションを行う前記第1の通信装置から前記第1の通信装置のユーザの視線位置に関する情報を取得する受信部と、前記第1の通信装置から受信した前記第1の通信装置のユーザの顔を含む映像信号に基づいて、前記第1の通信装置のユーザの顔の位置及び大きさに関する情報を検出する顔検出部と、前記第1の通信装置のユーザの視線位置に関する情報と前記第1の通信装置のユーザの顔の位置及び大きさに関する情報とに基づいて、前記第1の通信装置のユーザの視線位置を前記第1の通信装置のユーザの顔を含む映像信号に重畳して表示させる重畳部と、を有する、前記第2の通信装置と、
    を備える、通信システム。
  17. 遠隔コミュケーションを行う通信相手端末から通信相手のユーザの視線に関する情報を取得することと、
    前記通信相手端末から受信した通信相手のユーザの顔を含む映像信号に基づいて、通信相手のユーザの顔の位置及び大きさに関する情報を検出することと、
    前記通信相手のユーザの視線に関する情報と前記通信相手のユーザの顔の位置及び大きさに関する情報とに基づいて、前記通信相手のユーザの視線位置を前記通信相手のユーザの顔を含む映像信号に重畳して表示させることと、
    を備える、情報処理方法。
  18. 遠隔コミュケーションを行う通信相手端末から通信相手のユーザの視線に関する情報を取得する手段、
    前記通信相手端末から受信した通信相手のユーザの顔を含む映像信号に基づいて、通信相手のユーザの顔の位置及び大きさに関する情報を検出する手段、
    前記通信相手のユーザの視線に関する情報と前記通信相手のユーザの顔の位置及び大きさに関する情報とに基づいて、前記通信相手のユーザの視線位置を前記通信相手のユーザの顔を含む映像信号に重畳して表示させる手段と、
    としてコンピュータを機能させるためのプログラム。
JP2017509349A 2015-03-31 2016-02-08 情報処理装置、通信システム、情報処理方法及びプログラム Pending JPWO2016158014A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015073746 2015-03-31
JP2015073746 2015-03-31
PCT/JP2016/053697 WO2016158014A1 (ja) 2015-03-31 2016-02-08 情報処理装置、通信システム、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JPWO2016158014A1 true JPWO2016158014A1 (ja) 2018-01-25

Family

ID=57005930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017509349A Pending JPWO2016158014A1 (ja) 2015-03-31 2016-02-08 情報処理装置、通信システム、情報処理方法及びプログラム

Country Status (3)

Country Link
US (1) US10136101B2 (ja)
JP (1) JPWO2016158014A1 (ja)
WO (1) WO2016158014A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11068699B2 (en) * 2017-06-07 2021-07-20 Sony Corporation Image processing device, image processing method, and telecommunication system to generate an output image for telecommunication
US11837233B2 (en) * 2018-01-12 2023-12-05 Sony Corporation Information processing device to automatically detect a conversation
JP2019201360A (ja) * 2018-05-17 2019-11-21 住友電気工業株式会社 画像処理装置、コンピュータプログラム、ビデオ通話システム、及び画像処理方法
US20200342987A1 (en) * 2019-04-26 2020-10-29 doc.ai, Inc. System and Method for Information Exchange With a Mirror
US10909698B2 (en) * 2019-05-03 2021-02-02 Procore Technologies, Inc. Pattern matching tool
WO2023181808A1 (ja) * 2022-03-23 2023-09-28 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、記録媒体

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0730877A (ja) * 1993-07-12 1995-01-31 Oki Electric Ind Co Ltd 多地点間マルチメディア通信会議システム
JP2003009108A (ja) * 2001-06-26 2003-01-10 Minolta Co Ltd 画像通信システム、画像通信装置、および画像通信方法
US6771303B2 (en) 2002-04-23 2004-08-03 Microsoft Corporation Video-teleconferencing system with eye-gaze correction
KR102004265B1 (ko) * 2012-12-28 2019-07-26 엘지전자 주식회사 헤드 마운트 디스플레이 및 이를 이용한 영상 통화 방법
US9325939B2 (en) * 2014-08-14 2016-04-26 Verizon Patent And Licensing Inc. Method and system for providing gaze-directed correction during a video conferencing session

Also Published As

Publication number Publication date
WO2016158014A1 (ja) 2016-10-06
US10136101B2 (en) 2018-11-20
US20180077383A1 (en) 2018-03-15

Similar Documents

Publication Publication Date Title
WO2016158014A1 (ja) 情報処理装置、通信システム、情報処理方法及びプログラム
CN109952759B (zh) 用于具有hmd的视频会议的改进的方法和***
JP6229314B2 (ja) 情報処理装置、表示制御方法及びプログラム
JP5450739B2 (ja) 画像処理装置及び画像表示装置
CN106462937B (zh) 图像处理装置以及图像显示装置
WO2017094543A1 (ja) 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、パラメーターの設定方法
JP2011090400A (ja) 画像表示装置および方法、並びにプログラム
JP2018533232A (ja) ステレオレンダリングシステム
WO2012147363A1 (ja) 画像生成装置
CN107105333A (zh) 一种基于视线追踪技术的vr视频直播交互方法与装置
JPWO2016021252A1 (ja) 情報処理装置及び情報処理方法、並びに画像表示システム
JP4144492B2 (ja) 画像表示装置
US20180270428A1 (en) Electronic information board system, image processing device, and image processing method
JP2010087569A (ja) 姿見装置
WO2017141584A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
TWI519158B (zh) 用於處理具有特色指示之合成視頻影像的方法
JP2005065051A (ja) 撮像装置
CN113112407B (zh) 基于电视的照镜视野生成方法、***、设备及介质
KR101670328B1 (ko) 다중 실시간 영상 획득 카메라를 통한 실감영상표출장치 및 이를 통한 영상 제어 인식방법
JP6591667B2 (ja) 画像処理システム、画像処理装置、及びプログラム
US11589001B2 (en) Information processing apparatus, information processing method, and program
JP2015156540A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP5759439B2 (ja) 映像コミュニケーションシステム及び映像コミュニケーション方法
JP3721624B2 (ja) Tv電話システム
WO2017098999A1 (ja) 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、コンピュータープログラム