JP7505518B2 - 表示方法、表示システムおよびプログラム - Google Patents
表示方法、表示システムおよびプログラム Download PDFInfo
- Publication number
- JP7505518B2 JP7505518B2 JP2022043558A JP2022043558A JP7505518B2 JP 7505518 B2 JP7505518 B2 JP 7505518B2 JP 2022043558 A JP2022043558 A JP 2022043558A JP 2022043558 A JP2022043558 A JP 2022043558A JP 7505518 B2 JP7505518 B2 JP 7505518B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- user
- camera
- conference
- displaying
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 32
- 238000004891 communication Methods 0.000 claims description 43
- 238000001514 detection method Methods 0.000 description 28
- 230000006870 function Effects 0.000 description 22
- 230000003287 optical effect Effects 0.000 description 22
- 230000036961 partial effect Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 13
- 238000003384 imaging method Methods 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 230000002829 reductive effect Effects 0.000 description 7
- 230000000873 masking effect Effects 0.000 description 5
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000007547 defect Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 229910052736 halogen Inorganic materials 0.000 description 1
- 150000002367 halogens Chemical class 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- QSHDDOUJBYECFT-UHFFFAOYSA-N mercury Chemical compound [Hg] QSHDDOUJBYECFT-UHFFFAOYSA-N 0.000 description 1
- 229910052753 mercury Inorganic materials 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/1066—Session management
- H04L65/1083—In-session procedures
- H04L65/1089—In-session procedures by adding media; by removing media
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/40—Support for services or applications
- H04L65/403—Arrangements for multi-party communication, e.g. for conferences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/142—Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
- H04N7/144—Constructional details of the terminal equipment, e.g. arrangements of the camera and the display camera and display on the same optical axis, e.g. optically multiplexing the camera and display for eye to eye contact
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/147—Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
- H04N7/152—Multipoint control units therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3185—Geometric adjustment, e.g. keystone or convergence
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
Description
図1は、実施形態にかかる表示システム10を含む会議システム1を模式的に示す図である。会議システム1は、異なる拠点K1~K3にいるユーザーU1~U4が参加するオンライン会議を行うためのシステムである。会議システム1は、表示システム10と、端末装置T1,T2と、会議サーバーCとを含む。端末装置T1,T2は、例えばパーソナルコンピューター、タブレット端末、スマートフォンなどの通信機能を備えた情報処理装置である。
図2は、表示システム10の構成を示すブロック図である。表示システム10は、パーソナルコンピューター20と、プロジェクター30と、会議用カメラ40とを備える。
図3は、パーソナルコンピューター20の構成を示すブロック図である。パーソナルコンピューター20に代えて、タブレット端末、スマートフォンなど他の情報処理装置を端末装置として用いてもよい。
図4は、プロジェクター30の構成を示すブロック図である。プロジェクター30は、操作装置31と、通信装置32と、プロジェクター用カメラ33と、光学装置34と、記憶装置35と、処理装置36とを備える。プロジェクター30は、表示面Pに画像を表示する表示装置の一例である。
会議用カメラ40は、レンズ等の受光光学系と、受光光学系で集光される光を電気信号に変換する撮像素子と、パーソナルコンピューター20の第2通信装置26と通信するための通信装置と、記憶装置と、処理装置等を含む。会議用カメラ40は、表示面Pに配置されたカメラの一例である。撮像素子は、例えば、可視光領域の光を受光するCCDイメージセンサーである。会議用カメラ40は、拠点K3におけるオンライン会議の参加者である、ユーザーU3およびU4を撮像するために配置される。会議用カメラ40は、撮像画像SKに対応する画像データをパーソナルコンピューター20に送信する。
図5は、会議用カメラ40と表示面Pとの位置関係を模式的に示す図である。また、図6は、図5のA-A断面図である。本実施形態では、会議用カメラ40は、拠点K3に設けられた壁Wに配置されている。より詳細には、会議用カメラ40は、壁Wに設けられた切り欠きHからレンズLを露出するように配置されている。壁Wは、室内に露出する表面F1と、表面F1とは反対側の裏面F2とを有する。裏面F2側には、切り欠きHの近傍に位置する台座Dが設けられており、台座Dに会議用カメラ40が載置される。なお、会議用カメラ40は、壁Wの裏面F2に配置されるに限らず、例えば壁Wの表面F1に取り付けられてもよい。
次に、プロジェクター30の処理装置36により実現される機能部の詳細について説明する。上述のように、プロジェクター30の処理装置36は、キャリブレーション処理部361およびカメラ位置検出部362として機能する。
キャリブレーション処理部361は、フレームメモリー上の座標と、プロジェクター用カメラ33の撮影画像上の座標とを対応付けるキャリブレーションデータを生成する。フレームメモリー上の位置と、プロジェクター用カメラ33の撮像画像上の位置とが対応付けられることによって、例えば、プロジェクター用カメラ33の撮像画像に写る物体が、表示面Pに投射された投射画像SGのどの領域と重なっているかを特定することができる。
カメラ位置検出部362は、表示面Pにおける会議用カメラ40の位置を示す情報を検出する。以下、表示面Pにおける会議用カメラ40の位置を示す情報を、「カメラ位置情報」という。カメラ位置情報は、例えば表示面Pの左上の点を基準点とし、横方向にX軸、縦方向にY軸を取ったXY座標の座標値を用いることができる。上述のように、投射画像SGは、xy座標を用いて、座標(1,1)から座標(1920,1080)で示すことができる。表示面Pでは、例えば投射画像SGの座標(1,1)のピクセルが表示される領域を、座標(1,1)とする。これにより、表示面P上の任意の位置を、(1,1)から(1920,1080)の座標で特定することができる。
検出方法1は、パターン検出を用いる方法である。カメラ位置検出部362は、光学装置34を用いて、表示面Pに格子状のパターンを投射する。また、カメラ位置検出部362は、プロジェクター用カメラ33を用いて、表示面Pの撮像画像を取得する。会議用カメラ40の光の反射率と、壁Wの光の反射率とは異なるので、壁Wと会議用カメラ40との境界では、パターンの歪みや欠けが生じる。カメラ位置検出部362は、パターンの歪みや欠けが生じている表示面Pの位置を、会議用カメラ40の位置として検出する。
検出方法2は、会議用カメラ40に、位置検出用のビーコンを設ける方法である。ビーコンとして、例えば赤外光発光素子を用いることができる。この場合、プロジェクター30は、例えばプロジェクター用カメラ33に赤外線受光機能が備えられている、またはプロジェクター用カメラ33とは別に赤外線受光機能を備えたカメラが設けられているものとする。赤外線受光機能を備えたカメラの撮像画像には、ビーコンから発光された赤外光が写る。カメラ位置検出部362は、赤外光の位置を、会議用カメラ40の位置として検出する。
検出方法3は、画像認識により会議用カメラ40を検出する方法である。例えば、カメラ位置検出部362は、会議用カメラ40のうち、表示面Pに露出する部分の形状を示す形状データを予め取得しておく。例えば、表示システム10で、予め定められた形状の会議用カメラ40を共通して使用するようにしてもよい。カメラ位置検出部362は、プロジェクター用カメラ33の撮像画像を取得して、撮像画像内に形状データに対応する形状の物体が写っているかを判断する。形状データに対応する形状の物体が写っている場合、カメラ位置検出部362は、当該物体の位置を、会議用カメラ40の位置として検出する。
検出方法4は、プロジェクター30からの投射光をプロジェクター用カメラ33によって検出する方法である。カメラ位置検出部362は、表示面Pに対してレーザー光のような指向性が高い光を順番に照射していく。レーザー光の照射位置は、例えば表示面Pに設定されたXY座標を用いて識別できるものとする。この間、プロジェクター用カメラ33は、撮像を継続する。プロジェクター用カメラ33のレンズにレーザー光が入射すると、撮像画像が白飛びした状態となる。カメラ位置検出部362は、白飛びした撮像画像が得られた時の、レーザー光の照射位置を、会議用カメラ40の位置として検出する。
次に、パーソナルコンピューター20の処理装置28により実現される機能部の詳細について説明する。上述のように、パーソナルコンピューター20の処理装置28は、カメラ位置情報取得部281、ユーザー画像生成部282、データ送受信部283、投射画像生成部284、投射画像供給部285および放音制御部286として機能する。
カメラ位置情報取得部281は、表示面Pにおける会議用カメラ40の位置を示すカメラ位置情報を取得する。本実施形態では、カメラ位置情報取得部281は、カメラ位置検出部362によって検出されたカメラ位置情報を、第2通信装置26を介して取得する。
ユーザー画像生成部282は、会議用カメラ40で撮像された撮像画像SKから、ユーザーU3が写る部分画像SB1およびユーザーU4が写る部分画像SB2を生成する。図7は、撮像画像SKと部分画像SB1,SB2との関係を模式的に示す図である。会議用カメラ40の撮像画像SKには、拠点K3にいるユーザーU3,U4の2人が写っている。ユーザー画像生成部282は、画像認識技術を用いて撮像画像SKからユーザーU3,U4の顔を検出し、ユーザーU3の顔を含む部分画像SB1と、ユーザーU4の顔を含む部分画像SB2とを生成する。このような部分画像SB1,SB2を生成するのは、他のユーザーU1,U2の画像と並べた際の違和感を少なくするためである。また、撮像画像SKと比較して、部分画像SB1,SB2の方がユーザーU3,U4の各々の表情が把握しやすい。
データ送受信部283は、会議サーバーCに対して、ユーザー画像生成部282で生成されたユーザーU3を示す画像S3に対応する画像データ、ユーザーU4を示す画像S4に対応する画像データを送信する。また、データ送受信部283は、会議サーバーCに対して、マイクロホン24が生成した音声データを送信する。画像S3に対応する画像データと、画像S4に対応する画像データと、マイクロホン24が生成した音声データとは、拠点K3で生成されたデータとして対応付けられている。
投射画像生成部284は、プロジェクター30で投射する投射画像SGを生成する。投射画像生成部284は、データ送受信部283により受信された他の拠点K1,K2で撮像された画像データと、ユーザー画像生成部282で生成された部分画像SB1に対応する画像データと、部分画像SB2に対応する画像データとを用いて、投射画像SGを生成する。この時、投射画像生成部284は、カメラ位置情報取得部281で取得されたカメラ位置情報に基づいて、投射画像SGのレイアウトを決定する。また、投射画像生成部284は、会議中の発話者が、ユーザーU1~U4のいずれであるかに基づいて、投射画像SGのレイアウトを決定する。
投射画像供給部285は、投射画像生成部284によって生成された投射画像SGの画像データをプロジェクター30に供給する。画像データの供給を受けたプロジェクター30は、画像データに基づいて光学装置34を駆動させ、表示面Pに投射画像SGを表示させる。
放音制御部286は、スピーカー23からの音声出力を制御する。放音制御部286は、データ送受信部283により受信された他の拠点K1,K2で収音された音声データを出力するように、スピーカー23を制御する。
図11は、処理装置28が制御プログラム270に従って実行する表示方法の流れを示すフローチャートである。表示システム10が起動されると、処理装置28は、カメラ位置情報取得部281として機能することにより、表示面Pにおける会議用カメラ40の位置を示すカメラ位置情報を取得する(ステップS100)。処理装置28は、投射画像生成部284として機能することにより、カメラ位置情報に基づいて、投射画像SG中のカメラ重畳部分Rを特定し、カメラ重畳部分Rを黒画像としたマスク画像を生成する(ステップS102)。生成されたマスク画像は、処理装置28が投射画像供給部285として機能することにより、プロジェクター30に供給される。プロジェクター30は、表示面Pにマスク画像を表示する。
以上説明したように、実施形態にかかる表示方法は、ユーザーU1の音声を出力している期間に、会議用カメラ40の位置に対して、ユーザーU3を示す画像S3を表示する位置よりも近い位置に、ユーザーU1を示す画像S1を表示する。また、実施形態にかかる表示方法は、ユーザーU1の音声を出力している期間に会議用カメラ40が取得した画像S3,S4を、ユーザーU1が使用する端末装置T1に送信する。一般に、表示面Pを見るユーザーU3,U4は、ユーザーU1の音声を出力している期間には、ユーザーU1を示す画像S1を注視するので、画像S1を上記のような位置に配置することにより、ユーザーU3,U4の視線は、会議用カメラ40の近くに向く。よって、会議用カメラ40の撮像画像SKの送信を受けたユーザーU1は、ユーザーU3,U4の視線が自身の近くを向いていると認識し、視線のずれに起因する違和感を低減することができる。
上述の実施形態における変形の態様を以下に示す。以下の変形の態様から任意に選択された2以上の態様を、相互に矛盾しない範囲において適宜に併合してもよい。
本実施形態では、表示システム10と、端末装置T1,T2との間でオンライン会議を実施する場合について説明した。これに限らず、例えば表示システム10と、他の表示システムとの間でオンライン会議が実施されてもよい。この場合、他の表示システムにおける投射画像SGの基準レイアウトおよび発話中における投射画像SGのレイアウトは、他の表示システムにおける会議用カメラの配置に基づいて決定される。
パーソナルコンピューター20の処理装置28が実行する各機能部の処理の少なくとも一部は、プロジェクター30の処理装置36、会議用カメラ40の処理装置、または会議サーバーCの処理装置が実行してもよい。また、プロジェクター30の処理装置36が実行する各機能部の処理の少なくとも一部は、パーソナルコンピューター20の処理装置28、会議用カメラ40の処理装置、または会議サーバーCの処理装置が実行してもよい。例えば、複数台のプロジェクター30を用いて巨大なスクリーンに画像を投射するマルチプロジェクションを実施する場合には、会議サーバーCで投射画像SGを生成するのが効果的である。この場合、会議サーバーCは、投射画像SGを各プロジェクター30の投射領域毎に分割して、分割した投射画像SGに対応する画像データを、それぞれのプロジェクター30に送信する。
本実施形態では、表示システム10は、パーソナルコンピューター20と、プロジェクター30と、会議用カメラ40とを備えた。これに限らず、例えば、プロジェクター30がパーソナルコンピューター20の機能を備えていてもよい。この場合、プロジェクター30が、ネットワークNに接続可能とするとともに、会議用カメラ40の撮像画像を取得可能とする。
本実施形態では、拠点K3のユーザーU3を第2ユーザーの一例とした。これに限らず、例えば拠点K2のユーザーU2を第2ユーザーとしてもよい。この場合、画像S2が第2画像の一例となる。また、例えば拠点K3のユーザーU4を第2ユーザーとしてもよい。この場合、画像S4が第2画像の一例となる。なお、第2画像が会議用カメラ40で撮像された画像である場合には、第2ユーザーはユーザーU3またはユーザーU4のいずれかである。
本実施形態では、拠点K3のユーザーU3,U4を示す画像S3,S4を投射画像SGに表示するものとした。これに限らず、拠点K3のユーザーU3,U4を示す画像S3,S4は、投射画像SGに表示しないようにしてもよい。これは、拠点K3にいるユーザーU3,U4は、互いの顔を目視できるためである。また、画像S3,S4を非表示とすることにより、投射画像SG中の他の画像の投射領域を大きくすることができる。
本実施形態では、プロジェクター30が表示装置の一例であった。これに限らず、表示装置として、例えば少なくとも1つのフラットパネルディスプレイが用いられてもよい。例えば、複数のフラットパネルディスプレイを同一平面上に並べ、その隙間に会議用カメラ40を配置してもよい。また、例えばフラットパネルディスプレイの表面に会議用カメラ40を配置してもよい。
Claims (7)
- 第1ユーザーを示し、前記第1ユーザーの顔を含む範囲を撮像した画像である第1画像と、第2ユーザーを示す第2画像とを、カメラが配置された表示面に表示することと、
前記表示面における前記カメラの位置を示す情報を取得することと、
前記第1ユーザーの音声を出力することと、
前記第1ユーザーの音声を出力している期間に、前記カメラの位置に対して、前記第2画像を表示する位置よりも近い位置に、前記第1画像を表示することと、
前記第1ユーザーの音声を出力している期間に前記カメラが取得した画像を、前記第1ユーザーが使用する端末装置に送信することと、
前記第1画像に含まれる前記第1ユーザーの顔を特定することと、
を含み、
前記第1画像を表示することは、前記表示面において前記カメラと重なる位置に前記第1画像を表示することであり、
前記第1画像のうち前記カメラと重なる部分は、特定された前記第1ユーザーの顔以外の前記第1ユーザーを示す部分である、
表示方法。 - 前記第1画像を表示することは、前記カメラと重なる前記第1画像の部分の輝度を、前記第1画像の他の部分の輝度よりも下げて表示することを含む、
請求項1記載の表示方法。 - 前記第2画像は、前記カメラで撮像された画像であり、
前記第2ユーザーが発話している期間において、前記カメラの位置に対して、前記第1画像を表示する位置よりも近い位置に、前記第2画像を表示しないことを更に含む、
請求項1または2記載の表示方法。 - 前記第1ユーザーの音声を出力している期間に、前記カメラの位置に対して、前記第2画像を表示する位置よりも近い位置に、前記第1画像を表示することは、前記第1画像を第1位置から第2位置に表示位置を移動させることであり、
前記第1ユーザーの音声の出力が終了した後に、前記第1画像を前記第1位置に戻すことを更に含む、
請求項1から3のいずれか一項に記載の表示方法。 - 前記第1画像と、前記第2画像とを、前記カメラが配置された前記表示面に表示することは、前記カメラと重なる位置に前記第1画像と前記第2画像の少なくとも片方の画像の外縁を表示することである、
請求項1から4のいずれか一項に記載の表示方法。 - 表示面に配置されたカメラ、および第1ユーザーの端末装置と通信する少なくとも1つの通信インターフェイスと、
前記表示面に画像を表示する表示装置と、
スピーカーと、
前記通信インターフェイス、前記表示装置、および前記スピーカーを制御する少なくとも1つの処理装置と、を備え、
前記少なくとも1つの処理装置は、
前記通信インターフェイスを介して取得した前記第1ユーザーを示し、前記第1ユーザーの顔を含む範囲を撮像した画像である第1画像と、前記第1ユーザーとは異なる第2ユーザーを示す第2画像とを、前記表示装置によって前記表示面に表示し、
前記表示面における前記カメラの位置を示す情報を取得し、
前記通信インターフェイスを介して取得した前記端末装置からの音声を前記スピーカーから出力し、
前記音声を出力している期間に、前記表示装置によって、前記カメラの位置に対して、前記第2画像を表示する位置よりも近い位置に、前記第1画像を表示し、
前記音声を出力している期間に前記カメラが取得した画像を、前記通信インターフェイスを介して前記端末装置に送信し、
前記第1画像に含まれる前記第1ユーザーの顔を特定し、
前記第1画像を表示することは、前記表示面において前記カメラと重なる位置に前記第1画像を表示することであり、
前記第1画像のうち前記カメラと重なる部分は、特定された前記第1ユーザーの顔以外の前記第1ユーザーを示す部分である、
表示システム。 - 第1ユーザーを示し、前記第1ユーザーの顔を含む範囲を撮像した画像である第1画像と、第2ユーザーを示す第2画像とを、カメラが配置された表示面に表示することと、
前記表示面における前記カメラの位置を示す情報を取得することと、
前記第1ユーザーの音声を出力することと、
前記第1ユーザーの音声を出力している期間に、前記カメラの位置に対して、前記第2画像を表示する位置よりも近い位置に、前記第1画像を表示することと、
前記第1ユーザーの音声を出力している期間に前記カメラが取得した画像を、前記第1ユーザーが使用する端末装置に送信することと、
前記第1画像に含まれる前記第1ユーザーの顔を特定することと、
をコンピューターに実行させるプログラムであり、
前記第1画像を表示することは、前記表示面において前記カメラと重なる位置に前記第1画像を表示することであり、
前記第1画像のうち前記カメラと重なる部分は、特定された前記第1ユーザーの顔以外の前記第1ユーザーを示す部分である、
コンピューターに実行させるプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022043558A JP7505518B2 (ja) | 2022-03-18 | 2022-03-18 | 表示方法、表示システムおよびプログラム |
CN202310266389.3A CN116781874A (zh) | 2022-03-18 | 2023-03-16 | 显示方法、显示***和记录有程序的记录介质 |
US18/122,798 US11983381B2 (en) | 2022-03-18 | 2023-03-17 | Display method, display system, and non-transitory computer-readable storage medium storing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022043558A JP7505518B2 (ja) | 2022-03-18 | 2022-03-18 | 表示方法、表示システムおよびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023137374A JP2023137374A (ja) | 2023-09-29 |
JP7505518B2 true JP7505518B2 (ja) | 2024-06-25 |
Family
ID=88008910
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022043558A Active JP7505518B2 (ja) | 2022-03-18 | 2022-03-18 | 表示方法、表示システムおよびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11983381B2 (ja) |
JP (1) | JP7505518B2 (ja) |
CN (1) | CN116781874A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7505518B2 (ja) * | 2022-03-18 | 2024-06-25 | セイコーエプソン株式会社 | 表示方法、表示システムおよびプログラム |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3175200B2 (ja) | 1991-07-29 | 2001-06-11 | キヤノン株式会社 | 画像通信装置及びその制御方法 |
WO2003030530A1 (en) | 2001-10-04 | 2003-04-10 | Monash University | Flare reduction in video conferencing |
JP2006522559A (ja) | 2003-04-07 | 2006-09-28 | タンドベルク・テレコム・エイ・エス | ビデオ会議の参加者間のアイコンタクトを可能にする設備と方法 |
JP2011520400A (ja) | 2008-05-12 | 2011-07-14 | マイクロソフト コーポレーション | 正確に注視するビデオ会議 |
US20130182062A1 (en) | 2012-01-12 | 2013-07-18 | Samsung Electronics Co. Ltd. | Apparatus and method for taking image and conducting video communication |
US20150278989A1 (en) | 2014-03-31 | 2015-10-01 | Electronics And Telecommunications Research Institute | Apparatus and method for controlling eye-to-eye contact function |
US20170223312A1 (en) | 2014-09-25 | 2017-08-03 | Steve H. McNelley | Communication stage and related systems |
US20170264864A1 (en) | 2006-03-18 | 2017-09-14 | Steve H MCNELLEY | Advanced telepresence environments |
JP2021087163A (ja) | 2019-11-29 | 2021-06-03 | セイコーエプソン株式会社 | 撮影表示装置、撮影表示システムおよび撮影表示装置の制御方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5400069A (en) * | 1993-06-16 | 1995-03-21 | Bell Communications Research, Inc. | Eye contact video-conferencing system and screen |
JP3674474B2 (ja) | 2000-08-04 | 2005-07-20 | ヤマハ株式会社 | 映像システム |
JP2010114768A (ja) | 2008-11-07 | 2010-05-20 | Canon Inc | 映像処理装置、システム及びプログラム |
US9160966B2 (en) * | 2011-05-11 | 2015-10-13 | Microsoft Technology Licensing, Llc | Imaging through a display screen |
JP7387167B2 (ja) | 2020-05-01 | 2023-11-28 | tonari株式会社 | 仮想的空間接続装置、システム |
JP7505518B2 (ja) * | 2022-03-18 | 2024-06-25 | セイコーエプソン株式会社 | 表示方法、表示システムおよびプログラム |
JP7459890B2 (ja) * | 2022-03-23 | 2024-04-02 | セイコーエプソン株式会社 | 表示方法、表示システムおよびプログラム |
-
2022
- 2022-03-18 JP JP2022043558A patent/JP7505518B2/ja active Active
-
2023
- 2023-03-16 CN CN202310266389.3A patent/CN116781874A/zh active Pending
- 2023-03-17 US US18/122,798 patent/US11983381B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3175200B2 (ja) | 1991-07-29 | 2001-06-11 | キヤノン株式会社 | 画像通信装置及びその制御方法 |
WO2003030530A1 (en) | 2001-10-04 | 2003-04-10 | Monash University | Flare reduction in video conferencing |
JP2006522559A (ja) | 2003-04-07 | 2006-09-28 | タンドベルク・テレコム・エイ・エス | ビデオ会議の参加者間のアイコンタクトを可能にする設備と方法 |
US20170264864A1 (en) | 2006-03-18 | 2017-09-14 | Steve H MCNELLEY | Advanced telepresence environments |
JP2011520400A (ja) | 2008-05-12 | 2011-07-14 | マイクロソフト コーポレーション | 正確に注視するビデオ会議 |
US20130182062A1 (en) | 2012-01-12 | 2013-07-18 | Samsung Electronics Co. Ltd. | Apparatus and method for taking image and conducting video communication |
US20150278989A1 (en) | 2014-03-31 | 2015-10-01 | Electronics And Telecommunications Research Institute | Apparatus and method for controlling eye-to-eye contact function |
US20170223312A1 (en) | 2014-09-25 | 2017-08-03 | Steve H. McNelley | Communication stage and related systems |
JP2021087163A (ja) | 2019-11-29 | 2021-06-03 | セイコーエプソン株式会社 | 撮影表示装置、撮影表示システムおよび撮影表示装置の制御方法 |
Also Published As
Publication number | Publication date |
---|---|
US20230297205A1 (en) | 2023-09-21 |
US11983381B2 (en) | 2024-05-14 |
CN116781874A (zh) | 2023-09-19 |
JP2023137374A (ja) | 2023-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7452596B2 (ja) | 通信端末、表示方法、プログラム及び画像通信システム | |
CN103279313B (zh) | 显示装置以及显示控制方法 | |
JP2019030007A (ja) | 複数のカメラを用いて映像を取得するための電子装置及びこれを用いた映像処理方法 | |
US20120077172A1 (en) | Presentation system | |
US20170061686A1 (en) | Stage view presentation method and system | |
JP7456034B2 (ja) | 複合現実表示装置および複合現実表示方法 | |
CN106851234A (zh) | 投影仪以及投影仪的控制方法 | |
US20180357036A1 (en) | Display system, display device, and method of controlling display system | |
JP7505518B2 (ja) | 表示方法、表示システムおよびプログラム | |
JP2013070368A (ja) | テレビ対話システム、端末および方法 | |
JP2009071478A (ja) | 情報通信端末および情報通信システム | |
CN107239177A (zh) | 显示***、显示装置、信息处理装置以及信息处理方法 | |
JP2016213674A (ja) | 表示制御システム、表示制御装置、表示制御方法、及びプログラム | |
JP7459890B2 (ja) | 表示方法、表示システムおよびプログラム | |
CN107239178A (zh) | 显示***、信息处理装置、投影仪及信息处理方法 | |
JPWO2017141584A1 (ja) | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム | |
JP2005065051A (ja) | 撮像装置 | |
JP2008005122A (ja) | 双方向通信システム及び双方向通信方法並びに制御プログラム | |
KR20190098583A (ko) | 이미지 표시를 제어하는 전자 장치 및 방법 | |
US20240015264A1 (en) | System for broadcasting volumetric videoconferences in 3d animated virtual environment with audio information, and procedure for operating said device | |
JP2015159460A (ja) | 投影システム、投影装置、撮影装置、ガイド枠生成方法及びプログラム | |
JP7151316B2 (ja) | 通信端末、画像通信システム、表示方法、及びプログラム | |
JP2616392B2 (ja) | 画像通信端末のユーザインタフェース | |
JP2007322704A (ja) | 画像表示システム及びその制御方法 | |
WO2017098999A1 (ja) | 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、コンピュータープログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230124 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240514 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240527 |