JP7505518B2 - 表示方法、表示システムおよびプログラム - Google Patents

表示方法、表示システムおよびプログラム Download PDF

Info

Publication number
JP7505518B2
JP7505518B2 JP2022043558A JP2022043558A JP7505518B2 JP 7505518 B2 JP7505518 B2 JP 7505518B2 JP 2022043558 A JP2022043558 A JP 2022043558A JP 2022043558 A JP2022043558 A JP 2022043558A JP 7505518 B2 JP7505518 B2 JP 7505518B2
Authority
JP
Japan
Prior art keywords
image
user
camera
conference
displaying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022043558A
Other languages
English (en)
Other versions
JP2023137374A (ja
Inventor
尊洋 阿野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2022043558A priority Critical patent/JP7505518B2/ja
Priority to CN202310266389.3A priority patent/CN116781874A/zh
Priority to US18/122,798 priority patent/US11983381B2/en
Publication of JP2023137374A publication Critical patent/JP2023137374A/ja
Application granted granted Critical
Publication of JP7505518B2 publication Critical patent/JP7505518B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1083In-session procedures
    • H04L65/1089In-session procedures by adding media; by removing media
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • H04N7/144Constructional details of the terminal equipment, e.g. arrangements of the camera and the display camera and display on the same optical axis, e.g. optically multiplexing the camera and display for eye to eye contact
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/152Multipoint control units therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、表示方法、表示システムおよびプログラムに関する。
従来、離れた拠点間をネットワークで接続し、それぞれの拠点にいる人物の画像および音声を送受信することによりコミュニケーションを図る技術が普及している。例えば、下記特許文献1は、第1空間と第1空間から離隔した第2空間とにおいて、自空間に他方の空間の撮像画像および音声を出力することで、第1空間と第2空間を仮想的に接続する仮想的空間接続装置が開示されている。第1空間に配置された仮想的空間接続装置は、第1スクリーンの裏側に配置され第1スクリーン側から第1空間を撮像する第1撮像部と、第1スクリーンの側方に設けられた第1プロジェクターを有する。
特開2021-176212号公報
上述のような遠隔地間のコミュニケーションにおいては、ユーザーを撮影するカメラと、相手方から送信された画像を表示する表示装置とが使用される。特許文献1の例では、カメラはスクリーンに配置され、他方の空間が撮像されることで、自空間と他方の空間が接続されたような臨場感がえられる。しかし、カメラの配置、および、スクリーンに出力される画像の配置等は、特許文献1と同じであるとは限らない。ここで、ユーザーは一般的に、発話している相手が写る画像を見る際に、相手の顔に目を向ける。一方で、表示面上で相手の顔が表示される位置とカメラの位置とには、上記のようにずれがある。よって、カメラの配置、および、スクリーンに出力される画像の配置等によっては、相手がカメラの撮像画像を見た際に、ユーザーの視線がずれた位置に向いているように見え、相手に違和感を与える場合がある。
本発明の一態様にかかる表示方法は、第1ユーザーを示す第1画像と、第2ユーザーを示す第2画像とを、カメラが配置された表示面に表示することと、前記表示面における前記カメラの位置を示す情報を取得することと、前記第1ユーザーの音声を出力することと、前記第1ユーザーの音声を出力している期間に、前記カメラの位置に対して、前記第2画像を表示する位置よりも近い位置に、前記第1画像を表示することと、前記第1ユーザーの音声を出力している期間に前記カメラが取得した画像を、前記第1ユーザーが使用する端末装置に送信することと、を含む。
本発明の一態様にかかる表示システムは、表示面に配置されたカメラ、および第1ユーザーの端末装置と通信する少なくとも1つの通信インターフェイスと、前記表示面に画像を表示する表示装置と、スピーカーと、前記通信インターフェイス、前記表示装置、および前記スピーカーを制御する少なくとも1つの処理装置と、を備え、前記少なくとも1つの処理装置は、前記通信インターフェイスを介して取得した前記第1ユーザーを示す第1画像と、前記第1ユーザーとは異なる第2ユーザーを示す第2画像とを、前記表示装置によって前記表示面に表示し、前記表示面における前記カメラの位置を示す情報を取得し、前記通信インターフェイスを介して取得した前記端末装置からの音声を前記スピーカーから出力し、前記音声を出力している期間に、前記表示装置によって、前記カメラの位置に対して、前記第2画像を表示する位置よりも近い位置に、前記第1画像を表示し、前記音声を出力している期間に前記カメラが取得した画像を、前記通信インターフェイスを介して前記端末装置に送信する。
本発明の一態様にかかるプログラムは、第1ユーザーを示す第1画像と、第2ユーザーを示す第2画像とを、カメラが配置された表示面に表示することと、前記表示面における前記カメラの位置を示す情報を取得することと、前記第1ユーザーの音声を出力することと、前記第1ユーザーの音声を出力している期間に、前記カメラの位置に対して、前記第2画像を表示する位置よりも近い位置に、前記第1画像を表示することと、前記第1ユーザーの音声を出力している期間に前記カメラが取得した画像を、前記第1ユーザーが使用する端末装置に送信することと、をコンピューターに実行させる。
実施形態にかかる表示システム10を含む会議システム1を模式的に示す図である。 表示システム10の構成を示すブロック図である。 パーソナルコンピューター20の構成を示すブロック図である。 プロジェクター30の構成を示すブロック図である。 会議用カメラ40と表示面Pとの位置関係を模式的に示す図である。 図5のA-A断面図である。 撮像画像SKと部分画像SB1,SB2との関係を模式的に示す図である。 基準状態M1における投射画像SGのレイアウトを示す。 ユーザーU1の発話時M2における投射画像SGを示す。 ユーザーU3の発話時M3における投射画像SGを示す。 処理装置28が制御プログラム270に従って実行する表示方法の流れを示すフローチャートである。
以下、添付図面を参照しながら本発明にかかる好適な実施形態を説明する。なお、図面において各部の寸法または縮尺は実際と適宜に異なり、理解を容易にするために模式的に示している部分もある。また、本発明の範囲は、以下の説明において特に本発明を限定する旨の記載がない限り、これらの形態に限られない。
A:表示システム10の概要
図1は、実施形態にかかる表示システム10を含む会議システム1を模式的に示す図である。会議システム1は、異なる拠点K1~K3にいるユーザーU1~U4が参加するオンライン会議を行うためのシステムである。会議システム1は、表示システム10と、端末装置T1,T2と、会議サーバーCとを含む。端末装置T1,T2は、例えばパーソナルコンピューター、タブレット端末、スマートフォンなどの通信機能を備えた情報処理装置である。
表示システム10と、端末装置T1,T2と、会議サーバーCとは、ネットワークNを介して接続されている。端末装置T1は、拠点K1に配置されている。拠点K1には、ユーザーU1がいる。端末装置T2は、拠点K2に配置されている。拠点K2には、ユーザーU2がいる。表示システム10は、拠点K3に配置されている。拠点K3には、ユーザーU3およびU4がいる。ユーザーU1は第1ユーザーの一例であり、ユーザーU2は第2ユーザーの一例である。
オンライン会議は、例えばオンライン会議アプリケーションを用いて行われる。オンライン会議アプリケーションは、端末装置T1,T2、および図2に示す表示システム10のパーソナルコンピューター20において実行される。オンライン会議アプリケーション上で、例えばユーザーU1が会議の開催を要求すると、会議サーバーCに会議の開催要求が通知される。会議サーバーCは、開催要求に対応してURL(Uniform Resource Locator)を発行する。URLは、会議サーバーC上に仮想的に設けられた会議室の識別情報に対応する。ユーザーU1は、発行されたURLを端末装置T1に保存する。また、ユーザーU1は、ユーザーU2~U4に、電子メール等でURLを通知する。
会議の予定時刻になると、端末装置T1,T2およびパーソナルコンピューター20では、オンライン会議アプリケーションを起動してURLで示される接続先に接続する。オンライン会議アプリケーションは、自拠点で撮像された画像データと自拠点で収音された音声データを会議サーバーCに送信する。また、オンライン会議アプリケーションは、他の拠点で撮像された画像データと他の拠点で収音された音声データを会議サーバーCから受信し、これらのデータに基づいて画像および音声を出力する。これにより、拠点K1~K3間で画像と音声を用いたオンライン会議が実現される。
B:表示システム10の詳細
図2は、表示システム10の構成を示すブロック図である。表示システム10は、パーソナルコンピューター20と、プロジェクター30と、会議用カメラ40とを備える。
B-1:パーソナルコンピューター20の構成
図3は、パーソナルコンピューター20の構成を示すブロック図である。パーソナルコンピューター20に代えて、タブレット端末、スマートフォンなど他の情報処理装置を端末装置として用いてもよい。
パーソナルコンピューター20は、操作装置21と、ディスプレイ22と、スピーカー23と、マイクロホン24と、第1通信装置25と、第2通信装置26と、記憶装置27と、処理装置28とを備える。
操作装置21は、ユーザーU3,U4からの操作を受け付けるための装置である。操作装置21は、例えばキーボードまたはマウスである。また、操作装置21として、ディスプレイ22と操作装置21とが一体となったタッチパネルが用いられてもよい。
ディスプレイ22は、外部に対して情報を表示する表示デバイスであり、例えば液晶表示パネル、有機EL(Electro-Luminescence)表示パネル等の各種の表示パネルである。
スピーカー23は、音声データに基づく音を発生させる。スピーカー23は、パーソナルコンピューター20に内蔵されているに限らず、パーソナルコンピューター20とは別体のスピーカー23を有線または無線により接続してもよい。
マイクロホン24は、周囲の音を検出して音声データとして出力する。マイクロホン24は、パーソナルコンピューター20に内蔵されているに限らず、パーソナルコンピューター20とは別体のマイクロホン24を有線または無線により接続してもよい。
第1通信装置25は、ネットワークNに接続された他の端末装置と通信するためのインターフェイスである。他の端末装置とは、本実施形態では、会議サーバーCである。第1通信装置25は、例えば、Wi-Fiなどの通信方式で無線LAN(Local Area Network)ルーターと通信する。Wi-Fiは登録商標である。無線LANルーターは、無線LANアクセスポイントおよびインターネットとの仲介機能を備えた無線LAN機器である。なお、第1通信装置25は、有線LANによりネットワークNと接続されていてもよい。第1通信装置25は、ユーザーU1の端末装置T1と通信する通信インターフェイスの一例である。
第2通信装置26は、プロジェクター30および会議用カメラ40等の、パーソナルコンピューター20の近くに位置する機器と通信するためのインターフェイスである。第2通信装置26は、例えば、無線または有線のLAN、Bluetooth、USB(Universal Serial Bus)、HDMI(High Definition Multimedia Interface)等のインターフェイスである。Bluetooth、USBおよびHDMIは、それぞれ、登録商標である。第2通信装置26は、無線の場合はアンテナ、有線の場合はコネクター等のインターフェイスと、インターフェイスを介して受信した信号を電気的に処理するインターフェイス回路を備える。第2通信装置26は、会議用カメラ40と通信する通信インターフェイスの一例である。
記憶装置27は、処理装置28が読み取り可能な記録媒体である。記憶装置27は、例えば、不揮発性メモリーと揮発性メモリーとを含む。不揮発性メモリーとしては、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable Read Only Memory)およびEEPROM(Electrically Erasable Programmable Read Only Memory)が挙げられる。揮発性メモリーとしては、例えば、RAMが挙げられる。
記憶装置27は、処理装置28によって実行される制御プログラム270と、処理装置28が使用する各種のデータ272と、を記憶する。制御プログラム270は、例えば、オペレーティングシステムと、複数のアプリケーションプログラムとを含む。アプリケーションプログラムには、オンライン会議アプリケーションを実行するプログラムが含まれる。
処理装置28は、例えば、単数または複数のプロセッサーによって構成される。一例を挙げると、処理装置28は、単数または複数のCPU(Central Processing Unit)によって構成される。処理装置28の機能の一部または全部は、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)等の回路によって構成されてもよい。処理装置28は、各種の処理を並列的または逐次的に実行する。処理装置28は、第1通信装置25およびスピーカー23を制御する処理装置の一例である。
処理装置28は、記憶装置27から制御プログラム270を読み取って実行することにより、カメラ位置情報取得部281、ユーザー画像生成部282、データ送受信部283、投射画像生成部284、投射画像供給部285および放音制御部286として機能する。処理装置28の各機能部の詳細は後述する。処理装置28は、制御装置の一例である。
B-2:プロジェクター30の構成
図4は、プロジェクター30の構成を示すブロック図である。プロジェクター30は、操作装置31と、通信装置32と、プロジェクター用カメラ33と、光学装置34と、記憶装置35と、処理装置36とを備える。プロジェクター30は、表示面Pに画像を表示する表示装置の一例である。
操作装置31は、ユーザーU3,U4からの操作を受け付けるための装置である。操作装置31は、例えば各種の操作ボタン、操作キーまたはタッチパネルである。操作装置31は、例えばプロジェクター30の筐体に設けられている。また、操作装置31は、プロジェクター30の筐体とは別個に設けられたリモートコントローラーであってもよい。
通信装置32は、パーソナルコンピューター20等の、プロジェクター30の近くに位置する機器と通信するためのインターフェイスである。通信装置32は、例えば、無線または有線のLAN、Bluetooth、USB、HDMI等のインターフェイスである。Bluetooth、USBおよびHDMIは、それぞれ、登録商標である。通信装置32は、無線の場合はアンテナ、有線の場合はコネクター等のインターフェイスと、インターフェイスを介して受信した信号を電気的に処理するインターフェイス回路を備える。
プロジェクター用カメラ33は、レンズ等の受光光学系と、受光光学系で集光される光を電気信号に変換する撮像素子等を含み、撮像画像に対応する画像データを生成する。撮像素子は、例えば、可視光領域の光を受光するCCD(Charge Coupled Device)イメージセンサーである。プロジェクター用カメラ33は、光学装置34によって画像が表示される表示面Pの全体を撮像範囲に含む。
プロジェクター用カメラ33は、プロジェクター30の他の要素とは別体として設けられてもよい。この場合、プロジェクター用カメラ33とプロジェクター30は、データの送受信ができるように有線または無線のインターフェイスにより相互に接続されてもよい。また、この場合、プロジェクター用カメラ33の撮像範囲と光学装置34の表示面Pとの位置関係がキャリブレーションされている。
光学装置34は、処理装置36からの画像信号に基づいて、表示面Pに投射画像SGを投射する。本実施形態では、表示面Pは、壁Wのうち、光学装置34を用いて投射画像SGを投射可能な最大範囲である。表示面Pは、例えば図5に示される。光学装置34は、光源341と光変調装置342と投射光学系343とを有する。
光源341は、例えば、ハロゲンランプ、キセノンランプ、超高圧水銀ランプ、LED(Light Emitting Diode)またはレーザー光源等を含む。光源341は、例えば、赤色、緑色および青色の光をそれぞれ出射するか、または、白色の光を出射する。光源341が白色の光を出射する場合、光源341から出射される光は、図示しないインテグレーター光学系によって輝度分布のばらつきが低減され、その後、図示しない色分離光学系によって赤色、緑色および青色の光に分離されて光変調装置342に入射する。
光変調装置342は、赤色、緑色および青色にそれぞれ対応して設けられる3つの光変調素子を含む。光変調素子は、それぞれ、例えば、透過型の液晶パネル、反射型の液晶パネルまたはDMD(デジタルミラーデバイス)等を含む。光変調素子は、処理装置36からの画像信号に基づいて、当該赤色、緑色および青色の光をそれぞれ変調して各色の画像光を生成する。光変調装置342で生成される各色の画像光は、図示しない色合成光学系によって合成され、フルカラーの画像光となる。なお、光変調装置342は、これに限定されず、単板の液晶パネルやDMD等を用いて、時分割で各色の画像光を出射することにより、フルカラーの画像光を視認させても良い。
投射光学系343は、当該フルカラーの画像光をスクリーン上に結像させて投射させる。投射光学系343は、少なくとも1つの投射レンズを含む光学系であり、ズームレンズまたはフォーカスレンズ等を含んでもよい。
記憶装置35は、処理装置36が読み取り可能な記録媒体である。記憶装置35は、例えば、不揮発性メモリーと揮発性メモリーとを含む。不揮発性メモリーとしては、例えば、ROM、EPROMおよびEEPROMが挙げられる。揮発性メモリーとしては、例えば、RAMが挙げられる。
記憶装置35は、処理装置36によって実行される制御プログラム350と、処理装置36が使用する各種のデータ352と、を記憶する。制御プログラム350は、処理装置36によって実行される。制御プログラム350は、例えば、オペレーティングシステムと、複数のアプリケーションプログラムとを含む。
また、本実施形態では、記憶装置35の一部の記憶領域は、フレームメモリーとして機能する。フレームメモリーは、光学装置34により投射される投射画像SGを1画面分の画像データとして記憶する。なお、フレームメモリーは、制御プログラム350等を記憶する記憶装置35とは別個に設けられてもよい。
本実施形態では、投射画像SGとして、横1920ピクセル、縦1080ピクセルの画像を投射可能である。よって、投射画像SGの左上の点を基準点とし、横方向にx軸、縦方向にy軸を取ったxy座標を用いて各ピクセルを識別することができる。例えば、左上のピクセルを座標(1,1)とすると、右下のピクセルは座標(1920,1080)となる。フレームメモリーの座標についても、xy座標(x,y)で表すことができる。
処理装置36は、例えば、単数または複数のプロセッサーによって構成される。一例を挙げると、処理装置36は、単数または複数のCPUによって構成される。処理装置36の機能の一部または全部は、DSP、ASIC、PLD、FPGA等の回路によって構成されてもよい。処理装置36は、各種の処理を並列的または逐次的に実行する。処理装置36は、プロジェクター30を制御する処理装置の一例である。
処理装置36は、記憶装置35から制御プログラム350を読み取って実行することにより、キャリブレーション処理部361およびカメラ位置検出部362として機能する。処理装置36の各機能部の詳細は後述する。
B-3:会議用カメラ40の構成
会議用カメラ40は、レンズ等の受光光学系と、受光光学系で集光される光を電気信号に変換する撮像素子と、パーソナルコンピューター20の第2通信装置26と通信するための通信装置と、記憶装置と、処理装置等を含む。会議用カメラ40は、表示面Pに配置されたカメラの一例である。撮像素子は、例えば、可視光領域の光を受光するCCDイメージセンサーである。会議用カメラ40は、拠点K3におけるオンライン会議の参加者である、ユーザーU3およびU4を撮像するために配置される。会議用カメラ40は、撮像画像SKに対応する画像データをパーソナルコンピューター20に送信する。
B-4:会議用カメラ40と表示面Pとの位置関係
図5は、会議用カメラ40と表示面Pとの位置関係を模式的に示す図である。また、図6は、図5のA-A断面図である。本実施形態では、会議用カメラ40は、拠点K3に設けられた壁Wに配置されている。より詳細には、会議用カメラ40は、壁Wに設けられた切り欠きHからレンズLを露出するように配置されている。壁Wは、室内に露出する表面F1と、表面F1とは反対側の裏面F2とを有する。裏面F2側には、切り欠きHの近傍に位置する台座Dが設けられており、台座Dに会議用カメラ40が載置される。なお、会議用カメラ40は、壁Wの裏面F2に配置されるに限らず、例えば壁Wの表面F1に取り付けられてもよい。
本実施形態では、壁Wをスクリーンとして用いて、プロジェクター30が画像を投射する。プロジェクター30は、壁WにおいてレンズLが露出する範囲、例えば切り欠きHの範囲を、表示面Pに含むように配置される。言い換えると、会議用カメラ40は、表示面Pに配置されている。図5の例は、拠点K1における配置例であり、表示面Pを正面から見た場合に、やや右側にレンズLが位置するように配置されている。
C:プロジェクター30の処理装置36の詳細
次に、プロジェクター30の処理装置36により実現される機能部の詳細について説明する。上述のように、プロジェクター30の処理装置36は、キャリブレーション処理部361およびカメラ位置検出部362として機能する。
C-1:キャリブレーション処理部361
キャリブレーション処理部361は、フレームメモリー上の座標と、プロジェクター用カメラ33の撮影画像上の座標とを対応付けるキャリブレーションデータを生成する。フレームメモリー上の位置と、プロジェクター用カメラ33の撮像画像上の位置とが対応付けられることによって、例えば、プロジェクター用カメラ33の撮像画像に写る物体が、表示面Pに投射された投射画像SGのどの領域と重なっているかを特定することができる。
キャリブレーション処理部361は、キャリブレーション画像データを記憶装置35から読み出す。キャリブレーション処理部361は、キャリブレーション画像データをフレームメモリー上に展開し、キャリブレーション画像に対応する画像信号を生成する。画像信号に従って光学装置34が駆動されることにより、キャリブレーション画像が表示面Pに投射される。キャリブレーション画像は、例えば予め設定された形状のマークが間隔をあけて配置された画像である。
続いて、キャリブレーション処理部361は、キャリブレーション画像が投射された表示面Pを含む撮像画像をプロジェクター用カメラ33により撮像する。キャリブレーション処理部361は、撮像画像に写るマークを検出し、各マークの重心位置を、撮像画像における各マークの座標として特定する。キャリブレーション処理部361は、撮像画像から検出されたマークの座標と、フレームメモリー上のマークの座標との対応づけを行う。この対応づけにより、撮像画像上の座標とフレームメモリー上の座標とを対応づけるキャリブレーションデータが生成される。生成されたキャリブレーションデータは、記憶装置35に記憶される。
C-2:カメラ位置検出部362
カメラ位置検出部362は、表示面Pにおける会議用カメラ40の位置を示す情報を検出する。以下、表示面Pにおける会議用カメラ40の位置を示す情報を、「カメラ位置情報」という。カメラ位置情報は、例えば表示面Pの左上の点を基準点とし、横方向にX軸、縦方向にY軸を取ったXY座標の座標値を用いることができる。上述のように、投射画像SGは、xy座標を用いて、座標(1,1)から座標(1920,1080)で示すことができる。表示面Pでは、例えば投射画像SGの座標(1,1)のピクセルが表示される領域を、座標(1,1)とする。これにより、表示面P上の任意の位置を、(1,1)から(1920,1080)の座標で特定することができる。
カメラ位置検出部362は、例えば、表示面Pに露出した会議用カメラ40の部分の外縁の座標を、カメラ位置情報として検出する。また、例えば表示面Pに露出した会議用カメラ40の部分が円形の場合は、当該部分の中心位置の座標と、当該部分の外縁までの距離とを、カメラ位置情報としてもよい。
カメラ位置検出部362は、例えば以下の検出方法1~4のいずれかを用いて、カメラ位置情報を検出する。
[検出方法1]
検出方法1は、パターン検出を用いる方法である。カメラ位置検出部362は、光学装置34を用いて、表示面Pに格子状のパターンを投射する。また、カメラ位置検出部362は、プロジェクター用カメラ33を用いて、表示面Pの撮像画像を取得する。会議用カメラ40の光の反射率と、壁Wの光の反射率とは異なるので、壁Wと会議用カメラ40との境界では、パターンの歪みや欠けが生じる。カメラ位置検出部362は、パターンの歪みや欠けが生じている表示面Pの位置を、会議用カメラ40の位置として検出する。
[検出方法2]
検出方法2は、会議用カメラ40に、位置検出用のビーコンを設ける方法である。ビーコンとして、例えば赤外光発光素子を用いることができる。この場合、プロジェクター30は、例えばプロジェクター用カメラ33に赤外線受光機能が備えられている、またはプロジェクター用カメラ33とは別に赤外線受光機能を備えたカメラが設けられているものとする。赤外線受光機能を備えたカメラの撮像画像には、ビーコンから発光された赤外光が写る。カメラ位置検出部362は、赤外光の位置を、会議用カメラ40の位置として検出する。
[検出方法3]
検出方法3は、画像認識により会議用カメラ40を検出する方法である。例えば、カメラ位置検出部362は、会議用カメラ40のうち、表示面Pに露出する部分の形状を示す形状データを予め取得しておく。例えば、表示システム10で、予め定められた形状の会議用カメラ40を共通して使用するようにしてもよい。カメラ位置検出部362は、プロジェクター用カメラ33の撮像画像を取得して、撮像画像内に形状データに対応する形状の物体が写っているかを判断する。形状データに対応する形状の物体が写っている場合、カメラ位置検出部362は、当該物体の位置を、会議用カメラ40の位置として検出する。
[検出方法4]
検出方法4は、プロジェクター30からの投射光をプロジェクター用カメラ33によって検出する方法である。カメラ位置検出部362は、表示面Pに対してレーザー光のような指向性が高い光を順番に照射していく。レーザー光の照射位置は、例えば表示面Pに設定されたXY座標を用いて識別できるものとする。この間、プロジェクター用カメラ33は、撮像を継続する。プロジェクター用カメラ33のレンズにレーザー光が入射すると、撮像画像が白飛びした状態となる。カメラ位置検出部362は、白飛びした撮像画像が得られた時の、レーザー光の照射位置を、会議用カメラ40の位置として検出する。
D:パーソナルコンピューター20の処理装置28の詳細
次に、パーソナルコンピューター20の処理装置28により実現される機能部の詳細について説明する。上述のように、パーソナルコンピューター20の処理装置28は、カメラ位置情報取得部281、ユーザー画像生成部282、データ送受信部283、投射画像生成部284、投射画像供給部285および放音制御部286として機能する。
D-1:カメラ位置情報取得部281
カメラ位置情報取得部281は、表示面Pにおける会議用カメラ40の位置を示すカメラ位置情報を取得する。本実施形態では、カメラ位置情報取得部281は、カメラ位置検出部362によって検出されたカメラ位置情報を、第2通信装置26を介して取得する。
D-2:ユーザー画像生成部282
ユーザー画像生成部282は、会議用カメラ40で撮像された撮像画像SKから、ユーザーU3が写る部分画像SB1およびユーザーU4が写る部分画像SB2を生成する。図7は、撮像画像SKと部分画像SB1,SB2との関係を模式的に示す図である。会議用カメラ40の撮像画像SKには、拠点K3にいるユーザーU3,U4の2人が写っている。ユーザー画像生成部282は、画像認識技術を用いて撮像画像SKからユーザーU3,U4の顔を検出し、ユーザーU3の顔を含む部分画像SB1と、ユーザーU4の顔を含む部分画像SB2とを生成する。このような部分画像SB1,SB2を生成するのは、他のユーザーU1,U2の画像と並べた際の違和感を少なくするためである。また、撮像画像SKと比較して、部分画像SB1,SB2の方がユーザーU3,U4の各々の表情が把握しやすい。
なお、拠点K3にユーザーU3,U4以外のユーザーが加わった場合、ユーザー画像生成部282は、加わったユーザーが写る部分画像を更に生成する。また、拠点K3にユーザーU3またはU4の一方のみがいる場合は、撮像画像SKから当該ユーザーU3またはU4の一方が写る部分画像を生成する。
また、例えばユーザーU3,U4の少なくとも一方が、自身の顔が写る部分画像SB1,SB2をオンライン会議で表示することに抵抗がある場合やオンライン会議が私的な交流の場である場合などは、例えば自身を模したアバター画像や、自身の名前またはイニシャルを示す文字画像を、部分画像SB1,SB2に代えて用いるように指定できてもよい。または、部分画像SB1,SB2に対して画像加工処理を行った画像を用いるように指定できてもよい。画像加工処理は、例えばユーザーU3,U4の顔を動物またはイラスト風に変換する処理、ユーザーU3,U4の顔のパーツの一部を入れ替える処理、ぼかし処理等である。以下、部分画像SB1、アバター画像、または部分画像SB1に対して画像加工処理を行った画像等、オンライン会議でユーザーU3に対応して表示される画像を、「ユーザーU3を示す画像S3」とする。他のユーザーU1,U2,U4も同様である。
D-3:データ送受信部283
データ送受信部283は、会議サーバーCに対して、ユーザー画像生成部282で生成されたユーザーU3を示す画像S3に対応する画像データ、ユーザーU4を示す画像S4に対応する画像データを送信する。また、データ送受信部283は、会議サーバーCに対して、マイクロホン24が生成した音声データを送信する。画像S3に対応する画像データと、画像S4に対応する画像データと、マイクロホン24が生成した音声データとは、拠点K3で生成されたデータとして対応付けられている。
また、データ送受信部283は、会議サーバーCから、他の拠点K1,K2で撮像された画像データおよび他の拠点K1,K2で収音された音声データを受信する。拠点K1で撮像された画像データは、ユーザーU1を示す画像S1に対応する画像データである。拠点K2で撮像された画像データは、ユーザーU2を示す画像S2に対応する画像データである。拠点K1で収音された音声データは、ユーザーU1の発話を含む音声データである。拠点K2で収音された音声データは、ユーザーU2の発話を含む音声データである。拠点K1で撮像された画像データと、拠点K1で収音された音声データとは対応付けられている。また、拠点K2で撮像された画像データと、拠点K2で収音された音声データとは対応付けられている。
D-4:投射画像生成部284
投射画像生成部284は、プロジェクター30で投射する投射画像SGを生成する。投射画像生成部284は、データ送受信部283により受信された他の拠点K1,K2で撮像された画像データと、ユーザー画像生成部282で生成された部分画像SB1に対応する画像データと、部分画像SB2に対応する画像データとを用いて、投射画像SGを生成する。この時、投射画像生成部284は、カメラ位置情報取得部281で取得されたカメラ位置情報に基づいて、投射画像SGのレイアウトを決定する。また、投射画像生成部284は、会議中の発話者が、ユーザーU1~U4のいずれであるかに基づいて、投射画像SGのレイアウトを決定する。
図8は、基準状態M1における投射画像SGのレイアウトを示す。基準状態M1とは、例えば発話者がいない状態である。以下、基準状態M1における投射画像SGのレイアウトを「基準レイアウト」という。投射画像SGには、ユーザーU1を示す画像S1、ユーザーU2を示す画像S2、ユーザーU3を示す画像S3、ユーザーU4を示す画像S4が含まれている。すなわち、プロジェクター30により投射画像SGが投射されると、第1通信装置25を介して取得したユーザーU1を示す画像S1と、ユーザーU1とは異なるユーザーU3を示す画像S3とが、表示面Pに表示される。画像S1は第1画像の一例であり、画像S3は第2画像の一例である。画像S1,S2は、データ送受信部283により受信された他の拠点K1,K2で撮像された画像データに対応する画像である。また、画像S3,S4は、ユーザー画像生成部282で生成された部分画像SB1,SB2である。
基準状態M1では、投射画像生成部284は、画像S1,S2の少なくともいずれかの外縁付近に会議用カメラ40が位置するように、画像S1,S2を配置する。これは、画像S1,S2の中央部付近に会議用カメラ40が重なると、画像S1,S2の視認性が低下するためである。一方で、会議用カメラ40から離れた位置に画像S1,S2が配置されると、ユーザーU3,U4の視線が会議用カメラ40から離れて、ユーザーU1,U2に違和感を与える。画像S1,S2の少なくともいずれかの外縁付近に会議用カメラ40が位置することにより、会議用カメラ40と画像S1,S2との距離が所定距離以下に維持することができる。
また、基準状態M1では、画像S1と会議用カメラ40との距離と、画像S2と会議用カメラ40との距離との差分が小さくなるように、画像S1,S2を配置するのが好ましい。これは、発話者がいない状態では、拠点K3のユーザーU3,U4は、特定の画像を注視するのではなく、画像S1,S2を包括するように表示面Pを見るためである。図8の例では、画像S1~S4は、縦2列×横2行で配置されており、会議用カメラ40は、画像S1~S4の中央に位置している。すなわち、会議用カメラ40と画像S1~S4との距離が等しくなっている。
なお、画像S1と会議用カメラ40との距離とは、例えば画像S1の中心と会議用カメラ40の中心との距離であってもよいし、画像S1のうち会議用カメラ40に最も近い点と会議用カメラ40のうち画像S1に最も近い点との距離であってもよい。
また、投射画像生成部284は、投射画像SGのうち、会議用カメラ40と重なる部分に対して、マスク処理を行う。なお、会議用カメラ40と重なる部分とは、より詳細には、壁Wの表面F1側に露出する会議用カメラ40の部分と重なる部分である。以下、投射画像SGのうち、会議用カメラ40と重なる部分を「カメラ重畳部分R」という。本実施形態では、マスク処理とは、カメラ重畳部分Rの輝度を他の部分より下げる処理であり、例えばカメラ重畳部分Rを黒画像とする処理を指す。
投射画像生成部284は、例えばカメラ重畳部分Rに対応する部分を黒画像とし、他の部分は透明としたマスク画像を生成し、画像S1~S4を配置した画像と重畳することにより、カメラ重畳部分Rの輝度を他の部分より下げる。または、投射画像生成部284は、画像S1~S4を配置した画像に対して、カメラ重畳部分Rに対応する部分の輝度を下げるように画像処理を行うことにより、カメラ重畳部分Rの輝度を他の部分より下げるようにしてもよい。本実施形態では、前者のマスク画像を重畳する方法を採るものとする。
マスク処理を行うことにより、会議用カメラ40のレンズLに、プロジェクター30からの投射光が入射するのを防止し、白飛び等の撮像不良が生じるのを防止することができる。より詳細には、カメラ重畳部分Rにマスク処理を行うことにより、カメラ重畳部分Rに投射される光量が低減し、撮像不良を防止することができる。なお、マスク処理を行う範囲は、カメラ重畳部分Rを含み、カメラ重畳部分Rよりも広い範囲であってもよい。
図9は、ユーザーU1の発話時M2における投射画像SGを示す。ユーザーU1の発話中は、後述する放音制御部286により、第1通信装置25を介して取得した端末装置T1からの音声がスピーカー23から出力される。ユーザーU1が発話しているか否かは、例えば拠点K1で収音された音声データのレベルが所定値以上であるか否かによって判定される。拠点K1で収音された音声データのレベルが所定値以上である場合、投射画像生成部284は、拠点K1で撮像された画像S1に写るユーザーU1が発話していると判定する。
オンライン会議に参加するユーザーU1~U4のうち、拠点K3以外にいるユーザーU1が発話した場合、投射画像生成部284は、ユーザーU1を示す画像S1を、ユーザーU1が発話していない場合と比較して、会議用カメラ40に近づける。画像S1が会議用カメラ40に近づくことにより、他の画像S2~S4は、相対的に会議用カメラ40から遠い位置となる。すなわち、投射画像生成部284は、ユーザーU1の発話中は、会議用カメラ40の位置に対して、画像S3を表示する位置よりも近い位置に、画像S1が表示されるように、投射画像SGを生成する。拠点K3にいるユーザーU3,U4の視線は、発話しているユーザーU1を示す画像S1を向く。画像S1は、他のユーザーU2~U4を示す画像S2~S4よりも会議用カメラ40に近い位置にある。よって、ユーザーU3,U4の視線は、会議用カメラ40に近い位置を向くことになる。
会議用カメラ40で撮像された撮像画像SKは、ユーザーU1,U2に送信される。すなわち、データ送受信部283は、ユーザーU1の音声を出力している期間に会議用カメラ40が撮像した撮像画像SKを、会議サーバーCに送信する。また、会議サーバーCは、ユーザーU1が使用する端末装置T1に送信する。会議用カメラ40で撮像された撮像画像SKにおいて、ユーザーU3,U4の視線は会議用カメラ40の近くに向いている。これを見たユーザーU1,U2は、ユーザーU3,U4と目線を合わせながら会議を行っているように感じられ、オンライン会議における円滑なコミュニケーションを支援することができる。
本実施形態では、投射画像生成部284は、ユーザーU1の発話中、画像S1を会議用カメラ40と重なる位置に配置する。すなわち、投射画像生成部284は、表示面Pにおいて会議用カメラ40と重なる位置に画像S1が表示されるように、投射画像SGを生成する。これにより、会議用カメラ40と重ならない位置に画像S1が表示されるのと比較して、ユーザーU3,U4の視線を、会議用カメラ40のより近くに向けさせることができる。
一方で、画像S1のうちユーザーU1の顔が写る部分と会議用カメラ40とが重なると、ユーザーU1の顔の視認性が低下するとともに、画像S1を見るユーザーU3,U4が違和感を覚える可能性がある。よって、投射画像生成部284は、ユーザーU1の発話中、画像S1のうち、会議用カメラ40と重なる部分が、ユーザーU1の顔以外の部分となるように、投射画像SGを生成する。画像S1におけるユーザーU1の顔の範囲は、例えば顔認識技術等により特定可能である。本実施形態では、投射画像生成部284は、ユーザーU1のあご下、すなわちユーザーU1の首が写る部分に、会議用カメラ40が重なるように画像S1を配置する。これにより、ユーザーU1の顔の視認性を低下させることなく、会議用カメラ40により近い位置にユーザーU3,U4の視線を向けさせることができる。
また、図9では、ユーザーU1の発話中、ユーザーU1を示す画像S1が、他のユーザーU2~U4を示す画像S2~S4よりも大きく表示されている。言い換えると、投射画像生成部284は、ユーザーU1の発話中、ユーザーU1を示す画像S1を、ユーザーU1が発話していない期間におけるユーザーU1を示す画像S1よりも大きく表示する。これにより、発話者であるユーザーU1の表情を、他のユーザーU2~U4がより把握しやすくなる。また、複数のユーザーU1~U4のうち、発話者が誰なのかを特定しやすくなる。これに限らず、投射画像生成部284は、ユーザーU1の発話中も、画像S1の大きさは他の画像S2~S4の大きさと同じとし、画像S1の位置のみ変更するようにしてもよい。
また、ユーザーU1の発話が終了した場合、投射画像生成部284は、図8に示す基準状態M1のレイアウトに投射画像SGを戻す。
図10は、ユーザーU3の発話時M3における投射画像SGを示す。ユーザーU3が発話しているか否かは、例えばマイクロホン24で収音された音声データのレベルが所定値以上であるか否かによって判定される。マイクロホン24で収音された音声データのレベルが所定値以上である場合、投射画像生成部284は、会議用カメラ40で撮像された撮像画像SKに写るユーザーU3,U4が発話していると判定する。
投射画像生成部284は、拠点K3にいるユーザーU3が発話している期間において、会議用カメラ40の位置に対して、画像S1を表示する位置よりも近い位置に、画像S3を表示しない。例えば図10における画像S1~S4の配置は、基準レイアウトと同じであり、会議用カメラ40と画像S1~S4との距離は、それぞれ同一である。
このような配置とするのは、発話中のユーザーU3は、他のユーザーU1,U2,U4を示す画像S1,S2,S4に目を向けると考えられるためである。例えば図9における画像S1の位置に画像S3を配置した場合、他の画像S1,S2,S4は、会議用カメラ40から離れた位置に配置されることになる。ユーザーU3は、画像S1,S2,S4に目を向けるため、ユーザーU3の視線は会議用カメラ40から離れた位置を向く。この場合、他の拠点K1,K2のユーザーU1,U2に対して違和感を与える。よって、拠点K3のユーザーU3が発話した場合、投射画像生成部284は、ユーザーU3を示す画像S3を、画像S1,S2よりも会議用カメラ40に近い位置に表示しない。なお、ユーザーU4が発話した場合も同様に、画像S4は画像S1,S2よりも会議用カメラ40の近くに表示されない。
D-5:投射画像供給部285
投射画像供給部285は、投射画像生成部284によって生成された投射画像SGの画像データをプロジェクター30に供給する。画像データの供給を受けたプロジェクター30は、画像データに基づいて光学装置34を駆動させ、表示面Pに投射画像SGを表示させる。
D-6:放音制御部286
放音制御部286は、スピーカー23からの音声出力を制御する。放音制御部286は、データ送受信部283により受信された他の拠点K1,K2で収音された音声データを出力するように、スピーカー23を制御する。
E:処理装置28の動作
図11は、処理装置28が制御プログラム270に従って実行する表示方法の流れを示すフローチャートである。表示システム10が起動されると、処理装置28は、カメラ位置情報取得部281として機能することにより、表示面Pにおける会議用カメラ40の位置を示すカメラ位置情報を取得する(ステップS100)。処理装置28は、投射画像生成部284として機能することにより、カメラ位置情報に基づいて、投射画像SG中のカメラ重畳部分Rを特定し、カメラ重畳部分Rを黒画像としたマスク画像を生成する(ステップS102)。生成されたマスク画像は、処理装置28が投射画像供給部285として機能することにより、プロジェクター30に供給される。プロジェクター30は、表示面Pにマスク画像を表示する。
処理装置28は、オンライン会議が開始されるまで待機する(ステップS104:NO)。オンライン会議が開始されると(ステップS104:YES)、処理装置28は、ユーザー画像生成部282として機能することにより、会議用カメラ40の撮像画像SKからユーザーU3を示す画像S3に対応する画像データと、ユーザーU4を示す画像S4に対応する画像データとを生成する(ステップS106)。処理装置28は、データ送受信部283として機能することにより、会議サーバーCに接続して、画像データおよび音声データを送受信する(ステップS108)。より詳細には、処理装置28は、他の拠点K1,K2で撮像された画像データおよび他の拠点K1,K2で収音された音声データを受信するとともに、拠点K3で撮像された画像データおよび拠点K3で収音された音声データを送信する。他の拠点K1,K2で収音された音声データは、処理装置28が放音制御部286として機能することにより、スピーカー23から出力される。
処理装置28は、拠点K1~K3で収音された音声データに基づいて、オンライン会議において発話者がいるか否かを判断する(ステップS110)。発話者がいない場合(ステップS110:NO)、処理装置28は、投射画像生成部284として機能することにより、画像S1~S4を基準レイアウトに配置し、マスク画像と重畳して投射画像SGを生成する(ステップS116)。処理装置28は、投射画像供給部285として機能することにより、投射画像SGをプロジェクター30に供給する(ステップS118)。プロジェクター30は、表示面Pに投射画像SGを表示する。
一方、ステップS110で発話者がいる場合(ステップS110:YES)、処理装置28は、発話者が他の拠点K1,K2のユーザーU1,U2であるか否かを判断する(ステップS112)。発話者が他の拠点K1,K2のユーザーU1,U2である場合(ステップS112:YES)、処理装置28は、投射画像生成部284として機能することにより、発話者の画像と会議用カメラ40とが重なるように画像S1~S4を配置し、マスク画像と重畳して投射画像SGを生成する(ステップS114)。処理装置28は、投射画像供給部285として機能することにより、投射画像SGをプロジェクター30に供給する(ステップS118)。プロジェクター30は、表示面Pに投射画像SGを表示する。
また、発話者が他の拠点K1,K2のユーザーU1,U2でない場合(ステップS112:NO)、すなわち、拠点K3のユーザーU3,U4である場合、処理装置28は、投射画像生成部284として機能することにより、画像S1~S4を基準レイアウトに配置し、マスク画像と重畳して投射画像SGを生成する(ステップS116)。処理装置28は、投射画像供給部285として機能することにより、投射画像SGをプロジェクター30に供給する(ステップS118)。プロジェクター30は、表示面Pに投射画像SGを表示する。
処理装置28は、オンライン会議が終了するまでは(ステップS120:NO)、ステップS106に戻り、以降の処理を繰り返す。処理装置28は、オンライン会議が終了すると(ステップS120:YES)、本フローチャートによる処理を終了する。
F:実施形態のまとめ
以上説明したように、実施形態にかかる表示方法は、ユーザーU1の音声を出力している期間に、会議用カメラ40の位置に対して、ユーザーU3を示す画像S3を表示する位置よりも近い位置に、ユーザーU1を示す画像S1を表示する。また、実施形態にかかる表示方法は、ユーザーU1の音声を出力している期間に会議用カメラ40が取得した画像S3,S4を、ユーザーU1が使用する端末装置T1に送信する。一般に、表示面Pを見るユーザーU3,U4は、ユーザーU1の音声を出力している期間には、ユーザーU1を示す画像S1を注視するので、画像S1を上記のような位置に配置することにより、ユーザーU3,U4の視線は、会議用カメラ40の近くに向く。よって、会議用カメラ40の撮像画像SKの送信を受けたユーザーU1は、ユーザーU3,U4の視線が自身の近くを向いていると認識し、視線のずれに起因する違和感を低減することができる。
また、実施形態にかかる表示方法は、ユーザーU1の音声を出力している期間に、表示面Pにおいて会議用カメラ40と重なる位置に画像S1を表示する。これにより、ユーザーU3,U4の視線が、会議用カメラ40のより近くに向く。よって、会議用カメラ40の撮像画像SKの送信を受けたユーザーU1は、ユーザーU3,U4の視線がより自身の近くを向いていると認識し、視線のずれに起因する違和感をより低減することができる。
また、実施形態にかかる表示方法は、画像S1のうち会議用カメラ40と重なる部分を、ユーザーU1の顔以外の部分とする。画像S1のうち、ユーザーU3,U4が最も注視する部分であるユーザーU1の顔の部分である。会議用カメラ40と重なる部分をユーザーU1の顔以外の部分とすることにより、ユーザーU1に顔の視認性が、会議用カメラ40により視認性が低下するのを回避することができる。
また、実施形態にかかる表示方法は、会議用カメラ40と重なる画像S1の部分の輝度を、画像S1の他の部分の輝度よりも下げて表示する。これにより、会議用カメラ40のレンズLに入射するプロジェクター30の投射光の輝度を低減することができ、会議用カメラ40の撮像画像SKの撮像不良を防止することができる。
また、実施形態にかかる表示方法は、ユーザーU3が発話している期間において、会議用カメラ40の位置に対して、画像S1を表示する位置よりも近い位置に、画像S3を表示しない。一般に、ユーザーU3は、自身が話している時は、自分以外のユーザーU1,U2,U4の画像S1,S2,S4を見る。画像S1,S2を上記のような位置に配置することにより、ユーザーU3の視線が会議用カメラ40から離れるのを回避し、会議用カメラ40の撮像画像SKの送信を受けるユーザーU1における、視線のずれに起因する違和感を低減することができる。
また、実施形態にかかる表示システム10は、ユーザーU1の音声を出力している期間に、会議用カメラ40の位置に対して、ユーザーU3を示す画像S3を表示する位置よりも近い位置に、ユーザーU1を示す画像S1を表示する。また、実施形態にかかる表示システム10は、ユーザーU1の音声を出力している期間に会議用カメラ40が取得した画像S3,S4を、ユーザーU1が使用する端末装置T1に送信する。一般に、表示面Pを見るユーザーU3,U4は、ユーザーU1の音声を出力している期間には、ユーザーU1を示す画像S1を注視するので、画像S1を上記のような位置に配置することにより、ユーザーU3,U4の視線は、会議用カメラ40の近くに向く。よって、会議用カメラ40の撮像画像SKの送信を受けたユーザーU1は、ユーザーU3,U4の視線が自身の近くを向いていると認識し、視線のずれに起因する違和感を低減することができる。
また、実施形態にかかるプログラムは、ユーザーU1の音声を出力している期間に、会議用カメラ40の位置に対して、ユーザーU3を示す画像S3を表示する位置よりも近い位置に、ユーザーU1を示す画像S1を表示する。また、実施形態にかかるプログラムは、ユーザーU1の音声を出力している期間に会議用カメラ40が取得した画像S3,S4を、ユーザーU1が使用する端末装置T1に送信する。一般に、表示面Pを見るユーザーU3,U4は、ユーザーU1の音声を出力している期間には、ユーザーU1を示す画像S1を注視するので、画像S1を上記のような位置に配置することにより、ユーザーU3,U4の視線は、会議用カメラ40の近くに向く。よって、会議用カメラ40の撮像画像SKの送信を受けたユーザーU1は、ユーザーU3,U4の視線が自身の近くを向いていると認識し、視線のずれに起因する違和感を低減することができる。
G:変形例
上述の実施形態における変形の態様を以下に示す。以下の変形の態様から任意に選択された2以上の態様を、相互に矛盾しない範囲において適宜に併合してもよい。
G1:変形例1
本実施形態では、表示システム10と、端末装置T1,T2との間でオンライン会議を実施する場合について説明した。これに限らず、例えば表示システム10と、他の表示システムとの間でオンライン会議が実施されてもよい。この場合、他の表示システムにおける投射画像SGの基準レイアウトおよび発話中における投射画像SGのレイアウトは、他の表示システムにおける会議用カメラの配置に基づいて決定される。
G2:変形例2
パーソナルコンピューター20の処理装置28が実行する各機能部の処理の少なくとも一部は、プロジェクター30の処理装置36、会議用カメラ40の処理装置、または会議サーバーCの処理装置が実行してもよい。また、プロジェクター30の処理装置36が実行する各機能部の処理の少なくとも一部は、パーソナルコンピューター20の処理装置28、会議用カメラ40の処理装置、または会議サーバーCの処理装置が実行してもよい。例えば、複数台のプロジェクター30を用いて巨大なスクリーンに画像を投射するマルチプロジェクションを実施する場合には、会議サーバーCで投射画像SGを生成するのが効果的である。この場合、会議サーバーCは、投射画像SGを各プロジェクター30の投射領域毎に分割して、分割した投射画像SGに対応する画像データを、それぞれのプロジェクター30に送信する。
G3:変形例3
本実施形態では、表示システム10は、パーソナルコンピューター20と、プロジェクター30と、会議用カメラ40とを備えた。これに限らず、例えば、プロジェクター30がパーソナルコンピューター20の機能を備えていてもよい。この場合、プロジェクター30が、ネットワークNに接続可能とするとともに、会議用カメラ40の撮像画像を取得可能とする。
G4:変形例4
本実施形態では、拠点K3のユーザーU3を第2ユーザーの一例とした。これに限らず、例えば拠点K2のユーザーU2を第2ユーザーとしてもよい。この場合、画像S2が第2画像の一例となる。また、例えば拠点K3のユーザーU4を第2ユーザーとしてもよい。この場合、画像S4が第2画像の一例となる。なお、第2画像が会議用カメラ40で撮像された画像である場合には、第2ユーザーはユーザーU3またはユーザーU4のいずれかである。
G5:変形例5
本実施形態では、拠点K3のユーザーU3,U4を示す画像S3,S4を投射画像SGに表示するものとした。これに限らず、拠点K3のユーザーU3,U4を示す画像S3,S4は、投射画像SGに表示しないようにしてもよい。これは、拠点K3にいるユーザーU3,U4は、互いの顔を目視できるためである。また、画像S3,S4を非表示とすることにより、投射画像SG中の他の画像の投射領域を大きくすることができる。
また、本実施形態では、会議用カメラ40の撮像画像SKから部分画像SB1,SB2を生成し、ユーザーU3を示す画像S3およびユーザーU4を示す画像S4を生成した。これに限らず、複数のユーザーU3,U4が写る撮像画像SKをそのまま拠点K3を示す画像として投射画像SGに表示してもよい。
G6:変形例6
本実施形態では、プロジェクター30が表示装置の一例であった。これに限らず、表示装置として、例えば少なくとも1つのフラットパネルディスプレイが用いられてもよい。例えば、複数のフラットパネルディスプレイを同一平面上に並べ、その隙間に会議用カメラ40を配置してもよい。また、例えばフラットパネルディスプレイの表面に会議用カメラ40を配置してもよい。
1…会議システム、10…表示システム、20…パーソナルコンピューター、21…操作装置、22…ディスプレイ、23…スピーカー、24…マイクロホン、25…第1通信装置、26…第2通信装置、27…記憶装置、28…処理装置、30…プロジェクター、31…操作装置、32…通信装置、33…プロジェクター用カメラ、34…光学装置、35…記憶装置、36…処理装置、40…会議用カメラ、281…カメラ位置情報取得部、282…ユーザー画像生成部、283…データ送受信部、284…投射画像生成部、285…投射画像供給部、286…放音制御部、361…キャリブレーション処理部、362…カメラ位置検出部、C…会議サーバー、K1~K3…拠点、N…ネットワーク、P…表示面、S1~S4…画像、T1,T2…端末装置、U1~U4…ユーザー。

Claims (7)

  1. 第1ユーザーを示し、前記第1ユーザーの顔を含む範囲を撮像した画像である第1画像と、第2ユーザーを示す第2画像とを、カメラが配置された表示面に表示することと、
    前記表示面における前記カメラの位置を示す情報を取得することと、
    前記第1ユーザーの音声を出力することと、
    前記第1ユーザーの音声を出力している期間に、前記カメラの位置に対して、前記第2画像を表示する位置よりも近い位置に、前記第1画像を表示することと、
    前記第1ユーザーの音声を出力している期間に前記カメラが取得した画像を、前記第1ユーザーが使用する端末装置に送信することと、
    前記第1画像に含まれる前記第1ユーザーの顔を特定することと、
    を含み、
    前記第1画像を表示することは、前記表示面において前記カメラと重なる位置に前記第1画像を表示することであり、
    前記第1画像のうち前記カメラと重なる部分は、特定された前記第1ユーザーの顔以外の前記第1ユーザーを示す部分である、
    表示方法。
  2. 前記第1画像を表示することは、前記カメラと重なる前記第1画像の部分の輝度を、前記第1画像の他の部分の輝度よりも下げて表示することを含む、
    請求項1記載の表示方法。
  3. 前記第2画像は、前記カメラで撮像された画像であり、
    前記第2ユーザーが発話している期間において、前記カメラの位置に対して、前記第1画像を表示する位置よりも近い位置に、前記第2画像を表示しないことを更に含む、
    請求項1または2記載の表示方法。
  4. 前記第1ユーザーの音声を出力している期間に、前記カメラの位置に対して、前記第2画像を表示する位置よりも近い位置に、前記第1画像を表示することは、前記第1画像を第1位置から第2位置に表示位置を移動させることであり、
    前記第1ユーザーの音声の出力が終了した後に、前記第1画像を前記第1位置に戻すことを更に含む、
    請求項1から3のいずれか一項に記載の表示方法。
  5. 前記第1画像と、前記第2画像とを、前記カメラが配置された前記表示面に表示することは、前記カメラと重なる位置に前記第1画像と前記第2画像の少なくとも片方の画像の外縁を表示することである、
    請求項1から4のいずれか一項に記載の表示方法。
  6. 表示面に配置されたカメラ、および第1ユーザーの端末装置と通信する少なくとも1つの通信インターフェイスと、
    前記表示面に画像を表示する表示装置と、
    スピーカーと、
    前記通信インターフェイス、前記表示装置、および前記スピーカーを制御する少なくとも1つの処理装置と、を備え、
    前記少なくとも1つの処理装置は、
    前記通信インターフェイスを介して取得した前記第1ユーザーを示し、前記第1ユーザーの顔を含む範囲を撮像した画像である第1画像と、前記第1ユーザーとは異なる第2ユーザーを示す第2画像とを、前記表示装置によって前記表示面に表示し、
    前記表示面における前記カメラの位置を示す情報を取得し、
    前記通信インターフェイスを介して取得した前記端末装置からの音声を前記スピーカーから出力し、
    前記音声を出力している期間に、前記表示装置によって、前記カメラの位置に対して、前記第2画像を表示する位置よりも近い位置に、前記第1画像を表示し、
    前記音声を出力している期間に前記カメラが取得した画像を、前記通信インターフェイスを介して前記端末装置に送信し、
    前記第1画像に含まれる前記第1ユーザーの顔を特定し、
    前記第1画像を表示することは、前記表示面において前記カメラと重なる位置に前記第1画像を表示することであり、
    前記第1画像のうち前記カメラと重なる部分は、特定された前記第1ユーザーの顔以外の前記第1ユーザーを示す部分である、
    表示システム。
  7. 第1ユーザーを示し、前記第1ユーザーの顔を含む範囲を撮像した画像である第1画像と、第2ユーザーを示す第2画像とを、カメラが配置された表示面に表示することと、
    前記表示面における前記カメラの位置を示す情報を取得することと、
    前記第1ユーザーの音声を出力することと、
    前記第1ユーザーの音声を出力している期間に、前記カメラの位置に対して、前記第2画像を表示する位置よりも近い位置に、前記第1画像を表示することと、
    前記第1ユーザーの音声を出力している期間に前記カメラが取得した画像を、前記第1ユーザーが使用する端末装置に送信することと、
    前記第1画像に含まれる前記第1ユーザーの顔を特定することと、
    をコンピューターに実行させるプログラムであり、
    前記第1画像を表示することは、前記表示面において前記カメラと重なる位置に前記第1画像を表示することであり、
    前記第1画像のうち前記カメラと重なる部分は、特定された前記第1ユーザーの顔以外の前記第1ユーザーを示す部分である、
    コンピューターに実行させるプログラム。
JP2022043558A 2022-03-18 2022-03-18 表示方法、表示システムおよびプログラム Active JP7505518B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022043558A JP7505518B2 (ja) 2022-03-18 2022-03-18 表示方法、表示システムおよびプログラム
CN202310266389.3A CN116781874A (zh) 2022-03-18 2023-03-16 显示方法、显示***和记录有程序的记录介质
US18/122,798 US11983381B2 (en) 2022-03-18 2023-03-17 Display method, display system, and non-transitory computer-readable storage medium storing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022043558A JP7505518B2 (ja) 2022-03-18 2022-03-18 表示方法、表示システムおよびプログラム

Publications (2)

Publication Number Publication Date
JP2023137374A JP2023137374A (ja) 2023-09-29
JP7505518B2 true JP7505518B2 (ja) 2024-06-25

Family

ID=88008910

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022043558A Active JP7505518B2 (ja) 2022-03-18 2022-03-18 表示方法、表示システムおよびプログラム

Country Status (3)

Country Link
US (1) US11983381B2 (ja)
JP (1) JP7505518B2 (ja)
CN (1) CN116781874A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7505518B2 (ja) * 2022-03-18 2024-06-25 セイコーエプソン株式会社 表示方法、表示システムおよびプログラム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3175200B2 (ja) 1991-07-29 2001-06-11 キヤノン株式会社 画像通信装置及びその制御方法
WO2003030530A1 (en) 2001-10-04 2003-04-10 Monash University Flare reduction in video conferencing
JP2006522559A (ja) 2003-04-07 2006-09-28 タンドベルク・テレコム・エイ・エス ビデオ会議の参加者間のアイコンタクトを可能にする設備と方法
JP2011520400A (ja) 2008-05-12 2011-07-14 マイクロソフト コーポレーション 正確に注視するビデオ会議
US20130182062A1 (en) 2012-01-12 2013-07-18 Samsung Electronics Co. Ltd. Apparatus and method for taking image and conducting video communication
US20150278989A1 (en) 2014-03-31 2015-10-01 Electronics And Telecommunications Research Institute Apparatus and method for controlling eye-to-eye contact function
US20170223312A1 (en) 2014-09-25 2017-08-03 Steve H. McNelley Communication stage and related systems
US20170264864A1 (en) 2006-03-18 2017-09-14 Steve H MCNELLEY Advanced telepresence environments
JP2021087163A (ja) 2019-11-29 2021-06-03 セイコーエプソン株式会社 撮影表示装置、撮影表示システムおよび撮影表示装置の制御方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5400069A (en) * 1993-06-16 1995-03-21 Bell Communications Research, Inc. Eye contact video-conferencing system and screen
JP3674474B2 (ja) 2000-08-04 2005-07-20 ヤマハ株式会社 映像システム
JP2010114768A (ja) 2008-11-07 2010-05-20 Canon Inc 映像処理装置、システム及びプログラム
US9160966B2 (en) * 2011-05-11 2015-10-13 Microsoft Technology Licensing, Llc Imaging through a display screen
JP7387167B2 (ja) 2020-05-01 2023-11-28 tonari株式会社 仮想的空間接続装置、システム
JP7505518B2 (ja) * 2022-03-18 2024-06-25 セイコーエプソン株式会社 表示方法、表示システムおよびプログラム
JP7459890B2 (ja) * 2022-03-23 2024-04-02 セイコーエプソン株式会社 表示方法、表示システムおよびプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3175200B2 (ja) 1991-07-29 2001-06-11 キヤノン株式会社 画像通信装置及びその制御方法
WO2003030530A1 (en) 2001-10-04 2003-04-10 Monash University Flare reduction in video conferencing
JP2006522559A (ja) 2003-04-07 2006-09-28 タンドベルク・テレコム・エイ・エス ビデオ会議の参加者間のアイコンタクトを可能にする設備と方法
US20170264864A1 (en) 2006-03-18 2017-09-14 Steve H MCNELLEY Advanced telepresence environments
JP2011520400A (ja) 2008-05-12 2011-07-14 マイクロソフト コーポレーション 正確に注視するビデオ会議
US20130182062A1 (en) 2012-01-12 2013-07-18 Samsung Electronics Co. Ltd. Apparatus and method for taking image and conducting video communication
US20150278989A1 (en) 2014-03-31 2015-10-01 Electronics And Telecommunications Research Institute Apparatus and method for controlling eye-to-eye contact function
US20170223312A1 (en) 2014-09-25 2017-08-03 Steve H. McNelley Communication stage and related systems
JP2021087163A (ja) 2019-11-29 2021-06-03 セイコーエプソン株式会社 撮影表示装置、撮影表示システムおよび撮影表示装置の制御方法

Also Published As

Publication number Publication date
US20230297205A1 (en) 2023-09-21
US11983381B2 (en) 2024-05-14
CN116781874A (zh) 2023-09-19
JP2023137374A (ja) 2023-09-29

Similar Documents

Publication Publication Date Title
JP7452596B2 (ja) 通信端末、表示方法、プログラム及び画像通信システム
CN103279313B (zh) 显示装置以及显示控制方法
JP2019030007A (ja) 複数のカメラを用いて映像を取得するための電子装置及びこれを用いた映像処理方法
US20120077172A1 (en) Presentation system
US20170061686A1 (en) Stage view presentation method and system
JP7456034B2 (ja) 複合現実表示装置および複合現実表示方法
CN106851234A (zh) 投影仪以及投影仪的控制方法
US20180357036A1 (en) Display system, display device, and method of controlling display system
JP7505518B2 (ja) 表示方法、表示システムおよびプログラム
JP2013070368A (ja) テレビ対話システム、端末および方法
JP2009071478A (ja) 情報通信端末および情報通信システム
CN107239177A (zh) 显示***、显示装置、信息处理装置以及信息处理方法
JP2016213674A (ja) 表示制御システム、表示制御装置、表示制御方法、及びプログラム
JP7459890B2 (ja) 表示方法、表示システムおよびプログラム
CN107239178A (zh) 显示***、信息处理装置、投影仪及信息处理方法
JPWO2017141584A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JP2005065051A (ja) 撮像装置
JP2008005122A (ja) 双方向通信システム及び双方向通信方法並びに制御プログラム
KR20190098583A (ko) 이미지 표시를 제어하는 전자 장치 및 방법
US20240015264A1 (en) System for broadcasting volumetric videoconferences in 3d animated virtual environment with audio information, and procedure for operating said device
JP2015159460A (ja) 投影システム、投影装置、撮影装置、ガイド枠生成方法及びプログラム
JP7151316B2 (ja) 通信端末、画像通信システム、表示方法、及びプログラム
JP2616392B2 (ja) 画像通信端末のユーザインタフェース
JP2007322704A (ja) 画像表示システム及びその制御方法
WO2017098999A1 (ja) 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、コンピュータープログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230124

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240527