JP7459890B2 - 表示方法、表示システムおよびプログラム - Google Patents

表示方法、表示システムおよびプログラム Download PDF

Info

Publication number
JP7459890B2
JP7459890B2 JP2022046486A JP2022046486A JP7459890B2 JP 7459890 B2 JP7459890 B2 JP 7459890B2 JP 2022046486 A JP2022046486 A JP 2022046486A JP 2022046486 A JP2022046486 A JP 2022046486A JP 7459890 B2 JP7459890 B2 JP 7459890B2
Authority
JP
Japan
Prior art keywords
image
user
camera
display surface
speaking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022046486A
Other languages
English (en)
Other versions
JP2023140584A (ja
Inventor
尊洋 阿野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2022046486A priority Critical patent/JP7459890B2/ja
Priority to US18/124,682 priority patent/US20230308600A1/en
Priority to CN202310287558.1A priority patent/CN116805962A/zh
Publication of JP2023140584A publication Critical patent/JP2023140584A/ja
Application granted granted Critical
Publication of JP7459890B2 publication Critical patent/JP7459890B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • H04N7/144Constructional details of the terminal equipment, e.g. arrangements of the camera and the display camera and display on the same optical axis, e.g. optically multiplexing the camera and display for eye to eye contact
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/152Multipoint control units therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/57Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for processing of video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Description

本発明は、表示方法、表示システムおよびプログラムに関する。
従来、離れた拠点間をネットワークで接続し、それぞれの拠点にいる人物の画像および音声を送受信することによりコミュニケーションを図る技術が普及している。例えば、下記特許文献1に記載の通信会議システムは、映像投影装置より、会議室に設置されたスクリーンに相手側の会議室の映像を投影する。スクリーンのほぼ中央部分には、開口部が設けられており、この開口部の裏面側にビデオカメラが設置されている。そして、このビデオカメラにより撮影された映像が相手側に送信される。映像投影装置は、開口部の部分に常に黒い画像を投影させており、これによりビデオカメラに映像投影装置の発する投影光が入射することを防止している。
特開2002-49367号公報
上述した特許文献1のシステムのように、スクリーンと重ねてカメラが設置される場合、表示される画像のうちカメラと重なる部分の視認性が低下する。一方で、画像の内容によっては、カメラを避けて表示することが必ずしも好ましい訳ではない。上述した特許文献1では、画像の内容に応じた投射画像のレイアウトは検討されておらず、改善の余地がある。
本発明の一態様にかかる表示方法は、表示面に配置され、第1ユーザーを撮像するカメラの、前記表示面における位置を示す情報を取得することと、第2ユーザーが発話している期間に、前記表示面に、前記第1ユーザーの発話に関する第1画像と、前記カメラの前記表示面における位置に対して、前記第1画像の位置よりも近い位置に配置された前記第2ユーザーを示す第2画像と、を表示することと、前記第2ユーザーが発話している期間に前記カメラが取得した画像を、前記第2ユーザーが使用する端末装置に送信することと、前記第1ユーザーが発話している期間に、前記表示面に、前記第2画像と、前記第2ユーザーが発話している期間における前記第1画像の大きさよりも大きな大きさの前記第1画像と、を表示することと、を含む。
本発明の一態様にかかる表示システムは、表示面に配置され第1ユーザーを撮像するカメラ、および第2ユーザーの端末装置と通信する少なくとも1つの通信インターフェイスと、前記表示面に画像を表示する表示装置と、スピーカーと、前記通信インターフェイス、前記表示装置、および前記スピーカーを制御する少なくとも1つの処理装置と、を備え、前記少なくとも1つの処理装置は、前記カメラの前記表示面における位置を示す情報を取得し、前記第2ユーザーが発話している期間に、前記表示装置によって、前記表示面に、前記第1ユーザーの発話に関する第1画像と、前記カメラの前記表示面における位置に対して、前記第1画像の位置よりも近い位置に配置された前記第2ユーザーを示す第2画像と、を表示し、前記第2ユーザーが発話している期間に前記カメラが取得した画像を、前記通信インターフェイスを介して前記第2ユーザーが使用する端末装置に送信し、前記第1ユーザーが発話している期間に、前記表示装置によって、前記表示面に、前記第2画像と、前記第2ユーザーが発話している期間における前記第1画像の大きさよりも大きな大きさの前記第1画像と、を表示する。
本発明の一態様にかかるプログラムは、表示面に配置され、第1ユーザーを撮像するカメラの、前記表示面における位置を示す情報を取得することと、第2ユーザーが発話している期間に、前記表示面に、前記第1ユーザーの発話に関する第1画像と、前記カメラの前記表示面における位置に対して、前記第1画像の位置よりも近い位置に配置された前記第2ユーザーを示す第2画像と、を表示することと、前記第2ユーザーが発話している期間に前記カメラが取得した画像を、前記第2ユーザーが使用する端末装置に送信することと、前記第1ユーザーが発話している期間に、前記表示面に、前記第2画像と、前記第2ユーザーが発話している期間における前記第1画像の大きさよりも大きな大きさの前記第1画像と、を表示することと、をコンピューターに実行させる。
実施形態にかかる表示システム10を含む会議システム1を模式的に示す図である。 表示システム10の構成を示すブロック図である。 パーソナルコンピューター20の構成を示すブロック図である。 プロジェクター30の構成を示すブロック図である。 会議用カメラ40と表示面Pとの位置関係を模式的に示す図である。 図5のA-A断面図である。 撮像画像SKと部分画像SB1,SB2との関係を模式的に示す図である。 ユーザーU1の発話時M1における投射画像SGのレイアウトを示す。 ユーザーU3の発話時M2における投射画像SGのレイアウトを示す。 発話者がいない状態M3における投射画像SGのレイアウトを示す。 オフラインでの会議時M4における投射画像SGのレイアウトを示す。 処理装置28が制御プログラム270に従って実行する表示方法の流れを示すフローチャートである。
以下、添付図面を参照しながら本発明にかかる好適な実施形態を説明する。なお、図面において各部の寸法または縮尺は実際と適宜に異なり、理解を容易にするために模式的に示している部分もある。また、本発明の範囲は、以下の説明において特に本発明を限定する旨の記載がない限り、これらの形態に限られない。
A:表示システム10の概要
図1は、実施形態にかかる表示システム10を含む会議システム1を模式的に示す図である。会議システム1は、異なる拠点K1~K3にいるユーザーU1~U4が参加するオンライン会議を行うためのシステムである。会議システム1は、表示システム10と、端末装置T1,T2と、会議サーバーCとを含む。端末装置T1,T2は、例えばパーソナルコンピューター、タブレット端末、スマートフォンなどの通信機能を備えた情報処理装置である。
表示システム10と、端末装置T1,T2と、会議サーバーCとは、ネットワークNを介して接続されている。端末装置T1は、拠点K1に配置されている。拠点K1には、ユーザーU1がいる。端末装置T2は、拠点K2に配置されている。拠点K2には、ユーザーU2がいる。表示システム10は、拠点K3に配置されている。拠点K3には、ユーザーU3およびU4がいる。ユーザーU3は第1ユーザーの一例であり、ユーザーU1は第2ユーザーの一例である。
オンライン会議は、例えばオンライン会議アプリケーションを用いて行われる。オンライン会議アプリケーションは、端末装置T1,T2、および図2に示す表示システム10のパーソナルコンピューター20において実行される。オンライン会議アプリケーション上で、例えばユーザーU1が会議の開催を要求すると、会議サーバーCに会議の開催要求が通知される。会議サーバーCは、開催要求に対応してURL(Uniform Resource Locator)を発行する。URLは、会議サーバーC上に仮想的に設けられた会議室の識別情報に対応する。ユーザーU1は、発行されたURLを端末装置T1に保存する。また、ユーザーU1は、ユーザーU2~U4に、電子メール等でURLを通知する。
会議の予定時刻になると、端末装置T1,T2およびパーソナルコンピューター20では、オンライン会議アプリケーションを起動してURLで示される接続先に接続する。オンライン会議アプリケーションは、自拠点で撮像された画像データと自拠点で収音された音声データを会議サーバーCに送信する。また、オンライン会議アプリケーションは、自拠点で共有の指示があったデータを、会議サーバーCに送信する。以下、オンライン会議において共有されるデータを、「共有データ」という。本実施形態では、共有データは、プロジェクター30またはディスプレイを用いて表示することにより、ユーザーU1~U4が内容を識別可能となるデータであるものとする。また、オンライン会議アプリケーションは、他の拠点で撮像された画像データと他の拠点で収音された音声データと、他拠点から共有された共有データとを、会議サーバーCから受信し、これらのデータに基づいて画像および音声を出力する。これにより、拠点K1~K3間で画像と音声を用いたオンライン会議が実現される。
B:表示システム10の詳細
図2は、表示システム10の構成を示すブロック図である。表示システム10は、パーソナルコンピューター20と、プロジェクター30と、会議用カメラ40とを備える。
B-1:パーソナルコンピューター20の構成
図3は、パーソナルコンピューター20の構成を示すブロック図である。パーソナルコンピューター20に代えて、タブレット端末、スマートフォンなど他の情報処理装置を端末装置として用いてもよい。
パーソナルコンピューター20は、操作装置21と、ディスプレイ22と、スピーカー23と、マイクロホン24と、第1通信装置25と、第2通信装置26と、記憶装置27と、処理装置28とを備える。
操作装置21は、ユーザーU3,U4からの操作を受け付けるための装置である。操作装置21は、例えばキーボードまたはマウスである。また、操作装置21として、ディスプレイ22と操作装置21とが一体となったタッチパネルが用いられてもよい。
ディスプレイ22は、外部に対して情報を表示する表示デバイスであり、例えば液晶表示パネル、有機EL(Electro-Luminescence)表示パネル等の各種の表示パネルである。
スピーカー23は、音声データに基づく音を発生させる。スピーカー23は、パーソナルコンピューター20に内蔵されているに限らず、パーソナルコンピューター20とは別体のスピーカー23を有線または無線により接続してもよい。
マイクロホン24は、周囲の音を検出して音声データとして出力する。マイクロホン24は、パーソナルコンピューター20に内蔵されているに限らず、パーソナルコンピューター20とは別体のマイクロホン24を有線または無線により接続してもよい。
第1通信装置25は、ネットワークNに接続された他の端末装置と通信するためのインターフェイスである。他の端末装置とは、本実施形態では、会議サーバーCである。第1通信装置25は、例えば、Wi-Fiなどの通信方式で無線LAN(Local Area Network)ルーターと通信する。Wi-Fiは登録商標である。無線LANルーターは、無線LANアクセスポイントおよびインターネットとの仲介機能を備えた無線LAN機器である。なお、第1通信装置25は、有線LANによりネットワークNと接続されていてもよい。第1通信装置25は、ユーザーU1の端末装置T1と通信する通信インターフェイスの一例である。
第2通信装置26は、プロジェクター30および会議用カメラ40等の、パーソナルコンピューター20の近くに位置する機器と通信するためのインターフェイスである。第2通信装置26は、例えば、無線または有線のLAN、Bluetooth、USB(Universal Serial Bus)、HDMI(High Definition Multimedia Interface)等のインターフェイスである。Bluetooth、USBおよびHDMIは、それぞれ、登録商標である。第2通信装置26は、無線の場合はアンテナ、有線の場合はコネクター等のインターフェイスと、インターフェイスを介して受信した信号を電気的に処理するインターフェイス回路を備える。第2通信装置26は、会議用カメラ40と通信する通信インターフェイスの一例である。
記憶装置27は、処理装置28が読み取り可能な記録媒体である。記憶装置27は、例えば、不揮発性メモリーと揮発性メモリーとを含む。不揮発性メモリーとしては、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable Read Only Memory)およびEEPROM(Electrically Erasable Programmable Read Only Memory)が挙げられる。揮発性メモリーとしては、例えば、RAMが挙げられる。
記憶装置27は、処理装置28によって実行される制御プログラム270と、処理装置28が使用する各種のデータ272と、を記憶する。制御プログラム270は、例えば、オペレーティングシステムと、複数のアプリケーションプログラムとを含む。アプリケーションプログラムには、オンライン会議アプリケーションを実行するプログラムが含まれる。
処理装置28は、例えば、単数または複数のプロセッサーによって構成される。一例を挙げると、処理装置28は、単数または複数のCPU(Central Processing Unit)によって構成される。処理装置28の機能の一部または全部は、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)等の回路によって構成されてもよい。処理装置28は、各種の処理を並列的または逐次的に実行する。処理装置28は、第1通信装置25およびスピーカー23を制御する処理装置の一例である。
処理装置28は、記憶装置27から制御プログラム270を読み取って実行することにより、カメラ位置情報取得部281、ユーザー画像生成部282、データ送受信部283、投射画像生成部284、投射画像供給部285および放音制御部286として機能する。処理装置28の各機能部の詳細は後述する。処理装置28は、制御装置の一例である。
B-2:プロジェクター30の構成
図4は、プロジェクター30の構成を示すブロック図である。プロジェクター30は、操作装置31と、通信装置32と、プロジェクター用カメラ33と、光学装置34と、記憶装置35と、処理装置36とを備える。プロジェクター30は、表示面Pに画像を表示する表示装置の一例である。
操作装置31は、ユーザーU3,U4からの操作を受け付けるための装置である。操作装置31は、例えば各種の操作ボタン、操作キーまたはタッチパネルである。操作装置31は、例えばプロジェクター30の筐体に設けられている。また、操作装置31は、プロジェクター30の筐体とは別個に設けられたリモートコントローラーであってもよい。
通信装置32は、パーソナルコンピューター20等の、プロジェクター30の近くに位置する機器と通信するためのインターフェイスである。通信装置32は、例えば、無線または有線のLAN、Bluetooth、USB、HDMI等のインターフェイスである。Bluetooth、USBおよびHDMIは、それぞれ、登録商標である。通信装置32は、無線の場合はアンテナ、有線の場合はコネクター等のインターフェイスと、インターフェイスを介して受信した信号を電気的に処理するインターフェイス回路を備える。
プロジェクター用カメラ33は、レンズ等の受光光学系と、受光光学系で集光される光を電気信号に変換する撮像素子等を含み、撮像画像に対応する画像データを生成する。撮像素子は、例えば、可視光領域の光を受光するCCD(Charge Coupled Device)イメージセンサーである。プロジェクター用カメラ33は、光学装置34によって画像が表示される表示面Pの全体を撮像範囲に含む。
プロジェクター用カメラ33は、プロジェクター30の他の要素とは別体として設けられてもよい。この場合、プロジェクター用カメラ33とプロジェクター30は、データの送受信ができるように有線または無線のインターフェイスにより相互に接続されてもよい。また、この場合、プロジェクター用カメラ33の撮像範囲と光学装置34の表示面Pとの位置関係がキャリブレーションされている。
光学装置34は、処理装置36からの画像信号に基づいて、表示面Pに投射画像SGを投射する。本実施形態では、表示面Pは、壁Wのうち、光学装置34を用いて投射画像SGを投射可能な最大範囲である。表示面Pは、例えば図5に示される。光学装置34は、光源341と光変調装置342と投射光学系343とを有する。
光源341は、例えば、ハロゲンランプ、キセノンランプ、超高圧水銀ランプ、LED(Light Emitting Diode)またはレーザー光源等を含む。光源341は、例えば、赤色、緑色および青色の光をそれぞれ出射するか、または、白色の光を出射する。光源341が白色の光を出射する場合、光源341から出射される光は、図示しないインテグレーター光学系によって輝度分布のばらつきが低減され、その後、図示しない色分離光学系によって赤色、緑色および青色の光に分離されて光変調装置342に入射する。
光変調装置342は、赤色、緑色および青色にそれぞれ対応して設けられる3つの光変調素子を含む。光変調素子は、それぞれ、例えば、透過型の液晶パネル、反射型の液晶パネルまたはDMD(デジタルミラーデバイス)等を含む。光変調素子は、処理装置36からの画像信号に基づいて、当該赤色、緑色および青色の光をそれぞれ変調して各色の画像光を生成する。光変調装置342で生成される各色の画像光は、図示しない色合成光学系によって合成され、フルカラーの画像光となる。なお、光変調装置342は、これに限定されず、単板の液晶パネルやDMD等を用いて、時分割で各色の画像光を出射することにより、フルカラーの画像光を視認させても良い。
投射光学系343は、当該フルカラーの画像光をスクリーン上に結像させて投射させる。投射光学系343は、少なくとも1つの投射レンズを含む光学系であり、ズームレンズまたはフォーカスレンズ等を含んでもよい。
記憶装置35は、処理装置36が読み取り可能な記録媒体である。記憶装置35は、例えば、不揮発性メモリーと揮発性メモリーとを含む。不揮発性メモリーとしては、例えば、ROM、EPROMおよびEEPROMが挙げられる。揮発性メモリーとしては、例えば、RAMが挙げられる。
記憶装置35は、処理装置36によって実行される制御プログラム350と、処理装置36が使用する各種のデータ352と、を記憶する。制御プログラム350は、処理装置36によって実行される。制御プログラム350は、例えば、オペレーティングシステムと、複数のアプリケーションプログラムとを含む。
また、本実施形態では、記憶装置35の一部の記憶領域は、フレームメモリーとして機能する。フレームメモリーは、光学装置34により投射される投射画像SGを1画面分の画像データとして記憶する。なお、フレームメモリーは、制御プログラム350等を記憶する記憶装置35とは別個に設けられてもよい。
本実施形態では、投射画像SGとして、横1920ピクセル、縦1080ピクセルの画像を投射可能である。よって、投射画像SGの左上の点を基準点とし、横方向にx軸、縦方向にy軸を取ったxy座標を用いて各ピクセルを識別することができる。例えば、左上のピクセルを座標(1,1)とすると、右下のピクセルは座標(1920,1080)となる。フレームメモリーの座標についても、xy座標(x,y)で表すことができる。
処理装置36は、例えば、単数または複数のプロセッサーによって構成される。一例を挙げると、処理装置36は、単数または複数のCPUによって構成される。処理装置36の機能の一部または全部は、DSP、ASIC、PLD、FPGA等の回路によって構成されてもよい。処理装置36は、各種の処理を並列的または逐次的に実行する。処理装置36は、プロジェクター30を制御する処理装置の一例である。
処理装置36は、記憶装置35から制御プログラム350を読み取って実行することにより、キャリブレーション処理部361およびカメラ位置検出部362として機能する。処理装置36の各機能部の詳細は後述する。
B-3:会議用カメラ40の構成
会議用カメラ40は、レンズ等の受光光学系と、受光光学系で集光される光を電気信号に変換する撮像素子と、パーソナルコンピューター20の第2通信装置26と通信するための通信装置と、記憶装置と、処理装置等を含む。会議用カメラ40は、表示面Pに配置され、ユーザーU3を撮像するカメラの一例である。撮像素子は、例えば、可視光領域の光を受光するCCDイメージセンサーである。会議用カメラ40は、拠点K3におけるオンライン会議の参加者である、ユーザーU3およびU4を撮像するために配置される。会議用カメラ40は、撮像画像SKに対応する画像データをパーソナルコンピューター20に送信する。
B-4:会議用カメラ40と表示面Pとの位置関係
図5は、会議用カメラ40と表示面Pとの位置関係を模式的に示す図である。また、図6は、図5のA-A断面図である。本実施形態では、会議用カメラ40は、拠点K3に設けられた壁Wに配置されている。より詳細には、会議用カメラ40は、壁Wに設けられた切り欠きHからレンズLを露出するように配置されている。壁Wは、室内に露出する表面F1と、表面F1とは反対側の裏面F2とを有する。裏面F2側には、切り欠きHの近傍に位置する台座Dが設けられており、台座Dに会議用カメラ40が載置される。なお、会議用カメラ40は、壁Wの裏面F2に配置されるに限らず、例えば壁Wの表面F1に取り付けられてもよい。
本実施形態では、壁Wをスクリーンとして用いて、プロジェクター30が画像を投射する。プロジェクター30は、壁WにおいてレンズLが露出する範囲、例えば切り欠きHの範囲を、表示面Pに含むように配置される。言い換えると、会議用カメラ40は、表示面Pに配置されている。図5の例は、拠点K1における配置例であり、表示面Pを正面から見た場合に、やや右側にレンズLが位置するように配置されている。
C:プロジェクター30の処理装置36の詳細
次に、プロジェクター30の処理装置36により実現される機能部の詳細について説明する。上述のように、プロジェクター30の処理装置36は、キャリブレーション処理部361およびカメラ位置検出部362として機能する。
C-1:キャリブレーション処理部361
キャリブレーション処理部361は、フレームメモリー上の座標と、プロジェクター用カメラ33の撮影画像上の座標とを対応付けるキャリブレーションデータを生成する。フレームメモリー上の位置と、プロジェクター用カメラ33の撮像画像上の位置とが対応付けられることによって、例えば、プロジェクター用カメラ33の撮像画像に写る物体が、表示面Pに投射された投射画像SGのどの領域と重なっているかを特定することができる。
キャリブレーション処理部361は、キャリブレーション画像データを記憶装置35から読み出す。キャリブレーション処理部361は、キャリブレーション画像データをフレームメモリー上に展開し、キャリブレーション画像に対応する画像信号を生成する。画像信号に従って光学装置34が駆動されることにより、キャリブレーション画像が表示面Pに投射される。キャリブレーション画像は、例えば予め設定された形状のマークが間隔をあけて配置された画像である。
続いて、キャリブレーション処理部361は、キャリブレーション画像が投射された表示面Pを含む撮像画像をプロジェクター用カメラ33により撮像する。キャリブレーション処理部361は、撮像画像に写るマークを検出し、各マークの重心位置を、撮像画像における各マークの座標として特定する。キャリブレーション処理部361は、撮像画像から検出されたマークの座標と、フレームメモリー上のマークの座標との対応づけを行う。この対応づけにより、撮像画像上の座標とフレームメモリー上の座標とを対応づけるキャリブレーションデータを生成される。生成されたキャリブレーションデータは、記憶装置35に記憶される。
C-2:カメラ位置検出部362
カメラ位置検出部362は、表示面Pにおける会議用カメラ40の位置を示す情報を検出する。以下、表示面Pにおける会議用カメラ40の位置を示す情報を、「カメラ位置情報」という。カメラ位置情報は、例えば表示面Pの左上の点を基準点とし、横方向にX軸、縦方向にY軸を取ったXY座標の座標値を用いることができる。上述のように、投射画像SGは、xy座標を用いて、座標(1,1)から座標(1920,1080)で示すことができる。表示面Pでは、例えば投射画像SGの座標(1,1)のピクセルが表示される領域を、座標(1,1)とする。これにより、表示面P上の任意の位置を、(1,1)から(1920,1080)の座標で特定することができる。
カメラ位置検出部362は、例えば、表示面Pに露出した会議用カメラ40の部分の外縁の座標を、カメラ位置情報として検出する。また、例えば表示面Pに露出した会議用カメラ40の部分が円形の場合は、当該部分の中心位置の座標と、当該部分の外縁までの距離とを、カメラ位置情報としてもよい。
カメラ位置検出部362は、例えば以下の検出方法1~4のいずれかを用いて、カメラ位置情報を検出する。
[検出方法1]
検出方法1は、パターン検出を用いる方法である。カメラ位置検出部362は、光学装置34を用いて、表示面Pに格子状のパターンを投射する。また、カメラ位置検出部362は、プロジェクター用カメラ33を用いて、表示面Pの撮像画像を取得する。会議用カメラ40の光の反射率と、壁Wの光の反射率とは異なるので、壁Wと会議用カメラ40との境界では、パターンの歪みや欠けが生じる。カメラ位置検出部362は、パターンの歪みや欠けが生じている表示面Pの位置を、会議用カメラ40の位置として検出する。
[検出方法2]
検出方法2は、会議用カメラ40に、位置検出用のビーコンを設ける方法である。ビーコンとして、例えば赤外光発光素子を用いることができる。この場合、プロジェクター30は、例えばプロジェクター用カメラ33に赤外線受光機能が備えられている、またはプロジェクター用カメラ33とは別に赤外線受光機能を備えたカメラが設けられているものとする。赤外線受光機能を備えたカメラの撮像画像には、ビーコンから発光された赤外光が写る。カメラ位置検出部362は、赤外光の位置を、会議用カメラ40の位置として検出する。
[検出方法3]
検出方法3は、画像認識により会議用カメラ40を検出する方法である。例えば、カメラ位置検出部362は、会議用カメラ40のうち、表示面Pに露出する部分の形状を示す形状データを予め取得しておく。例えば、表示システム10で、予め定められた形状の会議用カメラ40を共通して使用するようにしてもよい。カメラ位置検出部362は、プロジェクター用カメラ33の撮像画像を取得して、撮像画像内に形状データに対応する形状の物体が写っているかを判断する。形状データに対応する形状の物体が写っている場合、カメラ位置検出部362は、当該物体の位置を、会議用カメラ40の位置として検出する。
[検出方法4]
検出方法4は、プロジェクター30からの投射光をプロジェクター用カメラ33によって検出する方法である。カメラ位置検出部362は、表示面Pに対してレーザー光のような指向性が高い光を順番に照射していく。レーザー光の照射位置は、例えば表示面Pに設定されたXY座標を用いて識別できるものとする。この間、プロジェクター用カメラ33は、撮像を継続する。プロジェクター用カメラ33のレンズにレーザー光が入射すると、撮像画像が白飛びした状態となる。カメラ位置検出部362は、白飛びした撮像画像が得られた時の、レーザー光の照射位置を、会議用カメラ40の位置として検出する。
D:パーソナルコンピューター20の処理装置28の詳細
次に、パーソナルコンピューター20の処理装置28により実現される機能部の詳細について説明する。上述のように、パーソナルコンピューター20の処理装置28は、カメラ位置情報取得部281、ユーザー画像生成部282、データ送受信部283、投射画像生成部284、投射画像供給部285および放音制御部286として機能する。
D-1:カメラ位置情報取得部281
カメラ位置情報取得部281は、表示面Pにおける会議用カメラ40の位置を示すカメラ位置情報を取得する。本実施形態では、カメラ位置情報取得部281は、カメラ位置検出部362によって検出されたカメラ位置情報を、第2通信装置26を介して取得する。
D-2:ユーザー画像生成部282
ユーザー画像生成部282は、会議用カメラ40で撮像された撮像画像SKから、ユーザーU3が写る部分画像SB1およびユーザーU4が写る部分画像SB2を生成する。図7は、撮像画像SKと部分画像SB1,SB2との関係を模式的に示す図である。会議用カメラ40の撮像画像SKには、拠点K3にいるユーザーU3,U4の2人が写っている。ユーザー画像生成部282は、画像認識技術を用いて撮像画像SKからユーザーU3,U4の顔を検出し、ユーザーU3の顔を含む部分画像SB1と、ユーザーU4の顔を含む部分画像SB2とを生成する。このような部分画像SB1,SB2を生成するのは、他のユーザーU1,U2の画像と並べた際の違和感を少なくするためである。また、撮像画像SKと比較して、部分画像SB1,SB2の方がユーザーU3,U4の各々の表情が把握しやすい。
なお、拠点K3にユーザーU3,U4以外のユーザーが加わった場合、ユーザー画像生成部282は、加わったユーザーが写る部分画像を更に生成する。また、拠点K3にユーザーU3またはU4の一方のみがいる場合は、撮像画像SKから当該ユーザーU3またはU4の一方が写る部分画像を生成する。
また、例えばユーザーU3,U4の少なくとも一方が、自身の顔が写る部分画像SB1,SB2をオンライン会議で表示することに抵抗がある場合やオンライン会議が私的な交流の場である場合などは、例えば自身を模したアバター画像や、自身の名前またはイニシャルを示す文字画像を、部分画像SB1,SB2に代えて用いるように指定できてもよい。または、部分画像SB1,SB2に対して画像加工処理を行った画像を用いるように指定できてもよい。画像加工処理は、例えばユーザーU3,U4の顔を動物またはイラスト風に変換する処理、ユーザーU3,U4の顔のパーツの一部を入れ替える処理、ぼかし処理等である。以下、部分画像SB1、アバター画像、または部分画像SB1に対して画像加工処理を行った画像等、オンライン会議でユーザーU3に対応して表示される画像を、「ユーザーU3を示す画像S3」とする。他のユーザーU1,U2,U4も同様である。
D-3:データ送受信部283
データ送受信部283は、会議サーバーCに対して、ユーザー画像生成部282で生成されたユーザーU3を示す画像S3に対応する画像データ、ユーザーU4を示す画像S4に対応する画像データを送信する。
また、データ送受信部283は、拠点K3からデータの共有を行う場合には、会議サーバーCに対して共有データを送信する。本実施形態では、オンライン会議において、拠点K3からプレゼンテーション資料を共有し、ユーザーU3がプレゼンテーション資料に関するプレゼンテーションを行うものとする。プレゼンテーション資料を表示した画像を、プレゼンテーション画像SPとする。プレゼンテーション画像SPは、ユーザーU3の発話に関する画像の一例である。プレゼンテーション画像SPは、ユーザーU3の発話の内容に関する画像、または、ユーザーU1~U4のいずれかを撮像した画像とは異なる画像、または、ユーザーU3によって共有された画像、データファイルを表示した画像、等と言い換えることもできる。
また、データ送受信部283は、会議サーバーCに対して、マイクロホン24が生成した音声データを送信する。画像S3に対応する画像データと、画像S4に対応する画像データと、マイクロホン24が生成した音声データとは、拠点K3で生成されたデータとして対応付けられている。
また、データ送受信部283は、会議サーバーCから、他の拠点K1,K2で撮像された画像データおよび他の拠点K1,K2で収音された音声データを受信する。拠点K1で撮像された画像データは、ユーザーU1を示す画像S1に対応する画像データである。拠点K2で撮像された画像データは、ユーザーU2を示す画像S2に対応する画像データである。拠点K1で収音された音声データは、ユーザーU1の発話を含む音声データである。拠点K2で収音された音声データは、ユーザーU2の発話を含む音声データである。拠点K1で撮像された画像データと、拠点K1で収音された音声データとは対応付けられている。また、拠点K2で撮像された画像データと、拠点K2で収音された音声データとは対応付けられている。
また、データ送受信部283は、他の拠点K1,K2からデータが共有された場合には、会議サーバーCから共有データを受信する。上述のように、本実施形態では、拠点K3からプレゼンテーション資料を共有して、ユーザーU3がプレゼンテーション資料に関するプレゼンテーションを行うものとするが、他の拠点K1,K2から共有されたプレゼンテーション資料に関してユーザーU3がプレゼンテーションを行ってもよい。
D-4:投射画像生成部284
投射画像生成部284は、プロジェクター30で投射する投射画像SGを生成する。投射画像生成部284は、データ送受信部283により受信された他の拠点K1,K2で撮像された画像データと、ユーザー画像生成部282で生成された部分画像SB1に対応する画像データと、部分画像SB2に対応する画像データと、共有データとを用いて、投射画像SGを生成する。この時、投射画像生成部284は、カメラ位置情報取得部281で取得されたカメラ位置情報と、会議中の発話者が、ユーザーU1~U4のいずれであるかと、投射画像SGを構成する画像の種類に基づいて、投射画像SGのレイアウトを決定する。
図8は、ユーザーU1の発話時M1における投射画像SGのレイアウトを示す。ユーザーU1の発話時M1は、後述する放音制御部286により、第1通信装置25を介して取得した端末装置T1からの音声がスピーカー23から出力される。ユーザーU1が発話しているか否かは、例えば拠点K1で収音された音声データのレベルが所定値以上であるか否かによって判定される。拠点K1で収音された音声データのレベルが所定値以上である場合、投射画像生成部284は、拠点K1で撮像された画像S1に写るユーザーU1が発話していると判定する。ユーザーU1の発話時M1には、例えばユーザーU3のプレゼンテーションに対する質問、または意見が話されることが想定される。
投射画像SGには、ユーザーU1を示す画像S1、ユーザーU2を示す画像S2、ユーザーU3を示す画像S3、ユーザーU4を示す画像S4と、プレゼンテーション画像SPとが含まれている。プレゼンテーション画像SPは第1画像の一例であり、画像S1は第2画像の一例である。画像S1は、ユーザーU1の顔を含む範囲を撮像した画像である。画像S1,S2は、データ送受信部283により受信された他の拠点K1,K2で撮像された画像データに対応する画像である。また、画像S3,S4は、ユーザー画像生成部282で生成された部分画像SB1,SB2である。投射画像SGは、異なる種類の画像が配置されている画像ともいえる。
投射画像生成部284は、ユーザーU1の発話時M1における投射画像SGについて、会議用カメラ40の表示面Pにおける位置に対して、プレゼンテーション画像SPの位置よりも近い位置に、ユーザーU1を示す画像S1を表示する。すなわち、ユーザーU1が発話している期間に、表示面Pには、プレゼンテーション画像SPと、会議用カメラ40の表示面Pにおける位置に対して、プレゼンテーション画像SPの位置よりも近い位置に配置された画像S1とが表示される。ユーザーU1の発話時M1には、ユーザーU3,U4の視線は、ユーザーU1を示す画像S1を向く。画像S1は、プレゼンテーション画像SPよりも会議用カメラ40に近い位置にある。よって、ユーザーU3,U4の視線は、会議用カメラ40に近い位置を向くことになる。
会議用カメラ40で撮像された撮像画像SKは、ユーザーU1,U2に送信される。すなわち、データ送受信部283は、ユーザーU1が発話している期間に会議用カメラ40が撮像した撮像画像SKを、会議サーバーCに送信する。また、会議サーバーCは、ユーザーU1が使用する端末装置T1に送信する。会議用カメラ40で撮像された撮像画像SKにおいて、ユーザーU3,U4の視線は会議用カメラ40の近くに向いている。これを見たユーザーU1,U2は、ユーザーU3,U4と目線を合わせながら会議を行っているように感じられ、オンライン会議における円滑なコミュニケーションを支援することができる。
本実施形態では、投射画像生成部284は、ユーザーU1の発話時M1には、画像S1を会議用カメラ40と重なる位置に配置する。すなわち、ユーザーU1が発話している期間に画像S1を表示することは、表示面Pにおいて会議用カメラ40と重なる位置に画像S1を表示することに対応する。これにより、会議用カメラ40と重ならない位置に画像S1が表示されるのと比較して、ユーザーU3,U4の視線を、会議用カメラ40のより近くに向けさせることができる。
一方で、画像S1のうちユーザーU1の顔が写る部分と会議用カメラ40とが重なると、ユーザーU1の顔の視認性が低下するとともに、画像S1を見るユーザーU3,U4が違和感を覚える可能性がある。よって、投射画像生成部284は、画像S1と会議用カメラ40を重ねる際に、ユーザーU1が写る部分と会議用カメラ40とが重ならないように、画像S1を配置する。すなわち、画像S1のうち、会議用カメラ40と重なる部分は、ユーザーU1の顔以外の部分である。画像S1におけるユーザーU1の顔の範囲は、例えば顔認識技術等により特定可能である。本実施形態では、投射画像生成部284は、ユーザーU1のあご下、すなわちユーザーU1の首が写る部分に、会議用カメラ40が重なるように画像S1を配置する。これにより、ユーザーU1の顔の視認性を低下させることなく、会議用カメラ40により近い位置にユーザーU3,U4の視線を向けさせることができる。
また、図8では、ユーザーU1の発話時M1に、ユーザーU1を示す画像S1が、他のユーザーU2~U4を示す画像S2~S4よりも大きく表示されている。言い換えると、投射画像生成部284は、ユーザーU1の発話時M1に、ユーザーU1を示す画像S1を、ユーザーU1が発話していない期間よりも大きく表示する。ユーザーU1が発話していない期間の投射画像SGは、図9に示される。これにより、発話者であるユーザーU1の表情を、他のユーザーU2~U4がより把握しやすくなる。また、複数のユーザーU1~U4のうち、発話者が誰なのかを特定しやすくなる。これに限らず、投射画像生成部284は、ユーザーU1の発話時M1も、画像S1の大きさは他の画像S2~S4の大きさと同じとし、画像S1の位置のみ変更するようにしてもよい。
また、投射画像生成部284は、投射画像SGのうち、会議用カメラ40と重なる部分に対して、マスク処理を行う。すなわち、ユーザーU1が発話している期間に画像S1を表示することは、会議用カメラ40が配置された範囲と重なる画像S1の部分の輝度を、画像S1の他の部分の輝度よりも下げて表示することを含む。会議用カメラ40と重なる部分とは、より詳細には、壁Wの表面F1側に露出する会議用カメラ40の部分と重なる部分である。以下、投射画像SGのうち、会議用カメラ40と重なる部分を「カメラ重畳部分R」という。本実施形態では、マスク処理とは、カメラ重畳部分Rの輝度を他の部分より下げる処理であり、例えばカメラ重畳部分Rを黒画像とする処理を指す。なお、本実施形態では、ユーザーU1が発話している期間に限らず、投射画像SG中のカメラ重畳部分Rは、常時マスク処理されているものとする。
投射画像生成部284は、例えばカメラ重畳部分Rに対応する部分を黒画像とし、他の部分は透明としたマスク画像を生成し、画像S1~S4およびプレゼンテーション画像SPを配置した画像と重畳することにより、カメラ重畳部分Rの輝度を他の部分より下げる。または、投射画像生成部284は、画像S1~S4およびプレゼンテーション画像SPを配置した画像に対して、カメラ重畳部分Rに対応する部分の輝度を下げるように画像処理を行うことにより、カメラ重畳部分Rの輝度を他の部分より下げるようにしてもよい。本実施形態では、前者のマスク画像を重畳する方法を採るものとする。
マスク処理を行うことにより、会議用カメラ40のレンズLに、プロジェクター30からの投射光が入射するのを防止し、白飛び等の撮像不良が生じるのを防止することができる。より詳細には、カメラ重畳部分Rにマスク処理を行うことにより、カメラ重畳部分Rに投射される光量が低減し、撮像不良を防止することができる。なお、投射画像SGのうち、マスク処理を行う範囲は、カメラ重畳部分Rを含み、カメラ重畳部分Rよりも広い範囲であってもよい。
図9は、ユーザーU3の発話時M2における投射画像SGのレイアウトを示す。ユーザーU3の発話時M2とは、例えばユーザーU3がプレゼンテーション画像SPを参照しながら、他のユーザーU1,U2,U4に対してプレゼンテーションを行っている場合である。投射画像生成部284は、ユーザーU3のプレゼンテーション中は、ユーザーU1の発話時M1よりも、表示面Pにおけるプレゼンテーション画像SPの表示の大きさを大きくする。すなわち、ユーザーU3が発話している期間には、表示面Pに、画像S1と、ユーザーU1が発話している期間におけるプレゼンテーション画像SPの大きさよりも大きな大きさのプレゼンテーション画像SPと、が表示される。
ユーザーU3が発話しているか否かは、例えばマイクロホン24で収音された音声データのレベルが所定値以上であるか否かによって判定される。マイクロホン24で収音された音声データのレベルが所定値以上である場合、投射画像生成部284は、会議用カメラ40で撮像された撮像画像SKに写るユーザーU3が発話していると判定する。
プレゼンテーション中のユーザーU3は、表示面Pに表示されたプレゼンテーション画像SPを見ながら発話すると考えられる、よって、ユーザーU3の発話時M2にプレゼンテーション画像SPの表示の大きさを大きくすることで、プレゼンテーション画像SPの視認性が向上し、ユーザーU3によるプレゼンテーションを補助することができる。
また、ユーザーU1の発話時M1と比較して、表示面Pにおけるプレゼンテーション画像SPの大きさが大きくなると、必然的に会議用カメラ40とプレゼンテーション画像SPとの距離が近くなる。すなわち、ユーザーU3が発話している期間にプレゼンテーション画像SPを表示することは、会議用カメラ40の位置に対して、ユーザーU1が発話している期間におけるプレゼンテーション画像SPの位置よりも近い位置に、プレゼンテーション画像SPが表示されることに対応する。プレゼンテーション中のユーザーU3の視線は、プレゼンテーション画像SPを向く。プレゼンテーション画像SPは、ユーザーU1の発話時M1の位置よりも会議用カメラ40に近い位置にある。よって、ユーザーU3の視線は、会議用カメラ40に近い位置を向くことになる。
会議用カメラ40で撮像された撮像画像SKは、ユーザーU1,U2に送信される。すなわち、データ送受信部283は、ユーザーU3が発話している期間に会議用カメラ40が撮像した撮像画像SKを、会議サーバーCに送信する。また、会議サーバーCは、ユーザーU1,U2が使用する端末装置T1,T2に送信する。会議用カメラ40で撮像された撮像画像SKにおいて、ユーザーU3の視線は会議用カメラ40の近くに向いている。これを見たユーザーU1,U2は、ユーザーU3と目線を合わせながらプレゼンテーションを受けているように感じられ、オンライン会議における円滑なコミュニケーションを支援することができる。
また、投射画像生成部284は、ユーザーU3の発話時M2は、画像S1~S4およびプレゼンテーション画像SPのいずれもカメラ重畳部分Rと重ならないように投射画像SGを生成する。すなわち、ユーザーU3が発話している期間に画像S1とプレゼンテーション画像SPとを表示することは、カメラ重畳部分Rと重ならない位置に、画像S1とプレゼンテーション画像SPとを表示することを含む。このようにすることで、カメラ重畳部分Rによって画像S1~S4およびプレゼンテーション画像SPの視認性が低下するのを回避することができる。なお、本実施形態では、画像S1~S4およびプレゼンテーション画像SPとカメラ重畳部分Rとが重ならないようにしたが、例えば画像S1~S4またはプレゼンテーション画像SPの少なくともいずれかの外縁とカメラ重畳部分Rとを重ねて配置してもよい。これは、カメラ重畳部分Rと重なる部分が画像の外縁であれば、画像の視認性が極端に低下する可能性は低いためである。
図10は、発話者がいない状態M3における投射画像SGのレイアウトを示す。発話者がいない状態M3における投射画像SGのレイアウトは、例えば図9に示すユーザーU3の発話時M2における投射画像SGのレイアウトと同様である。図10のように、カメラ重畳部分Rと重ならない位置に、画像S1~S4とプレゼンテーション画像SPとを表示することで、カメラ重畳部分Rによって画像S1~S4およびプレゼンテーション画像SPの視認性が低下するのを回避することができる。また、プレゼンテーション画像SPが、ユーザーU1の発話時M1よりも大きく表示されるので、プレゼンテーション画像SPの視認性が向上し、プレゼンテーション画像SPに対する検討を行いやすくすることができる。以下、図9および図10に示す投射画像SGのレイアウトを、「基準レイアウト」という。
図11は、オフラインでの会議時M4における投射画像SGのレイアウトを示す。表示システム10は、オンライン会議にのみ用いられるのではなく、例えば拠点K3にいるユーザーU3,U4のみでオフラインで行われる会議にも用いられる。このような場合、会議に参加していないユーザーU1,U2を示す画像S1,S2は表示する必要がない。また、拠点K3にいるユーザーU3,U4は、互いの顔を目視できるため、画像S3,S4は表示する必要がない。すなわち、オフライン会議においては、表示面Pにプレゼンテーション画像SPのみを表示すればよい。
オフライン会議の場合、投射画像生成部284は、例えばカメラ重畳部分Rと重ならない位置に、アスペクト比を維持した最大サイズでプレゼンテーション画像SPが表示されるように投射画像SGを生成する。例えば本実施形態では、会議用カメラ40は表示面Pを正面から見た場合に、やや右側に位置している。よって、表示面Pの左側の方が表示領域を広く確保できる。投射画像生成部284は、表示面Pの左上の点を基準として、会議用カメラ40と重ならない範囲の最大サイズで、プレゼンテーション画像SPを表示する。このようにすることで、オフライン会議におけるプレゼンテーション画像SPの視認性を向上させることができる。
D-5:投射画像供給部285
投射画像供給部285は、投射画像生成部284によって生成された投射画像SGの画像データをプロジェクター30に供給する。画像データの供給を受けたプロジェクター30は、画像データに基づいて光学装置34を駆動させ、表示面Pに投射画像SGを表示させる。
D-6:放音制御部286
放音制御部286は、スピーカー23からの音声出力を制御する。放音制御部286は、データ送受信部283により受信された他の拠点K1,K2で収音された音声データを出力するように、スピーカー23を制御する。
E:処理装置28の動作
図12は、処理装置28が制御プログラム270に従って実行する表示方法の流れを示すフローチャートである。表示システム10が起動されると、処理装置28は、カメラ位置情報取得部281として機能することにより、表示面Pにおける会議用カメラ40の位置を示すカメラ位置情報を取得する(ステップS100)。処理装置28は、投射画像生成部284として機能することにより、カメラ位置情報に基づいて、投射画像SG中のカメラ重畳部分Rを特定し、カメラ重畳部分Rを黒画像としたマスク画像を生成する(ステップS102)。生成されたマスク画像は、処理装置28が投射画像供給部285として機能することにより、プロジェクター30に供給される。プロジェクター30は、表示面Pにマスク画像を表示する。
処理装置28は、画像の投射が指示されるまで待機する(ステップS104:NO)。画像の投射が指示されると(ステップS104:YES)、処理装置28は、オンライン会議のための画像投射か否かを判断する(ステップS105)。オンライン会議用のための画像投射か否かは、例えば画像投射を行うアプリケーションがオンライン会議アプリケーションであるかにより判断することができる。
投射画像SGがオンライン会議用の画像ではない場合(ステップS105:NO)、すなわち、オフラインでの画像投射の場合、投射画像生成部284は、例えば図11に示すように、カメラ重畳部分Rと重ならない位置に最大サイズでプレゼンテーション画像SPが表示されるように投射画像SGを生成する(ステップS106)。処理装置28は、投射画像供給部285として機能することにより、投射画像SGをプロジェクター30に供給し(ステップS107)、本フローチャートの処理を終了する。プロジェクター30は、表示面Pに投射画像SGを表示する。
一方、投射画像SGがオンライン会議用の画像の場合(ステップS105:YES)、処理装置28は、ユーザー画像生成部282として機能することにより、会議用カメラ40の撮像画像SKからユーザーU3を示す画像S3に対応する画像データと、ユーザーU4を示す画像S4に対応する画像データとを生成する(ステップS108)。処理装置28は、データ送受信部283として機能することにより、会議サーバーCに接続して、画像データおよび音声データを送受信する(ステップS109)。より詳細には、処理装置28は、他の拠点K1,K2で撮像された画像データおよび他の拠点K1,K2で収音された音声データを受信するとともに、拠点K3で撮像された画像データおよび拠点K3で収音された音声データを送信する。他の拠点K1,K2で収音された音声データは、処理装置28が放音制御部286として機能することにより、スピーカー23から出力される。
処理装置28は、拠点K1~K3で収音された音声データに基づいて、オンライン会議において発話者がいるか否かを判断する(ステップS110)。発話者がいない場合(ステップS110:NO)、処理装置28は、投射画像生成部284として機能することにより、画像S1~S4およびプレゼンテーション画像SPを、図9および図10に示す基準レイアウトに配置し、マスク画像と重畳して投射画像SGを生成する(ステップS116)。処理装置28は、投射画像供給部285として機能することにより、投射画像SGをプロジェクター30に供給する(ステップS118)。プロジェクター30は、表示面Pに投射画像SGを表示する。
一方、ステップS110で発話者がいる場合(ステップS110:YES)、処理装置28は、発話者が他の拠点K1,K2のユーザーU1,U2であるか否かを判断する(ステップS112)。発話者が他の拠点K1,K2のユーザーU1,U2である場合(ステップS112:YES)、処理装置28は、投射画像生成部284として機能することにより、発話者の画像と会議用カメラ40とが重なるように画像S1~S4を配置し、マスク画像と重畳して投射画像SGを生成する(ステップS114)。処理装置28は、投射画像供給部285として機能することにより、投射画像SGをプロジェクター30に供給する(ステップS118)。プロジェクター30は、表示面Pに投射画像SGを表示する。
また、発話者が他の拠点K1,K2のユーザーU1,U2でない場合(ステップS112:NO)、すなわち、拠点K3のユーザーU3,U4である場合、処理装置28は、投射画像生成部284として機能することにより、画像S1~S4を基準レイアウトに配置し、マスク画像と重畳して投射画像SGを生成する(ステップS116)。処理装置28は、投射画像供給部285として機能することにより、投射画像SGをプロジェクター30に供給する(ステップS118)。プロジェクター30は、表示面Pに投射画像SGを表示する。
処理装置28は、オンライン会議が終了するまでは(ステップS120:NO)、ステップS106に戻り、以降の処理を繰り返す。処理装置28は、オンライン会議が終了すると(ステップS120:YES)、本フローチャートによる処理を終了する。
F:実施形態のまとめ
以上説明したように、実施形態にかかる表示方法は、異なる種類の画像が混在する投射画像SGを、会議用カメラ40が配置された表示面Pに表示するに際して、画像の種類や発話者に合わせてレイアウトを変更する。これにより、投射画像SGの視認性を向上できるとともに、投射画像SGの内容の理解を補助することができる。したがって、例えば画像の種類によらず1つの画像を中央に大きく表示するレイアウトなどと比較して、改善されたレイアウトで投射画像SGを表示することができる。
実施形態にかかる表示方法は、ユーザーU3の発話時M2におけるプレゼンテーション画像SPの大きさを、ユーザーU1の発話時M1におけるプレゼンテーション画像SPの大きさよりも大きくする。これにより、表示面Pに表示されたプレゼンテーション画像SPの視認性を向上させることができ、ユーザーU3による発話、すなわちプレゼンテーションを補助することができる。
また、実施形態にかかる表示方法は、ユーザーU1の音声を出力している期間に、会議用カメラ40の位置に対して、プレゼンテーション画像SPを表示する位置よりも近い位置に、ユーザーU1を示す画像S1を表示する。また、実施形態にかかる表示方法は、ユーザーU1の音声を出力している期間に会議用カメラ40が取得した画像S3,S4を、ユーザーU1が使用する端末装置T1に送信する。一般に、表示面Pを見るユーザーU3,U4は、ユーザーU1の音声を出力している期間には、ユーザーU1を示す画像S1を注視するので、画像S1を上記のような位置に配置することにより、ユーザーU3,U4の視線は、会議用カメラ40の近くに向く。よって、会議用カメラ40の撮像画像SKの送信を受けたユーザーU1は、ユーザーU3,U4の視線が自身の近くを向いていると認識し、視線のずれに起因する違和感を低減することができる。
また、実施形態にかかる表示方法は、ユーザーU3の音声を出力している期間は、ユーザーU1の音声を出力している期間よりも、会議用カメラ40に近い位置にプレゼンテーション画像SPを表示する。また、実施形態にかかる表示方法は、ユーザーU3の音声を出力している期間に会議用カメラ40が取得した画像S3,S4を、ユーザーU1が使用する端末装置T1に送信する。ユーザーU3は、プレゼンテーション中はプレゼンテーション画像SPを見ると考えられるので、ユーザーU3の視線は会議用カメラ40に近い箇所に向く。この時、会議用カメラ40で撮像した画像S3をユーザーU1の端末装置T1に送信することで、ユーザーU1は、ユーザーU3が自身の方を向きながら発話しているような感覚を得ることができる。よって、オンライン会議においても実際に会って話をしているようなコミュニケーションを実現することができる。
また、実施形態にかかる表示方法は、ユーザーU1の音声を出力している期間に、表示面Pにおいて会議用カメラ40と重なる位置に画像S1を表示する。これにより、ユーザーU3,U4の視線が、会議用カメラ40のより近くに向く。よって、会議用カメラ40の撮像画像SKの送信を受けたユーザーU1は、ユーザーU3,U4の視線がより自身の近くを向いていると認識し、視線のずれに起因する違和感をより低減することができる。
また、実施形態にかかる表示方法は、画像S1のうち会議用カメラ40と重なる部分を、ユーザーU1の顔以外の部分とする。画像S1のうち、ユーザーU3,U4が最も注視する部分であるユーザーU1の顔の部分である。会議用カメラ40と重なる部分をユーザーU1の顔以外の部分とすることにより、ユーザーU1に顔の視認性が、会議用カメラ40により視認性が低下するのを回避することができる。
また、実施形態にかかる表示方法は、会議用カメラ40と重なる画像S1の部分の輝度を、画像S1の他の部分の輝度よりも下げて表示する。これにより、会議用カメラ40のレンズLに入射するプロジェクター30の投射光の輝度を低減することができ、会議用カメラ40の撮像画像SKの撮像不良を防止することができる。
また、実施形態にかかる表示方法は、ユーザーU3が発話している期間において、画像S1~S4およびプレゼンテーション画像SPを、会議用カメラ40と重ならない位置に表示する。これにより、画像S1~S4およびプレゼンテーション画像SPの視認性を向上させることができる。
また、実施形態にかかる表示システム10は、表示面Pに配置されユーザーU3を撮像する会議用カメラ40、およびユーザーU1の端末装置T1と通信する第1通信装置25と、表示面Pに画像を表示するプロジェクター30と、スピーカー23と、第1通信装置25、プロジェクター30、およびスピーカー23を制御する処理装置28,36と、を備える。処理装置28,36は、異なる種類の画像が混在する投射画像SGを、会議用カメラ40が配置された表示面Pに表示するに際して、画像の種類や発話者に合わせてレイアウトを変更する。これにより、投射画像SGの視認性を向上できるとともに、投射画像SGの内容の理解を補助することができる。したがって、例えば画像の種類によらず1つの画像を中央に大きく表示するレイアウトなどと比較して、改善されたレイアウトで投射画像SGを表示することができる。
また、実施形態にかかる表示システム10は、ユーザーU3の発話時M2におけるプレゼンテーション画像SPの大きさを、ユーザーU1の発話時M1におけるプレゼンテーション画像SPの大きさよりも大きくする。これにより、表示面Pに表示されたプレゼンテーション画像SPの視認性を向上させることができ、ユーザーU3による発話、すなわちプレゼンテーションを補助することができる。
また、実施形態にかかる表示システム10は、ユーザーU1の音声を出力している期間に、会議用カメラ40の位置に対して、プレゼンテーション画像SPを表示する位置よりも近い位置に、ユーザーU1を示す画像S1を表示する。また、実施形態にかかる表示方法は、ユーザーU1の音声を出力している期間に会議用カメラ40が取得した画像S3,S4を、ユーザーU1が使用する端末装置T1に送信する。一般に、表示面Pを見るユーザーU3,U4は、ユーザーU1の音声を出力している期間には、ユーザーU1を示す画像S1を注視するので、画像S1を上記のような位置に配置することにより、ユーザーU3,U4の視線は、会議用カメラ40の近くに向く。よって、会議用カメラ40の撮像画像SKの送信を受けたユーザーU1は、ユーザーU3,U4の視線が自身の近くを向いていると認識し、視線のずれに起因する違和感を低減することができる。
また、実施形態にかかるプログラムは、異なる種類の画像が混在する投射画像SGを、会議用カメラ40が配置された表示面Pに表示するに際して、画像の種類や発話者に合わせてレイアウトを変更する。これにより、投射画像SGの視認性を向上できるとともに、投射画像SGの内容の理解を補助することができる。したがって、例えば画像の種類によらず1つの画像を中央に大きく表示するレイアウトなどと比較して、改善されたレイアウトで投射画像SGを表示することができる。
また、実施形態にかかるプログラムは、ユーザーU3の発話時M2におけるプレゼンテーション画像SPの大きさを、ユーザーU1の発話時M1におけるプレゼンテーション画像SPの大きさよりも大きくする。これにより、表示面Pに表示されたプレゼンテーション画像SPの視認性を向上させることができ、ユーザーU3による発話、すなわちプレゼンテーションを補助することができる。
また、実施形態にかかるプログラムは、ユーザーU1の音声を出力している期間に、会議用カメラ40の位置に対して、プレゼンテーション画像SPを表示する位置よりも近い位置に、ユーザーU1を示す画像S1を表示する。また、実施形態にかかる表示方法は、ユーザーU1の音声を出力している期間に会議用カメラ40が取得した画像S3,S4を、ユーザーU1が使用する端末装置T1に送信する。一般に、表示面Pを見るユーザーU3,U4は、ユーザーU1の音声を出力している期間には、ユーザーU1を示す画像S1を注視するので、画像S1を上記のような位置に配置することにより、ユーザーU3,U4の視線は、会議用カメラ40の近くに向く。よって、会議用カメラ40の撮像画像SKの送信を受けたユーザーU1は、ユーザーU3,U4の視線が自身の近くを向いていると認識し、視線のずれに起因する違和感を低減することができる。
G:変形例
上述の実施形態における変形の態様を以下に示す。以下の変形の態様から任意に選択された2以上の態様を、相互に矛盾しない範囲において適宜に併合してもよい。
G1:変形例1
本実施形態では、表示システム10と、端末装置T1,T2との間でオンライン会議を実施する場合について説明した。これに限らず、例えば表示システム10と、他の表示システムとの間でオンライン会議が実施されてもよい。この場合、他の表示システムにおける投射画像SGの基準レイアウトおよび発話時における投射画像SGのレイアウトは、他の表示システムにおける会議用カメラの配置に基づいて決定される。
G2:変形例2
パーソナルコンピューター20の処理装置28が実行する各機能部の処理の少なくとも一部は、プロジェクター30の処理装置36、会議用カメラ40の処理装置、または会議サーバーCの処理装置が実行してもよい。また、プロジェクター30の処理装置36が実行する各機能部の処理の少なくとも一部は、パーソナルコンピューター20の処理装置28、会議用カメラ40の処理装置、または会議サーバーCの処理装置が実行してもよい。例えば、複数台のプロジェクター30を用いて巨大なスクリーンに画像を投射するマルチプロジェクションを実施する場合には、会議サーバーCで投射画像SGを生成するのが効果的である。この場合、会議サーバーCは、投射画像SGを各プロジェクター30の投射領域毎に分割して、分割した投射画像SGに対応する画像データを、それぞれのプロジェクター30に送信する。
G3:変形例3
本実施形態では、表示システム10は、パーソナルコンピューター20と、プロジェクター30と、会議用カメラ40とを備えた。これに限らず、例えば、プロジェクター30がパーソナルコンピューター20の機能を備えていてもよい。この場合、プロジェクター30が、ネットワークNに接続可能とするとともに、会議用カメラ40の撮像画像を取得可能とする。
G4:変形例4
本実施形態では、拠点K3のユーザーU3,U4を示す画像S3,S4を投射画像SGに表示するものとした。これに限らず、拠点K3のユーザーU3,U4を示す画像S3,S4は、投射画像SGに表示しないようにしてもよい。これは、拠点K3にいるユーザーU3,U4は、互いの顔を目視できるためである。また、画像S3,S4を非表示とすることにより、投射画像SG中の他の画像の投射領域を大きくすることができる。
また、本実施形態では、会議用カメラ40の撮像画像SKから部分画像SB1,SB2を生成し、ユーザーU3を示す画像S3およびユーザーU4を示す画像S4を生成した。これに限らず、複数のユーザーU3,U4が写る撮像画像SKをそのまま拠点K3を示す画像として投射画像SGに表示してもよい。
G5:変形例5
本実施形態では、プロジェクター30が表示装置の一例であった。これに限らず、表示装置として、例えば少なくとも1つのフラットパネルディスプレイが用いられてもよい。例えば、複数のフラットパネルディスプレイを同一平面上に並べ、その隙間に会議用カメラ40を配置してもよい。また、例えばフラットパネルディスプレイの表面に会議用カメラ40を配置してもよい。
1…会議システム、10…表示システム、20…パーソナルコンピューター、21…操作装置、22…ディスプレイ、23…スピーカー、24…マイクロホン、25…第1通信装置、26…第2通信装置、27…記憶装置、28…処理装置、30…プロジェクター、31…操作装置、32…通信装置、33…プロジェクター用カメラ、34…光学装置、35…記憶装置、36…処理装置、40…会議用カメラ、281…カメラ位置情報取得部、282…ユーザー画像生成部、283…データ送受信部、284…投射画像生成部、285…投射画像供給部、286…放音制御部、361…キャリブレーション処理部、362…カメラ位置検出部、C…会議サーバー、K1~K3…拠点、N…ネットワーク、P…表示面、S1~S4…画像、SP…プレゼンテーション画像、T1,T2…端末装置、U1~U4…ユーザー。

Claims (8)

  1. 表示面に配置され、第1ユーザーを撮像するカメラの、前記表示面における位置を示す情報を取得することと、
    第2ユーザーが発話している期間に、前記表示面に、前記第1ユーザーの発話に関する第1画像と、前記カメラの前記表示面における位置に対して、前記第1画像の位置よりも近い位置に配置された前記第2ユーザーを示す第2画像と、を表示することと、
    前記第2ユーザーが発話している期間に前記カメラが取得した画像を、前記第2ユーザーが使用する端末装置に送信することと、
    前記第1ユーザーが発話している期間に、前記表示面に、前記第2画像と、前記第2ユーザーが発話している期間における前記第1画像の大きさよりも大きな大きさの前記第1画像と、を表示することと、
    を含む表示方法。
  2. 前記第1ユーザーが発話している期間に前記第1画像を表示することは、前記カメラの位置に対して、前記第2ユーザーが発話している期間における前記第1画像の位置よりも近い位置に、前記第1画像を表示することを含み、
    前記第1ユーザーが発話している期間に前記カメラが取得した画像を、前記第2ユーザーが使用する端末装置に送信することを更に含む、
    請求項1記載の表示方法。
  3. 前記第2ユーザーが発話している期間に前記第2画像を表示することは、前記表示面において前記カメラと重なる位置に前記第2画像を表示することを含む、
    請求項1または2記載の表示方法。
  4. 前記第2画像は、前記第2ユーザーの顔を含む範囲を撮像した画像であり、
    前記第2画像のうち前記カメラが配置された範囲と重なる部分は、前記第2ユーザーの顔以外の部分である、
    請求項3記載の表示方法。
  5. 前記第2ユーザーが発話している期間に前記第2画像を表示することは、前記カメラが配置された範囲と重なる前記第2画像の部分の輝度を、前記第2画像の他の部分の輝度よりも下げて表示することを含む、
    請求項3または4記載の表示方法。
  6. 前記第1ユーザーが発話している期間に前記第1画像と前記第2画像とを表示することは、前記表示面において前記カメラが配置された範囲と重ならない位置に、前記第1画像と前記第2画像とを表示することを含む、
    請求項1から5のいずれか1項記載の表示方法。
  7. 表示面に配置され第1ユーザーを撮像するカメラ、および第2ユーザーの端末装置と通信する少なくとも1つの通信インターフェイスと、
    前記表示面に画像を表示する表示装置と、
    スピーカーと、
    前記通信インターフェイス、前記表示装置、および前記スピーカーを制御する少なくとも1つの処理装置と、を備え、
    前記少なくとも1つの処理装置は、
    前記カメラの前記表示面における位置を示す情報を取得し、
    前記第2ユーザーが発話している期間に、前記表示装置によって、前記表示面に、前記第1ユーザーの発話に関する第1画像と、前記カメラの前記表示面における位置に対して、前記第1画像の位置よりも近い位置に配置された前記第2ユーザーを示す第2画像と、を表示し、
    前記第2ユーザーが発話している期間に前記カメラが取得した画像を、前記通信インターフェイスを介して前記第2ユーザーが使用する端末装置に送信し、
    前記第1ユーザーが発話している期間に、前記表示装置によって、前記表示面に、前記第2画像と、前記第2ユーザーが発話している期間における前記第1画像の大きさよりも大きな大きさの前記第1画像と、を表示する、
    表示システム。
  8. 表示面に配置され、第1ユーザーを撮像するカメラの、前記表示面における位置を示す情報を取得することと、
    第2ユーザーが発話している期間に、前記表示面に、前記第1ユーザーの発話に関する第1画像と、前記カメラの前記表示面における位置に対して、前記第1画像の位置よりも近い位置に配置された前記第2ユーザーを示す第2画像と、を表示することと、
    前記第2ユーザーが発話している期間に前記カメラが取得した画像を、前記第2ユーザーが使用する端末装置に送信することと、
    前記第1ユーザーが発話している期間に、前記表示面に、前記第2画像と、前記第2ユーザーが発話している期間における前記第1画像の大きさよりも大きな大きさの前記第1画像と、を表示することと、
    をコンピューターに実行させるプログラム。
JP2022046486A 2022-03-23 2022-03-23 表示方法、表示システムおよびプログラム Active JP7459890B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022046486A JP7459890B2 (ja) 2022-03-23 2022-03-23 表示方法、表示システムおよびプログラム
US18/124,682 US20230308600A1 (en) 2022-03-23 2023-03-22 Display method, display system, and non-transitory computer-readable storage medium storing program
CN202310287558.1A CN116805962A (zh) 2022-03-23 2023-03-22 显示方法、显示***和记录有程序的记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022046486A JP7459890B2 (ja) 2022-03-23 2022-03-23 表示方法、表示システムおよびプログラム

Publications (2)

Publication Number Publication Date
JP2023140584A JP2023140584A (ja) 2023-10-05
JP7459890B2 true JP7459890B2 (ja) 2024-04-02

Family

ID=88078927

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022046486A Active JP7459890B2 (ja) 2022-03-23 2022-03-23 表示方法、表示システムおよびプログラム

Country Status (3)

Country Link
US (1) US20230308600A1 (ja)
JP (1) JP7459890B2 (ja)
CN (1) CN116805962A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7505518B2 (ja) * 2022-03-18 2024-06-25 セイコーエプソン株式会社 表示方法、表示システムおよびプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130093838A1 (en) 2010-07-16 2013-04-18 Kar-Han Tan Methods and systems for establishing eye contact and accurate gaze in remote collaboration
JP2016144071A (ja) 2015-02-03 2016-08-08 株式会社リコー 位置制御装置、プログラム、画像表示装置および画像表示方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130093838A1 (en) 2010-07-16 2013-04-18 Kar-Han Tan Methods and systems for establishing eye contact and accurate gaze in remote collaboration
JP2016144071A (ja) 2015-02-03 2016-08-08 株式会社リコー 位置制御装置、プログラム、画像表示装置および画像表示方法

Also Published As

Publication number Publication date
US20230308600A1 (en) 2023-09-28
CN116805962A (zh) 2023-09-26
JP2023140584A (ja) 2023-10-05

Similar Documents

Publication Publication Date Title
US10958871B2 (en) System and methods for facilitating virtual presence
US10440322B2 (en) Automated configuration of behavior of a telepresence system based on spatial detection of telepresence components
US11477413B2 (en) System and method for providing wide-area imaging and communications capability to a handheld device
US10148909B2 (en) Immersive telepresence anywhere
JP2022179557A (ja) 通信端末、表示方法、プログラム及び画像通信システム
US20120077172A1 (en) Presentation system
US20100171930A1 (en) Control apparatus and method for controlling projector apparatus
TWI390982B (zh) 視訊會議系統
US9124761B2 (en) Television communication system, terminal, and method
JP2017085372A (ja) 通信システム、通信装置、通信方法およびプログラム
JP2009071478A (ja) 情報通信端末および情報通信システム
JP7459890B2 (ja) 表示方法、表示システムおよびプログラム
WO2017141584A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JP7505518B2 (ja) 表示方法、表示システムおよびプログラム
JP2008005122A (ja) 双方向通信システム及び双方向通信方法並びに制御プログラム
JP2015159460A (ja) 投影システム、投影装置、撮影装置、ガイド枠生成方法及びプログラム
JP7151316B2 (ja) 通信端末、画像通信システム、表示方法、及びプログラム
JPH08256316A (ja) 通信会議システム
JP2018159835A (ja) 投影装置
JP2007322704A (ja) 画像表示システム及びその制御方法
JP2009186553A (ja) 背面カメラ付きプロジェクタ
JP2616392B2 (ja) 画像通信端末のユーザインタフェース
JP7326789B2 (ja) 通信端末、画像通信システム、表示方法、及びプログラム
JP2012182766A (ja) 会議システム、会議システムの制御方法、及びプログラム
JP2016144071A (ja) 位置制御装置、プログラム、画像表示装置および画像表示方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230124

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240304

R150 Certificate of patent or registration of utility model

Ref document number: 7459890

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150