JP7238594B2 - 表示システムの制御方法、及び表示システム - Google Patents

表示システムの制御方法、及び表示システム Download PDF

Info

Publication number
JP7238594B2
JP7238594B2 JP2019095429A JP2019095429A JP7238594B2 JP 7238594 B2 JP7238594 B2 JP 7238594B2 JP 2019095429 A JP2019095429 A JP 2019095429A JP 2019095429 A JP2019095429 A JP 2019095429A JP 7238594 B2 JP7238594 B2 JP 7238594B2
Authority
JP
Japan
Prior art keywords
image
display device
display
projector
image information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019095429A
Other languages
English (en)
Other versions
JP2020190619A5 (ja
JP2020190619A (ja
Inventor
正尭 吉田
浩一郎 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2019095429A priority Critical patent/JP7238594B2/ja
Priority to US16/878,750 priority patent/US11360575B2/en
Publication of JP2020190619A publication Critical patent/JP2020190619A/ja
Publication of JP2020190619A5 publication Critical patent/JP2020190619A5/ja
Application granted granted Critical
Publication of JP7238594B2 publication Critical patent/JP7238594B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0386Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry for light pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/10Projectors with built-in or built-on screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2358/00Arrangements for display data security

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • User Interface Of Digital Computer (AREA)
  • Projection Apparatus (AREA)

Description

本発明は、表示システムの制御方法、及び表示システムに関する。
プロジェクターの投影画面に対し、専用のペンや指等を使用して文字や図形等を描くことが可能なインタラクティブ技術が知られている。
また、そのようなインタラクティブ機能を有するプロジェクターによって描かれた文字や図形等の情報を、ネットワーク経由で遠隔地に設けられた他のプロジェクターと共有する双方向のインタラクティブ技術が知られている(例えば、特許文献1参照)。
特許文献1に記載の画像投影システムでは、プロジェクターは、専用ペンによって入力されたペン描画情報を、ネットワーク経由で接続された他のプロジェクターへ送信する。また、他のプロジェクターは、受け取ったペン描画情報に基づいて、遠隔地でのペンによる描画状態を自身のデバイスへ反映する。
特開2015-149648号公報
一方、特許文献1に記載の画像投影システムを、遠隔会議システムとして用いる場合には、ペン描画情報だけでなく、外部映像と共に投影映像を共有することが求められる。外部映像は、外部から入力された映像であって、例えば会議用のスライド資料画像である。
特許文献1に記載の画像投影システムでは、複数のプロジェクター間で共有されたペン描画情報に基づいて、各プロジェクターがペンにより入力された文字や図形等を描画する。また、ペン描画機能を有さないプロジェクター(いわゆる、非インタラクティブプロジェクター)は、ペン入力による文字や図形等の情報を画面に表示できない。そこで、ペン描画機能を有さないプロジェクターは、ペン描画機能を有するプロジェクター(いわゆる、インタラクティブプロジェクター)においてペンにより入力された文字や図形等の情報を共有できないという課題があった。
上記課題を解消する一態様は、互いに通信可能に接続された第1表示装置、第2表示装置、及び第3表示装置を備える表示システムの制御方法であって、前記第1表示装置は、第1画像情報を前記第2表示装置及び第3表示装置の各々に送信し、前記第2表示装置は、前記第1画像情報に基づき第1画像を第1表示面に表示し、前記第2表示装置は、前記第1表示面に対する第1指示体の位置を検出し、前記第2表示装置は、前記第1指示体の位置を示す第1情報を前記第1表示装置に送信し、前記第1表示装置は、前記第1情報に基づいて第1描画オブジェクトを生成し、前記第1描画オブジェクトを含む第2画像情報を前記第2表示装置及び前記第3表示装置の各々に送信し、前記第2表示装置及び前記第3表示装置の各々は、前記第2画像情報に基づき、第2画像を表示する、表示システムの制御方法である。
上記表示システムの制御方法において、前記第2表示装置は、前記第2表示装置と通信可能に接続された第4表示装置に対する前記第1画像情報及び前記第2画像情報の送信が禁止され、前記第3表示装置は、前記第3表示装置と通信可能に接続された第5表示装置に対する前記第1画像情報及び前記第2画像情報の送信が禁止される構成であってもよい。
上記表示システムの制御方法において、前記第2表示装置は、サーバー機能を実行するメニューの表示が禁止されることによって、前記第4表示装置に対する前記第1画像情報及び前記第2画像情報の送信が禁止され、前記第3表示装置は、前記メニューの表示が禁止されることによって、前記第5表示装置に対する前記第1画像情報及び前記第2画像情報の送信が禁止される構成であってもよい。
上記表示システムの制御方法において、前記第2表示装置は、前記第1情報に基づいて第2描画オブジェクトを生成し、前記第2描画オブジェクトを含む第3画像を前記第1表示面に表示する構成であってもよい。
上記表示システムの制御方法において、前記第2表示装置は、前記第3画像を前記第1表示面に表示することを開始してから所定時間が経過した場合に、前記第3画像の前記第1表示面への表示を終了する構成であってもよい。
上記表示システムの制御方法において、前記第2表示装置は、前記第1表示装置から前記第2画像情報を受信した場合に、前記第3画像の前記第1表示面への表示を終了する構成であってもよい。
上記表示システムの制御方法において、前記第2表示装置は、前記第1表示面における前記第1画像の表示領域に対する前記第1指示体の位置を検出する構成であってもよい。
上記表示システムの制御方法において、前記第1表示装置は、前記第1画像に前記第1描画オブジェクトを重畳して前記第2画像情報を生成する構成であってもよい。
上記表示システムの制御方法において、前記第1表示装置は、前記第1画像を第2表示面に表示し、前記第2表示面に対する第2指示体の位置を検出し、前記第2指示体の位置に基づいて第3描画オブジェクトを生成し、前記第1描画オブジェクト及び前記第3描画オブジェクトを含む第4画像情報を前記第2表示装置及び前記第3表示装置の各々に送信し、前記第2表示装置及び前記第3表示装置の各々は、前記第4画像情報に基づき、第4画像を表示する構成であってもよい。
上記表示システムの制御方法において、前記第1表示装置は、前記第1画像に前記第1描画オブジェクト及び前記第3描画オブジェクトを重畳して前記第4画像情報を生成する構成であってもよい。
上記課題を解消する別の一態様は、互いに通信可能に接続された第1表示装置、第2表示装置、及び第3表示装置を備える表示システムであって、前記第1表示装置は、第1画像情報を前記第2表示装置及び第3表示装置の各々に送信する第1送信部を備え、前記第2表示装置は、前記第1画像情報に基づき第1画像を第1表示面に表示する表示制御部と、前記第1表示面に対する指示体の位置を検出する位置検出部と、前記指示体の位置を示す第1情報を前記第1表示装置に送信する第2送信部と、を備え、前記第1表示装置は、前記第1情報に基づいて描画オブジェクトを生成し、前記第1送信部は、前記描画オブジェクトを含む第2画像情報を前記第2表示装置及び前記第3表示装置の各々に送信し、前記第2表示装置及び前記第3表示装置の各々は、前記第2画像情報に基づき、第2画像を表示する、表示システムである。
本実施形態に係る表示システムの全体構成の一例を示す図。 第1プロジェクター、指示体、及びスクリーンの一例を示す斜視図。 プロジェクター及び指示体の構成の一例を示すブロック図。 第1制御部~第3制御部の構成の一例を示すブロック図。 第1制御部~第3制御部の動作の一例を示す画像図。 第1制御部~第3制御部の動作の一例を示す画像図。 第1制御部~第3制御部の動作の一例を示す画像図。 アスペクト比が相違する場合の第2位置検出部の動作の一例を示す画像図。 第1制御部~第3制御部の処理の一例を示すフローチャート。 第1制御部~第3制御部の処理の他の一例を示すフローチャート。
以下、添付図面を参照しながら実施形態について説明する。
[1.表示システムの構成]
[1-1.表示システムの全体構成]
図1は、本実施形態に係る表示システム1の全体構成の一例を示す図である。
表示システム1は、第1プロジェクター100と、第2プロジェクター200と、第3プロジェクター300とを備える。
第1プロジェクター100と、第2プロジェクター200と、第3プロジェクター300とは、ネットワークNWを介して互いに通信可能に接続される。ネットワークNWは、例えばインターネットである。
本実施形態では、ネットワークNWがインターネットであるが、本発明の実施形態はこれに限定されない。ネットワークNWがLAN(Local Area Network)でもよいし、ネットワークNWがWAN(Wide Area Network)でもよい。
ネットワークNWには、第4プロジェクター400と、第5プロジェクター500とが接続されている。
第2プロジェクター200は、ネットワークNWを介して、第4プロジェクター400と互いに通信可能に接続される。
第3プロジェクター300は、ネットワークNWを介して、第5プロジェクター500と互いに通信可能に接続される。
第1プロジェクター100は、スクリーンSC1に画像を投射して表示し、第2プロジェクター200は、スクリーンSC2に画像を投射して表示し、第3プロジェクター300は、スクリーンSC3に画像を投射して表示する。以下の説明では、スクリーンSC1、スクリーンSC2、及びスクリーンSC3を、スクリーンSCと総称する場合がある。
なお、スクリーンSC1は、「第2表示面」の一例に対応し、スクリーンSC2は、「第1表示面」の一例に対応する。
第1プロジェクター100は、「第1表示装置」の一例に対応し、第2プロジェクター200は、「第2表示装置」の一例に対応し、第3プロジェクター300は、「第3表示装置」の一例に対応する。また、第4プロジェクター400は、「第4表示装置」の一例に対応し、第5プロジェクター500は、「第5表示装置」の一例に対応する。
[1-2.プロジェクター、指示体及びスクリーンの概略構成]
図2は、第1プロジェクター100、指示体3A、及びスクリーンSC1の一例を示す斜視図である。
第1プロジェクター100~第5プロジェクター500の各々は、略同一の構成を有するため、以下の説明では、図2及び図3を参照して、第1プロジェクター100の構成について説明し、第2プロジェクター200~第5プロジェクター500の構成については説明を省略する。
第1プロジェクター100は、指示体3Aからの入力に基づき、文字、図形等の描画画像を生成する。また、第2プロジェクター200は、指示体3Bからの入力に基づき、文字、図形等の描画画像を生成する。
指示体3Aは、「第2指示体」の一例に対応する。また、指示体3Bは、「第1指示体」の一例に対応する。以下の説明では、指示体3Aと指示体3Bとを指示体3と総称する場合がある。
また、第1プロジェクター100及び第2プロジェクター200の各々は、インタラクティブのプロジェクターであり、第3プロジェクター300~第5プロジェクター500の各々は、非インタラクティブのプロジェクターである。「インタラクティブ」とは、指示体3によるペン描画機能を有することを示し、「非インタラクティブ」とは、指示体によるペン描画機能を有しないことを示す。なお、本実施形態では、指示体3としてペン型の指示体を用い、プロジェクターが指示体3の位置を検出し、指示体3の位置の軌跡に応じた文字、図形等の描画画像を生成することをペン描画機能としているが、指示体3としてユーザーの指を用い、ユーザーの指の位置の軌跡に応じた文字、図形等の描画画像を生成する描画機能がペン描画機能に含まれてもよい。
ユーザーが指示体3AをスクリーンSC1に接触させて移動させた場合に、第1プロジェクター100は、指示体3AのスクリーンSC1に対する位置を検出し、指示体3Aの位置の軌跡に応じた文字、図形等の描画画像を生成する。
指示体3Aは、本実施形態では、ユーザーが手に持って使用するペン型の指示体であって、発光可能な先端部31と、ユーザーが把持する軸部33とを有する。先端部31には近赤外光を発光するLED(Light Emitting Diode)等の光源が搭載されている。指示体3Aは、先端部31のスクリーンSC1への接触を検出し、先端部31において所定の発光間隔で光源が発光する。
本実施形態では、指示体3がペン型の指示体である場合について説明するが、例えば、ユーザーの指を指示体3として用いることも可能である。
第1プロジェクター100は、いわゆる短焦点のプロジェクターであって、表示面であるスクリーンSC1の上方の壁面に固定される。第1プロジェクター100の設置方法は、図1に示す壁掛け設置に限定されず、机や台や床等の上に平置きする平置き設置、又は、第1プロジェクター100を天井から吊り下げる天吊り設置であってもよい。
また、スクリーンSC1は、壁に固定され、又は床面に立設された平板又は幕である。
本実施形態では、「第1表示面」及び「第2表示面」を含む表示面が、スクリーンSCであるが、表示面は、スクリーンSCに限定されず、例えば、壁面自体をスクリーンとして使用することも可能である。
第1プロジェクター100は、光学的な画像である画像光PLを生成し、生成した画像光PLをスクリーンSC1に投射する。スクリーンSC1には、画像光PLに基づく画像が結像する。第1プロジェクター100が画像光PLを投射可能なスクリーンSC1の範囲を投射領域10という。
また、第1プロジェクター100は、図3に示す撮像部105を備える。撮像部105は、スクリーンSC1を含む範囲を斜め上方から撮像し、少なくともスクリーンSC1を含む範囲を撮像して撮像データを生成する。指示体3Aの発光タイミングに合わせて撮像部105に撮像を実行させることで、撮像データには、発光している指示体3Aの画像が含まれる。第1プロジェクター100は、撮像データを解析して、指示体3Aの指示位置を検出する。指示位置は、指示体3Aの指示する位置であって、先端部31の位置に対応する。
[1-3.プロジェクター、及び指示体の詳細構成]
図3は、指示体3A及び第1プロジェクター100の構成を示すブロック図である。
まず、指示体3Aの構成について説明する。指示体3Aは、信号光送受信部35、操作スイッチ36、制御部37及び電源部38を備える。これらの各部は、軸部33内に収容される。
信号光送受信部35は、赤外線LED等の光源と、第1プロジェクター100が送信する赤外線信号である装置信号光ASLを受光する受光素子とを備える。信号光送受信部35は、制御部37の制御に従って光源を点灯又は消灯させ、光源を所定の発光パターンで発光させる。
操作スイッチ36は、指示体3Aの先端部31に内蔵され、押圧された場合にオン状態になる。
また、指示体3Aは、ユーザーが棒状の軸部33を手に把持して、先端部31がスクリーンSC1に接触する状態で使用される。指示体3Aの先端部31が壁やスクリーンSC1等に接触すると、操作スイッチ36がオン状態になる。
制御部37は、信号光送受信部35及び操作スイッチ36に接続され、操作スイッチ36のオン及びオフを検出する。制御部37は、操作スイッチ36がオンの場合と、オフの場合とで、信号光送受信部35の光源が点灯するタイミングを変更し、点灯パターンを変更する。
換言すれば、信号光送受信部35は、操作スイッチ36がオンの場合には、操作スイッチ36がオフの場合における光源の点灯パターンと相違する点灯パターンで、光源を点灯させる。
第1プロジェクター100は、指示体3Aが発する赤外線信号である指示体信号光PSLに基づき、先端部31の位置を検出する。また、第1プロジェクター100は、指示体3Aが発する指示体信号光PSLの点灯パターンに基づき、操作スイッチ36がオンしているか否かを判定する。
電源部38は、電源として乾電池又は二次電池を有し、制御部37、信号光送受信部35及び操作スイッチ36の各部に電力を供給する。指示体3Aには、電源部38からの電源供給をオン及びオフする電源スイッチが搭載される。
次に、第1プロジェクター100の構成について説明する。
第1プロジェクター100は、操作部、画像投射系、画像処理系及び第1制御部150を主要な構成として備える。画像投射系は、画像処理系によって処理された画像データに基づいて、画像光PLを生成する。画像光PLは、画像データの示す画像に対応する。
また、画像投射系は、生成した画像光PLをスクリーンSC1に投射する。画像処理系は、画像データを処理する。
第1プロジェクター100は、ユーザーの操作を受け付ける操作部として、リモコン受光部101、信号光送信部103及び撮像部105を備える。
リモコン受光部101は、リモコン7から送信される赤外線信号を受光する。リモコン受光部101は、受光した赤外線信号に対応する操作信号を生成し、生成した操作信号を第1制御部150に対して出力する。操作信号は、ユーザーによって操作されたリモコン7のスイッチに対応する信号である。
信号光送信部103は、装置信号光ASLを出力する。装置信号光ASLは、指示体3Aの発光タイミングを、撮像部105の撮像タイミングに同期させるための信号である。装置信号光ASLは、指示体3Aの信号光送受信部35によって受信可能な近赤外光の信号である。信号光送信部103は、第1プロジェクター100が起動しているときには、装置信号光ASLを定期的に送信する。
装置信号光ASLは、例えば、指示体3Aに対して、指示体信号光PSLを送信するタイミングを指示する制御信号である。指示体信号光PSLは、予め定められた発光パターンを有する近赤外光である。指示体3Aは、例えば、装置信号光ASLを受信したタイミングに同期して、予め定められた発光パターンで指示体信号光PSLを送信する。指示体信号光PSLの発光パターンは、操作スイッチ36がオンしている場合と、オフしている場合とで異なる発光パターンである。
撮像部105は、指示体3Aの先端部31が発する指示体信号光PSLを受光するCMOS(Complementary Metal-Oxide-Semiconductor)やCCD(Charge Coupled Device)等の撮像素子、撮像素子に像を結像する光学系、撮像素子による指示体信号光PSLの受光状態から撮像データを生成するデータ処理回路等を備える。
撮像部105は、第1制御部150の制御に従って、一定の時間間隔ごとにスクリーンSC1を含む範囲を撮像して撮像データを生成する。撮像部105は、生成した撮像データを第1制御部150に出力する。第1制御部150は、撮像部105から入力される撮像データを後述するメモリー160に一時的に記憶させる。
画像投射系は、表示部110と、表示部110を駆動する駆動部120とを備える。表示部110は、光源111、光変調装置113及び光学ユニット115を備える。駆動部120は、光源駆動回路121及び光変調装置駆動回路123を備える。
光源111には、ハロゲンランプ、キセノンランプ、超高圧水銀ランプ等のランプ光源が用いられる。また、光源111には、LEDやレーザー光源等の固体光源を用いてもよい。
光源111には、光源駆動回路121が接続される。光源駆動回路121は、光源111及び第1制御部150に接続され、第1制御部150の制御に従って、光源111に駆動電流を供給し、光源111を点灯、及び消灯させる。
光変調装置113は、光源111が発する光を変調して画像光PLを生成する光変調素子を備える。光変調装置113は、光変調素子によって変調された画像光PLを光学ユニット115に射出する。光変調素子としては、例えば、透過型の液晶ライトバルブ、反射型の液晶ライトバルブ、デジタルミラーデバイス等を用いることができる。
光変調装置113には、光変調装置駆動回路123が接続される。光変調装置駆動回路123は、第1制御部150及び光変調装置113に接続され、第1制御部150の制御に従って光変調装置113を駆動し、光変調素子にフレーム単位で画像を描画する。例えば、光変調装置113が液晶ライトバルブで構成される場合、光変調装置駆動回路123は液晶を駆動するドライバー回路によって構成される。
光学ユニット115は、レンズやミラー等の光学素子を備え、光変調装置113で変調された画像光PLをスクリーンSC1に向けて投射する。これによりスクリーンSC1には、画像光PLに基づく画像が結像する。
次に、第1プロジェクター100の画像処理系について説明する。
第1プロジェクター100は、画像処理系として、入出力インターフェイス131、無線通信部133、画像処理部135、フレームメモリー137及びキャプチャーメモリー139を備える。
入出力インターフェイス131は、第2プロジェクター200、第3プロジェクター300及び外部装置180と接続するための接続部であって、複数のインターフェイスを備える。入出力インターフェイス131は、複数のインターフェイスにより複数の外部装置180に接続することができる。
外部装置180と接続するためのインターフェイスは、例えば、DVI(Digital Visual Interface)や、HDMI(登録商標:High-Definition Multimedia Interface)、Display Port、HDBaseT(登録商標)等のデジタルインターフェイスであってもよい。
また、複数のインターフェイスは、VGA(Video Graphics Array)や、D端子、S端子等のアナログインターフェイスであってもよい。また、複数のインターフェイスは、USB(Universal Serial Bus)やEthernet(登録商標)、IEEE1394等の通信インターフェイスであってもよい。
外部装置180と接続するためのインターフェイスは、ケーブルを接続するコネクターと、ケーブルを介して受信した画像信号を電気的に処理するインターフェイス回路とを備える。インターフェイス回路は、画像信号を受信し、受信した画像信号に含まれる画像データや同期信号を取り出す。画像信号に含まれる画像データは、動画像の画像データであってもよいし、静止画像の画像データであってもよい。インターフェイス回路は、取り出した画像データや同期信号を画像処理部135に出力する。
また、インターフェイス回路は、取り出した同期信号を第1制御部150に出力する。画像処理部135は、入力された同期信号に同期して画像データの1フレームを処理する。第1制御部150は、入力された同期信号に同期して第1プロジェクター100の各部を制御する。1フレームとは、1画面分の画像が表示される期間を示す。また、画像データの1フレームとは、同期信号に含まれる垂直同期信号により規定される垂直走査期間に表示される画像データに対応する。
第2プロジェクター200及び第3プロジェクター300と接続するためのインターフェイスは、Ethernet(登録商標)、IEEE1394等の通信インターフェイスである。
無線通信部133は、アンテナ、RF(Radio Frequency)回路、ベースバンド回路等を含む通信モジュールである。無線通信部133は、例えば、Bluetooth(登録商標)、Wi-Fi(登録商標)を含む無線LAN、NFC(Near Field Communication)等の無線通信を実行する。
無線通信部133は、アンテナで受信した電波からパケットデータを復調し、復調したパケットデータから画像データや同期信号を取り出す。無線通信部133は、取り出した画像データ及び同期信号を画像処理部135に出力し、同期信号を第1制御部150に出力する。
画像処理部135には、フレームメモリー137が接続される。画像処理部135は、入力された画像データをフレームメモリー137に展開する。フレームメモリー137は、複数のバンクを備える。各バンクは、1フレーム分の画像データを書き込み可能な記憶容量を有する。フレームメモリー137は、例えば、SDRAM(Synchronous Dynamic Random Access Memory)や、DDR(Double-Data-Rate Synchronous Dynamic Random Access Memory)等により構成される。
例えば、フレームメモリー137は、入出力インターフェイス131が備える複数のインターフェイスと、無線通信部133とに対応して複数のバンクを備える。画像処理部135は、複数のインターフェイスや無線通信部133から入力される画像データをフレームメモリー137の複数のバンクのいずれかに記憶させる。
また、画像処理部135には、キャプチャーメモリー139が接続される。キャプチャーメモリー139は、フレームメモリー137と同様に、SDRAMやDDR等により構成される。画像処理部135は、第1制御部150の制御に従って、フレームメモリー137に展開された画像データをキャプチャーデータとしてキャプチャーメモリー139に記憶させる。フレームメモリー137に展開した画像データをキャプチャーメモリー139に記憶させる動作を「キャプチャー」という。また、キャプチャーデータに基づき、第1プロジェクター100がスクリーンSC1に表示する画像を、「キャプチャー画像」という。
フレームメモリー137に展開される画像データは、外部装置180から入力される画像信号に基づく画像データであって、表示部110によりスクリーンSC1に表示されるデータである。例えば、第1プロジェクター100が60Hzの垂直同期信号に同期している場合には、フレームメモリー137に展開される画像データは、60Hzの逆数である16.7ミリ秒に1回書き換えられる。フレームメモリー137に展開された画像データを、キャプチャーデータとしてキャプチャーメモリー139に記憶させることで、外部装置180から画像信号の入力が停止した後も、第1プロジェクター100が単独で画像データを表示させることができる。
画像処理部135は、フレームメモリー137に展開した画像データに対して画像処理を行う。画像処理部135が行う画像処理には、例えば、解像度変換処理又はリサイズ処理、歪曲収差の補正、形状補正処理、デジタルズーム処理、画像の色合いや輝度の調整等が含まれる。画像処理部135は、第1制御部150によって指示された処理を実行し、必要に応じて、第1制御部150から入力されるパラメーターを使用して処理を行う。また、画像処理部135は、上記のうち複数の画像処理を組み合わせて実行することも勿論可能である。画像処理部135は、第1制御部150により選択されたバンクに展開された画像データをフレームメモリー137から読み出し、光変調装置駆動回路123に出力する。
画像処理部135、フレームメモリー137及びキャプチャーメモリー139は、例えば、集積回路により構成される。集積回路には、LSI、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field-Programmable Gate Array)、SoC(System-on-a-Chip)等が含まれる。また、集積回路の構成の一部にアナログ回路が含まれていてもよく、第1制御部150と集積回路とが組み合わされた構成であってもよい。
次に、第1制御部150の構成について説明する。第1制御部150は、メモリー160及びプロセッサー170を備えるコンピューター装置である。メモリー160は、RAM(Random Access Memory)等の揮発性のメモリーと、ROM(Read Only Memory)やフラッシュメモリー等の不揮発性のメモリーとを備える。また、メモリー160が、HDD(Hard Disk Drive)を備えてもよい。
メモリー160は、プロセッサー170が実行する制御プログラム165を記憶する。また、メモリー160には、種々の画像データが記憶される。
また、メモリー160には、キャリブレーションデータが記憶される。キャリブレーションデータは、撮像部105の撮像データと、スクリーンSCの投射領域10とを対応付けるデータである。より詳細には、撮像データに設定された座標と、フレームメモリー137に設定された座標とを対応付けるデータである。
プロセッサー170は、CPU(Central Processing Unit)やマイコン等により構成される演算処理装置である。プロセッサー170は、制御プログラム165を実行して第1プロジェクター100の各部を制御する。プロセッサー170は、単一のプロセッサーにより構成してもよいし、複数のプロセッサーにより構成することも可能である。また、プロセッサー170は、メモリー160の一部又は全部や、その他の回路と統合されたSoCにより構成してもよい。また、プロセッサー170は、プログラムを実行するCPUと、所定の演算処理を実行するDSP(Digital Signal Processor)との組合せにより構成してもよい。更に、プロセッサー170の機能の全てをハードウェアに実装した構成としてもよく、プログラマブルデバイスを用いて構成してもよい。
[1-4.制御部の機能構成]
第1制御部150は、機能ブロックとして、第1位置検出部171、第1送受信部173及び第1表示制御部175を備える。これらの機能ブロックは、プロセッサー170が制御プログラム165を実行することによって実現される機能を示す。
第1位置検出部171は、指示体3Aの指示位置を検出し、指示体3Aの指示位置の軌跡を示す軌跡情報を生成する。第2プロジェクター200における軌跡情報は、「第1情報」に対応する。
具体的には、第1位置検出部171は、信号光送信部103に、装置信号光ASLを一定間隔で送信させる。また、第1位置検出部171は、装置信号光ASLの送信タイミングに同期して、撮像部105に撮像を実行させる。撮像部105は、スクリーンSC1を含む範囲を撮像して撮像データを生成し、生成した撮像データを第1制御部150に出力する。撮像データは、メモリー160に一時的に記憶される。
また、第1位置検出部171は、メモリー160から撮像データを取得し、取得した撮像データを解析して指示体信号光PSLを検出する。第1位置検出部171は、検出した指示体信号光PSLの位置を示す座標値を、キャリブレーションデータによりフレームメモリー137での座標値に変換する。また、第1位置検出部171は、指示体信号光PSLが検出された撮像データの撮像タイミングに基づいて指示体信号光PSLの発光パターンを特定し、指示体3AがスクリーンSCに接触しているか否かを判定する。
第1送受信部173は、他のプロジェクターとの間で、種々の情報を送受信する。第1送受信部173は、「第1送信部」の一例に対応する。第1送受信部173については、図4を参照して詳細に説明する。
第1表示制御部175は、スクリーンSC1に種々の画像を表示する。
具体的には、第1表示制御部175は、画像データを生成し、生成した画像データの画像処理を画像処理部135に実行させる。また、第1表示制御部175は、駆動部120を制御して表示部110に画像光PLを生成させ、生成させた画像光PLをスクリーンSC1に投射させる。
第1表示制御部175については、図4を参照して詳細に説明する。
[1-5.第1制御部~第3制御部の構成と動作]
図4は、第1制御部150、第2制御部250、及び第3制御部350の構成の一例を示すブロック図である。
図3を参照して説明したように、第1プロジェクター100の第1制御部150は、第1位置検出部171、第1送受信部173及び第1表示制御部175を備える。
なお、第1プロジェクター100は、指示体3Aからの入力を受け付けて描画画像を生成する場合と、指示体3Aからの入力を受け付けない場合とがある。前者の場合には、第1位置検出部171は不要であるため、図4では、第1位置検出部171を破線で示している。
図4に示すように、第2プロジェクター200は、第2制御部250を備え、第2制御部250は、第2位置検出部271、第2送受信部273及び第2表示制御部275を備える。第2位置検出部271は、「位置検出部」の一例に対応する。第2送受信部273は、「第2送信部」の一例に対応する。
第2プロジェクター200は、指示体3Bからの入力に基づき、文字、図形等の描画画像を生成する。また、第2プロジェクター200は、スクリーンSC2に画像を表示する。
また、第3プロジェクター300は、第3制御部350を備え、第3制御部350は、第2送受信部273及び第2表示制御部275を備える。
第3プロジェクター300は、スクリーンSC3に画像を表示する。
なお、図2を参照して説明したように、第3プロジェクター300は、第3制御部350に指示体3の指示位置を検出する位置検出部を備えておらず、ペン描画機能を有しない非インタラクティブのプロジェクターである。
[1-5-1.第1プロジェクターが指示体からの入力を受け付けない場合]
まず、第1プロジェクター100が指示体3Aからの入力を受け付けない場合の第1制御部150、第2制御部250、及び第3制御部350の各々の機能について説明する。
第1プロジェクター100において、第1制御部150は、外部装置180から画像信号を受信し、第1画像情報PJ1を生成する。第1送受信部173は、第1画像情報PJ1を、第2プロジェクター200及び第3プロジェクター300に送信する。また、第1表示制御部175は、第1画像情報PJ1に対応する第1画像P1をスクリーンSC1に表示する。
第2プロジェクター200において、第2制御部250の第2送受信部273は、第1プロジェクター100から第1画像情報PJ1を受信する。そして、第2表示制御部275は、第1画像情報PJ1に対応する第1画像P1をスクリーンSC2に表示する。
第2位置検出部271は、指示体3Bの指示位置を検出し、指示体3Bの指示位置の軌跡を示す第1情報J1を生成する。第2送受信部273は、第1情報J1を第1プロジェクター100に送信する。
第1プロジェクター100において、第1制御部150の第1送受信部173は、第1情報J1を第2プロジェクター200から受信する。そして、第1制御部150は、第1情報J1に基づいて第1描画オブジェクトBJ1を生成し、第1描画オブジェクトBJ1と第1画像P1とを重畳することによって第2画像情報PJ2を生成する。また、第1表示制御部175は、第2画像情報PJ2に対応する第2画像P2をスクリーンSC1に表示する。また、第1送受信部173は、第2画像情報PJ2を第2プロジェクター200及び第3プロジェクター300の各々に送信する。
第2プロジェクター200において、第2制御部250の第2送受信部273は、第2画像情報PJ2を第1プロジェクター100から受信する。そして、第2表示制御部275は、第2画像情報PJ2に対応する第2画像P2をスクリーンSC2に表示する。
第3プロジェクター300において、第3制御部350の第3送受信部373は、第2画像情報PJ2を第1プロジェクター100から受信する。そして、第3表示制御部375は、第2画像情報PJ2に対応する第2画像P2をスクリーンSC3に表示する。
このようにして、第2画像P2が、第1プロジェクター100、第2プロジェクター200及び第3プロジェクター300の各々によってスクリーンSCに表示される。第2画像P2は、第2プロジェクター200において第2位置検出部271によって検出された指示体3Bの指示位置の軌跡に対応する第1描画オブジェクトBJ1を含む。
[1-5-2.第1プロジェクターが指示体からの入力を受け付ける場合]
次に、第1プロジェクター100が指示体3Aからの入力を受け付ける場合の第1制御部150、第2制御部250、及び第3制御部350の各々の機能について説明する。
第1プロジェクター100において、第1制御部150は、外部装置180から画像信号を受信し、第1画像情報PJ1を生成する。第1送受信部173は、第1画像情報PJ1を、第2プロジェクター200及び第3プロジェクター300に送信する。また、第1表示制御部175は、第1画像情報PJ1に対応する第1画像P1をスクリーンSC1に表示する。
また、第1位置検出部171は、指示体3Aの指示位置を検出し、指示体3Aの指示位置の軌跡を示す第2情報J2を生成する。第1制御部150は、第2情報J2に基づいて第3描画オブジェクトBJ3を生成する。
第2プロジェクター200において、第2制御部250の第2送受信部273は、第1プロジェクター100から第1画像情報PJ1を受信する。そして、第2表示制御部275は、第1画像情報PJ1に対応する第1画像P1をスクリーンSC2に表示する。
第2位置検出部271は、指示体3Bの指示位置を検出し、指示体3Bの指示位置の軌跡を示す第1情報J1を生成する。第2送受信部273は、第1情報J1を第1プロジェクター100に送信する。
第1プロジェクター100において、第1制御部150の第1送受信部173は、第1情報J1を第2プロジェクター200から受信する。そして、第1制御部150は、第1情報J1に基づいて第1描画オブジェクトBJ1を生成し、第1描画オブジェクトBJ1と、第3描画オブジェクトBJ3と、第1画像P1とを重畳することによって第4画像情報PJ4を生成する。また、第1表示制御部175は、第4画像情報PJ4に対応する第4画像P4をスクリーンSC1に表示する。また、第1送受信部173は、第4画像情報PJ4を第2プロジェクター200及び第3プロジェクター300の各々に送信する。
第2プロジェクター200において、第2制御部250の第2送受信部273は、第4画像情報PJ4を第1プロジェクター100から受信する。そして、第2表示制御部275は、第4画像情報PJ4に対応する第4画像P4をスクリーンSC2に表示する。
第3プロジェクター300において、第3制御部350の第3送受信部373は、第4画像情報PJ4を第1プロジェクター100から受信する。そして、第3表示制御部375は、第4画像情報PJ4に対応する第4画像P4をスクリーンSC3に表示する。
このようにして、第4画像P4が、第1プロジェクター100、第2プロジェクター200及び第3プロジェクター300の各々によってスクリーンSCに表示される。第4画像P4は、第1描画オブジェクトBJ1と、第3描画オブジェクトBJ3と、を含む。第1描画オブジェクトBJ1は、第2プロジェクター200において第2位置検出部271によって検出された指示体3Bの指示位置の軌跡に対応する。第3描画オブジェクトBJ3は、第1プロジェクター100において第1位置検出部171によって検出された指示体3Aの指示位置の軌跡に対応する。
[1-5-3.第2プロジェクター及び第3プロジェクターの送信規制について]
本実施形態では、第1プロジェクター100がサーバー装置に設定され、第2プロジェクター200及び第3プロジェクター300の各々がクライアント装置に設定されている。
すなわち、第1プロジェクター100は、サーバー機能を実行する。具体的には、第1プロジェクター100は、第2プロジェクター200及び第3プロジェクター300に対して、第1プロジェクター100が生成した第1画像情報PJ1及び第2画像情報PJ2等の画像情報を送信する。
第2プロジェクター200は、第4プロジェクター400に対する第1画像情報PJ1及び第2画像情報PJ2の送信が禁止される。
具体的には、第2プロジェクター200の第2制御部250は、サーバー機能を実行するメニューの表示が禁止されることによって、ユーザーがサーバー機能を実行するメニューを選択することができなくなり、第4プロジェクター400に対する第1画像情報PJ1及び第2画像情報PJ2の送信が禁止される。
第3プロジェクター300は、第5プロジェクター500に対する第1画像情報PJ1及び第2画像情報PJ2の送信が禁止される。
具体的には、第3プロジェクター300の第3制御部350は、サーバー機能を実行するメニューの表示が禁止されることによって、ユーザーがサーバー機能を実行するメニューを選択することができなくなり、第5プロジェクター500に対する第1画像情報PJ1及び第2画像情報PJ2の送信が禁止される。
サーバー機能とは、例えば、第4プロジェクター400等の他の装置をクライアント装置とし、第2プロジェクター200等の自装置をサーバー装置として、自装置がサーバー装置として実行する機能を示す。また、サーバー機能とは、例えば、第5プロジェクター500等の他の装置をクライアント装置とし、第3プロジェクター300等の自装置をサーバー装置として、自装置がサーバー装置として実行する機能を示す。
サーバー機能は、例えば、第1画像情報PJ1及び第2画像情報PJ2等のサーバー装置が有する情報を、クライアント装置に対して送信する機能を含む。
[1-6.スクリーンに表示される画像の推移]
図5~図7の各々は、第1制御部150、第2制御部250及び第3制御部350の各々の動作の一例を示す画像図である。なお、図5~図7では、第1プロジェクターが指示体3Aからの入力を受け付ける場合について説明する。
図5に示すように、第1制御部150は、外部装置180から画像信号を受信し、第1画像情報PJ1を生成する。第1送受信部173は、第1画像情報PJ1を、第2プロジェクター200及び第3プロジェクター300に送信する。また、第1表示制御部175は、第1画像情報PJ1に対応する第1画像P1をスクリーンSC1に表示する。
第1画像P1は、ペンギン画像PE1、ペンギン画像PE2及びペンギン画像PE3が左右方向に沿って配列された画像である。
また、第2制御部250の第2送受信部273は、第1プロジェクター100から第1画像情報PJ1を受信する。そして、第2表示制御部275は、第1画像情報PJ1に対応する第1画像P1をスクリーンSC2に表示する。
第3制御部350の第3送受信部373は、第1プロジェクター100から第1画像情報PJ1を受信する。そして、第3表示制御部375は、第1画像情報PJ1に対応する第1画像P1をスクリーンSC3に表示する。
次に、図6に示すように、第1位置検出部171は、指示体3Aの指示位置を検出し、指示体3Aの指示位置の軌跡を示す第2情報J2を生成する。第1制御部150は、第2情報J2に基づいて第3描画オブジェクトBJ3を生成する。第1制御部150は、第3描画オブジェクトBJ3と第1画像P1とを重畳することによって第5画像情報PJ5を生成する。第1表示制御部175は、第5画像情報PJ5に対応する第5画像P5をスクリーンSC1に表示する。第3描画オブジェクトBJ3は、第1画像P1のペンギン画像PE1の下側に引かれた波線を示す。
第2制御部250の第2位置検出部271は、指示体3Bの指示位置を検出し、指示体3Bの指示位置を示す第1情報J1を生成する。第2送受信部273は、第1情報J1を第1プロジェクター100に送信する。
また、第2制御部250は、第1情報J1に基づいて第2描画オブジェクトBJ2を生成し、第2描画オブジェクトBJ2と第1画像P1とを重畳することによって第3画像情報PJ3を生成する。第2表示制御部275は、第3画像情報PJ3に対応する第3画像P3をスクリーンSC2に表示する。第2描画オブジェクトBJ2は、第1画像P1のペンギン画像PE2を囲む長円形状を示す。
次に、図7に示すように、第1送受信部173は、第1情報J1を受信し、第1制御部150は、第1情報J1に基づいて第1描画オブジェクトBJ1を生成する。第1描画オブジェクトBJ1は、第2描画オブジェクトBJ2と同一のオブジェクトであって、第1画像P1のペンギン画像PE2を囲む長円形状を示す。第1制御部150は、第1描画オブジェクトBJ1と、第3描画オブジェクトBJ3と、第1画像P1とを重畳することによって第4画像情報PJ4を生成する。そして、第1表示制御部175は、第4画像情報PJ4に対応する第4画像P4をスクリーンSC1に表示する。
また、第1送受信部173は、第4画像情報PJ4を第2プロジェクター200及び第3プロジェクター300の各々に送信する。第2送受信部273は、第4画像情報PJ4を受信し、第2表示制御部275は、第画像情報PJに対応する第4画像P4をスクリーンSC2に表示する。第3送受信部373は、第4画像情報PJ4を受信し、第3表示制御部375は、第4画像情報PJ4に対応する第4画像P4をスクリーンSC3に表示する。
[1-7.位置検出部の検出範囲]
図8は、第1プロジェクター100のアスペクト比と第2プロジェクター200のアスペクト比とが相違する場合の第2位置検出部271の動作の一例を示す画像図である。
図8の左上図は、第1プロジェクター100が、第1画像P1をスクリーンSC1に表示した状態を示す。ここでは、第1プロジェクター100のアスペクト比は、16:6である。すなわち、第1プロジェクター100の投射領域10のアスペクト比は、16:6である。これに対して第1画像P1のアスペクト比は、16:9である。
投射領域10は、第1画像P1と非表示領域AR1とを含む。非表示領域AR1は、投射領域10のうち、画像光PLが投射されない領域を示す。
また、スクリーンSC1は、投射領域10と非投射領域AR3とを含む。非投射領域AR3は、投射領域10の外側の領域を示す。
図8の右上図は、第2プロジェクター200が第1画像P1をスクリーンSC2に表示した状態を示す。
ここでは、第2プロジェクター200のアスペクト比は、4:3である。投射領域20は、第2プロジェクター200が画像光PLを投射可能なスクリーンSC2の範囲を示す。投射領域20は、第1画像P1と、非表示領域AR1と、非表示領域AR2とを含む。非表示領域AR2は、投射領域20のうち、画像光PLが投射されない領域を示す。
また、スクリーンSC2は、投射領域20と非投射領域AR4とを含む。非投射領域AR4は、投射領域20の外側の領域を示す。
図8の右下図は、第2位置検出部271によって受け付けられる指示体3Bの入力を示す。図8に示すオブジェクトBJAは、指示体3Bの指示位置の軌跡に対応する。オブジェクトBJAは、第1画像P1のペンギン画像PE2の下側から右上に向けて延び、非表示領域AR2にまで到達している。
オブジェクトBJAのうち、非表示領域AR2に含まれるオブジェクトBJXに対応する指示体3Bの指示位置を示す情報は、第2位置検出部271によって検出されない。
同様に、非表示領域AR1に含まれるオブジェクトに対応する指示体3Bの指示位置を示す情報は、第2位置検出部271によって検出されない。
すなわち、第2位置検出部271は、スクリーンSC2における第1画像P1の表示領域に対する指示体3Bの指示位置の軌跡を検出し、第1情報J1を生成する。
[2.制御部の処理]
次に、図9及び図10を参照して、第1制御部150、第2制御部250及び第3制御部350の処理について説明する。
図9は、第1プロジェクター100が指示体3Aからの入力を受け付けない場合の第1制御部150、第2制御部250、及び第3制御部350の各々の処理を示す。
図9に示すように、第1プロジェクター100の第1制御部150は、以下のように処理を実行する。
まず、ステップSA101において、第1制御部150は、外部装置180から画像信号を受信し、第1画像情報PJ1を生成し、第1送受信部173は、第1画像情報PJ1を、第2プロジェクター200及び第3プロジェクター300の各々に送信する。
次に、ステップSA103において、第1表示制御部175は、第1画像情報PJ1に対応する第1画像P1をスクリーンSC1に表示する。
次に、ステップSA105において、第1送受信部173は、第1情報J1を第2プロジェクター200から受信する。
次に、ステップSA107において、第1制御部150は、第1情報J1に基づいて第1描画オブジェクトBJ1を生成する。
次に、ステップSA109において、第1制御部150は、第1描画オブジェクトBJ1と第1画像P1とを重畳することによって第2画像情報PJ2を生成し、第1送受信部173は、第2画像情報PJ2を第2プロジェクター200及び第3プロジェクター300の各々に送信する。
次に、ステップSA111において、第1表示制御部175は、第2画像情報PJ2に対応する第2画像P2をスクリーンSC1に表示し、処理が終了する。
第2プロジェクター200の第2制御部250は、以下のように処理を実行する。
まず、ステップSA201において、第2送受信部273は、第1画像情報PJ1を第1プロジェクター100から受信する。
次に、ステップSA203において、第2表示制御部275は、第1画像情報PJ1に対応する第1画像P1をスクリーンSC2に表示する。
次に、ステップSA205において、第2位置検出部271は、指示体3B(第1指示体)の指示位置を検出し、指示体3Bの指示位置の軌跡を示す第1情報J1を生成する。
次に、ステップSA207において、第2送受信部273は、第1情報J1を第1プロジェクター100に送信する。
次に、ステップSA209において、第2制御部250は、第1情報J1に基づいて第2描画オブジェクトBJ2を生成し、第2描画オブジェクトBJ2と第1画像P1とを重畳することによって第3画像情報PJ3を生成する。そして、第2表示制御部275は、第3画像情報PJ3に対応する第3画像P3をスクリーンSC2に表示する。
次に、ステップSA211において、第2送受信部273は、第2画像情報PJ2を第1プロジェクター100から受信する。
次に、ステップSA213において、第2表示制御部275は、第3画像P3の表示を終了した後に、第2画像情報PJ2に対応する第2画像P2をスクリーンSC2に表示し、処理が終了する。
第3プロジェクター300の第3制御部350は、以下のように処理を実行する。
まず、ステップSA301において、第3送受信部373は、第1画像情報PJ1を第1プロジェクター100から受信する。
次に、ステップSA303において、第3表示制御部375は、第1画像情報PJ1に対応する第1画像P1をスクリーンSC3に表示する。
次に、ステップSA305において、第3送受信部373は、第2画像情報PJ2を第1プロジェクター100から受信する。
次に、ステップSA307において、第3表示制御部375は、第2画像情報PJ2に対応する第2画像P2をスクリーンSC3に表示し、処理が終了する。
本実施形態では、第2画像情報PJ2を第1プロジェクター100から受信した場合に、第2表示制御部275は、第3画像P3の表示を終了するが、本発明の実施形態はこれに限定されない。第2表示制御部275が、所定時間が経過した場合に、第3画像P3のスクリーンSC2への表示を終了する構成であってもよい。
更に、第2表示制御部275が、所定時間が経過した場合に、第3画像P3のスクリーンSC2への表示を終了し、第1画像P1を再度スクリーンSC2に表示してもよい。
図10は、第1プロジェクター100が指示体3Aからの入力を受け付ける場合の第1制御部150、第2制御部250、及び第3制御部350の各々の処理を示す。
図10に示すように、第1プロジェクター100の第1制御部150は、以下のように処理を実行する。
まず、ステップSB101において、第1制御部150は、外部装置180から画像信号を受信し、第1画像情報PJ1を生成し、第1送受信部173は、第1画像情報PJ1を、第2プロジェクター200及び第3プロジェクター300の各々に送信する。
次に、ステップSB103において、第1表示制御部175は、第1画像情報PJ1に対応する第1画像P1をスクリーンSC1に表示する。
次に、ステップSB105において、第1位置検出部171は、指示体3A(第2指示体)の指示位置を検出し、指示体3Aの指示位置の軌跡を示す第2情報J2を生成する。
次に、ステップSB107において、第1制御部150は、第2情報J2に基づいて第3描画オブジェクトBJ3を生成する。そして、第1制御部150は、第3描画オブジェクトBJ3と第1画像P1とを重畳することによって第5画像情報PJ5を生成し、第1表示制御部175は、第1画像P1に換えて第5画像情報PJ5に対応する第5画像P5をスクリーンSC1に表示する。
次に、ステップSB109において、第1送受信部173は、第1情報J1を第2プロジェクター200から受信する。
次に、ステップSB111において、第1制御部150は、第1情報J1に基づいて第1描画オブジェクトBJ1を生成する。
次に、ステップSB113において、第1制御部150は、第1描画オブジェクトBJ1と、第3描画オブジェクトBJ3と、第1画像P1とを重畳することによって第4画像情報PJ4を生成する。そして、第1送受信部173は、第4画像情報PJ4を第2プロジェクター200及び第3プロジェクター300の各々に送信する。
次に、ステップSB115において、第1表示制御部175は、第5画像P5に換えて第4画像情報PJ4に対応する第4画像P4をスクリーンSC1に表示し、処理が終了する。
第2プロジェクター200の第2制御部250は、以下のように処理を実行する。
まず、ステップSB201において、第2送受信部273は、第1画像情報PJ1を第1プロジェクター100から受信する。
次に、ステップSB203において、第2表示制御部275は、第1画像情報PJ1に対応する第1画像P1をスクリーンSC2に表示する。
次に、ステップSB205において、第2位置検出部271は、指示体3B(第1指示体)の指示位置を検出し、指示体3Bの指示位置の軌跡を示す第1情報J1を生成する。
次に、ステップSB207において、第2送受信部273は、第1情報J1を第1プロジェクター100に送信する。
次に、ステップSB209において、第2制御部250は、第1情報J1に基づいて第2描画オブジェクトBJ2を生成し、第2描画オブジェクトBJ2と第1画像P1とを重畳することによって第3画像情報PJ3を生成する。そして、第2表示制御部275は、第3画像情報PJ3に対応する第3画像P3をスクリーンSC2に表示する。
次に、ステップSB211において、第2送受信部273は、第4画像情報PJ4を第1プロジェクター100から受信する。
次に、ステップSB213において、第2表示制御部275は、第3画像P3の表示を終了し、第4画像情報PJ4に対応する第4画像P4をスクリーンSC2に表示し、処理が終了する。
第3プロジェクター300の第3制御部350は、以下のように処理を実行する。
まず、ステップSB301において、第3送受信部373は、第1画像情報PJ1を第1プロジェクター100から受信する。
次に、ステップSB303において、第3表示制御部375は、第1画像情報PJ1に対応する第1画像P1をスクリーンSC3に表示する。
次に、ステップSB305において、第3送受信部373は、第4画像情報PJ4を第1プロジェクター100から受信する。
次に、ステップSB307において、第3表示制御部375は、第4画像情報PJ4に対応する第4画像P4をスクリーンSC3に表示し、処理が終了する。
本実施形態では、第4画像情報PJ4を第1プロジェクター100から受信した場合に、第2表示制御部275は、第3画像P3のスクリーンSC2への表示を終了するが、本発明の実施形態はこれに限定されない。第2表示制御部275が、第3画像P3をスクリーンSC2に表示することを開始してから所定時間が経過した場合に、第3画像P3のスクリーンSC2への表示を終了する構成であってもよい。
更に、第2表示制御部275が、所定時間が経過した場合に、第3画像P3のスクリーンSC2への表示を終了し、第1画像P1を再度スクリーンSC2に表示してもよい。
[3.本実施形態と効果]
本実施形態に係る表示システム1の制御方法は、互いに通信可能に接続された第1プロジェクター100、第2プロジェクター200及び第3プロジェクター300を備える表示システム1の制御方法であって、第1プロジェクター100は、第1画像情報PJ1を第2プロジェクター200及び第3プロジェクター300の各々に送信し、第2プロジェクター200は、第1画像情報PJ1に基づき第1画像P1をスクリーンSC2に表示し、第2プロジェクター200は、スクリーンSC2に対する指示体3Bの位置を検出し、第2プロジェクター200は、指示体3Bの位置を示す第1情報J1を第1プロジェクター100に送信し、第1プロジェクター100は、第1情報J1に基づいて第1描画オブジェクトBJ1を生成し、第1描画オブジェクトBJ1を含む第2画像情報PJ2を第2プロジェクター200及び第3プロジェクター300の各々に送信し、第2プロジェクター200及び第3プロジェクター300の各々は、第2画像情報PJ2に基づき、第2画像P2を表示する。
このように、第2プロジェクター200が、指示体3Bの位置を示す第1情報J1を第1プロジェクター100に送信する。また、第1プロジェクター100が、第1情報J1に基づいて第1描画オブジェクトBJ1を生成し、第1描画オブジェクトBJ1を含む第2画像情報PJ2を第2プロジェクター200及び第3プロジェクター300の各々に送信する。したがって、第3プロジェクター300のようにペン描画機能を有さないプロジェクターであっても、ペンにより入力された文字や図形等の情報を共有できる。
また、第2プロジェクター200は、第2プロジェクター200と通信可能に接続された第4プロジェクター400に対する第1画像情報PJ1及び第2画像情報PJ2の送信が禁止され、第3プロジェクター300は、第3プロジェクター300と通信可能に接続された第5プロジェクター500に対する第1画像情報PJ1及び第2画像情報PJ2の送信が禁止される。
よって、第1画像情報PJ1及び第2画像情報PJ2の少なくとも一方が第4プロジェクター400及び第5プロジェクター500の少なくとも一方に送信されることを抑制できる。したがって、第1画像情報PJ1及び第2画像情報PJ2に機密情報等が含まれている場合に、機密情報等の漏洩を抑制できる。
また、第2プロジェクター200は、サーバー機能を実行するメニューの表示が禁止されることによって、第4プロジェクター400に対する第1画像情報PJ1及び第2画像情報PJ2の送信が禁止され、第3プロジェクター300は、サーバー機能を実行するメニューの表示が禁止されることによって、第5プロジェクター500に対する第1画像情報PJ1及び第2画像情報PJ2の送信が禁止される。
したがって、簡素な構成で、第1画像情報PJ1及び第2画像情報PJ2の少なくとも一方が第4プロジェクター400及び第5プロジェクター500の少なくとも一方に送信されることを抑制できる。
また、第2プロジェクター200は、第1情報J1に基づいて第2描画オブジェクトBJ2を生成し、第2描画オブジェクトBJ2を含む第3画像P3をスクリーンSC2に表示する。
第2描画オブジェクトBJ2は、指示体3BによってスクリーンSC2上に描かれた文字や図形等の情報に対応する。よって、第2プロジェクター200が第2画像情報PJ2を受信する前に、第2描画オブジェクトBJ2をスクリーンSC2に表示できる。したがって、ユーザーの違和感を軽減できる。
また、第2プロジェクター200は、第3画像P3をスクリーンSC2に表示することを開始してから所定時間が経過した場合に、第3画像P3のスクリーンSC2への表示を終了する。
したがって、第3画像P3をスクリーンSC2に表示することを開始してから所定時間が経過した場合に、第3画像P3のスクリーンSC2への表示を終了するため、所定時間を適正な時間に設定することによって、ユーザーの利便性を向上できる。
また、第2プロジェクター200は、第1プロジェクター100から第2画像情報PJ2を受信した場合に、第3画像P3のスクリーンSC2への表示を終了する。
よって、第1プロジェクター100から第2画像情報PJ2を受信した場合に、第3画像P3のスクリーンSC2への表示を終了するため、第3画像P3に換えて第2画像P2をスクリーンSC2に表示できる。したがって、ユーザーの違和感を軽減できる。
また、第2プロジェクター200は、スクリーンSC2における第1画像P1の表示領域に対する指示体3Bの位置を検出する。
よって、スクリーンSC2における第1画像P1の表示領域に対する指示体3Bの位置を検出するため、指示体3Bの位置を適正に検出できる。したがって、ユーザーの所望するオブジェクトをスクリーンSC2に表示できる。
また、第1プロジェクター100は、第1画像P1に第1描画オブジェクトBJ1を重畳して第2画像情報PJ2を生成する。
よって、第1画像P1に第1描画オブジェクトBJ1を重畳して第2画像情報PJ2を生成するため、第2画像P2として適正な画像が生成される。したがって、ユーザーの所望する画像を表示できる。
また、第1プロジェクター100は、第1画像P1をスクリーンSC1に表示し、スクリーンSC1に対する指示体3Aの位置を検出し、指示体3Aの位置に基づいて第3描画オブジェクトBJ3を生成し、第1描画オブジェクトBJ1及び第3描画オブジェクトBJ3を含む第4画像情報PJ4を第2プロジェクター200及び第3プロジェクター300の各々に送信し、第2プロジェクター200及び第3プロジェクター300の各々は、第4画像情報PJ4に基づき、第4画像P4を表示する。
よって、第4画像情報PJ4が第1描画オブジェクトBJ1及び第3描画オブジェクトBJ3を含むため、第1描画オブジェクトBJ1及び第3描画オブジェクトBJ3がスクリーンSC2及びスクリーンSC3の各々に表示される。また、第1描画オブジェクトBJ1は、スクリーンSC2に描画された文字や図形等の情報に対応し、第3描画オブジェクトBJ3は、スクリーンSC1に描画された文字や図形等の情報に対応する。したがって、ユーザーの利便性を向上できる。
また、第1プロジェクター100は、第1画像P1に第1描画オブジェクトBJ1及び第3描画オブジェクトBJ3を重畳して第4画像情報PJ4を生成する。
よって、第1画像P1に第1描画オブジェクトBJ1及び第3描画オブジェクトBJ3を重畳して第4画像情報PJ4を生成するため、第4画像P4として適正な画像が生成される。したがって、ユーザーの所望する画像を表示できる。
本実施形態に係る表示システム1は、互いに通信可能に接続された第1プロジェクター100、第2プロジェクター200及び第3プロジェクター300を備える表示システム1であって、第1プロジェクター100は、第1画像情報PJ1を第2プロジェクター200及び第3プロジェクター300の各々に送信する第1送受信部173を備え、第2プロジェクター200は、第1画像情報PJ1に基づき第1画像P1をスクリーンSC2に表示する第2表示制御部275と、スクリーンSC2に対する指示体3Bの位置を検出する第2位置検出部271と、指示体3Bの位置を示す第1情報J1を第1プロジェクター100に送信する第2送受信部273と、を備え、第1プロジェクター100は、第1情報J1に基づいて第1描画オブジェクトBJ1を生成し、第1送受信部173は、第1描画オブジェクトBJ1を含む第2画像情報PJ2を第2プロジェクター200及び第3プロジェクター300の各々に送信し、第2プロジェクター200及び第3プロジェクター300の各々は、第2画像情報PJ2に基づき、第2画像P2を表示する。
このように、第2プロジェクター200が、指示体3Bの位置を示す第1情報J1を第1プロジェクター100に送信する。また、第1プロジェクター100が、第1情報J1に基づいて第1描画オブジェクトBJ1を生成し、第1描画オブジェクトBJ1を含む第2画像情報PJ2を第2プロジェクター200及び第3プロジェクター300の各々に送信する。したがって、第3プロジェクター300のようにペン描画機能を有さないプロジェクターであっても、ペンにより入力された文字や図形等の情報を共有できる。
[4.他の実施形態]
上述した実施形態は本発明を適用した具体的態様の例に過ぎず、本発明を限定するものではなく、異なる態様として本発明を適用することも可能である。
例えば、上記実施形態では、「表示装置」の一例として「プロジェクター」を示したが、本発明の第1表示装置~第3表示装置等の「表示装置」は、液晶ディスプレイであってもよい。また、プラズマディスプレイパネルや有機ELパネル等を備えた表示装置であってもよい。
また、上記実施形態では、第1情報J1が指示体3Bの指示位置の軌跡を示す場合について説明したが、本発明の実施形態はこれに限定されない。第1情報J1が、指示体3Bの指示位置の軌跡を示す情報に加えて、線種を示す情報、線の太さを示す情報、及び線の色を示す情報の少なくとも一方を含んでもよい。この場合には、第2画像P2として多様な画像を生成できる。したがって、ユーザーの利便性を向上できる。
また、表示装置の制御方法を、表示装置が備えるコンピューターを用いて実現される場合、このコンピューターに実行させるプログラムを記録媒体、又はこのプログラムを伝送する伝送媒体の態様で構成することも可能である。記録媒体には、磁気的、光学的記録媒体又は半導体メモリーデバイスを用いることができる。具体的には、フレキシブルディスク、HDD、CD-ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disk)、Blu-ray(登録商標) Disc、光磁気ディスク、フラッシュメモリー、カード型記録媒体等の可搬型、或いは固定式の記録媒体が挙げられる。また、上記記録媒体は、画像表示装置が備える内部記憶装置であるRAM、ROM、HDD等の不揮発性記憶装置であってもよい。
また、図3に示した第1プロジェクター100の機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよい。また、図3に示した通りに独立したハードウェア資源を配置する構成に限定されず、図示した以外の機能部を備える構成であってもよい。
また、図4に示した第1制御部150、第2制御部250及び第3制御部350の機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよい。
また、図9及び図10に示すフローチャートの処理単位は、第1制御部150、第2制御部250及び第3制御部350の処理の理解を容易にするために、主な処理内容に応じて分割したものである。このため、図9及び図10のフローチャートに示す処理単位の分割の仕方や名称によって本発明が制限されることはない。また、第1制御部150、第2制御部250及び第3制御部350の処理は、処理内容に応じて、更に多くの処理単位に分割することもできるし、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、上記のフローチャートの処理順序も、図示した例に限られるものではない。
1…表示システム、3…指示体、3A…指示体(第2指示体)、3B…指示体(第1指示体)、7…リモコン、10、20…投射領域、31…先端部、33…軸部、35…信号光送受信部、36…操作スイッチ、37…制御部、38…電源部、100…第1プロジェクター(第1表示装置)、101…リモコン受光部、103…信号光送信部、105…撮像部、111…光源、113…光変調装置、115…光学ユニット、120…駆動部、121…光源駆動回路、123…光変調装置駆動回路、131…入出力インターフェイス、133…無線通信部、135…画像処理部、137…フレームメモリー、139…キャプチャーメモリー、150…第1制御部、160…メモリー、165…制御プログラム、170…プロセッサー、171…第1位置検出部、173…第1送受信部(第1送信部)、175…第1表示制御部、180…外部装置、200…第2プロジェクター(第2表示装置)、250…第2制御部、271…第2位置検出部(位置検出部)、273…第2送受信部(第2送信部)、275…第2表示制御部、300…第3プロジェクター(第3表示装置)、350…第3制御部、373…第3送受信部、375…第3表示制御部、400…第4プロジェクター(第4表示装置)、500…第5プロジェクター(第5表示装置)、BJ1…第1描画オブジェクト、BJ2…第2描画オブジェクト、BJ3…第3描画オブジェクト、J1…第1情報、J2…第2情報、P1…第1画像、P2…第2画像、P3…第3画像、P4…第4画像、P5…第5画像、PJ1…第1画像情報、PJ2…第2画像情報、PJ3…第3画像情報、PJ4…第4画像情報、PJ5…第5画像情報、SC、SC3…スクリーン、SC1…スクリーン(第2表示面)、SC2…スクリーン(第1表示面)。

Claims (7)

  1. 互いに通信可能に接続された第1表示装置、第2表示装置、及び第3表示装置を備える表示システムの制御方法であって、
    前記第1表示装置は、第1画像情報を前記第2表示装置及び第3表示装置の各々に送信し、
    前記第2表示装置は、前記第1画像情報に基づき第1画像を第1表示面に表示し、
    前記第3表示装置は、前記第1画像情報に基づき前記第1画像を表示し、
    前記第2表示装置は、前記第1表示面に対する第1指示体の位置を検出し、
    前記第2表示装置は、前記第1指示体の位置を示す第1情報を前記第1表示装置に送信し、
    前記第2表示装置は、前記第1情報に基づいて第2描画オブジェクトを生成し、前記第2描画オブジェクトを前記第1画像と重畳することによって、第3画像を生成し、前記第1画像に換えて前記第3画像を前記第1表示面に表示し、
    前記第1表示装置は、前記第1情報に基づいて第1描画オブジェクトを生成し、前記第1描画オブジェクトを前記第1画像と重畳することによって第2画像情報を生成し、前記第2画像情報を前記第2表示装置及び前記第3表示装置の各々に送信し、
    前記第2表示装置、前記第2画像情報に基づき、前記第3画像に換えて第2画像を前記第1表示面に表示
    前記第3表示装置は、前記第2画像情報に基づき、前記第1画像に換えて前記第2画像を表示する、表示システムの制御方法。
  2. 前記第2表示装置は、前記第2表示装置と通信可能に接続された第4表示装置に対する前記第1画像情報及び前記第2画像情報の送信が禁止され、
    前記第3表示装置は、前記第3表示装置と通信可能に接続された第5表示装置に対する前記第1画像情報及び前記第2画像情報の送信が禁止される、請求項1に記載の表示システムの制御方法。
  3. 前記第2表示装置は、サーバー機能を実行するメニューの表示が禁止されることによって、前記第4表示装置に対する前記第1画像情報及び前記第2画像情報の送信が禁止され、
    前記第3表示装置は、前記メニューの表示が禁止されることによって、前記第5表示装置に対する前記第1画像情報及び前記第2画像情報の送信が禁止される、請求項2に記載の表示システムの制御方法。
  4. 前記第2表示装置は、前記第3画像を前記第1表示面に表示することを開始してから所定時間が経過した場合に、前記第3画像の前記第1表示面への表示を終了する、請求項に記載の表示システムの制御方法。
  5. 前記第2表示装置は、前記第1表示面における前記第1画像の表示領域に対する前記第1指示体の位置を検出する、請求項1からのいずれか1項に記載の表示システムの制御方法。
  6. 前記第1表示装置は、前記第1画像を第2表示面に表示し、前記第2表示面に対する第2指示体の位置を検出し、前記第2指示体の位置に基づいて第3描画オブジェクトを生成し、前記第1描画オブジェクト及び前記第3描画オブジェクトを前記第1画像と重畳することによって第4画像情報を生成し、前記第4画像情報を前記第2表示装置及び前記第3表示装置の各々に送信し、
    前記第2表示装置及び前記第3表示装置の各々は、前記第4画像情報に基づき、前記第2画像に換えて第4画像を表示する、請求項1からのいずれか1項に記載の表示システムの制御方法。
  7. 互いに通信可能に接続された第1表示装置、第2表示装置、及び第3表示装置を備える表示システムであって、
    前記第1表示装置は、第1画像情報を前記第2表示装置及び第3表示装置の各々に送信する第1送信部を備え、
    前記第2表示装置は、
    前記第1画像情報に基づき第1画像を第1表示面に表示する表示制御部と、
    前記第1表示面に対する指示体の位置を検出する位置検出部と、
    前記指示体の位置を示す第1情報を前記第1表示装置に送信する第2送信部と、
    を備え、
    前記第3表示装置は、前記第1画像情報に基づき前記第1画像を表示し、
    前記表示制御部は、前記第1情報に基づいて第2描画オブジェクトを生成し、前記第2描画オブジェクトを前記第1画像と重畳することによって、第3画像を生成し、前記第1画像に換えて前記第3画像を前記第1表示面に表示し、
    前記第1表示装置は、前記第1情報に基づいて第1描画オブジェクトを生成し、前記第1描画オブジェクトを前記第1画像と重畳することによって第2画像情報を生成し、
    前記第1送信部は、前記2画像情報を前記第2表示装置及び前記第3表示装置の各々に送信し、
    前記表示制御部は、前記第2画像情報に基づき、前記第3画像に換えて第2画像を前記第1表示面に表示し、
    前記第3表示装置は、前記第2画像情報に基づき、前記第1画像に換えて前記第2画像を前記第1表示面に表示する、表示システム。
JP2019095429A 2019-05-21 2019-05-21 表示システムの制御方法、及び表示システム Active JP7238594B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019095429A JP7238594B2 (ja) 2019-05-21 2019-05-21 表示システムの制御方法、及び表示システム
US16/878,750 US11360575B2 (en) 2019-05-21 2020-05-20 Control method for display system and display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019095429A JP7238594B2 (ja) 2019-05-21 2019-05-21 表示システムの制御方法、及び表示システム

Publications (3)

Publication Number Publication Date
JP2020190619A JP2020190619A (ja) 2020-11-26
JP2020190619A5 JP2020190619A5 (ja) 2022-03-30
JP7238594B2 true JP7238594B2 (ja) 2023-03-14

Family

ID=73454527

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019095429A Active JP7238594B2 (ja) 2019-05-21 2019-05-21 表示システムの制御方法、及び表示システム

Country Status (2)

Country Link
US (1) US11360575B2 (ja)
JP (1) JP7238594B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023183997A (ja) * 2022-06-17 2023-12-28 セイコーエプソン株式会社 表示方法、及び表示システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012054881A (ja) 2010-09-03 2012-03-15 Sharp Corp 会議システム、情報処理装置、情報処理方法及びコンピュータプログラム
JP2015056030A (ja) 2013-09-12 2015-03-23 株式会社リコー 画像処理装置および画像処理システム
US20150095798A1 (en) 2013-09-27 2015-04-02 Samsung Electronics Co., Ltd. Method and device for sharing content
JP2015135544A (ja) 2014-01-16 2015-07-27 セイコーエプソン株式会社 表示装置、表示システムおよび表示方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4522129B2 (ja) * 2004-03-31 2010-08-11 キヤノン株式会社 画像処理方法および画像処理装置
US8185828B2 (en) * 2009-04-08 2012-05-22 Cisco Technology, Inc. Efficiently sharing windows during online collaborative computing sessions
JP5810779B2 (ja) 2011-09-16 2015-11-11 株式会社リコー 画面共有システム、画面共有端末、電子黒板システムおよびプログラム
JP2013156788A (ja) * 2012-01-30 2013-08-15 Hitachi Consumer Electronics Co Ltd 教育支援システム及び情報端末
JP6286814B2 (ja) 2012-05-25 2018-03-07 セイコーエプソン株式会社 表示装置、表示制御方法、および、表示システム
US9524574B2 (en) 2012-05-25 2016-12-20 Seiko Epson Corporation Data processing apparatus, display apparatus, and method of controlling the data processing apparatus
US20140160153A1 (en) * 2012-12-07 2014-06-12 Jatinder Pal Singh Method and system for real-time learning and collaboration solution
KR101457801B1 (ko) * 2013-05-31 2014-11-03 현대엠엔소프트 주식회사 메모 입력이 가능한 터치 메모패드 및 터치 메모패드와 연동되는 모바일 디바이스를 이용한 메모 전송 방법
JP6387641B2 (ja) * 2014-01-15 2018-09-12 セイコーエプソン株式会社 プロジェクター、表示装置、表示システムおよび表示装置の制御方法
JP2015149648A (ja) 2014-02-07 2015-08-20 株式会社リコー 画像投影装置、画像投影システム、及び画像投影装置の制御方法
JP6488653B2 (ja) * 2014-11-07 2019-03-27 セイコーエプソン株式会社 表示装置、表示制御方法および表示システム
JP6492775B2 (ja) * 2015-03-03 2019-04-03 セイコーエプソン株式会社 表示装置および表示制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012054881A (ja) 2010-09-03 2012-03-15 Sharp Corp 会議システム、情報処理装置、情報処理方法及びコンピュータプログラム
JP2015056030A (ja) 2013-09-12 2015-03-23 株式会社リコー 画像処理装置および画像処理システム
US20150095798A1 (en) 2013-09-27 2015-04-02 Samsung Electronics Co., Ltd. Method and device for sharing content
JP2015135544A (ja) 2014-01-16 2015-07-27 セイコーエプソン株式会社 表示装置、表示システムおよび表示方法

Also Published As

Publication number Publication date
JP2020190619A (ja) 2020-11-26
US20200371605A1 (en) 2020-11-26
US11360575B2 (en) 2022-06-14

Similar Documents

Publication Publication Date Title
US9035971B2 (en) Image display apparatus, image display method, and of image display program
US9396520B2 (en) Projector system and control method thereof
US10431131B2 (en) Projector and control method for projector
US9319651B2 (en) Image projection apparatus, image projection method, and storage medium of program
CN103425354A (zh) 数据处理装置、显示装置以及数据处理装置的控制方法
US10536627B2 (en) Display apparatus, method of controlling display apparatus, document camera, and method of controlling document camera
US10768884B2 (en) Communication apparatus, display apparatus, control method thereof, storage medium, and display system for configuring multi-display settings
US9406280B2 (en) Image display device, image display system, and method of controlling image display device
JP2014191380A (ja) 電子ペン、インタラクティブシステム、および電子ペンの制御方法
JP7238594B2 (ja) 表示システムの制御方法、及び表示システム
JP6766716B2 (ja) 情報処理装置、画像表示プログラム、画像表示方法および表示システム
US20180039380A1 (en) Display apparatus, display system, and method of controlling display apparatus
US20170270700A1 (en) Display device, method of controlling display device, and program
US20160150205A1 (en) Image projection apparatus, and image projection method, and image display apparatus
JP2020160654A (ja) 表示装置の制御方法及び表示装置
JP2012053603A (ja) 情報表示システム
JP2017010314A (ja) 画像投影システム、画像投影装置、ポインティングデバイス、および映像供給装置
JP2023043372A (ja) 画像表示方法、及び、プロジェクター
US9787961B2 (en) Projector and method for controlling projector
JP2020201330A (ja) 表示装置の動作方法および表示装置
US11659148B2 (en) Method for controlling display apparatus, and display apparatus
JP7272154B2 (ja) 表示装置の制御方法、及び表示装置
US20220276749A1 (en) Control method for display apparatus and display apparatus
JP2017092849A (ja) 画像表示システム
JP6707945B2 (ja) 表示装置及び表示装置の制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220322

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230213

R150 Certificate of patent or registration of utility model

Ref document number: 7238594

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150