JP6696439B2 - Image display device and image generation device - Google Patents

Image display device and image generation device Download PDF

Info

Publication number
JP6696439B2
JP6696439B2 JP2016574875A JP2016574875A JP6696439B2 JP 6696439 B2 JP6696439 B2 JP 6696439B2 JP 2016574875 A JP2016574875 A JP 2016574875A JP 2016574875 A JP2016574875 A JP 2016574875A JP 6696439 B2 JP6696439 B2 JP 6696439B2
Authority
JP
Japan
Prior art keywords
image display
unit
image
display unit
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016574875A
Other languages
Japanese (ja)
Other versions
JPWO2016129697A1 (en
Inventor
知巳 高階
知巳 高階
綾音 飯田
綾音 飯田
塚本 千尋
千尋 塚本
明哉 前川
明哉 前川
祐司 國米
祐司 國米
河井 斉
斉 河井
孝太朗 青木
孝太朗 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Publication of JPWO2016129697A1 publication Critical patent/JPWO2016129697A1/en
Application granted granted Critical
Publication of JP6696439B2 publication Critical patent/JP6696439B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、画像表示装置及び画像生成装置に関する。   The present invention relates to an image display device and an image generation device.

カーテンをスクリーンの代わりに用いて画像を投影する方法が知られている(例えば、特許文献1)。
[先行技術文献]
[特許文献]
[特許文献1]特開2009−60258号公報
A method of projecting an image using a curtain instead of a screen is known (for example, Patent Document 1).
[Prior Art Document]
[Patent Document]
[Patent Document 1] Japanese Unexamined Patent Publication No. 2009-60258

しかしながら、カーテンに投影される画像の内容に対する操作は、カーテンとは別個の装置を用いてなされるので、使い勝手が悪かった。   However, since the operation for the content of the image projected on the curtain is performed by using a device separate from the curtain, the usability is poor.

本発明の第1の態様においては、画像を表示する画像表示部と、画像表示部に設けられ、画像表示部の状態を測定する測定部と、測定した状態に基づいて、画像表示部に対して行ったユーザの動作を特定し、特定した動作を入力として取得する入力取得部と、取得した入力に応じ、画像表示部に表示する画像の画像データを生成する生成部と、を備える画像表示装置を提供する。
本発明の第2の態様においては、画像を表示する画像表示部の状態に基づいて、画像表示部に対して行ったユーザの動作を特定し、特定した動作を入力として取得する入力取得部と、取得した入力に応じ、画像表示部に表示する画像の画像データを生成する生成部と、を備える画像生成装置を提供する。
In the first aspect of the present invention, an image display unit that displays an image, a measurement unit that is provided in the image display unit and that measures the state of the image display unit, and an image display unit based on the measured state An image display including an input acquisition unit that specifies a user's motion performed as a result and acquires the specified motion as an input, and a generation unit that generates image data of an image to be displayed on the image display unit according to the acquired input. Provide the device.
In the second aspect of the present invention, an input acquisition unit that specifies a user's operation performed on the image display unit based on the state of the image display unit that displays an image and acquires the specified operation as an input. An image generation apparatus is provided, which includes a generation unit that generates image data of an image to be displayed on an image display unit according to the acquired input.

なお、上記の発明の概要は、本発明の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   The above summary of the invention does not enumerate all the features of the present invention. Further, a sub-combination of these feature groups can also be an invention.

本実施形態の画像表示装置10の構成を示す。The structure of the image display apparatus 10 of this embodiment is shown. 本実施形態の画像表示装置10の処理フローを示す。The processing flow of the image display apparatus 10 of this embodiment is shown. 本実施形態の画像表示装置10の広げた状態の画像表示部100の一例を示す。An example of the image display unit 100 in an expanded state of the image display device 10 of the present embodiment is shown. 本実施形態の画像表示装置10の一部を畳んだ状態の画像表示部100の一例を示す。An example of the image display unit 100 in a state where a part of the image display device 10 of the present embodiment is folded is shown. ユーザ1による画像表示部100への光による操作の一例を示す。An example of an operation by the user 1 on the image display unit 100 by light is shown. 画像表示部100の実施形態の一例を示す。An example of embodiment of the image display part 100 is shown. 図6の画像表示装置10で第1カーテン108を一部広げた状態を示す。The image display apparatus 10 of FIG. 6 shows a state in which the first curtain 108 is partially expanded. 本実施形態の変形例に係る画像表示装置10を示す。The image display apparatus 10 which concerns on the modification of this embodiment is shown. 画像表示部100を広げた状態における画像表示装置10を示す。1 illustrates the image display device 10 in a state where the image display unit 100 is expanded. 本実施形態の別の変形例に係る画像表示装置10を示す。The image display apparatus 10 which concerns on another modification of this embodiment is shown.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Moreover, not all combinations of the features described in the embodiments are essential to the solving means of the invention.

図1は、本実施形態の画像表示装置10の構成を示す。画像表示装置10は、空間を少なくとも部分的に仕切り、画像を表示する装置である。例えば、画像表示装置10は、カーテン等の間仕切りを有し、空間中の複数の領域を少なくとも部分的に仕切る。画像表示装置10は、間仕切りの状態に応じた画像を間仕切りに表示する。画像表示装置10は、画像表示部100、測定部110、入力取得部120、生成部130、記憶部140、及び、投影部150を備える。   FIG. 1 shows the configuration of an image display device 10 of this embodiment. The image display device 10 is a device that partitions a space at least partially and displays an image. For example, the image display device 10 has a partition such as a curtain and at least partially partitions a plurality of regions in the space. The image display device 10 displays an image according to the state of the partition on the partition. The image display device 10 includes an image display unit 100, a measurement unit 110, an input acquisition unit 120, a generation unit 130, a storage unit 140, and a projection unit 150.

画像表示部100は、一の領域と別の領域とを少なくとも部分的に仕切るとともにユーザに対して画像を表示する。画像表示部100は、画像表示装置10の間仕切りとして機能し、上下方向を完全に閉じた状態で空間を仕切ってもよいし、上端を含む一部分や下端を含む一部分や中間領域の一部分で部分的に空間を仕切ってもよい。例えば、画像表示部100は、空間を少なくとも部分的に仕切る平面又は曲面(例えば、一の領域と別の領域とが接する平面の半分以上を仕切る平面又は曲面)を有し、当該平面又は曲面に外部から画像光が投影されることにより画像を表示する。一例として、画像表示部100は、カーテン、ブラインド、のれん、シェード、又は、パーティションであってよい。   The image display unit 100 at least partially partitions one area from another area and displays an image to the user. The image display unit 100 functions as a partition between the image display devices 10 and may partition the space in a state where the vertical direction is completely closed, or a part including an upper end, a part including a lower end, and a part of an intermediate region. You may divide the space. For example, the image display unit 100 has a flat surface or a curved surface that partitions the space at least partially (for example, a flat surface or a curved surface that partitions at least half of the flat surface where one area and another area are in contact with each other). An image is displayed by projecting image light from the outside. As an example, the image display unit 100 may be a curtain, a blind, a goodwill, a shade, or a partition.

また、画像表示部100は、変形可能であり、様々な状態を取ることができる。例えば、画像表示部100は、可撓性でありユーザが形状を変えることができ、また、ユーザから「揺する」、「表面をなでる」、「叩く」、「めくる」、及び、「持ち上げる」等の操作を受け付ける。   Further, the image display unit 100 is deformable and can take various states. For example, the image display unit 100 is flexible and can be changed in shape by the user, and the user can “sway”, “strode the surface”, “tap”, “turn over”, “lift”, etc. Accept the operation.

測定部110は、画像表示部100の状態を測定する。例えば、測定部110は、検出部111、及び、光センサ(図示せず)の1つ以上を有し、画像表示部100の形状、動き、受光状態を測定してよい。   The measuring unit 110 measures the state of the image display unit 100. For example, the measurement unit 110 may include one or more of a detection unit 111 and an optical sensor (not shown), and may measure the shape, movement, and light receiving state of the image display unit 100.

検出部111は、例えば、画像表示部100の形状、動きを検出する。検出部111は、例えば、形状測定装置及び/又は加速度センサを含み、画像表示部100の形状及び/又は操作、動き等を検出してよい。例えば、検出部111は、画像表示部100の形状として、形状測定装置が測定した画像表示部100の開閉の状態を検出してよい。また、検出部111は、操作、動きとして、加速度センサ及び/又は形状測定装置が検出した、ユーザが画像表示部100にした「揺する」、「表面をなでる」、「叩く」、「めくる」、及び、「持ち上げる」等の、画像表示部100の加速度変化及び/又は形状変化を伴う動作を検出してよい。   The detection unit 111 detects, for example, the shape and movement of the image display unit 100. The detection unit 111 may include, for example, a shape measuring device and / or an acceleration sensor, and may detect the shape and / or operation, movement, and the like of the image display unit 100. For example, the detection unit 111 may detect, as the shape of the image display unit 100, the open / closed state of the image display unit 100 measured by the shape measuring apparatus. In addition, the detection unit 111 detects “acceleration”, “stroking”, “striking”, “turning”, or “turning” on the image display unit 100 by the user, which is detected by the acceleration sensor and / or the shape measuring device as an operation or movement. Also, a motion involving a change in acceleration and / or a change in shape of the image display unit 100, such as “lifting”, may be detected.

形状測定装置は、画像表示部100の形状を測定する装置であり、例えば、3次元スキャナ又はレーザレンジスキャナであってよい。レーザレンジスキャナは、画像表示装置10内又は外の固定された位置に取り付けられてよく、画像表示部100の少なくとも一部との距離を測定することで画像表示部100の形状を測定する。   The shape measuring device is a device that measures the shape of the image display unit 100, and may be, for example, a three-dimensional scanner or a laser range scanner. The laser range scanner may be attached at a fixed position inside or outside the image display device 10, and measures the shape of the image display unit 100 by measuring the distance from at least a part of the image display unit 100.

加速度センサは、1又は複数個が画像表示部100に取り付けられてよく、これにより画像表示部100の動きを検出する。例えば、加速度センサは、ユーザが画像表示部100に対して揺する等の動作を行った際の加速度の変化を検出する。   One or a plurality of acceleration sensors may be attached to the image display unit 100, and the movement of the image display unit 100 is detected by this. For example, the acceleration sensor detects a change in acceleration when the user performs a motion such as shaking the image display unit 100.

光センサは、複数個が画像表示部100に設けられてよく、これにより画像表示部100に当てられた光の受光状態を検出する。例えば、光センサは、ユーザが懐中電灯又はレーザポインタ等で画像表示部100の少なくとも一部に当てた光の光量を測定する。これにより、光センサは、ユーザからの画像表示部100への光による操作を検出する。測定部110は、レーザレンジスキャナが測定した距離情報、加速度センサの加速度情報、及び、光センサの光量情報を入力取得部120に供給する。   A plurality of optical sensors may be provided in the image display unit 100, and the light sensor detects the light receiving state of the light applied to the image display unit 100. For example, the optical sensor measures the amount of light that the user has applied to at least a part of the image display unit 100 with a flashlight, a laser pointer, or the like. As a result, the optical sensor detects a user's operation on the image display unit 100 by light. The measurement unit 110 supplies the distance information measured by the laser range scanner, the acceleration information of the acceleration sensor, and the light amount information of the optical sensor to the input acquisition unit 120.

入力取得部120は、画像表示部100の状態を画像表示装置10への入力として取得する。例えば、入力取得部120は、検出部111が検出した画像表示部100の状態を、画像表示装置10への入力として取得する。入力取得部120は、画像表示部100に対して行ったユーザの動作を特定し、特定した動作を入力として取得する。例えば、入力取得部120は、測定部110のレーザレンジスキャナが測定した画像表示部100の現在の形状及び/又は形状変化を入力として取得する。また、例えば、入力取得部120は、測定部110の加速度センサが検出した加速度情報から、ユーザによる画像表示装置10への入力を取得する。また、例えば、入力取得部120は、測定部110の光センサが検出した光量情報に基づいて、ユーザの動作を特定し、特定した動作をユーザによる画像表示装置10への入力として取得する。一例として入力取得部120は、ユーザの動作に対応させてアプリケーションを実行するコマンドを入力として取得する。入力取得部120は、取得した入力を生成部130に供給する。   The input acquisition unit 120 acquires the state of the image display unit 100 as an input to the image display device 10. For example, the input acquisition unit 120 acquires the state of the image display unit 100 detected by the detection unit 111 as an input to the image display device 10. The input acquisition unit 120 identifies a user's action performed on the image display unit 100 and obtains the identified action as an input. For example, the input acquisition unit 120 acquires, as an input, the current shape and / or shape change of the image display unit 100 measured by the laser range scanner of the measurement unit 110. Further, for example, the input acquisition unit 120 acquires the input to the image display device 10 by the user from the acceleration information detected by the acceleration sensor of the measurement unit 110. In addition, for example, the input acquisition unit 120 specifies the user's motion based on the light amount information detected by the optical sensor of the measurement unit 110, and acquires the specified motion as an input to the image display device 10 by the user. As an example, the input acquisition unit 120 acquires, as an input, a command for executing an application in response to a user's action. The input acquisition unit 120 supplies the acquired input to the generation unit 130.

生成部130は、画像表示部100に表示する画像の画像データを生成する。例えば、生成部130は、アプリケーションを実行し、アプリケーションの実行した結果に対応する画像データを生成する。また、生成部130は、入力取得部120が取得した入力に応じて画像データを生成する。例えば、生成部130は、入力取得部120が取得した画像表示部100への物理的な操作に応じてアプリケーションへの操作を実行し、実行結果の画像データを生成してよい。生成部130は、生成した画像データを投影部150に供給する。   The generation unit 130 generates image data of an image displayed on the image display unit 100. For example, the generation unit 130 executes the application and generates image data corresponding to the execution result of the application. Further, the generation unit 130 generates image data according to the input acquired by the input acquisition unit 120. For example, the generation unit 130 may perform an operation on the application according to a physical operation on the image display unit 100 acquired by the input acquisition unit 120, and may generate image data of the execution result. The generation unit 130 supplies the generated image data to the projection unit 150.

記憶部140は、画像表示装置10の動作に用いる種々の情報を記憶する。例えば、記憶部140は、生成部130の機能を実現するプログラムを記憶する。また、記憶部140は、生成部130が表示に用いる画像データ、及び、生成部130が生成した画像データ等を記憶する。また、記憶部140は、入力取得部120が入力の取得に用いるプログラム等を記憶してもよい。   The storage unit 140 stores various information used for the operation of the image display device 10. For example, the storage unit 140 stores a program that realizes the function of the generation unit 130. The storage unit 140 also stores image data used by the generation unit 130 for display, image data generated by the generation unit 130, and the like. Further, the storage unit 140 may store a program or the like used by the input acquisition unit 120 to acquire an input.

投影部150は、画像表示部100に生成部130が生成した画像データに基づいた画像光を生成して投影する。例えば、投影部150は、プロジェクタであってよい。   The projection unit 150 generates and projects image light on the image display unit 100 based on the image data generated by the generation unit 130. For example, the projection unit 150 may be a projector.

このように本実施形態の画像表示装置10は、画像表示部100状態に基づいて画像表示部100に表示する画像を生成する。これにより、画像表示装置10は、間仕切りにインテリアとしての機能に加え、インターフェイスとしての機能をユーザに提供することができる。また、画像表示装置10は、画像表示部100と分離されてよく、この場合、画像生成装置として機能する。   As described above, the image display device 10 of the present embodiment generates an image to be displayed on the image display unit 100 based on the state of the image display unit 100. Thereby, the image display device 10 can provide the user with the function as an interface in addition to the function as an interior for the partition. Further, the image display device 10 may be separated from the image display unit 100, and in this case, it functions as an image generation device.

図2に、本実施形態の画像表示装置10の処理フローを示す。本実施形態において、画像表示装置10は、S110〜S190の処理を実行する。   FIG. 2 shows a processing flow of the image display device 10 of this embodiment. In the present embodiment, the image display device 10 executes the processes of S110 to S190.

まず、S110において、入力取得部120は、画像表示部100の状態を、画像表示装置10への入力として取得する。具体的には、入力取得部120は、測定部110が画像表示部100の状態を測定した結果を入力として取得する。   First, in S110, the input acquisition unit 120 acquires the state of the image display unit 100 as an input to the image display device 10. Specifically, the input acquisition unit 120 acquires the result of the measurement unit 110 measuring the state of the image display unit 100 as an input.

例えば、入力取得部120は、測定部110のレーザレンジスキャナが測定した画像表示部100の形状情報を入力として取得する。また、入力取得部120は、レーザレンジスキャナの測定した画像表示部100の形状情報に基づいて、画像表示部100の開閉割合を算出して取得してよい。   For example, the input acquisition unit 120 acquires, as an input, the shape information of the image display unit 100 measured by the laser range scanner of the measurement unit 110. The input acquisition unit 120 may calculate and acquire the open / close ratio of the image display unit 100 based on the shape information of the image display unit 100 measured by the laser range scanner.

一例として、入力取得部120は、カーテンを最も閉じたとき(すなわちカーテンを最も広げたとき)のカーテンの固定端から可動端までの距離をLmaxとし、現在のカーテンの固定端から可動端までの距離をLとした場合におけるL/Lmaxを開閉割合として算出する。開閉割合が1に近いほどカーテンを広げた状態であり、カーテンの寸法等に定まる所定の下限に近いほどカーテンを畳んだ状態にある。入力取得部120は、算出した画像表示部100の開閉割合を入力として取得する。As an example, the input acquisition unit 120 sets the distance from the fixed end of the curtain to the movable end when the curtain is most closed (that is, when the curtain is widest) to L max, and from the current fixed end of the curtain to the movable end. When the distance is L c , L c / L max is calculated as the opening / closing ratio. The closer the opening / closing ratio is to 1, the wider the curtain is, and the closer the opening / closing ratio is to the predetermined lower limit determined by the size of the curtain, the more the curtain is folded. The input acquisition unit 120 acquires the calculated opening / closing ratio of the image display unit 100 as an input.

また、入力取得部120は、測定部110の加速度センサが検出した加速度情報及び画像表示部100の形状情報に基づいてユーザが画像表示部100に行った動作を特定し、これをユーザの入力として取得する。例えば、入力取得部120は、加速度情報及び形状情報からユーザが画像表示部100に対して行った動作を特定し、特定した動作をユーザの入力として取得する。   Further, the input acquisition unit 120 identifies the operation performed by the user on the image display unit 100 based on the acceleration information detected by the acceleration sensor of the measurement unit 110 and the shape information of the image display unit 100, and uses this as the input of the user. get. For example, the input acquisition unit 120 identifies a motion performed by the user on the image display unit 100 from the acceleration information and the shape information, and acquires the specified motion as the user's input.

一例として、入力取得部120は、ユーザが画像表示部100を前後又は左右に揺する、表面をなでる、叩く、めくる、及び、持ち上げる等の各種の動作を行った際の加速度の変化のパターンを予め記憶しておき、記憶しておいた加速度の変化のパターンと、加速度情報とを比較する。入力取得部120は、両者が予め定められた閾値以上一致した場合に、一致したパターンの動作に対応するコマンドを取得する。   As an example, the input acquisition unit 120 pre-determines a pattern of changes in acceleration when the user performs various operations such as rocking the image display unit 100 back and forth or left and right, stroking the surface, striking, flipping, and lifting. The pattern of changes in acceleration that has been stored is compared with the stored acceleration information. The input acquisition unit 120 acquires a command corresponding to the operation of the matched pattern when the two match with each other by a predetermined threshold value or more.

また、入力取得部120は、更に形状情報又は開閉割合の変化を検出することにより、ユーザが画像表示部100を広げる、又は、畳む動作を特定する。入力取得部120は、特定した動作に対応するコマンドを取得する。例えば、入力取得部120は、画像表示部100への各動作を検出したことに応じて、起動、再起動、シャットダウン、決定、キャンセル、頁戻り、頁送り、選択対象の移動、画面の切り替え、又は、シャッフル等のコマンドを取得する。   In addition, the input acquisition unit 120 further detects a change in the shape information or the opening / closing ratio to specify a user's action of expanding or folding the image display unit 100. The input acquisition unit 120 acquires a command corresponding to the specified operation. For example, the input acquisition unit 120, in response to detecting each operation to the image display unit 100, starts, restarts, shuts down, decides, cancels, page returns, page feeds, moves a selection target, switches screens, Alternatively, a command such as shuffle is acquired.

入力取得部120は、予め定められた加速度の変化のパターンと加速度センサが測定した加速度の変化のパターンをマッチングすることで、例えば、風等の偶発的な事象によりユーザが意図しない入力がなされるのを防ぐことができる。また、これに代えて、入力取得部120は、マッチングする加速度の変化のパターンを広く設定することにより、風等による画像表示部100の動きも入力としてあえて受け入れ、これによりランダムな表示変化をエンターテイメントとしてユーザに提供することもできる。   The input acquisition unit 120 matches the predetermined change pattern of the acceleration with the change pattern of the acceleration measured by the acceleration sensor, so that the user does not make an input due to an accidental event such as wind. Can be prevented. Instead of this, the input acquisition unit 120 intentionally accepts the movement of the image display unit 100 due to wind or the like as an input by widely setting the pattern of the change in the matching acceleration, and thereby the random display change is entertained. Can also be provided to the user.

一例として、入力取得部120は、画像表示部100を完全に畳んだ状態から広げた動作を検出したことに応じて画像表示装置又はアプリケーションの起動のコマンドを入力として取得し、画像表示部100を完全に畳んだ動作を検出したことに応じて画像表示装置又はアプリケーションのシャットダウンのコマンドを取得してよい。また、入力取得部120は、画像表示部100を左右に揺する動作を検出したことに応じて頁送りのコマンドを取得し、画像表示部100を前後に揺する動作を検出したことに応じて頁戻りのコマンドを取得してよい。入力取得部120は、取得したコマンドについての情報を入力として生成部130に供給する。   As an example, the input acquisition unit 120 acquires a command for activating an image display device or an application as an input in response to detecting an operation of unfolding the image display unit 100 from a completely folded state, and the image display unit 100 is activated. A command for shutting down the image display device or the application may be obtained in response to detecting the completely folded operation. Further, the input acquisition unit 120 acquires a page feed command in response to the detection of the motion of swinging the image display unit 100 left and right, and returns the page in response to the detection of the motion of swinging the image display unit 100 back and forth. Command may be obtained. The input acquisition unit 120 supplies the information about the acquired command as an input to the generation unit 130.

次に、S130において、入力取得部120は、ユーザの画像表示部100の光の受光状態を画像表示装置10への入力として取得する。例えば、入力取得部120は、測定部110の光センサが検出した光量情報から、ユーザの光による操作を入力として取得する。   Next, in S130, the input acquisition unit 120 acquires the light reception state of light of the image display unit 100 of the user as an input to the image display device 10. For example, the input acquisition unit 120 acquires the operation by the user's light as an input from the light amount information detected by the optical sensor of the measurement unit 110.

一例として、入力取得部120は、光センサの光量情報から、ユーザが指示する画像表示部100上の位置を特定し、特定した位置を画像表示装置10への入力として取得する。例えば、入力取得部120は、画像表示部100の面上に設けられた複数の光センサの光量情報からユーザが画像表示部100に当てた光の位置を特定する。入力取得部120の具体的な位置の特定方法は後述する。入力取得部120は、特定した位置の情報をユーザの光による操作として生成部130に供給する。   As an example, the input acquisition unit 120 specifies the position on the image display unit 100 designated by the user from the light amount information of the optical sensor, and acquires the specified position as an input to the image display device 10. For example, the input acquisition unit 120 identifies the position of the light applied to the image display unit 100 by the user from the light amount information of the plurality of optical sensors provided on the surface of the image display unit 100. A specific method of specifying the position of the input acquisition unit 120 will be described later. The input acquisition unit 120 supplies the information of the specified position to the generation unit 130 as an operation by the light of the user.

次に、S150において、生成部130は、画像表示部100に表示する画像の画像データを生成する。例えば、生成部130は、記憶部140から読み出したアプリケーションを実行してコンテンツを生成し、コンテンツに対応する画像データを生成する。   Next, in S150, the generation unit 130 generates image data of an image displayed on the image display unit 100. For example, the generation unit 130 executes the application read from the storage unit 140 to generate content, and generates image data corresponding to the content.

一例として、生成部130は、写真ビューワ、ウェブブラウザ、ゲーム、描画ツール、及び/又は、ワードツール等のアプリケーションを実行し、複数のイメージ、テキスト、及び/又は、その他のオブジェクトをコンテンツとして含む、表示画面の画像データを生成してよい。   As an example, the generation unit 130 executes an application such as a photo viewer, a web browser, a game, a drawing tool, and / or a word tool, and includes a plurality of images, texts, and / or other objects as contents. Image data for the display screen may be generated.

生成部130は、入力取得部120から得た画像表示部100の開閉割合から画像表示部100の形状を推定し、画像表示部100の形状に合わせてレイアウトを変更した画像データを生成してよい。例えば、生成部130は、画像表示部100の大きさ及び形状に合致するように、画像の縦横サイズ及び/又は形状を設定した画像データを生成してよい。また、生成部130は、画像表示部100の形状に合わせて並べられたコンテンツを含む画像データを生成してよい。具体的には、生成部130は、画像表示部100の形状に合わせてコンテンツを並べ、及び/又は、コンテンツ中のテキストを改行してよい。S110において入力取得部120が開閉割合の変更を入力として取得した場合、生成部130は、開閉割合が変更された後の画像表示部100の形状に合わせて並べ替えられたコンテンツを含む画像データを生成してよい。また、別の動作モードとして、開閉の動作と連動して、生成部130は、可動端の端を画像の端と位置合わせして、擬似的に画像が画像表示部100に貼付いているかのように動かしながら生成することで、画像の一部を隠したり、表示したりしてよい。   The generation unit 130 may estimate the shape of the image display unit 100 from the open / close ratio of the image display unit 100 obtained from the input acquisition unit 120, and may generate image data whose layout is changed according to the shape of the image display unit 100. .. For example, the generation unit 130 may generate image data in which the vertical and horizontal sizes and / or shapes of images are set so as to match the size and shape of the image display unit 100. Further, the generation unit 130 may generate image data including contents arranged according to the shape of the image display unit 100. Specifically, the generation unit 130 may arrange the contents according to the shape of the image display unit 100 and / or break the text in the contents. When the input acquisition unit 120 acquires the change of the open / close ratio as an input in S110, the generation unit 130 outputs the image data including the contents rearranged according to the shape of the image display unit 100 after the change of the open / close ratio. May be generated. Further, as another operation mode, in conjunction with the opening / closing operation, the generation unit 130 aligns the end of the movable end with the end of the image, and it is as if the image is artificially attached to the image display unit 100. Part of the image may be hidden or displayed by generating while moving to.

生成部130は、入力取得部120から得た画像表示部100への動作に応じて画像データを生成してよい。例えば、生成部130は、S110で入力取得部120が得た動作に対応するコマンド(頁送り等)をアプリケーションに対して実行する。   The generation unit 130 may generate image data according to the operation to the image display unit 100 obtained from the input acquisition unit 120. For example, the generation unit 130 executes a command (paging, etc.) corresponding to the operation acquired by the input acquisition unit 120 in S110 to the application.

また、生成部130は、入力取得部120から得た画像表示部100への光による操作に応じて画像データを生成してよい。例えば、生成部130は、S130で入力取得部120が特定した位置に関するコマンド(例えば、特定された位置の写真等を選択する等)をアプリケーションに対して実行する。生成部130は、コマンドの実行後のアプリケーションの表示画面の画像データを生成する。また、生成部130は、光によって特定された位置に花火等の動画を表示する画像データを生成したり、ゲーム(例えば、画像表示部100に幽霊等の動画を表示し、ユーザが光で画像表示部100上の幽霊を照射すると幽霊が光照射領域から逃げていく等)の画像データを生成する。   Further, the generation unit 130 may generate image data according to an operation of the image display unit 100 obtained from the input acquisition unit 120 by light. For example, the generation unit 130 executes a command related to the position specified by the input acquisition unit 120 in S130 (for example, selecting a photo or the like at the specified position) for the application. The generation unit 130 generates image data of the display screen of the application after executing the command. In addition, the generation unit 130 generates image data for displaying a moving image of fireworks or the like at a position specified by the light, or a game (for example, displaying a moving image of a ghost or the like on the image display unit 100, and the user uses an image by light). When the ghost on the display unit 100 is irradiated, image data of the ghost escaping from the light irradiation area, etc. is generated.

次に、S170において、生成部130は生成した画像データを補正する。投影部150が平らでないカーテン等の画像表示部100に画像光を投影する場合、ユーザから観察する画像には歪みが生じる。そこで、生成部130は、ユーザが観察する画像の歪みを低減するための画像データを補正する。   Next, in S170, the generation unit 130 corrects the generated image data. When the projection unit 150 projects image light onto the image display unit 100 such as a curtain that is not flat, the image observed by the user is distorted. Therefore, the generation unit 130 corrects the image data for reducing the distortion of the image observed by the user.

例えば、生成部130は、撮像装置が画像表示部100に投影した画像を撮像した撮像画像を取得し、撮像画像における歪みを解消する画像データにおける補正量を算出し、算出した補正量に基づいて歪みを低減又は解消した画像データを生成する。一例として、生成部130は、特許文献1に記載の方法により補正した画像データを生成してよい。生成部130は、補正した画像データを投影部150に供給する。   For example, the generation unit 130 acquires a captured image obtained by capturing an image projected by the imaging device on the image display unit 100, calculates a correction amount in image data that eliminates distortion in the captured image, and based on the calculated correction amount. Image data with reduced or eliminated distortion is generated. As an example, the generation unit 130 may generate the image data corrected by the method described in Patent Document 1. The generation unit 130 supplies the corrected image data to the projection unit 150.

生成部130は、ユーザの観察位置に応じて最適な補正を実行してよい。例えば、画像表示装置10に設けられた撮像装置の画像から人の位置を検出し、生成部130は、検出した人の位置に対して適切な補正を実行してよい。   The generation unit 130 may perform the optimum correction according to the observation position of the user. For example, the position of the person may be detected from the image of the imaging device provided in the image display device 10, and the generation unit 130 may perform appropriate correction on the detected position of the person.

次に、S190において、投影部150は、生成部130から受け取った画像データを画像表示部100に投影する。   Next, in S190, the projection unit 150 projects the image data received from the generation unit 130 onto the image display unit 100.

このように本実施形態の画像表示装置10は、アプリケーションを実行してカーテン等の間仕切りに画像を表示し、ユーザがカーテンを揺する等の動作に基づいてアプリケーションに対する操作を実行し、表示する画像を変更する。   As described above, the image display device 10 according to the present embodiment executes an application to display an image on a partition such as a curtain, performs an operation on the application based on an operation such as a user shaking the curtain, and displays an image to be displayed. change.

図3は、本実施形態の画像表示装置10の広げた状態の画像表示部100の一例を示す。図示するように、本例では画像表示部100は、折り畳み可能なカーテンである。投影部150が画像光を投影することにより、画像表示部100には画像102が表示される。ここでは、生成部130が写真ビューワアプリケーションを実行することにより、複数の写真をコンテンツとして含む画像102が表示される。   FIG. 3 shows an example of the image display unit 100 in the unfolded state of the image display device 10 of this embodiment. As shown, in this example, the image display unit 100 is a foldable curtain. The image 102 is displayed on the image display unit 100 by the projection unit 150 projecting the image light. Here, the generation unit 130 executes the photo viewer application to display the image 102 including a plurality of photos as contents.

例えば、生成部130は、画像表示部100を揺する動作を入力取得部120が取得したことに応じて、表示する写真の切り替え(例えば、頁送り)、キャンセル(例えば、直前のコマンドのキャンセル)、又は、シャッフル(例えば、写真のランダムな入れ替え)等のコマンドを写真ビューワに対して実行してよい。また、例えば、生成部130は、画像表示部100の一部(例えば、1又は複数の写真)を触る又は撫でる動作を入力取得部120が取得したことに応じて、画像表示部100の触られた又は撫でられた部分に対応する画像中のコンテンツ(例えば、触られた又は撫でられた写真)を選択するコマンドを写真ビューワに対して実行してよい。   For example, the generation unit 130 switches the photograph to be displayed (for example, page turning), cancels (for example, cancels the last command) in response to the input acquisition unit 120 acquiring the operation of shaking the image display unit 100, Alternatively, commands such as shuffle (eg, random shuffling of photos) may be performed on the photo viewer. In addition, for example, the generation unit 130 may touch the image display unit 100 in response to the input acquisition unit 120 acquiring an operation of touching or stroking a part (for example, one or more photographs) of the image display unit 100. A command may be issued to the photo viewer to select content in the image (eg, a touched or stroked photo) that corresponds to the touched or stroked portion.

図4は、本実施形態の画像表示装置10の一部を畳んだ状態の画像表示部100の一例を示す。投影部150は、画像表示部100が広げた状態のときに比べて、幅の狭い画像102を画像表示部100に表示する。ここでは、入力取得部120が画像表示部100の開閉割合を取得し、生成部130が開閉割合に応じた形状の画像データを生成し、投影部150に画像光を投影させている。   FIG. 4 shows an example of the image display unit 100 in a state where a part of the image display device 10 of the present embodiment is folded. The projection unit 150 displays the image 102 having a narrower width on the image display unit 100 than when the image display unit 100 is in the expanded state. Here, the input acquisition unit 120 acquires the open / close ratio of the image display unit 100, the generation unit 130 generates image data having a shape corresponding to the open / close ratio, and causes the projection unit 150 to project image light.

更に、生成部130は、画像データ中のコンテンツを並べ替える。すなわち、図4の例では、生成部130は、画像を表示するのに有効な領域(画像表示可能な領域)が狭くなったことに合わせてコンテンツの写真の数を図3の画像データに対して低減した画像データを生成している。生成部130は、画像表示部100が閉じられているほど(すなわち、画像表示部100の表示可能な領域が広いほど)、より大きな画像を生成し、及び/又は、画像中のコンテンツの数又はサイズもより大きくしてよい。   Further, the generation unit 130 rearranges the contents in the image data. That is, in the example of FIG. 4, the generation unit 130 sets the number of photographs of the content to the image data of FIG. 3 in accordance with the narrowing of the effective area for displaying the image (image displayable area). To reduce the image data. The generation unit 130 generates a larger image as the image display unit 100 is closed (that is, the wider the displayable area of the image display unit 100 is), and / or the number of contents in the image or The size may be larger.

図5は、ユーザ1による画像表示部100への光による操作の一例を示す。本例では、ユーザ1は、懐中電灯5で画像表示部100に投影された画像102を照らすことにより、画像表示装置10に操作を入力する。ここでは、図示するように、ユーザ1は画像102の左上の画像を照射する。   FIG. 5 shows an example of an operation performed by the user 1 on the image display unit 100 using light. In this example, the user 1 inputs an operation to the image display device 10 by illuminating the image 102 projected on the image display unit 100 with the flashlight 5. Here, as illustrated, the user 1 illuminates the upper left image of the image 102.

懐中電灯5等の照明は、一般に中心部分に最も明るい領域を有し、中心部分から離れるごとに明るさを減少しつつ、同心円状に同じ明るさの領域を形成する。図5では、領域Aが懐中電灯5の光軸に重なり光軸を中心とする最も明るい領域で、領域Bが領域Aの外周部に位置する次に明るい領域で、領域Cは領域Bの外周部でかろうじて懐中電灯からの光の一部が照射されるが最も暗い領域を示すものとする。図5では便宜上、各領域が離散的な明るさを有するものとしているが、照明される領域は連続的な明るさを有してもよい。   The illumination of the flashlight 5 or the like generally has the brightest area in the central portion, and reduces the brightness as the distance from the central portion increases, and concentrically forms the areas of the same brightness. In FIG. 5, the area A is the brightest area centered on the optical axis that overlaps the optical axis of the flashlight 5, the area B is the next brightest area located at the outer periphery of the area A, and the area C is the outer circumference of the area B. Part of the light is barely emitted from the flashlight, but it is assumed to indicate the darkest area. In FIG. 5, each area has discrete brightness for the sake of convenience, but the illuminated area may have continuous brightness.

図5では、矩形状の画像表示部100の少なくとも四隅領域のそれぞれに光センサ112、光センサ114、光センサ116、及び、光センサ118が取り付け等により設けられている。光センサ112は領域Bに含まれ、光センサ114は領域Cに含まれ、光センサ116及び光センサ118にはいずれの領域も含まれない。   In FIG. 5, the optical sensor 112, the optical sensor 114, the optical sensor 116, and the optical sensor 118 are provided in each of at least four corner regions of the rectangular image display unit 100 by attachment or the like. The optical sensor 112 is included in the area B, the optical sensor 114 is included in the area C, and the optical sensor 116 and the optical sensor 118 do not include any area.

入力取得部120は、四隅領域の光センサ112等の光量情報から、ユーザが指示する画像表示部100上の位置を特定し、特定した位置を入力として取得する。例えば、入力取得部120は、光センサ112等の光量情報からユーザが懐中電灯5の照明の中心で指し示す画像表示部100上の位置(例えば、領域Aの中心)を特定する。   The input acquisition unit 120 specifies the position on the image display unit 100 designated by the user from the light amount information of the optical sensors 112 in the four corner areas, and acquires the specified position as an input. For example, the input acquisition unit 120 identifies the position (for example, the center of the area A) on the image display unit 100 that the user points at the center of the illumination of the flashlight 5 from the light amount information of the optical sensor 112 or the like.

具体的には、画像表示部100がz=0の平面上に配置される3次元空間を想定し、各光センサi(i∈N:本例ではN=4)の位置を(x,y,0)とし、懐中電灯5等の光源の位置を(a,b,c)とする。ここで、光源から画像表示部100には垂直に光が入射するものとする。ユーザが光源で指し示す画像表示部100上の位置は、(a,b,0)となる。光源から光センサiまでの距離dは、
(xi-a)2+(yi-b)2+c2 = di 2 …数式1
により表される。
Specifically, assuming that the image display unit 100 is a three-dimensional space arranged on a plane of z = 0, the position of each optical sensor i (iεN: N = 4 in this example) is set to (x i , y i , 0) and the position of the light source such as the flashlight 5 is (a, b, c). Here, it is assumed that light is vertically incident on the image display unit 100 from the light source. The position on the image display unit 100 pointed by the user with the light source is (a, b, 0). The distance d i from the light source to the optical sensor i is
(x i -a) 2 + (y i -b) 2 + c 2 = d i 2 … Equation 1
Represented by

光源とセンサiとを結ぶ直線と画像表示部100の平面とのなす角度をθとすると、光センサiにおいて検出される光量Iは、
Ii = k・sinθi/di 2 …数式2
により表される。
Assuming that the angle formed by the straight line connecting the light source and the sensor i and the plane of the image display unit 100 is θ i , the light amount I i detected by the optical sensor i is
I i = k · sin θ i / d i 2 … Equation 2
Represented by

sinθi =c/{ (xi-a)2+(yi-b)2+c2}1/2 …数式3
となるので、数式2及び数式3から、
(a-xi)2+(b-yi)2+c2-k/Ii・c/{(a-xi)2+(b-yi)2+c2}1/2 = 0 …数式4
が導出される。
sin θ i = c / {(x i -a) 2 + (y i -b) 2 + c 2 } 1/2 … Equation 3
Therefore, from Equation 2 and Equation 3,
(ax i ) 2 + (by i ) 2 + c 2 -k / I i c / {(ax i ) 2 + (by i ) 2 + c 2 } 1/2 = 0… Equation 4
Is derived.

N個の全センサについて数式4の総和を取ると、
Σ[(a-xi)2+(b-yi)2+c2-k/Ii・c/{(a-xi)2+(b-yi)2+c2}1/2] = 0 …数式5
となる。
Taking the summation of Equation 4 for all N sensors,
Σ [(ax i ) 2 + (by i ) 2 + c 2 -k / I i・ c / {(ax i ) 2 + (by i ) 2 + c 2 } 1/2 ] = 0… Equation 5
Becomes

入力取得部120は、画像表示部100の開閉状態から光センサの位置(x,y,0)を推定しておき、光センサの位置(x,y,0)を用いて、
f(a,b,c) = Σ[(a-xi)2+(b-yi)2+c2-k/Ii・c/{(a-xi)2+(b-yi)2+c2}1/2] …数式6
となる関数f(a,b,c)を定義し、f(a,b,c)が最小となるように光源の位置(a,b,c)を算出する。これにより、入力取得部120は、ユーザが指定した画像表示部100の平面上の位置(a,b)を特定することができる。入力取得部120は、kを光源の位置ととも推定してよく、これに代えて、予めキャリブレーションによりkの値を得ておいてもよい。
Input acquisition unit 120, the position of the light sensor from the opening and closing state of the image display unit 100 (x i, y i, 0) in advance to estimate the using the position of the optical sensor (x i, y i, 0 ),
f (a, b, c) = Σ [(ax i ) 2 + (by i ) 2 + c 2 -k / I i・ c / {(ax i ) 2 + (by i ) 2 + c 2 } 1 / 2 ]… Equation 6
The function f (a, b, c) is defined as follows, and the position (a, b, c) of the light source is calculated so that f (a, b, c) 2 is minimized. Accordingly, the input acquisition unit 120 can specify the position (a, b) on the plane of the image display unit 100 designated by the user. The input acquisition unit 120 may estimate k as the position of the light source, and instead of this, the value of k may be obtained in advance by calibration.

ここで、入力取得部120は、光源からの光が画像表示部100の平面の垂直方向に限らず、指向性を持って入射すると仮定して、光源の位置を算出してもよい。この場合、光源の光軸と、光源及びセンサiを結ぶ直線との角度をφとし、g(φ)を光源の光軸からの角度に対する光量の変化を表す関数とすると、光センサiにおいて検出される光量Iは、
Ii = k・g(φi)cos(θi)/di 2 …数式7
により表される。
Here, the input acquisition unit 120 may calculate the position of the light source assuming that the light from the light source is incident not only in the direction perpendicular to the plane of the image display unit 100 but also with directivity. In this case, if the angle between the optical axis of the light source and the straight line connecting the light source and the sensor i is φ i, and g (φ i ) is a function that represents the change in the amount of light with respect to the angle from the optical axis of the light source, then the optical sensor i The amount of light I i detected at
I i = k · g (φ i ) cos (θ i ) / d i 2 ... Equation 7
Represented by

ここで、光源の光軸と画像表示部100の平面との交点の座標を(l,m,0)とすると、
cos(φi) ={(xi-a)(l-a)+(yi-b)(b-m)+c2}/[{(a-xi)2+(b-yi)2+c2}1/2{(a-l)2+(b-m)2+c2}1/2] …数式8
が成り立つ。
Here, if the coordinates of the intersection of the optical axis of the light source and the plane of the image display unit 100 are (l, m, 0),
cos (φ i ) = {(x i -a) (la) + (y i -b) (bm) + c 2 } / [{(ax i ) 2 + (by i ) 2 + c 2 } 1 / 2 {(al) 2 + (bm) 2 + c 2 } 1/2 ]… Equation 8
Holds.

ここで、便宜上g(φ)をcos(φ)を用いて、
g(φi) = pφi+q …数式9
であるとすると数式4に対応する式は、
(a-xi)2+(b-yi)2+c2-k/Ii・[pcos-1{(a-xi)(a-l)+(b-yi)(b-m)+c2}/[{(xi-a)2+(yi-b)2+c2}1/2{(l-a)2+(m-b)2+c2}1/2]+q]・c/{(a-xi)2+(b-yi)2+c2}1/2 = 0 …数式10
となる。
Here, for convenience, g (φ i ) is replaced with cos (φ i ),
g (φ i ) = pφ i + q… Equation 9
And the equation corresponding to Equation 4 is
(ax i ) 2 + (by i ) 2 + c 2 -k / I i・ [pcos -1 {(ax i ) (al) + (by i ) (bm) + c 2 } / [{(x i -a) 2 + (y i -b) 2 + c 2 } 1/2 {(la) 2 + (mb) 2 + c 2 } 1/2 ] + q] ・ c / {(ax i ) 2 + (by i ) 2 + c 2 } 1/2 = 0… Equation 10
Becomes

入力取得部120は、数式5〜6と同様に、全センサについての数式10から関数f(a,b,c,l,m)を定義し、f(a,b,c,l,m)を最適化することにより、光源が示す位置(l,m,0)を算出する。   The input acquisition unit 120 defines the function f (a, b, c, l, m) from the mathematical expression 10 for all the sensors, as in the mathematical expressions 5 to 6, and f (a, b, c, l, m) The position (l, m, 0) indicated by the light source is calculated by optimizing.

入力取得部120は、このように算出した光源が示す位置を、光による操作として生成部130に供給する。生成部130は、光源が示す位置と画像データとを対比して、画像中のどの部分を光源が示しているか特定する。生成部130は、光源が示している画像中のコンテンツに関する動作を実行してよい。   The input acquisition unit 120 supplies the position indicated by the light source calculated in this way to the generation unit 130 as an operation using light. The generation unit 130 compares the position indicated by the light source with the image data to identify which part of the image the light source indicates. The generation unit 130 may perform an operation regarding the content in the image indicated by the light source.

例えば、図5に示すように、光源が画像中の複数の写真のうち左上の写真を示すと判断した場合、生成部130は、左上の写真を拡大表示した画像を生成して投影部150に投影させてよい。このように、懐中電灯5等の光源は、中心の明るく狭い領域の外側に非常に暗いがわずかに光を出射する領域を有する。画像表示装置10は、画像表示部100の外周部分の光センサでこのようなわずかな光を検出することで、入力取得部120は光源が示す画像表示部100上の位置を特定できる。   For example, as illustrated in FIG. 5, when it is determined that the light source indicates the upper left photograph of the plurality of photographs in the image, the generation unit 130 generates an image in which the upper left photograph is enlarged and displayed on the projection unit 150. You can project it. As described above, the light source such as the flashlight 5 has a very dark but slightly light emitting area outside the bright and narrow central area. The image display device 10 detects such a slight amount of light with the optical sensor on the outer peripheral portion of the image display unit 100, so that the input acquisition unit 120 can specify the position of the light source on the image display unit 100.

ここで、入力取得部120は、懐中電灯5等の光源が示す光を、画像102の光と区別して取得してよい。例えば、入力取得部120は、偏光を利用して光源が示す光の光量のみを検出する。   Here, the input acquisition unit 120 may acquire the light indicated by the light source such as the flashlight 5 separately from the light of the image 102. For example, the input acquisition unit 120 uses polarization to detect only the amount of light of the light source.

一例として、投影部150は、第1の偏光(例えば、第1の直線偏光又は第1の円偏光)により画像光を投影し、光センサ112等は偏光フィルタを有して第1の偏光とは偏光方向が異なる第2の偏光(例えば、第1の直線偏光と垂直な振動方向を有する第2の直線偏光、又は、第1の円偏光と逆の回転方向を有する第2の円偏光)を検出し、入力取得部120は光センサが検出した光量情報をユーザからの入力として取得する。これにより、入力取得部120は、投影部150が投影する画像102の光をカットして、ユーザが示す光源の光量情報のみを取得できる。   As an example, the projection unit 150 projects the image light by the first polarized light (for example, the first linearly polarized light or the first circularly polarized light), and the optical sensor 112 or the like has a polarization filter to generate the first polarized light. Is a second polarized light having a different polarization direction (for example, a second linearly polarized light having a vibration direction perpendicular to the first linearly polarized light, or a second circularly polarized light having a rotation direction opposite to the first circularly polarized light). And the input acquisition unit 120 acquires the light amount information detected by the optical sensor as an input from the user. Accordingly, the input acquisition unit 120 can cut the light of the image 102 projected by the projection unit 150 and acquire only the light amount information of the light source indicated by the user.

また、入力取得部120は、時分割方式を採用して光源が示す光の光量のみを検出してもよい。例えば、投影部150は時分割で画像光を投影し、入力取得部120は投影部150が画像光を投影していないタイミングにおいて光センサが検出した光量情報をユーザからの入力として取得する。これにより、入力取得部120は、投影部150による画像光の影響を受けることなく、ユーザが示す光源の光量情報のみを取得できる。   Further, the input acquisition unit 120 may adopt a time division method and detect only the light amount of the light indicated by the light source. For example, the projection unit 150 projects the image light in a time division manner, and the input acquisition unit 120 acquires the light amount information detected by the optical sensor at the timing when the projection unit 150 does not project the image light as an input from the user. Accordingly, the input acquisition unit 120 can acquire only the light amount information of the light source indicated by the user without being affected by the image light from the projection unit 150.

図5では、画像表示部100に4個の光センサが設けられた例を示したが、画像表示部100は3個以下又は5個以上の光センサを有してよい。例えば、画像表示部100の外周上、又は、面全体に(例えば、マトリクス状に)複数を光センサを設けてよい。この場合、入力取得部120は、多数の光センサから得られた光量情報から、画像表示部100上の光量分布を生成して、ユーザが画像表示部100に当てた光の位置を特定してよい。   Although FIG. 5 shows an example in which the image display unit 100 is provided with four optical sensors, the image display unit 100 may have three or less or five or more optical sensors. For example, a plurality of photosensors may be provided on the outer periphery of the image display unit 100 or on the entire surface (for example, in a matrix). In this case, the input acquisition unit 120 generates a light amount distribution on the image display unit 100 from the light amount information obtained from a large number of optical sensors, and specifies the position of the light applied to the image display unit 100 by the user. Good.

また、画像表示部100には、マトリクス状に光ファイバが敷設されてよい。光ファイバは、画像表示部100上で受光した光を端部に導光する。入力取得部120は、各列及び各行の光ファイバの端部から検出される光量に基づいて、光源が示す画像表示部100上の位置を特定する。   Further, the image display unit 100 may be provided with optical fibers laid in a matrix. The optical fiber guides the light received on the image display unit 100 to the end portion. The input acquisition unit 120 specifies the position of the light source on the image display unit 100 based on the amount of light detected from the ends of the optical fibers in each column and each row.

図6は、画像表示部100の実施形態の一例を示す。本例において、画像表示部100は、複数の同種/異種の仕切り部材(例えば、カーテン)を有する。例えば、画像表示部100は、非光透過性の第1カーテン108(例えば、ドレープカーテン)、及び、光透過性の第2カーテン106(例えば、半透過のレースカーテン)を有し、第1カーテン108及び第2カーテン106のそれぞれからユーザの入力を取得し、生成部130は、第1カーテン108及び第2カーテン106のそれぞれに表示する画像データを生成し、第1カーテン108及び第2カーテン106にそれぞれに投影部150から画像データに対応する画像光を投影して画像を表示する。   FIG. 6 shows an example of an embodiment of the image display unit 100. In this example, the image display unit 100 has a plurality of partition members (for example, curtains) of the same type / different types. For example, the image display unit 100 includes a non-light-transmitting first curtain 108 (for example, a drape curtain) and a light-transmitting second curtain 106 (for example, a semi-transparent lace curtain), and the first curtain. The user input is acquired from each of the first curtain 108 and the second curtain 106, and the generation unit 130 generates image data to be displayed on each of the first curtain 108 and the second curtain 106, and the first curtain 108 and the second curtain 106. The image light corresponding to the image data is projected from the projection unit 150 on each of them to display the image.

測定部110は第2カーテン106及び第1カーテン108のそれぞれの状態を測定し、入力取得部120は第2カーテン106及び第1カーテン108のそれぞれから入力を取得する。また、測定部110が測定した各カーテンの開閉状態に応じて、生成部130は各カーテンに表示する画像を生成する。   The measurement unit 110 measures the respective states of the second curtain 106 and the first curtain 108, and the input acquisition unit 120 acquires inputs from the second curtain 106 and the first curtain 108, respectively. Further, the generation unit 130 generates an image to be displayed on each curtain according to the open / closed state of each curtain measured by the measurement unit 110.

図6の状態において、第2カーテン106は広げられている一方、第1カーテン108は畳まれている。このため、生成部130は第2カーテン106に対する画像102のみを生成する。生成部130は、両面開きの2枚の第2カーテン106のそれぞれに対して画像102を生成してよい。   In the state of FIG. 6, the second curtain 106 is unfolded while the first curtain 108 is folded. Therefore, the generation unit 130 generates only the image 102 for the second curtain 106. The generation unit 130 may generate the image 102 for each of the two second curtains 106 that are open on both sides.

生成部130は、画像表示装置10の周辺環境および/または周囲の物品に関するコンテンツ54を含む画像102を生成してよい。例えば、生成部130は、半透過の画像表示部100を透過して観察される景色に関するコンテンツ54を生成してよい。一例として、生成部130は、第2カーテン106に表示する画像データの少なくとも一部として、ユーザが第2カーテン106を介して観察する対象の情報(一例として「○○山 標高1000M」)をコンテンツ54として生成し、画像102に含めてよい。また、生成部130は、画像表示装置10が設置される環境の説明(一例として「天気:晴れ 気温:19℃」)をコンテンツ52として生成し、画像102に含めてよい。   The generation unit 130 may generate the image 102 including the content 54 related to the surrounding environment of the image display device 10 and / or the surrounding articles. For example, the generation unit 130 may generate the content 54 related to the scenery that is observed through the semi-transparent image display unit 100. As an example, the generation unit 130 may include, as at least a part of the image data displayed on the second curtain 106, information of a target to be observed by the user through the second curtain 106 (as an example, “XX mountain altitude 1000 M”). It may be generated as 54 and included in the image 102. Further, the generation unit 130 may generate a description (for example, “weather: sunny temperature: 19 ° C.”) of the environment in which the image display device 10 is installed as the content 52 and include it in the image 102.

画像表示装置10は、GPS、方位センサ、及び/又は、温度計等から画像102に含まれるコンテンツ52及びコンテンツ54の生成に要する情報を取得してよい。例えば、生成部130は、画像表示装置10に内蔵又は接続されたGPS及び方位センサからのデータに基づき画像表示部100を透過して観察される対象を推定し、当該対象の情報(住所、名称、及び、特徴等)をコンテンツとして含む画像102を生成する。また、例えば、生成部130は、画像表示装置10に接続されたデジタル温度計からの得た室内/室外の外気及び/又は物品の温度及び/又は湿度の情報を取得し、これをコンテンツとして含む画像102を生成してよい。   The image display device 10 may acquire the information required to generate the content 52 and the content 54 included in the image 102 from a GPS, a direction sensor, and / or a thermometer. For example, the generation unit 130 estimates an object to be observed through the image display unit 100 based on data from a GPS and a direction sensor built in or connected to the image display device 10, and the information (address, name) of the target is estimated. , And the like) are generated as contents. In addition, for example, the generation unit 130 acquires information on the temperature and / or humidity of the outside air and / or the outside air of the room / outdoor obtained from the digital thermometer connected to the image display device 10, and includes this as content. The image 102 may be generated.

例えば、画像表示装置10は、近接センサ、湿度センサ、重量センサ及び通信機能を有するインテリジェント物干し竿と通信し、物干し竿近傍の湿度及び洗濯物の重量変化等の情報を取得し、洗濯物の乾き具合を算出して乾き具合に関する情報(数字又はアイコン等)を表示してよい。また、別の例として画像表示装置10は、近接センサ、湿度センサ、重量センサ及び通信機能を有するインテリジェント植木鉢と通信し、植木鉢の土の湿度及び内容物の重量変化等の情報を取得し、植木鉢の乾き具合を算出して水やりの必要性に関する情報(乾燥度を示す数字又はアイコン等)を表示してよい。これに代えて、画像表示装置10は、ネットワークを介して外部のサーバ等から生成するコンテンツ52等の生成に要する情報を取得してよい。   For example, the image display device 10 communicates with a proximity sensor, a humidity sensor, a weight sensor, and an intelligent clothes-drying rod having a communication function, acquires information such as humidity near the clothes-drying rod and the weight change of the laundry, and dries the laundry. The condition may be calculated and information (numbers, icons, etc.) relating to the dry condition may be displayed. As another example, the image display device 10 communicates with a proximity sensor, a humidity sensor, a weight sensor, and an intelligent flower pot having a communication function to acquire information such as the humidity of soil in the flower pot and the weight change of the contents, and the like. The degree of dryness may be calculated and information regarding the necessity of watering (number or icon indicating the degree of dryness) may be displayed. Instead of this, the image display device 10 may acquire information required to generate the content 52 and the like generated from an external server or the like via a network.

図7は、図6の画像表示装置10で第1カーテン108を一部広げた状態を示す。入力取得部120は、第1カーテン108の開閉割合を算出することでユーザが図示するように第1カーテン108の一部を広げたことを検出する。これに応じて、生成部130は、第1カーテン108に表示するための画像104に対応する画像データを生成する。   FIG. 7 shows a state in which the first curtain 108 is partially expanded in the image display device 10 of FIG. The input acquisition unit 120 detects that the user has expanded a part of the first curtain 108 as illustrated by calculating the opening / closing ratio of the first curtain 108. In response to this, the generation unit 130 generates image data corresponding to the image 104 to be displayed on the first curtain 108.

生成部130は、各種のコンテンツを含む画像104を生成してよい。例えば、生成部130は、外部のサーバ又は携帯端末等からユーザのスケジュールに関する情報を取得し、当該情報を含むコンテンツ(「Schedule 10 Meeting,12 Lunch,15 Tea,17 Dinner」)を生成してよい。   The generation unit 130 may generate the image 104 including various contents. For example, the generation unit 130 may acquire information regarding a user's schedule from an external server, a mobile terminal, or the like, and generate content (“Schedule 10 Meeting, 12 Lunch, 15 Tea, 17 Dinner”) including the information. ..

また、入力取得部120は、画像表示部100の複数の仕切り部材の前後関係及び開閉関係から、それぞれの仕切り部材の画像表示可能な領域を取得する。例えば、入力取得部120は、第1カーテン108の一部が閉められたことにより、第1カーテン108の後方にある第2カーテン106の画像表示可能な領域が狭まったことを検出する。一例として、入力取得部120は、第2カーテン106の開閉割合から第1カーテン108の開閉割合を減じることで、第2カーテン106の画像表示可能な領域を算出してよい。   Further, the input acquisition unit 120 acquires the image displayable area of each partition member from the front-rear relationship and the opening / closing relationship of the plurality of partition members of the image display unit 100. For example, the input acquisition unit 120 detects that the image displayable area of the second curtain 106 behind the first curtain 108 is narrowed due to the part of the first curtain 108 being closed. As an example, the input acquisition unit 120 may calculate the image displayable area of the second curtain 106 by subtracting the opening / closing ratio of the first curtain 108 from the opening / closing ratio of the second curtain 106.

生成部130は、仕切り部材の画像表示可能な領域に対応する大きさの画像の画像データを生成する。例えば、生成部130は、第2カーテン106の広げられた領域のうち第1カーテン108に隠されていない領域の形状に対応する画像102の画像データを生成して、投影部150により第2カーテン106の画像表示可能な領域に投影させる。   The generation unit 130 generates image data of an image having a size corresponding to the image displayable area of the partition member. For example, the generation unit 130 generates image data of the image 102 corresponding to the shape of the area that is not hidden by the first curtain 108 in the expanded area of the second curtain 106, and causes the projection unit 150 to generate the second curtain. The image is projected on the image displayable region 106.

ここで、画像102の横幅は、図6の状態よりも狭くなっているので、生成部130は、画像102の横幅に合致するサイズのコンテンツを含む画像データを生成する。例えば、生成部130は、コンテンツ54に含まれるテキストの改行位置を図6から変更した画像データを生成する。   Here, since the horizontal width of the image 102 is narrower than that in the state of FIG. 6, the generating unit 130 generates image data including content having a size matching the horizontal width of the image 102. For example, the generation unit 130 generates image data in which the line feed position of the text included in the content 54 is changed from that in FIG.

図8は、本実施形態の変形例に係る画像表示装置10を示す。本変形例において、画像表示部100はユーザと外側領域とを仕切り、生成部130は画像表示部100の両面のそれぞれに表示する画像データを生成する。例えば、画像表示装置10は、病室において患者を区分するパーティションとして用いられてよい。投影部150は、画像表示部100の患者側の面に患者向けの情報(例えば、医療情報、設備情報、エンターテイメント情報、及び/又は、治療スケジュール等)を表示する。   FIG. 8 shows an image display device 10 according to a modified example of this embodiment. In the present modification, the image display unit 100 separates the user from the outer area, and the generation unit 130 generates image data to be displayed on both sides of the image display unit 100. For example, the image display device 10 may be used as a partition that divides a patient in a hospital room. The projection unit 150 displays information (for example, medical information, facility information, entertainment information, and / or treatment schedule) for the patient on the patient-side surface of the image display unit 100.

図9は、画像表示部100を広げた状態における本変形例の画像表示装置10を示す。本件変形例において、画像表示部100は、両面にそれぞれ異なる画像を表示してよい。画像表示装置10は、画像表示部100の外側の面に医療関係者向けの情報を表示する。例えば、生成部130は、画像表示部100の外側に表示する画像データとしてユーザの状態の情報を含む画像データを生成する。   FIG. 9 shows the image display device 10 of this modification in a state where the image display unit 100 is expanded. In the present modification, the image display unit 100 may display different images on both sides. The image display device 10 displays information for medical personnel on the outer surface of the image display unit 100. For example, the generation unit 130 generates image data including information on a user's state as image data to be displayed outside the image display unit 100.

一例として、生成部130は、画像表示部100の外側に表示する画像データとして、ユーザである患者の意思、患者の個人情報、患者の活動状態、患者のバイタル情報、及び/又は、患者の治療スケジュール等を含む画像データを生成してよい。画像表示装置10は、画像表示部100の外側にも別の投影部を有し、別の投影部により画像表示部100の外側の面に画像を表示してよい。   As an example, the generation unit 130 uses, as image data to be displayed outside the image display unit 100, the intention of the user who is the user, the personal information of the patient, the activity state of the patient, the vital information of the patient, and / or the treatment of the patient. Image data including a schedule and the like may be generated. The image display device 10 may have another projection unit outside the image display unit 100, and the image may be displayed on the surface outside the image display unit 100 by the other projection unit.

このように、本変形例の画像表示装置10は、画像表示部100の両面を利用することで、表示する情報の種類を切り替えることができる。すなわち、画像表示装置10は、画像表示部100が畳まれているときはパブリックな情報を表示し、画像表示部100が完全に広げられているときはプライベートな情報を表示することができる。また、画像表示装置10によると、医療者は直接患者とコンタクトを取る必要がないので、スムーズな看護・治療を提供することができる。   As described above, the image display device 10 of the present modification can switch the type of information to be displayed by using both sides of the image display unit 100. That is, the image display device 10 can display public information when the image display unit 100 is folded, and can display private information when the image display unit 100 is completely expanded. Further, according to the image display device 10, since the medical person does not need to directly contact the patient, it is possible to provide smooth nursing / treatment.

図10は、本実施形態の別の変形例に係る画像表示装置10を示す。本変形例では、投影部150が画像表示部100に画像光を投影する代わりに、画像表示部100が、生成部130が生成した画像データに基づいた画像光を生成して表示する表示部160を有する。例えば、画像表示部100は、フィルム等に液晶ディスプレイ又は有機ELディスプレイ等の形成されたフレキシブル表示装置であってよい。この場合、フレキシブル表示装置が表示部160として機能する。   FIG. 10 shows an image display device 10 according to another modification of the present embodiment. In the present modification, instead of the projection unit 150 projecting the image light on the image display unit 100, the display unit 160 that the image display unit 100 generates and displays the image light based on the image data generated by the generation unit 130. Have. For example, the image display unit 100 may be a flexible display device in which a liquid crystal display or an organic EL display is formed on a film or the like. In this case, the flexible display device functions as the display unit 160.

上記の実施形態及び変形例等では、主に画像表示部100がカーテンである場合について説明したが、画像表示部100はカーテンに限られない。画像表示部100が店舗の入り口等に設けられるのれんである場合、画像表示装置10は、のれんの動きから入店/退店する客の数をカウントし、客の数に応じた画像を生成部130に生成させてよい。   In the above-described embodiments and modifications, the case where the image display unit 100 is a curtain has been mainly described, but the image display unit 100 is not limited to a curtain. When the image display unit 100 is a goodwill provided at the entrance of a store or the like, the image display apparatus 10 counts the number of customers who enter or leave the store based on the movement of goodwill, and the image generation unit generates an image according to the number of customers. It may be generated by 130.

また、上記の実施形態及び変形例等では、カーテン等の画像表示部100に直接操作を行うことで画像表示部100の状態を入力することを説明したが、画像表示装置10は画像表示部100の付属品への操作から画像表示部100の状態を入力してよい。例えば、入力取得部120は、カーテンに付属するタッセルでカーテンを固定したことに応じて、アプリケーションを終了するコマンドを取得し、タッセルを外してカーテンの固定を解除したことに応じてアプリケーションを起動するコマンドを取得してよい。   In addition, in the above-described embodiment and modified examples, it is described that the state of the image display unit 100 is input by directly operating the image display unit 100 such as a curtain. The state of the image display unit 100 may be input by operating the accessory. For example, the input acquisition unit 120 acquires a command to end the application in response to fixing the curtain with the tassel attached to the curtain, and starts the application in response to releasing the tassel to release the fixation of the curtain. You may get the command.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、請求の範囲の記載から明らかである。   Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It is apparent to those skilled in the art that various changes or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。また、請求の範囲、明細書、および図面中において「A及び/又はB」と記載されたときは、A、B、A及びBのいずれかを意味し、「A、B及び/又はC」と記載されたときは、A、B、及び、Cの少なくとも1つを含むことを意味してよい。   The execution order of each process such as operation, procedure, step, and step in the devices, systems, programs, and methods shown in the claims, the specification, and the drawings is "preceding" or "prior to" It should be noted that the output of the previous process can be realized in any order unless it is used in the subsequent process. Even if the operation flow in the claims, the description, and the drawings is described by using “first”, “next”, and the like for convenience, it means that it is essential to carry out in this order. is not. Further, when "A and / or B" is described in the claims, the description and the drawings, it means any of A, B, A and B, and "A, B and / or C". It may be meant to include at least one of A, B, and C.

1 ユーザ、5 懐中電灯、10 画像表示装置、52 コンテンツ、54 コンテンツ、100 画像表示部、102 画像、104 画像、106 第2カーテン、108 第1カーテン、110 測定部、111 検出部、112 光センサ、114 光センサ、116 光センサ、118 光センサ、120 入力取得部、130 生成部、140 記憶部、150 投影部、160 表示部   1 user, 5 flashlight, 10 image display device, 52 content, 54 content, 100 image display unit, 102 image, 104 image, 106 second curtain, 108 first curtain, 110 measuring unit, 111 detecting unit, 112 optical sensor , 114 light sensor, 116 light sensor, 118 light sensor, 120 input acquisition unit, 130 generation unit, 140 storage unit, 150 projection unit, 160 display unit

Claims (20)

変形可能な第1表示部の後方に配置され第2表示部の画像表示可能な領域を取得する得部と、
前記第2表示部の前記領域対応する画像の画像データを生成する生成部と、
を備える画像表示装置。
And acquisition unit for acquiring an image viewable area of the second display unit disposed behind the first display portion deformable,
A generation unit that generates image data of an image corresponding to the area of the second display unit;
An image display device including.
前記第1表示部および前記第2表示部を有する画像表示部と、
前記画像表示部に設けられ、前記画像表示部の状態を測定する測定部とを備え、
取得部は、前記測定部が測定した前記画像表示部の状態に基づいて、前記第2表示部の画像表示可能な領域を算出する、
請求項1に記載の画像表示装置。
An image display unit having the first display unit and the second display unit;
The image display unit, provided with a measuring unit for measuring the state of the image display unit,
Before SL acquisition unit, based on the state of the image display unit which the measuring portion is measured to calculate the image viewable area of the second display unit,
The image display device according to claim 1.
取得部は、測定した前記状態に基づいて、前記画像表示部に対する動作入力として取得し、
前記生成部は、取得した前記入力に応じ、前記画像表示部に表示する画像の画像データを生成する請求項2に記載の画像表示装置。
Before SL acquisition unit, based on the measured said state, obtains an operation against the image display unit as an input,
The image display device according to claim 2, wherein the generation unit generates image data of an image to be displayed on the image display unit according to the acquired input.
前記測定部は、前記画像表示部の形状、動き又は受光状態を測定する、
請求項3に記載の画像表示装置。
The measuring unit measures the shape, movement or light receiving state of the image display unit,
The image display device according to claim 3.
前記測定部は加速度センサを有し、
取得部は、前記加速度センサが測定した加速度情報に基づ動作を前記入力として取得する、
請求項3又は4に記載の画像表示装置。
The measurement unit has an acceleration sensor,
Before SL acquisition unit acquires based rather operates as the input to the acceleration information the acceleration sensor is measured,
The image display device according to claim 3.
前記測定部は光センサを有し、
取得部は、前記光センサが測定した光量情報に基づ動作を前記入力として取得する、
請求項3から5のいずれか1項に記載の画像表示装置。
The measuring unit has an optical sensor,
Before SL acquisition unit acquires based rather operates as the input to the light amount information which the light sensor is measured,
The image display device according to claim 3.
前記生成部は、アプリケーションを実行した結果に対応する画像データを生成し、
取得部は、前記動作に対応させて前記アプリケーションを実行するコマンドを前記入力として取得する、
請求項3から6のいずれか1項に記載の画像表示装置。
The generation unit generates image data corresponding to the result of executing the application,
Before SL acquisition unit acquires a command to execute the application in correspondence with the operation as the input,
The image display device according to any one of claims 3 to 6.
前記生成部は、前記第1表示部及び前記第2表示部の少なくとも一方の形状に合わせて並べ替えられたコンテンツを含む画像データを生成する、
請求項3から5のいずれか1項に記載の画像表示装置。
The generation unit generates image data including contents rearranged according to the shape of at least one of the first display unit and the second display unit,
The image display device according to claim 3.
矩形状の前記第1表示部及び前記第2表示部の少なくとも一方四隅領域のそれぞれに前記光センサが取り付けられ、
取得部は前記四隅領域の前記光センサの前記光量情報により、前記第1表示部及び前記第2表示部の少なくとも一方上の位置前記入力として取得する、
請求項6に記載の画像表示装置。
The light sensor is attached to each of the rectangular first display portion and a region of at least one of the four corners of the second display unit,
Before Symbol obtaining unit, by the light amount information of the optical sensor in the region of the four corners, to obtain at least one position on the first display unit and the second display unit as the input,
The image display device according to claim 6.
前記画像表示部に前記生成部が生成した画像データに基づいた画像光を生成して投影する投影部を更に備える、
請求項3から9のいずれか1項に記載の画像表示装置。
The image display unit further includes a projection unit that generates and projects image light based on the image data generated by the generation unit,
The image display device according to any one of claims 3 to 9.
前記画像表示部は、前記生成部が生成した画像データに基づいた画像光を生成して表示するフレキシブル表示装置を更に備える、
請求項2から9のいずれか1項に記載の画像表示装置。
The image display unit further includes a flexible display device that generates and displays image light based on the image data generated by the generation unit,
The image display device according to any one of claims 2 to 9.
前記投影部は、第1の偏光により前記画像光を投影し、
前記画像表示部には、前記第1の偏光とは偏光方向が異なる第2の偏光を検出する光センサが設けられ、
取得部は、前記光センサが検出した光量情報入力として取得する、
請求項10に記載の画像表示装置。
The projection unit projects the image light with a first polarized light,
The image display unit is provided with an optical sensor for detecting second polarized light having a polarization direction different from the first polarized light,
Before SL acquisition unit acquires the amount of light information which the light sensor detects an input,
The image display device according to claim 10.
前記投影部は、時分割で前記画像光を投影し、
前記画像表示部には光センサが設けられ、
取得部は、前記投影部が画像光を投影していないタイミングにおいて前記光センサが検出した光量情報入力として取得する、
請求項10に記載の画像表示装置。
The projection unit projects the image light in a time division manner,
An optical sensor is provided in the image display unit,
Before SL acquisition unit, the projection unit obtains as input light amount information which the light sensor has detected at the timing that does not project the image light,
The image display device according to claim 10.
前記第1表示部及び前記第2表示部はカーテンである、請求項2から13のいずれか1項に記載の画像表示装置。   The image display device according to any one of claims 2 to 13, wherein the first display unit and the second display unit are curtains. 前記第1表示部は非光透過性の第1カーテンを有し、前記第2表示部は光透過性の第2カーテンを有し、
前記生成部は、前記第1カーテン及び前記第2カーテンのそれぞれに表示する画像データを生成する、
請求項14に記載の画像表示装置。
The first display unit has a non-light-transmitting first curtain, and the second display unit has a light-transmitting second curtain;
The generation unit generates image data to be displayed on each of the first curtain and the second curtain,
The image display device according to claim 14.
前記生成部は、前記第2カーテンに表示する画像データとして、
記第2カーテンを介して観察する対象の情報を含む画像データを生成する、
請求項15に記載の画像表示装置。
The generation unit, as image data to be displayed on the second curtain,
Generating the image data including the information of the target to be observed through the front Stories second curtain,
The image display device according to claim 15.
前記生成部は、前記画像表示部の両面のそれぞれに表示する画像データを生成する、
請求項2から14のいずれか1項に記載の画像表示装置。
The generation unit generates image data to be displayed on each of both sides of the image display unit,
The image display device according to any one of claims 2 to 14.
前記画像表示部は、ユーザと外側領域とを仕切り、
前記生成部は、前記画像表示部の外側に表示する画像データとして前記ユーザの状態の情報を含む画像データを生成する、
請求項17に記載の画像表示装置。
The image display section separates the user from the outer area,
The generation unit generates image data including information on the state of the user as image data to be displayed outside the image display unit,
The image display device according to claim 17.
前記第1表示部及び前記第2表示部の少なくとも一方は、固定端と可動端を有するカーテンであり、
前記生成部は、前記可動端の端を画像の端を位置合わせした画像データを生成する請求項1から18のいずれか1項に記載の画像表示装置。
At least one of the first display unit and the second display unit is a curtain having a fixed end and a movable end,
The image display device according to claim 1, wherein the generation unit generates image data in which an end of the movable end is aligned with an end of an image.
前記第1表示部は、開閉割合が可変であるカーテンであり、
取得部は、前記第1表示部の開閉割合を取得し、
前記生成部は、前記開閉割合が変更され前記第1表示部の形状により並べ替えられたコンテンツを含む画像の画像データを生成する請求項1から19のいずれか1項に記載の画像表示装置。
The first display unit is a curtain whose opening and closing ratio is variable,
Before SL acquisition unit acquires closing ratio of the first display unit,
The generator, the image display according to any one of 19 claims 1 to generate image data of an image including more sorted content to the shape of the opening ratio is changed the first display unit apparatus.
JP2016574875A 2015-02-13 2016-02-12 Image display device and image generation device Active JP6696439B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015026972 2015-02-13
JP2015026972 2015-02-13
PCT/JP2016/054202 WO2016129697A1 (en) 2015-02-13 2016-02-12 Image display device and image generation device

Publications (2)

Publication Number Publication Date
JPWO2016129697A1 JPWO2016129697A1 (en) 2017-11-24
JP6696439B2 true JP6696439B2 (en) 2020-05-20

Family

ID=56614775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016574875A Active JP6696439B2 (en) 2015-02-13 2016-02-12 Image display device and image generation device

Country Status (2)

Country Link
JP (1) JP6696439B2 (en)
WO (1) WO2016129697A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019111553A1 (en) * 2017-12-06 2019-06-13 ソニー株式会社 Display device
JP6959184B2 (en) * 2018-06-20 2021-11-02 ヤフー株式会社 Display control device, display control method, and display control program
CN111387789B (en) * 2020-03-05 2023-07-07 深圳市丁壹科技有限公司 Automatic curtain for intelligent home and working method thereof

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08339259A (en) * 1995-06-13 1996-12-24 Sharp Corp Projective display device
JP3867205B2 (en) * 2002-08-30 2007-01-10 カシオ計算機株式会社 Pointed position detection device, pointed position detection system, and pointed position detection method
JP2006039980A (en) * 2004-07-28 2006-02-09 Kensuke Ueda Pointing system and pointing device
JP2007205030A (en) * 2006-02-01 2007-08-16 Bunka Shutter Co Ltd Display system utilizing opening/closing device
TWI381297B (en) * 2006-08-10 2013-01-01 Lg Chemical Ltd A light guide plate for system inputting coordinate contactlessly, a system comprising the same and a method for inputting coordinate contactlessly using the same
JP5182544B2 (en) * 2007-05-11 2013-04-17 ソニー株式会社 Video processing system and screen device
JP2010181592A (en) * 2009-02-05 2010-08-19 Seiko Epson Corp Image display system, image display method, and screen device
JP2013105312A (en) * 2011-11-14 2013-05-30 Sony Corp Information processing device, control method, and program
JP6037210B2 (en) * 2012-09-11 2016-12-07 株式会社リコー Image projection system, operation method of image projection system, image projection apparatus, and remote operation apparatus for image projection system

Also Published As

Publication number Publication date
JPWO2016129697A1 (en) 2017-11-24
WO2016129697A1 (en) 2016-08-18

Similar Documents

Publication Publication Date Title
US8682030B2 (en) Interactive display
CN104052976B (en) Projecting method and device
US10216356B2 (en) Information processing device, information processing method, and program
JP6696439B2 (en) Image display device and image generation device
JP2016532197A5 (en)
US20110227879A1 (en) Detecting Ambient Light Levels in a Vision System
EP1969451A1 (en) Orientation free user interface
JP6721875B2 (en) Non-contact input device
JP2006258798A (en) Device and method for improved shape characterization
CN112991556B (en) AR data display method and device, electronic equipment and storage medium
EP3410277B1 (en) Image projection device
US20170135571A1 (en) Method for determining visual acuity
CN104581101A (en) Projector-camera system having interaction screen
JP6668764B2 (en) Image recognition device, image recognition method, and image recognition unit
CN110199324A (en) Display device and its control method
JP2013157845A (en) Electronic mirror and program
KR20170117650A (en) Photographing method and electronic device supporting the same
JP5661835B2 (en) Terminal device, display processing method, and display processing program
JP2009060291A5 (en)
JP2015507831A5 (en)
US20170108994A1 (en) Touch Surface for Mobile Devices Using Near Field Light Sensing
CN102375615A (en) Laser optical contact module
ES2836400T3 (en) Image processing system, method and program
JP6057407B2 (en) Touch position input device and touch position input method
JP2017161370A (en) Detector, detection system, detection method and detection program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170726

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200324

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200406

R150 Certificate of patent or registration of utility model

Ref document number: 6696439

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250