JP2021136036A - Floating image display device, interactive method with floating image, and floating image display system - Google Patents

Floating image display device, interactive method with floating image, and floating image display system Download PDF

Info

Publication number
JP2021136036A
JP2021136036A JP2021028402A JP2021028402A JP2021136036A JP 2021136036 A JP2021136036 A JP 2021136036A JP 2021028402 A JP2021028402 A JP 2021028402A JP 2021028402 A JP2021028402 A JP 2021028402A JP 2021136036 A JP2021136036 A JP 2021136036A
Authority
JP
Japan
Prior art keywords
floating image
floating
image data
display device
computer system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021028402A
Other languages
Japanese (ja)
Inventor
鈞翔 楊
Chun-Hsiang Yang
鈞翔 楊
凱傑 張
Kai-Chieh Chang
凱傑 張
志宏 丁
Chih-Hung Ting
志宏 丁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lixel Inc
Original Assignee
Lixel Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lixel Inc filed Critical Lixel Inc
Publication of JP2021136036A publication Critical patent/JP2021136036A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Holo Graphy (AREA)

Abstract

To provide an interactive method and a system utilizing a floating image display device.SOLUTION: An interactive method is performed on a floating image display device. The floating image display device is connected to a computer system. A driver program is executed on the computer system in order to build a communication interface between the computer system and the display device. The floating image display device receives image data from the computer system, acquires floating image data, converts it into a floating image, and then displays the floating image on a display panel. When a user makes a gesture at a position of the floating image, a process executed on the display device determines an interaction command based on a change amount of three dimensional coordinates by the gesture and transmits the interaction command to the computer system. The computer system causes new image data to be generated in response to the interaction command, and the new image data to be converted into a new floating image and to be displayed on a floating image display device.SELECTED DRAWING: Figure 4

Description

本発明は、浮遊画像表示技術の応用に関し、特に浮遊画像表示装置、当該表示装置をコンピュータシステムに接続して実行される対話方法、及び当該表示装置とコンピュータシステムが組み合わされて形成したシステムに関する。 The present invention relates to an application of a floating image display technique, and more particularly to a floating image display device, a dialogue method executed by connecting the display device to a computer system, and a system formed by combining the display device and the computer system.

従来、立体表示装置の多くは、人間の目の視差を利用して脳内に奥行きのある立体画像を構成する技術を用いている。一般的に、表示装置で表示される画像は2つの異なる画像として設計されている。一使用者が特定の装置、例えば赤と青のメガネ、偏光メガネやシャッターメガネ、さらにはヘッドマウントディスプレイなどを使用する場合、ディスプレイからの2つの異なる画像をそれぞれの目に投影し、立体視画像として脳内で合成することができる。 Conventionally, most stereoscopic display devices use a technique for forming a deep stereoscopic image in the brain by utilizing the parallax of the human eye. Generally, the image displayed on the display device is designed as two different images. When a user uses specific devices such as red and blue glasses, polarized glasses and shutter glasses, and even a head-mounted display, two different images from the display are projected onto each eye to create a stereoscopic image. Can be synthesized in the brain as.

光学要素(レンズ、グレーティング)の設計によって裸眼立体視表示の技術もあり、ディスプレイ内の映像を人間の目に直接投影することができるので、特別な装置を使わずに立体感を直接感じることができる。 There is also a technology for autostereoscopic display by designing optical elements (lens, grating), and the image in the display can be projected directly to the human eye, so you can directly feel the stereoscopic effect without using a special device. can.

様々な立体表示技術のうち、いずれも表示技術であることに変わりはないが、使用者が直接に立体画像を操作できるような対話技術は提案されていない。その主な理由は、一般的な立体視ディスプレイ技術は、脳内で組み立てられた仮想画像であり、画像との直接の対話ができないためである。 Of the various stereoscopic display technologies, all of them are still display technologies, but no dialogue technology has been proposed that allows the user to directly manipulate the stereoscopic image. The main reason for this is that general stereoscopic display technology is a virtual image assembled in the brain and cannot directly interact with the image.

ビデオ対話技術の場合、そのうちの一つは、静電容量式または抵抗膜式ディスプレイ上での使用者によるジェスチャー操作で実現させるものがある。このようなタッチ技術による対話は、ジェスチャーを感知するタッチディスプレイによって行われ、ソフトウェアプログラムでジェスチャーに基づいた対話後の画像を表示するようになる。その際、対話アクションとは、例えば、フラットパネルディスプレイ上での一点または多点ジェスチャーによる二次元平面上での移動や回転などとなる。 In the case of video dialogue technology, one of them is realized by a user's gesture operation on a capacitive or resistive display. Such dialogue by touch technology is performed by a touch display that senses gestures, and a software program displays a post-interaction image based on the gestures. At that time, the dialogue action is, for example, movement or rotation on a two-dimensional plane by a one-point or multi-point gesture on a flat panel display.

また、拡張現実(Augmented Reality,AR)や仮想現実(Virtual Reality,VR)技術において対話な操作方法も提出されている。拡張現実(Augmented Reality)または仮想現実(Virtual Reality)は、一般に、フラットパネルディスプレイまたはヘッドマウントディスプレイ(Head−Mounted Display:HMD)を介して表示され、ここで、ユーザはジェスチャーで画像を操作することができ、さらにカメラでジェスチャーをキャプチャすることができ、画像処理後に対話な画像を生成して対話な効果を果たすことができる。 In addition, interactive operation methods in Augmented Reality (AR) and Virtual Reality (VR) technologies have also been submitted. Augmented Reality or Virtual Reality is generally displayed via a flat panel display or head-mounted display (HMD), where the user manipulates the image with gestures. In addition, the camera can capture gestures, and after image processing, an interactive image can be generated to achieve an interactive effect.

本発明は、浮遊画像との対話方法、浮遊画像表示システム及びその浮遊画像表示装置を開示する。なかでも、浮遊画像表示装置は、浮遊画像を表示するために用いられ、そして、コンピュータシステムに接続した後、三次元画像を操作する斬新な使用者体験を提供することができる。 The present invention discloses a method of interacting with a floating image, a floating image display system, and a floating image display device thereof. Among them, a floating image display device can be used to display a floating image and can provide a novel user experience of manipulating a three-dimensional image after being connected to a computer system.

前記浮遊画像表示システムは主に、浮遊画像表示装置、ジェスチャーセンサー、及びコンピュータシステムで実行されるドライバープログラムを含む。なかでも、浮遊画像表示装置にジェスチャーセンサーが設けられてもよい。浮遊画像表示装置はコンピュータシステムに内蔵してコンピュータシステムと接続されてもよいが、外部部材としてコンピュータシステムと接続されてもよい。 The floating image display system mainly includes a floating image display device, a gesture sensor, and a driver program executed by a computer system. In particular, the floating image display device may be provided with a gesture sensor. The floating image display device may be built in the computer system and connected to the computer system, or may be connected to the computer system as an external member.

特定の実施形態によれば、前記浮遊画像表示装置を利用した対話方法は、浮遊画像表示装置において実行される。浮遊画像表示装置がコンピュータシステムに接続するために、ケーブルを介してコンピュータ装置に接続してもよいが、モジュール化されてコンピュータ装置に内蔵されてもよい。 According to a particular embodiment, the dialogue method using the floating image display device is executed in the floating image display device. The floating image display device may be connected to the computer device via a cable in order to connect to the computer system, or may be modularized and built into the computer device.

浮遊画像表示装置の対話方法において、浮遊画像表示装置では、コンピュータシステムから画像データが受信されてから、画像データに基づいて浮遊画像データが取得され、浮遊画像データが浮遊画像に変換されて、表示パネルに浮遊画像が表示される。その後、ジェスチャーで使用者が浮遊画像を操作すると、そのジェスチャーはジェスチャーセンサーで検知され、ジェスチャーに対応する三次元座標の変化量を取得して、その三次元座標の変化量に基づいて、対話コマンドを決めるようになる。 In the interactive method of the floating image display device, in the floating image display device, after the image data is received from the computer system, the floating image data is acquired based on the image data, and the floating image data is converted into the floating image and displayed. A floating image is displayed on the panel. After that, when the user operates the floating image with a gesture, the gesture is detected by the gesture sensor, the amount of change in the three-dimensional coordinates corresponding to the gesture is acquired, and the dialogue command is based on the amount of change in the three-dimensional coordinates. Will be decided.

そして、対話コマンドをコンピュータシステムに送信して、コンピュータシステムが当該対話コマンドに応じて、当該三次元座標の変化量に対応する新たな画像データを導出することができる。その後、得られた新たな画像データを浮遊画像表示装置に送信することによって、浮遊画像表示装置は、新たな画像データを新たな浮遊画像データに変換し、表示パネルに新たな浮遊画像を表示するようになる。 Then, the dialogue command can be transmitted to the computer system, and the computer system can derive new image data corresponding to the amount of change in the three-dimensional coordinates in response to the dialogue command. After that, by transmitting the obtained new image data to the floating image display device, the floating image display device converts the new image data into new floating image data and displays the new floating image on the display panel. Will be.

さらに、コンピュータシステムにおいてソフトウェアプログラムが実行される。ソフトウェアプログラムは、対話コマンドに基づいて、対応的なプロセスを実行することによって、コンピュータシステムが三次元座標の変化量に応じて新たな画像データを生成することができる。当該新たな画像データは、浮遊画像表示装置に表示される新たな浮遊画像であり、即ち、ジェスチャーの操作で生成された新たな画像である。 In addition, software programs are executed in the computer system. The software program allows the computer system to generate new image data according to the amount of change in the three-dimensional coordinates by executing a corresponding process based on the interactive command. The new image data is a new floating image displayed on the floating image display device, that is, a new image generated by a gesture operation.

好ましくは、前記ジェスチャーは、使用者の指、手のひら及び指関節の位置が三次元座標での変化として検知され、その三次元座標の変化量に応じて対話コマンドが決定される。その対話コマンドは、移動、回転、ズームの動作の中の1つか又はそれらの任意の組み合わせを示すものであり、ソフトウェアプログラムが対応的なプロセスを実行するためにソフトウェアプログラムを命令するように用いられる。 Preferably, in the gesture, the positions of the user's finger, palm and knuckle are detected as changes in the three-dimensional coordinates, and the dialogue command is determined according to the amount of change in the three-dimensional coordinates. The interactive command indicates one or any combination of move, rotate, and zoom movements and is used by the software program to direct the software program to perform the corresponding process. ..

さらに、コンピュータシステムにおいて、ドライバープログラムが実行される。ドライバープログラムは、コンピュータシステムと浮遊画像表示装置との通信インターフェースを構築して、コンピュータシステムと浮遊画像表示装置とが交換するメッセージをインタプリタ又はコンパイルするように利用される。コンピュータシステムにおいて、ドライバープログラムは、コンピュータシステムが対話コマンドに応じて生成したメッセージに基づいて、画像サーバーにリクエストを送ることで、浮遊画像表示装置に提供するための画像データ又は新たな画像データを画像サーバーからダウンロードできる。好ましくは、データに、浮遊画像に係るカラー情報及び三次元空間情報が記載されている。 In addition, the driver program is executed in the computer system. The driver program is used to build a communication interface between the computer system and the floating image display device and interpret or compile the messages exchanged between the computer system and the floating image display device. In a computer system, a driver program sends a request to an image server based on a message generated by the computer system in response to an interactive command to image image data or new image data to be provided to a floating image display device. You can download it from the server. Preferably, the data includes color information and three-dimensional spatial information related to the floating image.

浮遊画像表示装置の1つの実施形態によれば、主回路は、画像プロセッサー、入力インターフェース、表示駆動ユニット、及びコンピュータ接続ユニットを含む。画像プロセッサーは、浮遊画像を形成するための画像データを処理するために用いられる。入力インターフェースは、ジェスチャーセンサーに接続し、ジェスチャーセンサーが検出したジェスチャーから生み出すメッセージを受信するように利用される。受信されたメッセージを画像プロセッサーによって三次元座標の変化量を算出し対話コマンドを形成する。表示駆動ユニットは、浮遊画像データに基づいて、浮遊画像を形成させ表示ユニットに表示させる。コンピュータ接続ユニットは、浮遊画像表示装置をコンピュータ装置に連接するように利用される。 According to one embodiment of the floating image display device, the main circuit includes an image processor, an input interface, a display drive unit, and a computer connection unit. Image processors are used to process image data to form floating images. The input interface is used to connect to the gesture sensor and receive the message generated from the gesture detected by the gesture sensor. The received message is calculated by the image processor to calculate the amount of change in the three-dimensional coordinates to form a dialogue command. The display drive unit forms a floating image based on the floating image data and displays it on the display unit. The computer connection unit is used to connect the floating image display device to the computer device.

浮遊画像表示装置は、コンピュータシステムから画像データを受信すると、画像データに基づいて、浮遊画像データを得ることができる。そして、浮遊画像データは、表示駆動ユニットによって浮遊画像データに変換された後、表示ユニットを介して浮遊画像として表示される。そしてその浮遊画像は、使用者がジェスチャーで操作できる。コンピュータシステムとの間に行ったり来たりするメッセージによって、使用者は、浮遊画像を操作して、コンピュータシステムにおけるソフトウェアプログラムを制御できる。 When the floating image display device receives the image data from the computer system, the floating image display device can obtain the floating image data based on the image data. Then, the floating image data is converted into floating image data by the display driving unit, and then displayed as a floating image via the display unit. The floating image can be operated by the user with a gesture. Messages that come and go to and from the computer system allow the user to manipulate the floating image to control software programs in the computer system.

浮遊画像表示装置の実施形態を示す模式図である。It is a schematic diagram which shows the embodiment of the floating image display device. 浮遊画像表示システムの実施形態を示すブロック図である。It is a block diagram which shows the embodiment of the floating image display system. 浮遊画像がコンピュータシステムを介して外部システムに接続する実施形態を示す模式図である。It is a schematic diagram which shows the embodiment which a floating image is connected to an external system via a computer system. 浮遊画像表示装置で対話方法を実行する実施形態を示すプロセス図その1である。FIG. 1 is a process diagram 1 showing an embodiment in which a dialogue method is executed by a floating image display device. 浮遊画像表示装置で対話方法を実行する実施形態を示すフローチャートその2である。2 is a flowchart 2 showing an embodiment in which the dialogue method is executed by the floating image display device. 浮遊画像表示システムが表示装置を介して対話方法を実行する実施形態を示すフローチャートその3である。FIG. 3 is a flowchart showing an embodiment in which a floating image display system executes a dialogue method via a display device. コンピュータ装置に配置される浮遊画像表示装置の実施形態を示す模式図である。It is a schematic diagram which shows the embodiment of the floating image display device arranged in a computer device. コンピュータ装置に浮遊画像表示モジュールが内蔵された実施形態を示す模式図である。It is a schematic diagram which shows the embodiment which built-in the floating image display module in a computer apparatus. コンピュータ装置に浮遊画像表示装置が外付けの形式で接続され利用される実施形態を示す模式図その1である。FIG. 1 is a schematic diagram showing an embodiment in which a floating image display device is connected to a computer device in an external form and used. コンピュータ装置に浮遊画像表示装置が外付けの形式で接続され利用される実施形態を示す模式図である。It is a schematic diagram which shows the embodiment which a floating image display device is connected to a computer device in an external form, and is used. コンピュータ装置に浮遊画像表示装置が外付けの形式で接続され利用される実施形態を示す模式図その3である。FIG. 3 is a schematic view 3 showing an embodiment in which a floating image display device is connected to a computer device in an external form and used. 浮遊画像表示装置に表示されるバーチャルアシスタントの実施形態を示す模式図である。It is a schematic diagram which shows the embodiment of the virtual assistant displayed on the floating image display device.

発明の特徴及び技術内容がより一層分かるように、以下本発明に関する詳細な説明と添付図面を参照する。しかし、提供される添付図面は参考と説明のために提供するものに過ぎず、本発明の特許請求の範囲を制限するためのものではない。 In order to further understand the features and technical contents of the invention, the detailed description and the accompanying drawings relating to the present invention will be referred to below. However, the accompanying drawings provided are provided for reference only and are not intended to limit the scope of the claims of the present invention.

下記より、具体的な実施例で本発明が開示する実施形態を説明する。当業者は本明細書の公開内容により本発明のメリット及び効果を理解し得る。本発明は他の異なる実施形態により実行又は応用できる。本明細書における各細節も様々な観点又は応用に基づいて、本発明の精神逸脱しない限りに、均等の変形と変更を行うことができる。また、本発明の図面は簡単で模式的に説明するためのものであり、実際的な寸法を示すものではない。以下の実施形態において、さらに本発明に係る技術事項を説明するが、公開された内容は本発明を限定するものではない。 Hereinafter, embodiments disclosed by the present invention will be described with specific examples. Those skilled in the art can understand the merits and effects of the present invention from the published contents of the present specification. The present invention can be implemented or applied by other different embodiments. Each subsection in the present specification can also be uniformly modified and modified based on various viewpoints or applications as long as it does not deviate from the spirit of the present invention. Further, the drawings of the present invention are for simple and schematic explanations, and do not show practical dimensions. In the following embodiments, the technical matters relating to the present invention will be further described, but the published contents are not limited to the present invention.

なお、本明細書において「第1」、「第2」、「第3」等の用語で各種の部品又は信号を説明する可能性があるが、これらの部品又は信号はこれらの用語によって制限されるものではない。これらの用語は、主として一つの部品と別の部品、又は一つの信号と別の信号を区分するためのものであることが理解されたい。また、本明細書に用いられる「又は」という用語は、実際の状況に応じて、関連する項目中の何れか一つ又は複数の組合せを含み得る。 In this specification, various parts or signals may be described by terms such as "first", "second", and "third", but these parts or signals are limited by these terms. It's not something. It should be understood that these terms are primarily intended to distinguish one component from another, or one signal from another. Also, the term "or" as used herein may include any one or more combinations of related items, depending on the actual circumstances.

本発明は、浮遊画像表示装置、当該表示装置を利用して実行する対話方法、及び関連浮遊画像の表示システムを開示する。浮遊画像を利用して対話を行う技術では、使用者が浮遊画像表示装置に表示された浮遊画像を見る時、ジェスチャーによって、浮遊画像を操作できる技術である。その技術を果たせる主な手段は、ジェスチャーセンサーによって、浮遊画像の位置に行う、例えば、移動、回転、ズーム等のジェスチャーを検知してから、ジェスチャーに対応する三次元座標の変化量を導出して、三次元座標の変化量によって対話コマンドを決定する。そして、決定された対話コマンドに基づいて、ジェスチャーに従って生成された新たな浮遊画像を表示する。そのように、使用者がジェスチャーによって浮遊画像と対話できる技術目的を果たせることができる。ところで、浮遊画像は、静的なオブジェクトとなる浮遊画像であってもよいが、動的なオブジェクトとなる連続浮遊画像であってもよい。 The present invention discloses a floating image display device, a dialogue method executed by using the display device, and a related floating image display system. The technique of performing dialogue using a floating image is a technique in which a user can operate a floating image by a gesture when viewing the floating image displayed on the floating image display device. The main means of achieving this technology is to use a gesture sensor to detect gestures such as movement, rotation, and zoom at the position of a floating image, and then derive the amount of change in the three-dimensional coordinates corresponding to the gesture. , The dialogue command is determined by the amount of change in the three-dimensional coordinates. Then, based on the determined dialogue command, a new floating image generated according to the gesture is displayed. As such, it is possible to achieve the technical purpose of allowing the user to interact with the floating image by gesture. By the way, the floating image may be a floating image which is a static object, or may be a continuous floating image which is a dynamic object.

特定の実施形態において、前記浮遊画像表示装置における表示技術は、宙に立体画像を表示する技術であってもよく、そのような技術は、平面表示パネルで複数のサブ画像(単位画像)を表示し、複数のサブ画像が完全な画像(統合画像)を形成するものである。表示時には、平面表示パネルに表示された画像が光学素子の層(レンズアレイなど)を介して表示され、各サブ画像が対応するレンズを介して生じされることで、複数のレンズを介して表示装置上に完全な画像が形成されるため、浮遊画像表示効果を得ることができる。 In a specific embodiment, the display technique in the floating image display device may be a technique for displaying a stereoscopic image in the air, and such a technique displays a plurality of sub-images (unit images) on a flat display panel. However, a plurality of sub-images form a complete image (integrated image). At the time of display, the image displayed on the flat display panel is displayed via a layer of optical elements (lens array, etc.), and each sub-image is generated via the corresponding lens, so that the image is displayed through a plurality of lenses. Since a complete image is formed on the device, a floating image display effect can be obtained.

なお、拡張現実(AR)や仮想現実(VR)の表示技術と、本願の表示技術との相違には、表示装置の違いに加えて、立体映像を投影する技術や効果も異なることは特筆に値する。前記ARまたはVRに用いられる表示技術は、利用者の目の前のスクリーンに立体視画像を投影し、その画像に、利用者の左右の目の視差を通して立体映像の効果を与える表示技術であるのに対し、本発明で提案されている浮遊画像表示技術は、光学素子を介して利用者の目の前の位置に実際に立体画像を投影して表示する技術である。本発明では、使用者は、ジェスチャーによって浮遊画像を操作することができる。詳しくは、ジェスチャーを介して、操作ジェスチャーを取得してから、ジェスチャーに基づいた新たな浮遊画像を算出して、立体映像を操作できる対話効果を体験できるようにする。 It should be noted that the difference between the display technology of augmented reality (AR) or virtual reality (VR) and the display technology of the present application is that in addition to the difference in the display device, the technology and effect for projecting a stereoscopic image are also different. Deserves. The display technology used for AR or VR is a display technology that projects a stereoscopic image on a screen in front of the user and gives the effect of the stereoscopic image to the image through the difference between the left and right eyes of the user. On the other hand, the floating image display technique proposed in the present invention is a technique for actually projecting and displaying a stereoscopic image at a position in front of the user's eyes via an optical element. In the present invention, the user can manipulate the floating image by gestures. Specifically, after acquiring the operation gesture via the gesture, a new floating image based on the gesture is calculated so that the dialogue effect that can operate the stereoscopic image can be experienced.

図1は、浮遊画像表示装置の実施形態を示す模式図である。 FIG. 1 is a schematic view showing an embodiment of a floating image display device.

本実施形態では、浮遊画像表示装置10を開示している。上記に描いた実施形態のように、浮遊画像表示装置10は、一層の光学ユニット101及び表示パネル102で構成され、その中に、表示コンテンツを処理でき、外部から浮遊画像データを取得するための通信機能も備える画像プロセッサーが設けられる。浮遊画像表示装置10において、浮遊画像データが映像処理されて、浮遊画像103を表示するようになる。 In this embodiment, the floating image display device 10 is disclosed. As in the embodiment drawn above, the floating image display device 10 is composed of a single layer optical unit 101 and a display panel 102, in which display contents can be processed and floating image data can be acquired from the outside. An image processor that also has a communication function is provided. In the floating image display device 10, the floating image data is image-processed to display the floating image 103.

さらに、浮遊画像表示装置10に、使用者の手12が浮遊画像103での動作を検知するジェスチャーセンサー105が設けられる。前記ジェスチャーセンサー105は、映像検知手段で実現されてもよい。映像検知手段は例えば、カメラで手12のいくつかのキーパーツ(例えば、指、手のひら、指の関節)の連続画像を撮像して、映像処理によって、所定の時間間隔前後の映像変化を取得する。詳しくは、キーパーツのそれぞれがジェスチャーセンサー座標系での三次元座標(例えば、カルテシアン座標系で表示されたXsensor, Ysensor, Zsensor、または球面座標系で表示されたγ, θ, φ)を連続取得することによって、三次元座標の変化量を得ることができる。そして、三次元座標の変化量を浮遊画像表示装置10の座標系での三次元座標(Xdevice, Ydevice, Zdevice)の変化量(例えば、ベクトル(変位、方向)、速度(距離と時間)またはその他の情報)に変換し、最後に、移動、回転、ズームの動作の中の1つ又は任意な組み合わせを表すための対話コマンドを取得できる。 Further, the floating image display device 10 is provided with a gesture sensor 105 for detecting the movement of the user's hand 12 on the floating image 103. The gesture sensor 105 may be realized by a video detecting means. The image detection means, for example, captures a continuous image of some key parts (for example, fingers, palms, and knuckles) of the hand 12 with a camera, and acquires image changes before and after a predetermined time interval by image processing. .. Specifically, each of the key parts is a series of three-dimensional coordinates in the gesture sensor coordinate system (for example, Xsenser, Ysenser, Zsenser displayed in the Cartesian coordinate system, or γ, θ, φ displayed in the spherical coordinate system). By acquiring, the amount of change in the three-dimensional coordinates can be obtained. Then, the amount of change in the three-dimensional coordinates is changed to the amount of change in the three-dimensional coordinates (Xdevice, Ydevice, Zdevice) in the coordinate system of the floating image display device 10 (for example, vector (displacement, direction), velocity (distance and time), or the like. And finally, you can get an interactive command to represent one or any combination of move, rotate, and zoom movements.

他の実施形態において、ジェスチャーセンサー105は、光線遮断の原理でジェスチャーを検知することができる。詳しくは、光源で検知用光線を射出して、手12がその光線が形成した範囲に入ると、光センサーで光線が手に形成した部分を検出して、その中からキーパーツが反射した光線の強度(変化しているパーツを検知する)及び光線が反射される時間差(変化深さを検知する)を取得する。同様にそれらの光線情報を連続で取得することによって、ジェスチャーによる三次元座標の変化量を得てから、移動、回転、ズームの動作の中の1つ又は任意の組み合わせを表す対話コマンドを決定する。 In another embodiment, the gesture sensor 105 can detect gestures on the principle of light blocking. Specifically, when the light source emits a detection ray and the hand 12 enters the range formed by the ray, the light sensor detects the portion formed by the ray and the ray reflected by the key part from the portion. (Detects changing parts) and the time difference at which light rays are reflected (detects the depth of change). Similarly, by continuously acquiring those ray information, the amount of change in the three-dimensional coordinates due to the gesture is obtained, and then the dialogue command representing one or any combination of the movement, rotation, and zoom movements is determined. ..

さらに他の実施形態において、ジェスチャーセンサー105は、音波発生器及び受信器を備えて、音波の反射による情報を利用してジェスチャーを判断してもよい。詳しくは、手12がジェスチャーセンサー105の検知範囲に位置する場合、音波を遮断するため、光線と同じように反射波が発生する。そのように、音波受信器は、音波の変化に基づいて、手12のいくつかのキーパーツが空間内の変化量を検知できるようになり、さらにその変化量を三次元座標の変化量に変換することによって、移動、回転、ズームの動作の中の1つ又は任意の組み合わせを表す対話コマンドを決定することができる。 In still other embodiments, the gesture sensor 105 may include a sound wave generator and receiver to determine the gesture using information from the reflection of sound waves. Specifically, when the hand 12 is located within the detection range of the gesture sensor 105, the reflected wave is generated in the same manner as the light beam because the sound wave is blocked. As such, the sound wave receiver will be able to detect the amount of change in space by some key parts of the hand 12 based on the change in sound wave, and further convert the amount of change into the amount of change in three-dimensional coordinates. By doing so, it is possible to determine an interactive command that represents one or any combination of movement, rotation, and zoom movements.

そのように、ジェスチャーを検知するため各種のジェスチャーセンサー105で実現される対話方法は、ジェスチャーによる手12の指、手のひら及び指関節の三次元座標の変化量に基づいて、移動、回転、ズームの動作の中の1つ又は任意の組み合わせを表す対話コマンドを決定できる。その後、画像データベースに対応して記憶されている浮遊画像データを対応的に見つかり、浮遊画像103が各種のジェスチャーで操作された結果として、次の浮遊画像データを決定して、次の浮遊画像を表示するようになる。浮遊画像データは、静態的な浮遊画像であってもよいが、または連続的な浮遊動画であってもよい。静態的な浮遊画像であってもよいが、または連続的な浮遊動画のある位置にジェスチャーが検出されると、座標の変換及び三次元画像アルゴリズム等の処理プロセスでは高速な計算ができ、ジェスチャーにリアルタイムで反応してリアルタイムの対話な効果が得られる。 As such, the dialogue methods realized by the various gesture sensors 105 for detecting gestures are movement, rotation, and zoom based on the amount of change in the three-dimensional coordinates of the fingers, palms, and knuckles of the hand 12 due to the gesture. You can determine an interactive command that represents one or any combination of actions. After that, the floating image data stored corresponding to the image database is correspondingly found, and as a result of the floating image 103 being operated by various gestures, the next floating image data is determined, and the next floating image is obtained. It will be displayed. The floating image data may be a static floating image or a continuous floating moving image. It may be a static floating image, or if a gesture is detected at a certain position of a continuous floating moving image, high-speed calculation can be performed in a processing process such as coordinate conversion and a three-dimensional image algorithm, and the gesture can be used. It reacts in real time and has a real-time interactive effect.

図2は、浮遊画像表示装置の回路の実施形態を示す模式図である。 FIG. 2 is a schematic view showing an embodiment of a circuit of a floating image display device.

図2に示された浮遊画像表示装置20は、ジェスチャーセンサー22に接続されており、実施形態によっては、両方が別々の内蔵モジュールとして、同じ装置に統合されてもよいが、或いは、浮遊画像表示装置20とジェスチャーセンサー22は、互いに通信接続される、各々に独立した装置であってもよい。 The floating image display device 20 shown in FIG. 2 is connected to the gesture sensor 22, and depending on the embodiment, both may be integrated into the same device as separate built-in modules, or the floating image display device 20 may be integrated. The device 20 and the gesture sensor 22 may be independent devices that are communicated with each other and connected to each other.

浮遊画像表示装置20において、映像処理及び上記説明した対話方法を実行するための画像プロセッサー203が配置される。画像プロセッサー203は、例えば、入力インターフェース201等の他の回路モジュールに接続され、浮遊画像表示装置20は、入力インターフェース201を介してジェスチャーセンサー22から検知されたジェスチャーに係る情報を受信するようになる。入力インターフェース201は通信インターフェースである。実施形態に応じて、入力インターフェース201を介して受信する情報は、ジェスチャーセンサー22が検出したジェスチャーで形成した三次元座標の変化量であってもよい。その三次元座標の変化量に基づいて、画像プロセッサー203は、対話コマンドを決めて、さらに対話コマンドに基づいて、新たな浮遊画像の画像座標情報を算出することができる。 In the floating image display device 20, an image processor 203 for executing image processing and the dialogue method described above is arranged. The image processor 203 is connected to another circuit module such as the input interface 201, and the floating image display device 20 receives information related to the gesture detected from the gesture sensor 22 via the input interface 201. .. The input interface 201 is a communication interface. Depending on the embodiment, the information received via the input interface 201 may be the amount of change in the three-dimensional coordinates formed by the gesture detected by the gesture sensor 22. Based on the amount of change in the three-dimensional coordinates, the image processor 203 can determine the dialogue command and further calculate the image coordinate information of the new floating image based on the dialogue command.

画像プロセッサー203において、ジェスチャーセンサー22が取得したジェスチャーに対応する三次元座標の変化量を取得した後、回転、移動、ズーム等対話コマンドを算出できる。それらの対話コマンドに基づいて、記憶ユニット206における画像データベースをチェックすることによって、対応的に変化下浮遊画像データを得ることができるが、または、画像プロセッサー203が対話コマンドに基づいて、リアタイムで新たな浮遊画像データを算出してもよい。かつ、新たな浮遊画像データは、静態的な浮遊画像または連続的な画像で形成された立体動画のいずれであってもよい。なかでも、浮遊画像データは、浮遊画像表示装置20で表示した浮遊画像のカラー情報及び三次元空間情報を述べるために用いられる。画像プロセッサー203は、表示駆動ユニット204に電気的に接続され、浮遊画像データに基づいて、浮遊画像を表示ユニット205に介して表示することができる。 In the image processor 203, after acquiring the amount of change in the three-dimensional coordinates corresponding to the gesture acquired by the gesture sensor 22, dialogue commands such as rotation, movement, and zoom can be calculated. By checking the image database in the storage unit 206 based on those interactive commands, the floating image data under variation can be obtained correspondingly, or the image processor 203 is new in real time based on the interactive commands. Floating image data may be calculated. Moreover, the new floating image data may be either a static floating image or a stereoscopic moving image formed by a continuous image. Among them, the floating image data is used to describe the color information and the three-dimensional spatial information of the floating image displayed by the floating image display device 20. The image processor 203 is electrically connected to the display drive unit 204, and can display a floating image via the display unit 205 based on the floating image data.

浮遊画像表示装置20は、有線又は無線の方式でジェスチャーセンサー22におけるインターフェイスユニット223に接続される。インターフェイスユニット223は、メッセージを送受信するための通信インターフェースである。ジェスチャーセンサー22に、光線、音波、または映像を利用したジェスチャーセンシング技術を実現するセンサーユニット221が設けられる。ジェスチャーとは、人間の手におけるいくつかのキーパーツが姿勢を変化する場合、それらのキーパーツ(例えば、指、手のひら、指関節)の位置の変化により検出した特定の姿勢という。 The floating image display device 20 is connected to the interface unit 223 in the gesture sensor 22 by a wired or wireless method. The interface unit 223 is a communication interface for transmitting and receiving messages. The gesture sensor 22 is provided with a sensor unit 221 that realizes a gesture sensing technique using light rays, sound waves, or images. A gesture is a specific posture detected by a change in the position of some key parts (for example, fingers, palms, knuckles) when some key parts in a human hand change their postures.

制御ユニット222は、ジェスチャーセンサー22における制御回路であり、インターフェイスユニット223を介して浮遊画像表示装置20に接続される。制御ユニット222は、センサーユニット221が得られた検知メッセージに基づいて、ジェスチャーによる三次元座標の変化量を取得できる。 The control unit 222 is a control circuit in the gesture sensor 22, and is connected to the floating image display device 20 via the interface unit 223. The control unit 222 can acquire the amount of change in the three-dimensional coordinates by the gesture based on the detection message obtained by the sensor unit 221.

ところで、ジェスチャーセンサー22が検出したジェスチャーによる三次元座標の変化量は、ジェスチャーセンサー22の座標系を基づいた座標情報であり、その後、三次元座標の変化量が浮遊画像表示装置20に提供される時、座標の変換は行わなければならない。そのように、対話コマンドを、ジェスチャーセンサー22の座標系での座標情報から、浮遊画像表示装置20の座標系に変換しないと、表示すべき浮遊画像の画像座標情報に対応することができない。 By the way, the amount of change in the three-dimensional coordinates due to the gesture detected by the gesture sensor 22 is coordinate information based on the coordinate system of the gesture sensor 22, and then the amount of change in the three-dimensional coordinates is provided to the floating image display device 20. At that time, the transformation of coordinates must be performed. As such, unless the dialogue command is converted from the coordinate information in the coordinate system of the gesture sensor 22 to the coordinate system of the floating image display device 20, it is not possible to correspond to the image coordinate information of the floating image to be displayed.

なかでも、浮遊画像表示装置20で表示する浮遊画像は、何れも既に記憶されておくものであるため、ジェスチャーが座標変換された後の同じ座標系であれば、浮遊画像とジェスチャーとの関連性を対応的に知ることができる。その関連性は、ジェスチャーで形成した三次元座標と、表示最中の浮遊画像との関係を表している。例えば、移動ジェスチャーは、浮遊画像をある方向に移動させるとされているため、浮遊画像の三次元座標は当該移動方向のある変化量を加えて、新たな位置に、新たな浮遊画像を表示するようになる。画像プロセッサー203において、新たな浮遊画像データをリアルタイムに照会またはリアルタイムに計算して表示駆動ユニット204に提供して表示画像を形成するようになる。回転ジェスチャーは、浮遊画像を一方向に向かって回転させるとされているため、元の浮遊画像の三次元座標に回転の変化量を加えて、新たな浮遊画像データを形成することによって、新たな浮遊画像データを表示する。同じように、ズームジェスチャーであれば、浮遊画像の大きさを同じ参考点の位置に対する三次元座標を参照して変化させる。画像プロセッサー203は、画像データベースを調べるか又はリアルタイムで計算することによって、新たな浮遊画像データを生成して、表示駆動ユニット204に表示するために提供する。 Among them, since the floating images displayed by the floating image display device 20 are all already stored, the relationship between the floating images and the gestures is as long as the gestures have the same coordinate system after the coordinate conversion. Can be known correspondingly. The relationship represents the relationship between the three-dimensional coordinates formed by the gesture and the floating image being displayed. For example, since the movement gesture is said to move the floating image in a certain direction, the three-dimensional coordinates of the floating image add a certain amount of change in the moving direction to display a new floating image at a new position. Will be. In the image processor 203, new floating image data is queried in real time or calculated in real time and provided to the display drive unit 204 to form a display image. Since the rotation gesture is said to rotate the floating image in one direction, a new floating image data is formed by adding the amount of change in rotation to the three-dimensional coordinates of the original floating image. Display floating image data. Similarly, in the case of a zoom gesture, the size of the floating image is changed by referring to the three-dimensional coordinates with respect to the position of the same reference point. The image processor 203 generates new floating image data by examining the image database or calculating in real time and provides it for display on the display drive unit 204.

対話コマンドを形成するために、上記移動、回転、ズーム等のジェスチャーを任意に組み合わせることができる。対話コマンドを形成してから、それを画像プロセッサー203で計算して新たな浮遊画像データを生成するようになる。浮遊画像データは、浮遊画像表示装置20が直接に浮遊画像を表示するためのデータである。 Gestures such as move, rotate, and zoom can be arbitrarily combined to form a dialogue command. After forming the dialogue command, the image processor 203 calculates it to generate new floating image data. The floating image data is data for the floating image display device 20 to directly display the floating image.

本発明が提出した浮遊画像表示装置を利用して実行される対話方法についてさらに他の実施形態において、浮遊画像表示装置20にコンピュータ接続ユニット202が設けられる。コンピュータ接続ユニット202は、表示装置における画像プロセッサー203に電気的に接続される。コンピュータ接続ユニット202によって、浮遊画像表示装置20は、所定の通信インターフェースに介して無線(例えば、WiFi(登録商標)、ブルートゥース(登録商標))又は有線(USB、RS232等の業界標準のインターフェース)手段でコンピュータ装置25に接続する。コンピュータ装置25にコンピュータシステムが執行されており、浮遊画像表示装置20と送受信するためのドライバープログラムが実行されている。それにより、ジェスチャーで浮遊画像表示装置20を操作して生成した対話コマンドは、コンピュータシステムに送信され、コンピュータシステムが対話コマンドに基づいて、コンピュータシステムにおけるプロセスに介して計算して新たな浮遊画像データを生成してから、浮遊画像表示装置20に新たな浮遊画像データを新たな浮遊画像を表示するために送信する。 Regarding the dialogue method executed by using the floating image display device submitted by the present invention In still another embodiment, the floating image display device 20 is provided with the computer connection unit 202. The computer connection unit 202 is electrically connected to the image processor 203 in the display device. By the computer connection unit 202, the floating image display device 20 is subjected to wireless (for example, WiFi (registered trademark), Bluetooth (registered trademark)) or wired (industry standard interface such as USB, RS232) means via a predetermined communication interface. Connect to the computer device 25 with. A computer system is executed in the computer device 25, and a driver program for transmitting and receiving to and from the floating image display device 20 is executed. As a result, the dialogue command generated by operating the floating image display device 20 with a gesture is transmitted to the computer system, and the computer system calculates new floating image data through a process in the computer system based on the dialogue command. Is generated, and then new floating image data is transmitted to the floating image display device 20 in order to display the new floating image.

特定の実施形態では、コンピュータシステムで執行されるドライバープログラムは、コンピュータシステムと浮遊画像表示装置20との通信インターフェースを構築するように、コンピュータシステムと浮遊画像表示装置20との間に交換させるメッセージをインタプリタ及びコンパイルする。さらに、ドライバープログラムは、コンピュータシステムが対話コマンドに基づいて生成したメッセージを基にして、外部システム(例えば、画像サーバー)にリクエストを発信して、そのように、浮遊画像表示装置20に提供するための画像データまたは新たな画像データをダウンロードする許可を取得する。画像データとしては、例えば、上記浮遊画像リソースファイルが挙げられる。リソースファイルに、浮遊画像に係るカラー情報及び三次元空間情報が記憶されている。表示装置における画像プロセッサー203は、リソースファイルに基づいて、表示パネルからある高さを離れた浮遊画像を算出できる。 In certain embodiments, the driver program executed by the computer system sends a message to be exchanged between the computer system and the floating image display device 20 so as to build a communication interface between the computer system and the floating image display device 20. Interceptor and compile. Further, the driver program sends a request to an external system (for example, an image server) based on a message generated by the computer system based on the interactive command, and provides the floating image display device 20 as such. Get permission to download your image data or new image data. Examples of the image data include the floating image resource file. Color information and three-dimensional spatial information related to the floating image are stored in the resource file. The image processor 203 in the display device can calculate a floating image away from the display panel at a certain height based on the resource file.

図3は、浮遊画像表示装置がコンピュータシステムを介して外部システムに接続する実施形態を示す模式図である。この実施形態において、浮遊画像表示装置10は、コンピュータシステム35によりネットワーク30を介して画像サーバー301に接続する。上記浮遊画像データは、画像サーバー301が提供するものであってもよい。画像サーバー301に画像データベース303が設けられ、各種の対話コマンドが対応する浮遊画像データが記憶されている。 FIG. 3 is a schematic view showing an embodiment in which a floating image display device is connected to an external system via a computer system. In this embodiment, the floating image display device 10 is connected to the image server 301 by the computer system 35 via the network 30. The floating image data may be provided by the image server 301. The image database 303 is provided in the image server 301, and floating image data corresponding to various dialogue commands is stored.

実際の運用方法では、使用者が浮遊画像で対話を行う時、まず、現時点に浮遊画像表示装置10に記憶されたデータに、対話コマンドに対応する次の表示画像が含まれているか否かについて確認する。新たな(次の)表示画像が含まれている場合、浮遊画像表示装置10は自力で計算して浮遊画像データを生成して表示してもよい。一方、対話による新たな(次の)表示画像が含まれていない場合、対話コマンドがコンピュータシステム35に送信される次第、即刻にネットワーク30を介して画像サーバー301に新たな(次の)浮遊画像リソースファイルをダウンロードするリクエストを送信し得、すると、新たな浮遊画像データをダウンロードできるようになり、さらに、ダウンロードされた新たな浮遊画像データをコンピュータシステム35に介して浮遊画像表示装置10に送信し、次の対話による浮遊画像を表示するようになる。 In the actual operation method, when the user has a dialogue with the floating image, first, whether or not the data stored in the floating image display device 10 at the present time includes the next display image corresponding to the dialogue command. Check. When a new (next) display image is included, the floating image display device 10 may calculate by itself to generate and display the floating image data. On the other hand, if the new (next) display image by the dialogue is not included, the new (next) floating image is immediately sent to the image server 301 via the network 30 as soon as the dialogue command is transmitted to the computer system 35. A request to download a resource file can be sent, and then new floating image data can be downloaded, and further, the downloaded new floating image data is transmitted to the floating image display device 10 via the computer system 35. , The floating image by the next dialogue will be displayed.

図1を参照されたい。使用者が手12により浮遊画像表示装置10において、浮遊画像と交流している時、それにより生成したジェスチャーは、三次元座標の変化量を形成して、それに基づいて、対話コマンドが得られる。この時、特定された通信インターフェースを介して、対話コマンドをコンピュータシステム35に送信し、コンピュータシステム35で実行されるソフトウェアプログラムは、対話コマンドに基づいて、所定のプロセスを実行して、さらに、ネットワーク30を介して対話コマンドを画像サーバー301に送信し、画像サーバー301が対話コマンドに基づいて、新たな浮遊画像データを提供するようにしてもよい。 See FIG. When the user interacts with the floating image on the floating image display device 10 by hand 12, the gesture generated by the user forms a change amount of the three-dimensional coordinates, and a dialogue command is obtained based on the change amount. At this time, the interactive command is transmitted to the computer system 35 via the specified communication interface, and the software program executed in the computer system 35 executes a predetermined process based on the interactive command, and further, the network. The dialogue command may be transmitted to the image server 301 via the dialogue command, and the image server 301 may provide new floating image data based on the dialogue command.

さらに、図4を参照されたい。図4のフローチャートは、浮遊画像表示装置がコンピュータシステムと協働して対話方法を実行する実施形態を示している。 Further, see FIG. The flowchart of FIG. 4 shows an embodiment in which the floating image display device performs an interactive method in cooperation with a computer system.

浮遊画像表示装置がコンピュータ装置に接続方法の1つとしては、モジュール化されてコンピュータ装置内に内蔵されてもよいが、或いは、または所定の通信手段を介してコンピュータ装置に外部接続してもよい。この実施形態のプロセスにおいて、浮遊画像表示装置が表示する浮遊画像は、主にコンピュータシステムで実行される所定のソフトウェアプログラムに基づいて、対話を行って生成した画像である。実施形態のプロセスは、初めに浮遊画像表示装置とコンピュータシステムとを通信接続してから、コンピュータシステムからデータ(ステップS401)を受信し得る。そのデータでは、浮遊画像に係るカラー情報及び三次元空間情報が含まれて、浮遊画像表示装置における画像プロセッサーはそのデータに基づいて、画像データを導出する(ステップS403)。さらに画像データを浮遊画像データ(ステップS405)として変換させる。 As one of the methods for connecting the floating image display device to the computer device, the floating image display device may be modularized and built in the computer device, or may be externally connected to the computer device via a predetermined communication means. .. In the process of this embodiment, the floating image displayed by the floating image display device is an image generated by interacting with each other based on a predetermined software program mainly executed by a computer system. The process of the embodiment may first communicate and connect the floating image display device to the computer system and then receive data (step S401) from the computer system. The data includes color information and three-dimensional spatial information related to the floating image, and the image processor in the floating image display device derives image data based on the data (step S403). Further, the image data is converted as floating image data (step S405).

さらに、ステップS407に示すように、浮遊画像表示装置に浮遊画像を表示すると共に、使用者が浮遊画像表示装置で操作を行うことができるようにする。例えば、ステップS409では、浮遊画像表示装置におけるジェスチャーセンサーは、ジェスチャーを検知する。ステップS411では、ジェスチャーに対応する座標の変化を取得する。ステップS413では、ジェスチャーに対応する座標の変化を浮遊画像表示装置の画像プロセッサーで計算され、三次元座標の変化量を形成する。三次元座標の変化量は、特定された部分が特定された方向に移動、回転及び/又はズームすることにより生じた三次元座標の変化量という。三次元座標の変化量によって、対話コマンドが決定される。 Further, as shown in step S407, the floating image is displayed on the floating image display device, and the user can operate on the floating image display device. For example, in step S409, the gesture sensor in the floating image display device detects the gesture. In step S411, the change of the coordinates corresponding to the gesture is acquired. In step S413, the change in the coordinates corresponding to the gesture is calculated by the image processor of the floating image display device, and the amount of change in the three-dimensional coordinates is formed. The amount of change in the three-dimensional coordinates is referred to as the amount of change in the three-dimensional coordinates caused by moving, rotating, and / or zooming the specified part in the specified direction. The dialogue command is determined by the amount of change in the three-dimensional coordinates.

また、ステップS415では、対話コマンドをコンピュータシステムの通信インターフェースを介してコンピュータシステムに送信する。ステップS417では、コンピュータシステムにおいて実行されるソフトウェアプログラムによって、対話コマンドに基づいて、対応的なプロセスを行う。なかでも、当該プロセスは、コンピュータシステムが、例えば、ソフトウェアプログラムにおける現画像の次の動作に係る画像など、新たな画像を表示するようにコンピュータシステムを駆動する。この時、例えば、ステップS419では、コンピュータシステムは、ソフトウェアプログラムによって、当該対話コマンドに応じて生じた動作(三次元座標の変化量に対応した動作)を浮遊画像表示装置に送信するための画像データまたは新たな画像データに変換する。また、ソフトウェアプログラムによって、浮遊画像表示装置から受信したジェスチャーを対話コマンドに形成した後、対話コマンドに基づいて、対応的なプロセスを実行した後、使用者がコンピュータシステムにおけるソフトウェアプログラムを操作して、新たなコメントを生成し、そして、オペレーティングプログラムは、ソフトウェアプログラムに新しく生成したコメントを浮遊画像表示装置に提供するための新たな画像データに変換するようにしてもよい。 Further, in step S415, the dialogue command is transmitted to the computer system via the communication interface of the computer system. In step S417, a software program executed in the computer system performs a corresponding process based on the interactive command. In particular, the process drives the computer system to display a new image, for example, an image relating to the next operation of the current image in a software program. At this time, for example, in step S419, the computer system transmits image data to the floating image display device by the software program to transmit the operation generated in response to the dialogue command (the operation corresponding to the amount of change in the three-dimensional coordinates). Or convert to new image data. In addition, after the software program forms the gesture received from the floating image display device into an interactive command and then executes a corresponding process based on the interactive command, the user operates the software program in the computer system. The new comment may be generated and the operating program may convert the newly generated comment into the software program into new image data for providing to the floating image display device.

ステップS421において、コンピュータシステムは、このジェスチャーで形成された対話コマンドに対応する新たな画像データ、即ち、新しい色彩及び三次元座標情報を、浮遊画像表示装置に送信する。ステップS423において、浮遊画像表示装置は新しい色彩及び三次元座標情報に基づいて、新たな浮遊画像データを導出してから、新たな浮遊画像を表示する。 In step S421, the computer system transmits new image data corresponding to the dialogue command formed by this gesture, that is, new color and three-dimensional coordinate information to the floating image display device. In step S423, the floating image display device derives new floating image data based on the new color and three-dimensional coordinate information, and then displays the new floating image.

図5は、ジェスチャーセンサーがジェスチャーに基づいて対話コマンドを生成することによって、対話方法を実行する実施形態の流れを示す別のフローチャートである。 FIG. 5 is another flowchart showing the flow of an embodiment in which the gesture sensor executes a dialogue method by generating a dialogue command based on the gesture.

この実施形態において、まずはステップS501に示すように、使用者が浮遊画像表示装置で浮遊画像を見ると共に、ジェスチャーでその画像を操作し得る。表示装置は、ジェスチャーセンサーによって、使用者が浮遊画像表示装置で表示された浮遊画像でしたジェスチャーを検知する。この場合、例えば、ステップS503のように、ジェスチャーセンサーによって、キーパーツ(例えば、指、指関節、手のひら等)に係る三次元座標に変化を取得できる。ステップS505では、三次元座標の変化量は、ジェスチャーセンサーが所定の期間においてジェスチャーを検知して形成したものであり、ニーズによって、ジェスチャーセンサーが付けた座標系の座標情報を、浮遊画像表示装置で使用される座標系に変換してもよい。同じ座標系にすることによって、画像プロセッサーは、ジェスチャーで形成した対話コマンドと浮遊画像との関連性を導出できる。 In this embodiment, first, as shown in step S501, the user can view the floating image on the floating image display device and manipulate the image with a gesture. The display device uses a gesture sensor to detect a gesture that is a floating image displayed by the user on the floating image display device. In this case, for example, as in step S503, the gesture sensor can acquire changes in the three-dimensional coordinates related to the key parts (for example, fingers, knuckles, palms, etc.). In step S505, the amount of change in the three-dimensional coordinates is formed by the gesture sensor detecting the gesture in a predetermined period, and the coordinate information of the coordinate system attached by the gesture sensor is displayed on the floating image display device according to the needs. It may be converted to the coordinate system used. By using the same coordinate system, the image processor can derive the relationship between the dialogue command formed by the gesture and the floating image.

ステップS507において、ジェスチャーから1つ又は複数のキーパーツによる三次元座標の変化量を判断し、それに基づいて対話コマンドを決定する。特定の実施形態において、その対話コマンドをコンピュータシステムに送信し、元の表示浮遊画像の画像座標情報と比較して、新たな浮遊画像の画像座標情報(ステップS509)を算出する。なかでも、特定の実施形態においては、浮遊画像表示装置において、ジェスチャーに基づいて対話コマンドを決定すると、表示装置における画像プロセッサーはその対話コマンドに基づいて記憶ユニットにおける画像データをチェックする。当該ジェスチャーと対応する画像データが存在する場合、三次元座標の変化量に対応する浮遊画像データを取得できる。或いは、画像プロセッサーが対話コマンドに基づいて三次元座標の変化量に対応する浮遊画像データを即刻に算出してもよい。 In step S507, the amount of change in the three-dimensional coordinates due to one or more key parts is determined from the gesture, and the dialogue command is determined based on the amount of change. In a particular embodiment, the dialogue command is transmitted to the computer system and compared with the image coordinate information of the original display floating image to calculate the image coordinate information of the new floating image (step S509). Among them, in a specific embodiment, when the floating image display device determines the dialogue command based on the gesture, the image processor in the display device checks the image data in the storage unit based on the dialogue command. When the image data corresponding to the gesture exists, the floating image data corresponding to the amount of change in the three-dimensional coordinates can be acquired. Alternatively, the image processor may immediately calculate the floating image data corresponding to the amount of change in the three-dimensional coordinates based on the dialogue command.

特定の実施形態において、コンピュータシステムで実行されるドライバープログラムは、コンピュータシステムが当該対話コマンドに応じて生成したメッセージに基づいて、画像サーバーに保存した画像データベースをチェックするように画像サーバーにリクエストを発信してもよい。その後、対応的な画像データがあったと確認した場合、対応的な画像データをダウンロードすることによって、浮遊画像表示装置は、コンピュータシステムから、浮遊画像を各種ジェスチャーで操作された後表示すべき次の浮遊画像データを得ることができる(ステップS511)。そして、その次の浮遊画像データにより、新たな浮遊画像を表示する(ステップS513)。 In certain embodiments, the driver program running on the computer system makes a request to the image server to check the image database stored on the image server based on the message generated by the computer system in response to the interactive command. You may. After that, when it is confirmed that there is corresponding image data, by downloading the corresponding image data, the floating image display device should display the floating image after being operated by various gestures from the computer system. Floating image data can be obtained (step S511). Then, a new floating image is displayed based on the next floating image data (step S513).

続いて、図6は、浮遊画像表示装置が対話方法を執行する実施形態フローチャートである。このフローチャートは、ジェスチャーセンサー61、浮遊画像表示装置62、コンピュータシステム63及びアプリケーションサーバ64の間の対話プロセスを示している。 Subsequently, FIG. 6 is a flowchart of an embodiment in which the floating image display device executes the dialogue method. This flowchart shows the dialogue process between the gesture sensor 61, the floating image display device 62, the computer system 63 and the application server 64.

当該対話プロセスの実施形態によって、対話方法を適用されるコンピュータ装置は、浮遊画像表示装置62に接続される。使用者がコンピュータシステム63におけるアプリケーションプログラムを操作して、ソフトウェアプログラムを起動すると、そのソフトウェアプログラムは、アプリケーションサーバ64から例えば、Webコンテンツ等のコンテンツを読み込む(ステップS601)。この時、コンピュータシステム63にコンピュータ画像が表示される(ステップS603)。浮遊画像を表示するために、まず浮遊画像に係る関連情報を含むコマンドデータを生成して、そのコマンドデータを所定の通信インターフェースに介して浮遊画像表示装置62に送信する(ステップS605)。浮遊画像表示装置62における画像プロセッサーは、浮遊画像に係るカラー情報及び三次元空間情報に基づいて、浮遊画像データを算出する(ステップS607)。浮遊画像データは、表示パネルに浮遊画像を表示するために用いられる。 According to the embodiment of the dialogue process, the computer device to which the dialogue method is applied is connected to the floating image display device 62. When the user operates the application program in the computer system 63 to start the software program, the software program reads the content such as Web content from the application server 64 (step S601). At this time, the computer image is displayed on the computer system 63 (step S603). In order to display the floating image, first, command data including related information related to the floating image is generated, and the command data is transmitted to the floating image display device 62 via a predetermined communication interface (step S605). The image processor in the floating image display device 62 calculates the floating image data based on the color information and the three-dimensional spatial information related to the floating image (step S607). The floating image data is used to display the floating image on the display panel.

そのように、使用者は、浮遊画像表示装置62に表示された浮遊画像を見ることができる。そして、ジェスチャーを介して浮遊画像を操作できる。浮遊画像表示装置62は、ジェスチャーセンサー61によって、ジェスチャーを検知する(ステップS609)。そして、得られたジェスチャーによる移動、回転、ズーム等の動作が計算され三次元座標の変化量に変換した。三次元座標の変化量によっては、対応的な対話コマンドが生成される(ステップS611)。 As such, the user can see the floating image displayed on the floating image display device 62. Then, the floating image can be manipulated through gestures. The floating image display device 62 detects a gesture by the gesture sensor 61 (step S609). Then, the movements such as movement, rotation, and zoom by the obtained gestures were calculated and converted into the amount of change in the three-dimensional coordinates. Corresponding dialogue commands are generated depending on the amount of change in the three-dimensional coordinates (step S611).

その後、浮遊画像表示装置62から対話コマンドがコンピュータシステム63に送信される(ステップS613)。そして、コンピュータシステム63に執行されるソフトウェアプログラムは、対話コマンドに基づいて、例えば、対話によるコンピュータ画像を表示する対応的なプロセスを実行できる(ステップS615)。この場合、コンピュータシステム63が対話コマンドを処理する間に、アプリケーションサーバ64から更なるコンテンツを取得する工程が実行されてもよい。また、同時に三次元座標の変化量に対応する新たな画像データを得って、その更なるコンテンツ又は三次元座標の変化量に対応する新たな画像データをコマンドパケットとして形成して、浮遊画像表示装置62に送信する工程が実行されてもよい(ステップS617)。 After that, the floating image display device 62 transmits the dialogue command to the computer system 63 (step S613). Then, the software program executed in the computer system 63 can execute, for example, a corresponding process of displaying a computer image by dialogue based on the dialogue command (step S615). In this case, the step of acquiring further content from the application server 64 may be executed while the computer system 63 processes the interactive command. At the same time, new image data corresponding to the amount of change in the three-dimensional coordinates is obtained, and further content or new image data corresponding to the amount of change in the three-dimensional coordinates is formed as a command packet to display a floating image. The step of transmitting to the device 62 may be executed (step S617).

浮遊画像表示装置62では、受信したコマンドパケットから画像データを取得して、その画像データを計算して浮遊画像を表示するためのデータに変換してから、表示パネルに今回の対話により形成した浮遊画像が表示される(ステップS619)。そして、浮遊画像表示装置62は、次のジェスチャーを検知するようになる(ステップS621)。 The floating image display device 62 acquires image data from the received command packet, calculates the image data, converts it into data for displaying the floating image, and then forms the floating image on the display panel by this dialogue. The image is displayed (step S619). Then, the floating image display device 62 comes to detect the next gesture (step S621).

異なる実施形態において、前記浮遊画像表示装置とコンピュータ装置と協働する方法は、様々な変化ができる。例えば、浮遊画像表示装置をモジュール化してコンピュータシステムの構造に内蔵してもよい。また、ジェスチャーセンサーは、自身のセンサー技術によって、ジェスチャーが検知できる位置に配置さればよい。 In different embodiments, the method of cooperating with the floating image display device and the computer device can be varied. For example, the floating image display device may be modularized and built into the structure of a computer system. In addition, the gesture sensor may be placed at a position where the gesture can be detected by its own sensor technology.

特定の実施形態では、例えば、図7を参照されたい。図7は、コンピュータ装置に浮遊画像表示装置が配置された実施形態を示す模式図である。 In certain embodiments, see, for example, FIG. FIG. 7 is a schematic view showing an embodiment in which a floating image display device is arranged on a computer device.

図7では、例えば、ラップトップ等のコンピュータ装置70が示されて、そのキーボードの部分に、モジュール化された浮遊画像表示装置が配置される。即ち、図7では、コンピュータ装置70に内蔵した浮遊画像表示モジュール72が示されている。その詳細な構造又は回路は、図1及び図2に示した実施形態を参考できる。 In FIG. 7, for example, a computer device 70 such as a laptop is shown, and a modular floating image display device is arranged on a keyboard portion thereof. That is, FIG. 7 shows a floating image display module 72 built in the computer device 70. For the detailed structure or circuit thereof, the embodiments shown in FIGS. 1 and 2 can be referred to.

浮遊画像表示モジュール72における処理回路は、コンピュータシステムが提供した画像データを変換することによって浮遊画像721を表示できる。コンピュータ装置70における所定の位置にジェスチャーセンサー74が配置される。ジェスチャーセンサー74は、浮遊画像表示モジュール72と電気的に接続されており、映像検知手段、光線遮断手段または音波反射手段等の検知技術で、使用者のジェスチャーを取得する。得られたジェスチャーは、使用者の指、手のひら及び指関節の三次元座標に変化、或いは、他のオブジェクトまたは人体部分が浮遊画像で行った対話である。精確に言えば、ジェスチャーセンサー74で使用される技術は、3次元空間タッチ技術を実現している。空間センサーは、例えば、2次元カメラ(2D Camera)、深度カメラ(Depth Camera)、グレーティングセンサ等の光学センサーであるか、またはレーダ(Radar)、超音波(Ultrasonic)等の音波センサーを基に、フローティングタッチ(Hovering touch)を実現したセンサーをいう。そのように、前記ジェスチャーセンサー技術によれば、使用者の手部(又は所定のオブジェクト、人体部分)の動作を継続的に追跡できる。また、ジェスチャーセンサー74に、追跡計算、手部関節位置分析、座標の転換等の機能が含まれてもよい。そのように、ジェスチャーセンサー74は、予めに設定したジェスチャーと対話コマンドとの対照表を用意して、所定の人体部分が浮遊画像の表示範囲内の移動、回転、またはズームの動作の1つ又は任意の組み合わせに基づいて、対話コマンドを決定することができる。 The processing circuit in the floating image display module 72 can display the floating image 721 by converting the image data provided by the computer system. The gesture sensor 74 is arranged at a predetermined position on the computer device 70. The gesture sensor 74 is electrically connected to the floating image display module 72, and acquires the gesture of the user by a detection technique such as an image detecting means, a light blocking means, or a sound wave reflecting means. The resulting gesture is a dialogue that changes to the three-dimensional coordinates of the user's fingers, palms and knuckles, or is performed by another object or human body part in a floating image. To be precise, the technology used in the gesture sensor 74 realizes a three-dimensional space touch technology. The spatial sensor is, for example, an optical sensor such as a two-dimensional camera (2D Camera), a depth camera (Dept Camera), a grating sensor, or a sound sensor such as a radar (Radar) or an ultrasonic (Ultrasonic). A sensor that realizes a floating touch. As such, according to the gesture sensor technology, the movement of the user's hand (or a predetermined object, human body part) can be continuously tracked. In addition, the gesture sensor 74 may include functions such as tracking calculation, wrist joint position analysis, and coordinate conversion. As such, the gesture sensor 74 prepares a comparison table of preset gestures and dialogue commands so that a predetermined human body part is one of the movement, rotation, or zoom movements within the display range of the floating image. Dialogue commands can be determined based on any combination.

図8は、コンピュータ装置80に浮遊画像表示モジュール82が内蔵した実施形態を示す模式図である。これは、構造を介して内蔵されモジュール化された浮遊画像表示装置の実施形態である。浮遊画像表示モジュール82によって、コンピュータ装置80の所定の位置に浮遊画像821が表示され、コンピュータ装置80で実行されるソフトウェアプログラムに応じて、対応的なコンピュータ画像801が表示される。 FIG. 8 is a schematic view showing an embodiment in which the floating image display module 82 is built in the computer device 80. This is an embodiment of a floating image display device built in through a structure and modularized. The floating image display module 82 displays the floating image 821 at a predetermined position on the computer device 80, and the corresponding computer image 801 is displayed according to the software program executed by the computer device 80.

図9は、別の実施形態を示す模式図である。図9は、コンピュータ装置90が外部のアプリケーションサーバからコンテンツを取得する例を示している。この実施形態において、外部のアプリケーションサーバとしては、Eコマースプラットフォームである。図9において、商品画像901に、商品名、価格など、又は使用者が選択をすることができる(コレクト、カートに入れる)等の選択肢が標示されている商品画像901が、コンピュータ装置90に表示される。また、外部接続でコンピュータ装置90と接続された浮遊画像表示装置92には、同期に商品浮遊画像921が表示される。 FIG. 9 is a schematic view showing another embodiment. FIG. 9 shows an example in which the computer device 90 acquires content from an external application server. In this embodiment, the external application server is an e-commerce platform. In FIG. 9, the product image 901 is displayed on the computer device 90 with the product name, price, and other options that the user can select (collect, add to cart). Will be done. Further, the product floating image 921 is displayed synchronously on the floating image display device 92 connected to the computer device 90 by an external connection.

この時、使用者は、浮遊画像表示装置92に介して商品の浮遊画像921を見ることができる他、ジェスチャーで商品を見る角度を変更するように商品の三次元画像を操作できる。商品浮遊画像921が三次元画像であるため、ジェスチャーは、例えば、図9に記載された矢印の示すように、左右の水平回転、上下の垂直回転など、空間内の様々な方向への回転を含めることができる。なかでも、ジェスチャーを浮遊画像に変換するための方法では、上記の実施形態に説明しました。なお、浮遊画像表示装置92の内部にその商品の立体画像を示すための全て画像データが予めに記憶されてもよいが、実際のニーズに応じて、コンピュータ装置90または外部画像サーバーからその画像データを取り込むようにしてもよい。 At this time, the user can see the floating image 921 of the product through the floating image display device 92, and can also operate the three-dimensional image of the product so as to change the viewing angle of the product with a gesture. Since the product floating image 921 is a three-dimensional image, the gesture rotates in various directions in the space, for example, horizontal rotation left and right, vertical rotation up and down, as indicated by the arrow shown in FIG. Can be included. Among them, the method for converting a gesture into a floating image has been described in the above embodiment. In addition, all the image data for showing the stereoscopic image of the product may be stored in advance inside the floating image display device 92, but the image data may be stored in advance from the computer device 90 or an external image server according to the actual needs. May be taken in.

例えば、浮遊画像表示装置92に使用者が興味を持つ1つまたは複数のアイテムを表示する。使用者は単一または複数のジェスチャーの組み合わせで選択することができ、アイテムを前進、後退、左右水平移動、垂直上下移動などあらゆる方向に移動させることができ、また、アイテムを自由に回転させたり、ズームインして詳細を確認したり、ズームアウトして他のアイテムと一緒に確認したりと、あらゆる角度からアイテムを見ることができる。また、ジェスチャーを使って、前または次のアイテムのリストに移動し、或いは、購入を完了するためにある商品の立体画像を選択するなどができる。 For example, the floating image display device 92 displays one or more items that the user is interested in. The user can select with a single or a combination of multiple gestures, the item can be moved in any direction such as forward, backward, horizontal horizontal movement, vertical vertical movement, and the item can be rotated freely. You can see the item from all angles, zoom in to see the details, or zoom out to see it with other items. You can also use gestures to move to the list of previous or next items, or to select a 3D image of an item to complete the purchase.

図10は、コンピュータ装置90におけるコンピュータシステムが1つまたは複数のアプリケーションプログラムを実行すると、表示モニターにアプリケーション画像902が表示されることを示す模式図である。この時、外付けの浮遊画像表示装置92に、1つ又は複数のアプリケーションプログラムのソフトウェア浮遊画像922が表示される。なかでも、メニュー表の形式で複数のアプリケーションプログラムのアイコン(icon)が表示されてもよい。使用者は、ジェスチャーでソフトウェア浮遊画像922を操作することによって、執行又は見るアプリケーションプログラムコンテンツを選択する。その場合、関連対話コマンドは、コンピュータシステムに送信され、対応的なアプリケーション画像902が表示される。 FIG. 10 is a schematic diagram showing that when the computer system in the computer device 90 executes one or a plurality of application programs, the application image 902 is displayed on the display monitor. At this time, the software floating image 922 of one or a plurality of application programs is displayed on the external floating image display device 92. Among them, icons (icons) of a plurality of application programs may be displayed in the form of a menu table. The user selects the application program content to be executed or viewed by manipulating the software floating image 922 with a gesture. In that case, the relevant dialogue command is sent to the computer system and the corresponding application image 902 is displayed.

例えば、使用者が浮遊画像表示装置92を利用して複数のアプリケーションプログラムのアイコンを見る時、浮遊画像表示装置92に、1つまたは複数のフローティングアイコンを表示させるために、ソフトウェア浮遊画像922をフローティング操作できる。その上で、使用者は、1つ又は複数の組み合わせたジェスチャーで見たい浮遊画像をズームインしたりズームアウトしたりすることができる。 For example, when the user uses the floating image display device 92 to view the icons of a plurality of application programs, the software floating image 922 is floated in order for the floating image display device 92 to display one or more floating icons. Can be operated. Then, the user can zoom in and out on the floating image to be viewed with one or more combined gestures.

図11は、コンピュータ装置90にビデオ再生プログラムが実行されることを示している。それに対応的に表示されたのは、音声・動画再生画像903である。この実施形態において、外付けの浮遊画像表示装置92に表示された浮遊画像は、使用者がそのビデオ再生機能を操作するための音楽再生ツールの浮遊画像923である。図11は模式的に、一時停止、停止、再生、早送り、早戻しなど、いくつかのオーディオおよびビデオ再生機能のためのボタンが表示される。使用者は、浮遊画像表示装置92に表示された音楽再生ツール浮遊画像923を利用して、オーディオおよびビデオコンテンツを一時停止、停止、再生、早送り、早戻すように操作できる。 FIG. 11 shows that a video playback program is executed on the computer device 90. Correspondingly, the audio / moving image reproduction image 903 is displayed. In this embodiment, the floating image displayed on the external floating image display device 92 is a floating image 923 of a music reproduction tool for the user to operate the video reproduction function. FIG. 11 schematically displays buttons for some audio and video playback functions such as pause, stop, play, fast forward, fast rewind, and so on. The user can operate the audio and video contents to pause, stop, play, fast forward, and fast rewind by using the music playback tool floating image 923 displayed on the floating image display device 92.

例えば、使用者が浮遊画像表示装置92に表示された音楽再生ツールの浮遊画像923を操作して、動画の再生を選択することによって、例えば、図11に示した音声・動画再生画像903’等に構成した動画を再生できる。使用者は、浮遊画像表示装置92を利用して、ジェスチャーで動画を回転して異なる角度から動画のコンテンツを見ることができるが。他のジェスチャーでの操作は、例えば、浮遊画像のズームイン、ズームアウト、動画のフローティング再生、動画の一時停止、前の動画の再生、次の動画の再生等が挙げられる。 For example, when the user operates the floating image 923 of the music reproduction tool displayed on the floating image display device 92 and selects the reproduction of the moving image, for example, the audio / moving image reproduction image 903'shown in FIG. 11 or the like. You can play the video configured in. The user can use the floating image display device 92 to rotate the video with a gesture and view the content of the video from different angles. Operations with other gestures include, for example, zooming in and out of a floating image, floating playback of a video, pausing a video, playing a previous video, playing the next video, and the like.

図12にコンピュータ装置120が示されている。コンピュータ装置120のある位置に浮遊画像表示モジュール122が内蔵されている。コンピュータシステムの作動によって、浮遊画像表示モジュール122にバーチャルアシスタントの浮遊画像123が表示されると共に、それと同時にコンピュータ装置120に、バーチャルアシスタントの浮遊画像123が操作された結果を示すためのコンピュータ画像121が表示されてもよい。 FIG. 12 shows the computer device 120. A floating image display module 122 is built in at a position of the computer device 120. By operating the computer system, the floating image 123 of the virtual assistant is displayed on the floating image display module 122, and at the same time, the computer image 121 for showing the result of operating the floating image 123 of the virtual assistant is displayed on the computer device 120. It may be displayed.

例えば、コンピュータシステムでは、浮遊画像表示モジュール122に、バーチャルアシスタントを実現するためのバーチャルアシスタントの浮遊画像123が表示される。使用者は、そのフローティングアシスタントと対話することができる。実例を挙げれば、バーチャルアシスタントの浮遊画像123の異なる部分を形式的に触ることによって、浮遊画像123に異なる反応をトリガーしてもよい。例えば、浮遊画像の頭に触るとバーチャルアシスタントが挨拶をするようになり、浮遊画像の脚に触るとバーチャルアシスタントが転んでなるという対話効果が果たせる。 For example, in a computer system, a floating image display module 122 displays a floating image 123 of a virtual assistant for realizing a virtual assistant. The user can interact with the floating assistant. To give an example, different reactions may be triggered in the floating image 123 by formally touching different parts of the floating image 123 of the virtual assistant. For example, if you touch the head of the floating image, the virtual assistant will greet you, and if you touch the legs of the floating image, the virtual assistant will fall down.

上記を踏まえて、本発明は、浮遊画像表示技術の応用を開示する。特に、システムとなるように、コンピュータシステムに接続して対話方法を実行する浮遊画像表示装置が開示される。浮遊画像表示装置が生成した浮遊画像は、複数の光束が投射するように形成したリアルイメージであり、非遠近両用視差による立体視効果ではないため、当該表示装置を利用して生成した対話効果、及びコンピュータシステムとの対話プロセスは、従来の技術に対して斬新な発想であることも明らかである。 Based on the above, the present invention discloses an application of a floating image display technique. In particular, a floating image display device that connects to a computer system and executes a dialogue method so as to be a system is disclosed. The floating image generated by the floating image display device is a real image formed so that a plurality of light beams are projected, and is not a stereoscopic effect due to non-perspective parallax. And it is also clear that the dialogue process with the computer system is a novel idea to the conventional technology.

以上に開示された内容は本発明の好ましい実施形態に過ぎず、これにより本発明の特許請求の範囲を制限するものではない。そのため、本発明の明細書及び添付図面の内容に基づき為された等価の技術変形は、全て本発明の特許請求の範囲に含まれるものとする。 The contents disclosed above are merely preferable embodiments of the present invention, and thereby do not limit the scope of claims of the present invention. Therefore, all equivalent technical modifications made based on the contents of the specification and the accompanying drawings of the present invention shall be included in the claims of the present invention.

12:手
10:浮遊画像表示装置
101:光学ユニット
102:表示パネル
103:浮遊画像
105:ジェスチャーセンサー
20:浮遊画像表示装置
201:入力インターフェース
203:画像プロセッサー
204:表示駆動ユニット
205:表示ユニット
206:記憶ユニット
22:ジェスチャーセンサー
221:センサーユニット
222:制御ユニット
223:インターフェイスユニット
202:コンピュータ接続ユニット
25:コンピュータシステム
30:ネットワーク
301:画像サーバー
303:画像データベース
35:コンピュータシステム
61:ジェスチャーセンサー
62:浮遊画像表示装置
63:コンピュータシステム
64:アプリケーションサーバ
70:コンピュータ装置
72:浮遊画像表示モジュール
721:浮遊画像
74:ジェスチャーセンサー
80:コンピュータ装置
801:コンピュータ画像
82:浮遊画像表示モジュール
821:浮遊画像
90:コンピュータ装置
901:商品画像
92:浮遊画像表示装置
921:商品浮遊画像
902:アプリケーション画像
922:ソフトウェア浮遊画像
903, 903’:音声・動画再生画像
923:音楽再生ツール浮遊画像
120:コンピュータ装置
121:コンピュータ画像
122:浮遊画像表示モジュール
123:バーチャルアシスタント浮遊画像
ステップS401〜S423
ステップS501〜S513
ステップS601〜S621
12: Hand 10: Floating image display device 101: Optical unit 102: Display panel 103: Floating image 105: Gesture sensor 20: Floating image display device 201: Input interface 203: Image processor 204: Display drive unit 205: Display unit 206: Storage unit 22: Gesture sensor 221: Sensor unit 222: Control unit 223: Interface unit 202: Computer connection unit 25: Computer system 30: Network 301: Image server 303: Image database 35: Computer system 61: Gesture sensor 62: Floating image Display device 63: Computer system 64: Application server 70: Computer device 72: Floating image display module 721: Floating image 74: Gesture sensor 80: Computer device 801: Computer image 82: Floating image display module 821: Floating image 90: Computer device 901: Product image 92: Floating image display device 921: Floating product image 902: Application image 922: Software floating image 903, 903': Audio / video playback image 923: Music playback tool floating image 120: Computer device 121: Computer image 122 : Floating image display module 123: Virtual assistant floating image steps S401-S423
Steps S501 to S513
Steps S601 to S621

Claims (16)

コンピュータシステムに接続される浮遊画像表示装置において実行される、浮遊画像との対話方法であって、
前記浮遊画像表示装置が前記コンピュータシステムから画像データを受信し、前記画像データを浮遊画像データに変換し、
前記浮遊画像表示装置が前記浮遊画像データに基づいて、前記浮遊画像表示装置における表示パネルに浮遊画像を表示し、
ジェスチャーセンサーによって、ジェスチャーを検知し、前記ジェスチャーによる三次元座標の変化量を取得し、
前記三次元座標の変化量に基づいて対話コマンドを決定し、
前記コンピュータシステムが前記対話コマンドに応じて、前記三次元座標の変化量に照会した新たな画像データを取得し、前記浮遊画像表示装置が前記コンピュータシステムから前記新たな画像データを受信し、前記新たな画像データを新たな浮遊画像データに変換し、
前記浮遊画像表示装置が前記新たな浮遊画像データを基づいて、前記表示パネルに新たな浮遊画像を表示する、
ことを特徴とする浮遊画像との対話方法。
A method of interacting with a floating image, which is performed on a floating image display device connected to a computer system.
The floating image display device receives image data from the computer system, converts the image data into floating image data, and then converts the image data into floating image data.
The floating image display device displays the floating image on the display panel of the floating image display device based on the floating image data.
The gesture sensor detects the gesture and acquires the amount of change in the three-dimensional coordinates due to the gesture.
The dialogue command is determined based on the amount of change in the three-dimensional coordinates.
In response to the dialogue command, the computer system acquires new image data inquired about the amount of change in the three-dimensional coordinates, the floating image display device receives the new image data from the computer system, and the new image data is received. Convert image data into new floating image data,
The floating image display device displays a new floating image on the display panel based on the new floating image data.
A method of interacting with a floating image, which is characterized by the fact that.
前記コンピュータシステムにソフトウェアプログラムが実行され、前記ソフトウェアプログラムは、前記対話コマンドに応じて、前記コンピュータシステムが前記三次元座標の変化量に応じて前記新たな画像データを生成させるように、対応的なプロセスを実行する、請求項1に記載の浮遊画像との対話方法。 A software program is executed on the computer system, and the software program is responsive so that the computer system generates the new image data according to the amount of change in the three-dimensional coordinates in response to the dialogue command. The method of interacting with a floating image according to claim 1, wherein the process is performed. 前記コンピュータシステムは、前記ソフトウェアプログラムが生成したコメントを前記浮遊画像表示装置に提供するための前記画像データ又は前記新たな画像データに変換する、請求項2に記載の浮遊画像との対話方法。 The method of interacting with a floating image according to claim 2, wherein the computer system converts the comment generated by the software program into the image data or the new image data for providing the floating image display device. 前記ソフトウェアプログラムが前記対応的なプロセスを実行した後、使用者が前記ソフトウェアプログラムを操作して生成した新しい指令を生成し、前記コンピュータシステムは、前記新しい指令を前記浮遊画像表示装置に提供するための前記新たな画像データに変換する、請求項3に記載の浮遊画像との対話方法。 After the software program executes the corresponding process, the user operates the software program to generate a new command, and the computer system provides the new command to the floating image display device. The method of interacting with a floating image according to claim 3, which converts the new image data into the above-mentioned new image data. 前記ジェスチャーは、手部の指、手のひら、及び指関節の位置を対応する三次元座標の変化量であり、前記対話コマンドは、移動、回転、ズーム動作の中の1つ又は複数の組み合わせを示すものであり、前記対話コマンドに基づいて、前記ソフトウェアプログラムが前記対応的なプロセスを行う、請求項4に記載の浮遊画像との対話方法。 The gesture is the amount of change in the corresponding three-dimensional coordinates of the positions of the fingers, palms, and knuckles of the hand, and the dialogue command indicates one or more combinations of movement, rotation, and zoom movements. The method of interacting with a floating image according to claim 4, wherein the software program performs the corresponding process based on the dialogue command. 前記コンピュータシステムにドライバープログラムが実行され、前記ドライバープログラムは、前記コンピュータシステムと前記浮遊画像表示装置との通信インターフェースを構築し、前記コンピュータシステムと前記浮遊画像表示装置との間に送受信されるメッセージをンタプリタ又はコンパイルする、請求項1〜5の何れか1項に記載の浮遊画像との対話方法。 A driver program is executed in the computer system, and the driver program constructs a communication interface between the computer system and the floating image display device, and sends and receives a message sent and received between the computer system and the floating image display device. The method of interacting with a floating image according to any one of claims 1 to 5, which is an interface or a compilation. 前記ドライバープログラムは、前記コンピュータシステムが前記対話コマンドに応じて生成したメッセージを基づいて、前記浮遊画像表示装置に提供するための前記画像データまたは前記新たな画像データをダウンロードするリクエストを、画像サーバーに発信し、前記浮遊画像表示装置に提供するための前記画像データまたは前記新たな画像データは、前記浮遊画像のカラー情報及び三次元空間情報が含まれる、請求項6に記載の浮遊画像との対話方法。 The driver program makes a request to the image server to download the image data or the new image data to be provided to the floating image display device based on the message generated by the computer system in response to the dialogue command. The dialogue with the floating image according to claim 6, wherein the image data or the new image data to be transmitted and provided to the floating image display device includes color information and three-dimensional spatial information of the floating image. Method. 浮遊画像の画像データを形成する画像プロセッサーと、
ジェスチャーを検知してジェスチャーによるメッセージを生成するジェスチャーセンサーと、前記画像プロセッサーとに電気的に接続される、入力インターフェースと、
前記画像プロセッサーに電気的に接続され、前記浮遊画像の画像データに基づいて、前記浮遊画像を取得し、表示ユニットに前記浮遊画像を表示する表示駆動ユニットと、
前記画像プロセッサーに電気的に接続されると共に、通信インターフェースに介して、コンピュータシステムを実行するコンピュータ装置に接続される、コンピュータ接続ユニットと、
を備える、浮遊画像表示装置であって、
前記浮遊画像表示装置は、前記コンピュータシステムから画像データを受信し、画像データを前記浮遊画像データに変換し、前記浮遊画像データは前記表示駆動ユニットによって前記浮遊画像に変換し、前記表示ユニットに前記浮遊画像が表示され、
前記浮遊画像表示装置は、前記ジェスチャーセンサーから前記ジェスチャーによるメッセージを受信し、前記ジェスチャーによるメッセージを三次元座標の変化量に変換して、対話コマンドを決定し、
前記対話コマンドに応じて、前記三次元座標の変化量に対応する新たな画像データを生成させるために、前記浮遊画像表示装置は、前記コンピュータ接続ユニットに介して、前記対話コマンドを前記コンピュータシステムに送信し、
前記浮遊画像表示装置は、前記コンピュータシステムから前記新たな画像データを取得し、前記新たな画像データを新たな浮遊画像データに変換し、前記新たな浮遊画像データがさらに新たな浮遊画像に変換され、前記表示ユニットに表示される、
ことを特徴とする浮遊画像表示装置。
An image processor that forms image data for floating images,
A gesture sensor that detects a gesture and generates a message by the gesture, an input interface that is electrically connected to the image processor, and the like.
A display drive unit that is electrically connected to the image processor, acquires the floating image based on the image data of the floating image, and displays the floating image on the display unit.
A computer connection unit that is electrically connected to the image processor and is connected to a computer device that executes a computer system via a communication interface.
It is a floating image display device equipped with
The floating image display device receives image data from the computer system, converts the image data into the floating image data, converts the floating image data into the floating image by the display driving unit, and displays the floating image data on the display unit. Floating image is displayed,
The floating image display device receives a message by the gesture from the gesture sensor, converts the message by the gesture into a change amount of three-dimensional coordinates, and determines a dialogue command.
In order to generate new image data corresponding to the amount of change in the three-dimensional coordinates in response to the dialogue command, the floating image display device sends the dialogue command to the computer system via the computer connection unit. Send and
The floating image display device acquires the new image data from the computer system, converts the new image data into new floating image data, and further converts the new floating image data into a new floating image. , Displayed on the display unit,
A floating image display device characterized by this.
前記浮遊画像表示装置はモジュール化された後、前記コンピュータシステムの構造に内蔵され、前記ジェスチャーセンサーは、前記ジェスチャーを検知できる位置に、前記コンピュータシステムに配置される、請求項8に記載の浮遊画像表示装置。 The floating image according to claim 8, wherein the floating image display device is modularized and then incorporated into the structure of the computer system, and the gesture sensor is arranged in the computer system at a position where the gesture can be detected. Display device. 前記三次元座標の変化量は、前記ジェスチャーセンサーが映像検知手段、光線遮断手段または音波反射手段で、手の指、手のひら及び指関節の位置に対応する前記ジェスチャーを検知して変換したものであり、前記対話コマンドは、移動、回転、ズームの動作の中の1つ又は任意の組み合わせを示すものである、請求項9に記載の浮遊画像表示装置。 The amount of change in the three-dimensional coordinates is converted by the gesture sensor detecting the gesture corresponding to the positions of the fingers, palms and knuckles by the image detecting means, the light blocking means or the sound reflecting means. The floating image display device according to claim 9, wherein the dialogue command indicates one or any combination of movement, rotation, and zoom operations. 前記画像プロセッサーは、前記対話コマンドに基づいて記憶ユニットに記憶される画像データをチェックすることによって、前記三次元座標の変化量に対応する浮遊画像データを取得するか、または、前記対話コマンドに基づいて即刻に前記三次元座標の変化量に対応する浮遊画像データを算出する、請求項8に記載の浮遊画像表示装置。 The image processor either obtains floating image data corresponding to the amount of change in the three-dimensional coordinates by checking the image data stored in the storage unit based on the dialogue command, or is based on the dialogue command. The floating image display device according to claim 8, wherein the floating image data corresponding to the amount of change in the three-dimensional coordinates is immediately calculated. 浮遊画像表示装置及びコンピュータシステムを含む、浮遊画像表示システムであって、
前記浮遊画像表示装置は、
浮遊画像の画像データを形成する画像プロセッサーと、
ジェスチャーを検知してジェスチャーによるメッセージを生成するジェスチャーセンサーと、前記画像プロセッサーとに電気的に接続される、入力インターフェースと、
前記画像プロセッサーに電気的に接続され、前記浮遊画像の画像データに基づいて、前記浮遊画像を取得し、表示ユニットに前記浮遊画像を表示する表示駆動ユニットと、
前記画像プロセッサーに電気的に接続されると共に、通信インターフェースに介して、コンピュータシステムを実行するコンピュータ装置に接続される、コンピュータ接続ユニットと、
を備え、
前記コンピュータシステムにドライバープログラムが実行され、前記ドライバープログラムは、前記コンピュータシステムと前記浮遊画像表示装置との間の通信インターフェースを構築し、前記コンピュータシステムと前記浮遊画像表示装置との間に送受信されるメッセージをンタプリタ又はコンパイルするために機能され、
前記浮遊画像表示装置は、前記コンピュータシステムから画像データを受信し、画像データを前記浮遊画像データに変換し、前記浮遊画像データは前記表示駆動ユニットによって前記浮遊画像に変換し、前記表示ユニットに前記浮遊画像が表示され、
前記浮遊画像表示装置は、前記ジェスチャーセンサーから前記ジェスチャーによるメッセージを受信し、前記ジェスチャーによるメッセージを三次元座標の変化量に変換して、対話コマンドを決定し、
前記対話コマンドに応じて、前記三次元座標の変化量に対応する新たな画像データを生成させるために、前記コンピュータ接続ユニットを介して、前記対話コマンドは前記コンピュータシステムに送信され、
前記浮遊画像表示装置は、前記コンピュータシステムから前記新たな画像データを取得し、前記新たな画像データを新たな浮遊画像データに変換し得て、前記新たな浮遊画像データが新たな浮遊画像に変換された後、前記表示ユニットに前記新たな浮遊画像が表示される、
ことを特徴とする浮遊画像表示システム。
A floating image display system that includes a floating image display device and a computer system.
The floating image display device is
An image processor that forms image data for floating images,
A gesture sensor that detects a gesture and generates a message by the gesture, an input interface that is electrically connected to the image processor, and the like.
A display drive unit that is electrically connected to the image processor, acquires the floating image based on the image data of the floating image, and displays the floating image on the display unit.
A computer connection unit that is electrically connected to the image processor and is connected to a computer device that executes a computer system via a communication interface.
With
A driver program is executed in the computer system, and the driver program constructs a communication interface between the computer system and the floating image display device, and is transmitted and received between the computer system and the floating image display device. Functioned to interface or compile messages,
The floating image display device receives image data from the computer system, converts the image data into the floating image data, converts the floating image data into the floating image by the display driving unit, and displays the floating image data on the display unit. Floating image is displayed,
The floating image display device receives a message by the gesture from the gesture sensor, converts the message by the gesture into a change amount of three-dimensional coordinates, and determines a dialogue command.
In response to the dialogue command, the dialogue command is transmitted to the computer system via the computer connection unit in order to generate new image data corresponding to the amount of change in the three-dimensional coordinates.
The floating image display device can acquire the new image data from the computer system, convert the new image data into new floating image data, and convert the new floating image data into a new floating image. After that, the new floating image is displayed on the display unit.
A floating image display system characterized by this.
前記コンピュータシステムにソフトウェアプログラムが実行され、前記ソフトウェアプログラムは、前記対話コマンドに応じて対応的なプロセスを執行することによって、前記コンピュータシステムで実行される前記ドライバープログラムが前記三次元座標の変化量に応じて前記新たな画像データを生成する、請求項12に記載の浮遊画像表示システム。 A software program is executed on the computer system, and the software program executes a corresponding process in response to the interactive command, so that the driver program executed on the computer system changes the amount of change in the three-dimensional coordinates. The floating image display system according to claim 12, wherein the new image data is generated accordingly. 前記コンピュータシステムが前記ジェスチャーによる前記対話コマンドを受信すると、前記ソフトウェアプログラムが前記対話コマンドに応じて対応的なプロセスを執行し、新しいコメントを生成し、前記コンピュータシステムは、前記新しいコメントを、前記浮遊画像表示装置に提供するための前記新たな画像データに変換する、請求項13に記載の浮遊画像表示システム。 When the computer system receives the dialogue command by the gesture, the software program executes a corresponding process in response to the dialogue command to generate a new comment, and the computer system sends the new comment to the floating. The floating image display system according to claim 13, which converts the new image data to be provided to the image display device. 前記ジェスチャーは、手部の指、手のひら、及び指関節の位置に対応する三次元座標の変化量であり、前記対話コマンドは、移動、回転、ズーム動作の中の1つ又は任意の組み合わせを示すものであり、前記対話コマンドに応じて、前記ソフトウェアプログラムが前記対応的なプロセス行う、請求項14に記載の浮遊画像表示システム。 The gesture is a change in three-dimensional coordinates corresponding to the positions of the fingers, palms, and knuckles of the hand, and the dialogue command indicates one or any combination of movement, rotation, and zoom movements. The floating image display system according to claim 14, wherein the software program performs the corresponding process in response to the dialogue command. 前記ドライバープログラムは、前記コンピュータシステムが前記対話コマンドに応じて生成したメッセージを基づいて、前記浮遊画像表示装置に提供するための前記画像データまたは前記新たな画像データをダウンロードするリクエストを、画像サーバーに発信し、前記浮遊画像表示装置に提供するための前記画像データまたは前記新たな画像データは、前記浮遊画像のカラー情報及び三次元空間情報が含まれる、請求項12〜15に記載の浮遊画像表示システム。 The driver program makes a request to the image server to download the image data or the new image data to be provided to the floating image display device based on the message generated by the computer system in response to the dialogue command. The floating image display according to claims 12 to 15, wherein the image data or the new image data to be transmitted and provided to the floating image display device includes color information and three-dimensional spatial information of the floating image. system.
JP2021028402A 2020-02-27 2021-02-25 Floating image display device, interactive method with floating image, and floating image display system Pending JP2021136036A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW109106409A TWI754899B (en) 2020-02-27 2020-02-27 Floating image display apparatus, interactive method and system for the same
TW109106409 2020-02-27

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022004102U Continuation JP3242079U (en) 2020-02-27 2022-12-13 Floating image display device and floating image display system

Publications (1)

Publication Number Publication Date
JP2021136036A true JP2021136036A (en) 2021-09-13

Family

ID=77661466

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021028402A Pending JP2021136036A (en) 2020-02-27 2021-02-25 Floating image display device, interactive method with floating image, and floating image display system
JP2022004102U Active JP3242079U (en) 2020-02-27 2022-12-13 Floating image display device and floating image display system

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022004102U Active JP3242079U (en) 2020-02-27 2022-12-13 Floating image display device and floating image display system

Country Status (2)

Country Link
JP (2) JP2021136036A (en)
TW (1) TWI754899B (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023081278A (en) * 2021-11-30 2023-06-09 幻景▲ケイ▼動股▲フン▼有限公司 Interactive operation method for stereoscopic image and stereoscopic image display system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW202321894A (en) 2021-11-19 2023-06-01 全台晶像股份有限公司 Hover touch device with sensory feedback

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05336549A (en) * 1992-05-29 1993-12-17 Toshiba Corp Stereoscopic video device
JP2007086931A (en) * 2005-09-20 2007-04-05 Sony Corp Input display device and input display method
US20120113104A1 (en) * 2010-11-05 2012-05-10 Korea Electronics Technology Institute Table type interactive 3d system
JP2013510342A (en) * 2009-11-09 2013-03-21 クゥアルコム・インコーポレイテッド Multi-screen image display
JP2016524262A (en) * 2013-07-10 2016-08-12 リアル ビュー イメージング リミテッド 3D user interface

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201104494A (en) * 2009-07-20 2011-02-01 J Touch Corp Stereoscopic image interactive system
TW201248452A (en) * 2011-05-30 2012-12-01 Era Optoelectronics Inc Floating virtual image touch sensing apparatus
CN104714646A (en) * 2015-03-25 2015-06-17 中山大学 3D virtual touch control man-machine interaction method based on stereoscopic vision
JP2019023767A (en) * 2015-11-17 2019-02-14 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus
DE102016120999B4 (en) * 2016-11-03 2018-06-14 Visteon Global Technologies, Inc. User interface and method for inputting and outputting information in a vehicle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05336549A (en) * 1992-05-29 1993-12-17 Toshiba Corp Stereoscopic video device
JP2007086931A (en) * 2005-09-20 2007-04-05 Sony Corp Input display device and input display method
JP2013510342A (en) * 2009-11-09 2013-03-21 クゥアルコム・インコーポレイテッド Multi-screen image display
US20120113104A1 (en) * 2010-11-05 2012-05-10 Korea Electronics Technology Institute Table type interactive 3d system
JP2016524262A (en) * 2013-07-10 2016-08-12 リアル ビュー イメージング リミテッド 3D user interface

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023081278A (en) * 2021-11-30 2023-06-09 幻景▲ケイ▼動股▲フン▼有限公司 Interactive operation method for stereoscopic image and stereoscopic image display system
JP7450289B2 (en) 2021-11-30 2024-03-15 幻景▲ケイ▼動股▲フン▼有限公司 Interactive operation method for stereoscopic images and stereoscopic image display system
US11934585B2 (en) 2021-11-30 2024-03-19 Lixel Inc. Method for performing interactive operation upon a stereoscopic image and stereoscopic image display system

Also Published As

Publication number Publication date
JP3242079U (en) 2023-05-26
TW202132951A (en) 2021-09-01
TWI754899B (en) 2022-02-11

Similar Documents

Publication Publication Date Title
EP3607418B1 (en) Virtual object user interface display
US20200320793A1 (en) Systems and methods of rerendering image hands to create a realistic grab experience in virtual reality/augmented reality environments
US10417827B2 (en) Syndication of direct and indirect interactions in a computer-mediated reality environment
JP3242079U (en) Floating image display device and floating image display system
CN110753899B (en) Displacement orientation interaction in computer-mediated reality
Burdea et al. Virtual reality technology
US10521028B2 (en) System and method for facilitating virtual interactions with a three-dimensional virtual environment in response to sensor input into a control device having sensors
CN107771309B (en) Method of processing three-dimensional user input
US20180314322A1 (en) System and method for immersive cave application
US20180300953A1 (en) Method And System For Receiving Gesture Input Via Virtual Control Objects
US20110107216A1 (en) Gesture-based user interface
CN106980377B (en) A kind of interactive system and its operating method of three-dimensional space
US20190240573A1 (en) Method for controlling characters in virtual space
US11194402B1 (en) Floating image display, interactive method and system for the same
CN105074617A (en) Three-dimensional user interface device and three-dimensional operation processing method
KR102147430B1 (en) virtual multi-touch interaction apparatus and method
CN109313510A (en) Integrated free space and surface input device
US20170177077A1 (en) Three-dimension interactive system and method for virtual reality
TW202045983A (en) Interactive stereoscopic display and interactive sensing method for the same
JP2007047294A (en) Stereoscopic image display device
JP2019008623A (en) Information processing apparatus, information processing apparatus control method, computer program, and storage medium
CN111373347A (en) Provision of virtual reality content
Caruso et al. Interactive augmented reality system for product design review
JP7292597B2 (en) Display system, image processing device, and program
CN113377190A (en) Floating image display equipment, interaction method and system thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220517

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220913