JP6730837B2 - Peep prevention system - Google Patents

Peep prevention system Download PDF

Info

Publication number
JP6730837B2
JP6730837B2 JP2016082365A JP2016082365A JP6730837B2 JP 6730837 B2 JP6730837 B2 JP 6730837B2 JP 2016082365 A JP2016082365 A JP 2016082365A JP 2016082365 A JP2016082365 A JP 2016082365A JP 6730837 B2 JP6730837 B2 JP 6730837B2
Authority
JP
Japan
Prior art keywords
screen
data
terminal
display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016082365A
Other languages
Japanese (ja)
Other versions
JP2017191293A (en
Inventor
哲 飯島
哲 飯島
稔 勝本
稔 勝本
潤 ▲高▼橋
潤 ▲高▼橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Systems Ltd
Original Assignee
Hitachi Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Systems Ltd filed Critical Hitachi Systems Ltd
Priority to JP2016082365A priority Critical patent/JP6730837B2/en
Publication of JP2017191293A publication Critical patent/JP2017191293A/en
Application granted granted Critical
Publication of JP6730837B2 publication Critical patent/JP6730837B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • Digital Computer Display Output (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理技術に関し、端末画面表示内容を制御する技術に関する。 The present invention relates to information processing technology, and relates to technology for controlling display contents of a terminal screen.

ノートPCやスマートフォン等の端末の画面表示内容は、第三者により覗き見される可能性がある。例えば、公共空間等において、ユーザ本人が、ノートPCで画面を見ながら作業を行っている際に、その付近にいる他人が、その画面を横や後ろから覗き見し、画面表示内容の情報を認識する場合がある。また、覗き見に類似する行為や場合としては、監視カメラによりその画面の表示内容が撮影される場合や、携帯型カメラ等によりその画面の表示内容が盗撮される場合がある。その撮影画像データを第三者が入手することで、その表示内容の情報が認識される場合がある。 There is a possibility that a screen display content of a terminal such as a notebook PC or a smart phone is peeped by a third party. For example, in a public space or the like, while the user himself/herself is working while looking at the screen on a notebook PC, another person in the vicinity can peek at the screen from the side or back and obtain information on the screen display contents. You may recognize. Further, as an action or case similar to peeping, the display contents of the screen may be photographed by a surveillance camera, or the display contents of the screen may be stolen by a portable camera or the like. When the photographed image data is obtained by a third party, the information on the displayed content may be recognized.

公共空間等で端末を利用しつつ、画面の覗き見や撮影による情報漏れ等を防止したい場合がある。画面の覗き見等の防止に係わる従来技術としては以下がある。一般的な技術としては、端末の画面の表面に、光学フィルム等の物が設けられる。この物は、例えば視野角を調整する光学特性を持つ層である。これにより、画面に対して法線方向である正面を含む所定の視野角の範囲内から画面を見る場合には、画面表示内容がよく見え、その範囲外から画面を見る場合には、画面表示内容がよく見えない。即ち、第三者が画面を横等から覗き見した場合、表示内容が認識できない、または認識しにくい。 There are cases where it is desired to prevent leakage of information due to peeping on the screen or shooting while using the terminal in a public space or the like. There are the following conventional techniques related to prevention of peeping of the screen. As a general technique, an object such as an optical film is provided on the surface of the screen of the terminal. This material is, for example, a layer having optical characteristics for adjusting the viewing angle. As a result, when the screen is viewed from within a predetermined viewing angle range including the front, which is the normal direction to the screen, the contents of the screen display can be seen well, and when the screen is viewed from outside that range, the screen display is displayed. I can't see the contents well. That is, when a third person looks at the screen from the side or the like, the display content cannot be recognized or is difficult to recognize.

また、端末の液晶表示装置等のハードウェアにおいて、表示構造の工夫により、画面表示内容を調整する技術、例えば視野角を制御する技術がある。例えば、液晶層や偏光板の工夫により、視野角や輝度の調整がされる。また、例えば、表示画面部に、視野角、即ち出射光の方向を調整する層が設けられる。また、例えば、液晶層等の上に、液晶層の透過光を分離して出射する所定の分離層が設けられる。視野角の制御例としては、広視野角モードと狭視野角モードとを切り替えできる技術がある。また、第1の視野角範囲内では第1の画面表示内容、別の第2の視野角範囲内では別の第2の画面表示内容にする技術がある。 In addition, in hardware such as a liquid crystal display device of a terminal, there is a technique of adjusting screen display content by devising a display structure, for example, a technique of controlling a viewing angle. For example, the viewing angle and the brightness are adjusted by devising the liquid crystal layer or the polarizing plate. Further, for example, the display screen unit is provided with a layer for adjusting the viewing angle, that is, the direction of the emitted light. Further, for example, a predetermined separation layer that separates and transmits the transmitted light of the liquid crystal layer is provided on the liquid crystal layer or the like. As an example of controlling the viewing angle, there is a technology capable of switching between a wide viewing angle mode and a narrow viewing angle mode. In addition, there is a technique in which the first screen display content is set within the first viewing angle range, and the second screen display content is set within another second viewing angle range.

また、端末のソフトウェアにおいて、画面に表示するための画像データの画像処理により、画面表示内容を調整する技術がある。この画像処理の例としては、以下が挙げられる。例えば、輝度やコントラスト等を変更し、背景領域と文字領域とで色を近くして、文字を認識しにくいようにする処理がある。例えば、画像フレーム内の特定の文字や領域を、視認しにくいように加工する処理がある。例えば、元の画像データに、マスクやかく乱等のために所定のパターンや文字等を合成する処理がある。 In addition, there is a technique of adjusting the screen display content by image processing of image data to be displayed on the screen in the software of the terminal. The following are examples of this image processing. For example, there is a process of changing brightness, contrast, and the like so that the background area and the character area have colors close to each other to make it difficult to recognize characters. For example, there is a process of processing a specific character or area in an image frame so that it is hard to see. For example, there is a process in which original image data is combined with a predetermined pattern or character due to a mask or disturbance.

一方、近年では、ユーザに装着可能であるウェアラブル端末として、眼鏡型端末や腕時計型端末等が実用化されている。例えば、眼鏡型端末としては、レンズ面に画像や映像を投射表示するもの等がある。 On the other hand, in recent years, eyeglass-type terminals, wristwatch-type terminals, and the like have been put into practical use as wearable terminals that can be worn by users. For example, as a spectacles-type terminal, there is a terminal for projecting and displaying an image or a video on a lens surface.

端末画面の覗き見防止に関する先行技術例として、特開2005−301367号公報(特許文献1)が挙げられる。特許文献1には、覗き見防止機能付き入力画面及び入力方法として、以下の旨が記載されている。その入力方法では、端末の画面に、所定の入力画面の入力枠を表示し、入力者は、その入力枠にパスワード等のデータを入力する際、その入力枠に対応した眼鏡形状の透視フィルタを装着する。その入力枠の入力データの表示では、表示パターンとダミー表示パターンが混在し、裸眼では意味不明パターンとして認識される。その透視フィルタは、特定色を遮断する。入力者は、その透視フィルタ付き眼鏡の装着状態では、入力データの表示パターンを認識できる。その眼鏡を装着していない者は、その入力枠を覗き見しても、意味不明パターンとなり認識できない。 Japanese Patent Application Laid-Open No. 2005-301367 (Patent Document 1) is given as an example of the prior art relating to prevention of peeping of the terminal screen. Patent Document 1 describes the following as an input screen with a peep prevention function and an input method. In the input method, an input frame of a predetermined input screen is displayed on the screen of the terminal, and when the input person inputs data such as a password into the input frame, the user inputs a glasses-shaped perspective filter corresponding to the input frame. Mounting. In the display of the input data of the input frame, the display pattern and the dummy display pattern are mixed and recognized by the naked eye as an unclear pattern. The perspective filter blocks certain colors. The input person can recognize the display pattern of the input data in the wearing state of the glasses with the perspective filter. A person who does not wear the glasses cannot recognize the pattern even if he/she looks into the input frame.

特開2005−301367号公報JP, 2005-301367, A

上記のように、従来技術として、端末や表示装置のハードウェアやソフトウェアにおける工夫により画面表示内容を調整して覗き見等を防止しようとする技術がある。しかしながら、従来技術では、ユーザ本人が端末の画面で資料作成等の作業を行いつつ、任意の様々な表示内容を認識できると共に、画面の覗き見や撮影による情報漏れ等を防止したい場合に、効果の点で改善余地がある。 As described above, as a conventional technique, there is a technique for preventing peeping or the like by adjusting screen display contents by devising hardware or software of a terminal or a display device. However, the conventional technique is effective when the user himself/herself can recognize various various display contents while performing work such as material creation on the screen of the terminal and prevent information leakage due to peeping on the screen or photographing. There is room for improvement in terms of.

なお、特許文献1に記載の技術では、透視フィルタ付き眼鏡は、フィルタ物であり、情報処理端末ではない。特許文献1に記載の技術では、特定の入力画面及び入力枠の設計に応じて透視フィルタ付き眼鏡を設計して用意する必要があり、複数の眼鏡を使い分ける必要がある。特許文献1に記載の技術では、ノートPC等の端末画面の任意の様々な表示内容に適用することはできず、その表示内容の覗き見等の防止はできない。 In addition, in the technique described in Patent Document 1, the spectacles with a perspective filter are filter objects, not information processing terminals. In the technique described in Patent Document 1, it is necessary to design and prepare glasses with a perspective filter according to the design of a specific input screen and input frame, and it is necessary to use a plurality of glasses properly. The technique described in Patent Document 1 cannot be applied to arbitrary various display contents on a terminal screen of a notebook PC or the like, and cannot prevent the display contents from being peeped.

本発明の目的は、端末画面表示内容を制御する技術に関して、ユーザ本人が端末の画面で資料作成等の作業を行いつつ、任意の様々な表示内容を認識できると共に、画面の覗き見や撮影による情報漏れ等を防止することができる技術を提供することである。 The object of the present invention relates to a technique of controlling the display contents of a terminal screen, in which the user himself/herself can recognize various various display contents while performing work such as material creation on the screen of the terminal, and also by peeping or photographing the screen. It is to provide a technique capable of preventing information leakage and the like.

本発明のうち代表的な実施の形態は、覗き見防止システムであって、以下に示す構成を有することを特徴とする。 A representative embodiment of the present invention is a peep prevention system, which is characterized by having the following configuration.

一実施の形態の覗き見防止システムは、ユーザが使用するユーザ端末と、前記ユーザ端末と通信が可能に接続され、前記ユーザが装着する眼鏡端末と、を備え、前記ユーザ端末は、覗き見防止機能のオフ状態では、第1表示画面部に、可視状態の元画面である第1画面を表示し、前記覗き見防止機能のオン状態では、前記第1表示画面部に、前記第1画面に対応した、不可視状態の画面である第2画面を表示し、前記第2画面に対する入力を受け付け、前記眼鏡端末は、前記覗き見防止機能のオン状態では、第2表示画面部に、前記第2画面の不可視状態を解除するための第3画面を表示し、前記眼鏡端末を装着している前記ユーザの眼に、前記第2画面と前記第3画面との重ね合わせにより、前記第1画面の表示内容が可視状態となる第4画面を結像させる。 A peep prevention system according to an embodiment includes a user terminal used by a user and an eyeglass terminal that is communicably connected to the user terminal and is worn by the user. In the OFF state of the function, the first screen which is the original screen in the visible state is displayed on the first display screen section, and in the ON state of the peep prevention function, the first screen is displayed on the first display screen section. A corresponding second screen, which is a screen in an invisible state, is displayed, an input to the second screen is received, and the eyeglasses terminal displays the second screen on the second display screen unit when the peep prevention function is on. A third screen for canceling the invisible state of the screen is displayed, and the second screen and the third screen are superposed on the eyes of the user wearing the eyeglass terminal, so that the first screen An image is formed on the fourth screen whose display content becomes visible.

本発明のうち代表的な実施の形態によれば、端末画面表示内容を制御する技術に関して、ユーザ本人が端末の画面で資料作成等の作業を行いつつ、任意の様々な表示内容を認識できると共に、画面の覗き見や撮影による情報漏れ等を防止することができる。 According to a representative embodiment of the present invention, regarding a technique for controlling display contents of a terminal screen, the user himself/herself can recognize various various display contents while performing work such as material creation on the screen of the terminal. , It is possible to prevent information leakage due to peeping on the screen and shooting.

本発明の実施の形態1の覗き見防止システムの構成を示す図である。It is a figure which shows the structure of the peep prevention system of Embodiment 1 of this invention. 実施の形態1における、眼鏡端末の構成を示す図である。FIG. 3 is a diagram showing a configuration of an eyeglass terminal according to the first embodiment. 実施の形態1における、機能ブロック構成を示す図である。FIG. 3 is a diagram showing a functional block configuration according to the first embodiment. 実施の形態1における、画像処理例及び画面例を示す図である。FIG. 6 is a diagram showing an example of image processing and an example of a screen in the first embodiment. 実施の形態1における、別の画像処理例及び画面例を示す図である。FIG. 9 is a diagram showing another example of image processing and screen example in the first embodiment. 実施の形態1の変形例における、機能ブロック構成を示す図である。FIG. 6 is a diagram showing a functional block configuration in a modification of the first embodiment. 本発明の実施の形態2の覗き見防止システムにおける機能ブロック構成を示す図である。It is a figure which shows the functional block structure in the peeping prevention system of Embodiment 2 of this invention.

以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において同一部には原則として同一符号を付し、その繰り返しの説明は省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In all of the drawings for explaining the embodiments, the same parts are designated by the same reference numerals in principle, and the repeated description thereof will be omitted.

(実施の形態1)
図1〜図6を用いて、本発明の実施の形態1の覗き見防止システムについて説明する。実施の形態1の覗き見防止システムは、ユーザ端末の画面の表示内容の覗き見等を防止するための覗き見防止機能を有する。
(Embodiment 1)
The peep prevention system according to the first embodiment of the present invention will be described with reference to FIGS. The peeping prevention system according to the first embodiment has a peeping prevention function for preventing peeping of display contents on the screen of the user terminal.

[覗き見防止システム]
図1は、実施の形態1の覗き見防止システムの構成を示す。実施の形態1の覗き見防止システムは、ユーザ端末1と眼鏡端末2とを含むシステムである。図1の上側には、ユーザが眼鏡端末2を装着した状態でユーザ端末1を利用する状態を示す。図1の下側には、図1の上側のユーザ端末1と眼鏡端末2とユーザの眼3との間における、表示される画面の関係等を示す。なお、説明上の方向として、(X,Y,Z)を示す。Z方向は、ユーザが画面を見る視線の方向、画面の光がユーザの眼3に入射される方向とする。また、画面内における水平方向及び垂直方向を、X方向及びY方向とする。
[Peep prevention system]
FIG. 1 shows the configuration of the peep prevention system according to the first embodiment. The peep prevention system according to the first embodiment is a system including a user terminal 1 and an eyeglass terminal 2. The upper side of FIG. 1 shows a state in which the user uses the user terminal 1 while wearing the eyeglass terminal 2. The lower side of FIG. 1 shows the relationship of displayed screens among the user terminal 1, the eyeglass terminal 2, and the user's eye 3 on the upper side of FIG. In addition, (X, Y, Z) is shown as a direction for explanation. The Z direction is the direction of the line of sight of the user looking at the screen, and the direction in which the light of the screen is incident on the user's eye 3. Further, the horizontal direction and the vertical direction in the screen are the X direction and the Y direction.

ユーザは、ユーザ端末1及び眼鏡端末2を携帯及び使用する。公共空間等において、ユーザは、ユーザ端末1を操作してユーザ端末1の画面を見ながら資料作成や閲覧等の作業を行う。その際、ユーザは、必要に応じて眼鏡端末2を装着して作業を行う。ユーザは、必要に応じて覗き見防止機能のオン/オフを切り替えることができる。 The user carries and uses the user terminal 1 and the eyeglass terminal 2. In a public space or the like, a user operates the user terminal 1 to perform work such as material creation and browsing while viewing the screen of the user terminal 1. At that time, the user wears the spectacles terminal 2 as needed to perform the work. The user can switch on/off the peep prevention function as needed.

ユーザ端末1は、ノートPC等の情報処理端末、電子機器である。ユーザ端末1は、表示画面部11や入力部12を備える。ユーザ端末1は、携帯型の装置とするが、固定設置型も適用可能である。入力部12は、キーボード等の機器を含む。ユーザ端末1は、公知の一般的な構成要素として、演算装置、記憶装置、通信インタフェース装置、入出力インタフェース装置、入力装置、表示装置等を有する。 The user terminal 1 is an information processing terminal such as a notebook PC or an electronic device. The user terminal 1 includes a display screen unit 11 and an input unit 12. The user terminal 1 is a portable device, but a fixed installation type is also applicable. The input unit 12 includes a device such as a keyboard. The user terminal 1 includes a computing device, a storage device, a communication interface device, an input/output interface device, an input device, a display device, and the like as known general components.

眼鏡端末2は、ウェアラブル端末の一種として眼鏡型の情報処理端末、電子機器である。眼鏡端末2は、本体部5や表示画面部21を備える。眼鏡端末2は、ユーザの眼3及び頭に対して装着可能であり、表示画面部21に映像を表示可能である型の装置である。眼鏡端末2は、ゴーグル型やヘッドマウントディスプレイ型を含め、各種の装置が適用可能であり、表示方式等を限定しない。 The spectacles terminal 2 is a spectacles-type information processing terminal or an electronic device as a type of wearable terminal. The spectacles terminal 2 includes a main body portion 5 and a display screen portion 21. The spectacles terminal 2 is a device that can be worn on the user's eyes 3 and head and can display an image on the display screen unit 21. Various devices including a goggle type and a head mounted display type can be applied to the eyeglass terminal 2, and the display method is not limited.

ユーザ端末1と眼鏡端末2が連携して機能を実現する。実施の形態1では、ユーザ端末1と眼鏡端末2は、通信ケーブル4によって有線接続されている。ユーザ端末1と眼鏡端末2との接続は、有線通信インタフェースによる接続に限らず、無線通信インタフェースによる接続としてもよい。ユーザ端末1と眼鏡端末2との接続の通信インタフェースは、例えば、USB、Bluetooth(登録商標)、WiFi、HDMI等を適用してもよい。 The user terminal 1 and the spectacles terminal 2 cooperate to realize the function. In the first embodiment, the user terminal 1 and the spectacles terminal 2 are wire-connected by the communication cable 4. The connection between the user terminal 1 and the spectacles terminal 2 is not limited to the connection by the wired communication interface, but may be the connection by the wireless communication interface. As a communication interface for connecting the user terminal 1 and the eyeglasses terminal 2, for example, USB, Bluetooth (registered trademark), WiFi, HDMI or the like may be applied.

表示画面部11は、例えば液晶表示装置により構成される。表示画面部11には、通常時、覗き見防止機能の機能オフ状態では、可視画面100である元画面の内容が表示される。図1の上側では、機能オフ状態を示し、眼鏡端末2の表示画面部21にはまだ特有の画面は表示されていない。可視画面100である元画面の内容は、例えばユーザがユーザ端末1のアプリケーションソフトウェアを用いて資料作成等の作業を行う場合の画面であり、作成中の資料の文字や画像等を含む内容である。なお、可視とは、画面表示内容が視認、認識できること、あるいは視認、認識がしやすいこと、例えば文字等の判読が容易であること等を指す。 The display screen unit 11 is composed of, for example, a liquid crystal display device. Normally, the contents of the original screen, which is the visible screen 100, are displayed on the display screen unit 11 when the peep prevention function is off. The upper side of FIG. 1 shows a function-off state, and the display screen unit 21 of the eyeglass terminal 2 has not yet displayed a unique screen. The content of the original screen, which is the visible screen 100, is a screen when the user performs work such as material creation using the application software of the user terminal 1, and is content including characters and images of the material being created. .. The term "visible" means that the contents displayed on the screen can be visually recognized and recognized, or that they can be easily visually recognized and recognized, for example, that characters and the like can be easily read.

表示画面部11には、覗き見防止機能の機能オン状態では、不可視画面101が表示される。図1の下側は、機能オン状態を示し、ユーザを省略して示す。不可視画面101は、可視画面100である元画面の内容が不可視の状態となっている画面である。なお、不可視とは、画面表示内容が視認、認識できないこと、あるいは視認、認識がしにくいこと、例えば文字等の判読が難しいこと等を指す。不可視画面101は、覗き見9を含めて、直接に裸眼で見た場合やカメラ等で撮影した場合に、元画面の内容の文字や画像等が認識できない、または認識しにくい、という状態の画面である。 An invisible screen 101 is displayed on the display screen unit 11 when the peep prevention function is on. The lower side of FIG. 1 shows the function-on state, with the user omitted. The invisible screen 101 is a screen in which the contents of the original screen, which is the visible screen 100, are invisible. Note that invisible means that the screen display content cannot be visually recognized or recognized, or that it is difficult to visually recognize or recognize it, for example, it is difficult to read characters or the like. The invisible screen 101 is a screen in a state where the characters and images of the contents of the original screen cannot be recognized or are difficult to recognize when viewed directly with the naked eye including the peep 9 or when taken by a camera or the like. Is.

ユーザ端末1は、可視画面100である元画面に対応する画像データに基づいて、不可視画面101を表示するための画像データを作成し、その画像データに基づいて、表示画面部11に不可視画面101を表示する。 The user terminal 1 creates image data for displaying the invisible screen 101 based on the image data corresponding to the original screen which is the visible screen 100, and based on the image data, the invisible screen 101 is displayed on the display screen unit 11. Is displayed.

可視画面100や不可視画面101からの光は、Z方向で、透過光6として、眼鏡端末2の表示画面部21を透過して、ユーザの眼3に入射される。眼3は網膜等を示す。眼3には、画面に対応する画像や映像が結像される。 Light from the visible screen 100 and the invisible screen 101 is transmitted in the Z direction as transmitted light 6 through the display screen portion 21 of the eyeglass terminal 2 and is incident on the user's eye 3. The eye 3 shows the retina or the like. An image or video corresponding to the screen is formed on the eye 3.

表示画面部21は、例えばレンズにより構成される。本体部5は、表示画面部21に画像や映像を表示するための機構を備えている。表示画面部21は、機能オフ状態では、透過状態であり、解除画面102は表示されない。表示画面部21は、機能オン状態では、解除画面102が表示される。 The display screen unit 21 is composed of, for example, a lens. The main body section 5 includes a mechanism for displaying an image or video on the display screen section 21. The display screen unit 21 is in the transparent state in the function-off state, and the release screen 102 is not displayed. In the display screen portion 21, the release screen 102 is displayed when the function is on.

ユーザ端末1は、可視画面100である元画面に対応する画像データに基づいて、不可視画面101と組になる、解除画面102を表示するための画像データを作成し、その画像データを眼鏡端末2に送信する。そして、眼鏡端末2は、ユーザ端末1から受信した画像データに基づいて、表示画面部21に、解除画面102を表示する。本体部5は、画像データに基づいて、例えば投射表示方式で、表示画面部21であるレンズ面に、解除画面102の画像を表示する。 The user terminal 1 creates image data for displaying the release screen 102, which is paired with the invisible screen 101, based on the image data corresponding to the original screen which is the visible screen 100, and uses the image data as the eyeglass terminal 2 Send to. Then, the eyeglass terminal 2 displays the release screen 102 on the display screen unit 21 based on the image data received from the user terminal 1. The main body unit 5 displays the image of the cancellation screen 102 on the lens surface which is the display screen unit 21 based on the image data by, for example, a projection display method.

解除画面102は、ユーザ端末1の不可視画面101の内容の不可視の状態を解除して元画面の内容の可視の状態に戻すための画面である。解除画面102は、組となる不可視画面101に対して、重ね合わせされる画面である。眼鏡端末2を用いて、ユーザの眼3は、ユーザ端末1の不可視画面101と、眼鏡端末2の解除画面102とを重ね合わせた状態で見る。 The cancellation screen 102 is a screen for canceling the invisible state of the contents of the invisible screen 101 of the user terminal 1 and returning to the visible state of the contents of the original screen. The cancellation screen 102 is a screen that is superimposed on the invisible screen 101 that forms a pair. Using the spectacles terminal 2, the user's eyes 3 see the invisible screen 101 of the user terminal 1 and the cancellation screen 102 of the spectacles terminal 2 in an overlapping state.

眼鏡端末2の装着状態及び機能オン状態で、ユーザの眼3には、Z方向で、ユーザ端末1の不可視画面101からの透過光6と、眼鏡端末2の解除画面102の反射光7とが入射される。即ち、眼3には、それら2種類の光が合成、重畳された光である重畳光8が入射される。これにより、眼3では、重畳光8が重畳画面103として結像される。即ち、ユーザは、機能オン状態では、重畳画面103を見る。重畳画面103は、不可視画面101と解除画面102とが重ね合わせされた結果の画面であり、可視画面100である元画面の内容が可視状態となる画面である。重畳画面103は、元画面の内容がそのまま視認できる状態となる画面か、あるいは元画面の内容が完全ではなくても十分に容易に視認できる状態となる画面である。ユーザは、重畳画面103として、元画面の表示内容を認識することができる。 In the wearing state and function-on state of the eyeglass terminal 2, the user's eye 3 receives the transmitted light 6 from the invisible screen 101 of the user terminal 1 and the reflected light 7 of the release screen 102 of the eyeglass terminal 2 in the Z direction. It is incident. That is, the superposed light 8 that is the light obtained by combining and superposing the two types of light is incident on the eye 3. As a result, the superimposed light 8 is imaged on the eye 3 as the superimposed screen 103. That is, the user looks at the superimposed screen 103 in the function-on state. The superimposition screen 103 is a screen resulting from superimposition of the invisible screen 101 and the cancellation screen 102, and is a screen in which the content of the original screen, which is the visible screen 100, becomes visible. The superimposed screen 103 is a screen in which the contents of the original screen can be visually recognized as it is, or a screen in which the contents of the original screen can be easily visually recognized even if the contents are not complete. The user can recognize the display content of the original screen as the superimposed screen 103.

それと共に、機能オン状態では、ユーザ本人の付近にいる他人が、ユーザ端末1の表示画面部11を覗き見9、例えば直接に裸眼で見たとしても、不可視画面101であるため、元画面の内容を認識できない、または認識しにくい。同様に、監視カメラや他人の携帯型カメラ等の機器が、ユーザ端末1の表示画面部11を撮影したとしても、不可視画面101であるため、元画面の内容を撮影できない、または撮影しにくい。他人は、元画面の内容を表す撮影画像データを入手することはできない。 At the same time, in the function-on state, another person in the vicinity of the user himself looks at the display screen section 11 of the user terminal 1, for example, even if he/she directly sees it with his/her naked eyes, it is the invisible screen 101. I can't or don't recognize the contents. Similarly, even if a device such as a surveillance camera or a portable camera of another person shoots the display screen unit 11 of the user terminal 1, since it is the invisible screen 101, it is difficult or difficult to shoot the contents of the original screen. Others cannot obtain the captured image data representing the contents of the original screen.

このように、実施の形態1の覗き見防止システムは、覗き見防止機能の機能オン状態では、ユーザ端末1では不可視画面101を表示し、眼鏡端末2では解除画面102を表示する。これにより、ユーザ本人がユーザ端末1で元画面の内容を見ながら作業できると共に、第三者によるユーザ端末1の元画面の内容の覗き見等を防止することができる。 As described above, the peeping prevention system according to the first embodiment displays the invisible screen 101 on the user terminal 1 and the cancellation screen 102 on the spectacles terminal 2 in the function-on state of the peeping prevention function. As a result, the user himself/herself can work while looking at the content of the original screen on the user terminal 1, and it is possible to prevent a third party from peeping at the content of the original screen of the user terminal 1.

[眼鏡端末の構成例]
眼鏡端末2の構成例は以下である。図2は、眼鏡端末2の機能ブロック構成を示す。本体部5は、眼鏡端末2の本体として、表示画面部21への画像の表示等を行う部分である。本体部5は、ICチップ、光学素子、及びそれらを収容して眼鏡フレームに取り付けるケース等により構成される。
[Example of configuration of eyeglass terminal]
The configuration example of the eyeglass terminal 2 is as follows. FIG. 2 shows a functional block configuration of the eyeglass terminal 2. The main body 5 is a main body of the spectacles terminal 2 that displays images on the display screen unit 21. The main body 5 is composed of an IC chip, an optical element, and a case that accommodates them and is attached to an eyeglass frame.

図2で、本体部5は、制御部51、記憶部52、通信部53、投射表示部54、入力部55を有する。投射表示部54は、駆動部61、表示素子62、投射光学系63を有する。 In FIG. 2, the main body unit 5 includes a control unit 51, a storage unit 52, a communication unit 53, a projection display unit 54, and an input unit 55. The projection display unit 54 has a drive unit 61, a display element 62, and a projection optical system 63.

制御部51は、CPU、ROM、RAM等により構成され、本体部5の各部の動作を制御する。記憶部52は、メモリ等で構成され、画像データ等が格納される。通信部53は、所定の通信インタフェースで通信を行う部分であり、ユーザ端末1の通信部と、通信ケーブル4で接続され、有線接続インタフェースで通信する。通信部53は、ユーザ端末1の通信部と通信し、ユーザ端末1からの画像データや制御情報の受信やユーザ端末1への制御情報の送信等を行う。 The control unit 51 includes a CPU, a ROM, a RAM, and the like, and controls the operation of each unit of the main body unit 5. The storage unit 52 includes a memory and the like, and stores image data and the like. The communication unit 53 is a unit that performs communication with a predetermined communication interface, is connected to the communication unit of the user terminal 1 with the communication cable 4, and communicates with the wired connection interface. The communication unit 53 communicates with the communication unit of the user terminal 1 to receive image data and control information from the user terminal 1 and send control information to the user terminal 1.

投射表示部54は、制御部51からの制御に従い、表示画面部21への画像、映像の投射表示を行う部分である。駆動部61は、画面の画像データに基づいて、表示素子62を駆動して、表示素子62に画像を形成する。投射光学系63は、レンズやプリズム等の光学素子で構成され、表示素子62で形成された画像を、表示画面部21であるレンズ面に投射する。投射された光は、図1のように、表示画面部21であるレンズ面で反射し、Z方向で、反射光7として、眼3に入射される。 The projection display unit 54 is a unit that performs projection display of images and videos on the display screen unit 21 under the control of the control unit 51. The drive unit 61 drives the display element 62 based on the image data of the screen to form an image on the display element 62. The projection optical system 63 includes optical elements such as lenses and prisms, and projects the image formed by the display element 62 onto the lens surface that is the display screen unit 21. The projected light is reflected by the lens surface that is the display screen portion 21 as shown in FIG. 1, and is incident on the eye 3 as reflected light 7 in the Z direction.

入力部55は、ユーザ操作入力のための部分であり、例えば入力ボタン等を有する。ユーザ操作入力の例としては、眼鏡端末2のパワーのオン/オフ、所定の機能のオン/オフ、投射表示のオン/オフ、投射表示状態の調整、等が挙げられる。このユーザ操作入力としては、覗き見防止機能のオン/オフを可能としてもよい。制御部51は、入力部55の入力状態に応じて動作を制御する。 The input unit 55 is a part for inputting a user operation, and has, for example, an input button. Examples of the user operation input include turning on/off the power of the eyeglass terminal 2, turning on/off a predetermined function, turning on/off the projection display, and adjusting the projection display state. As this user operation input, the peep prevention function may be turned on/off. The control unit 51 controls the operation according to the input state of the input unit 55.

なお、入力部55は、本体部5や眼鏡端末2の他の箇所に備えてもよいし、備えなくてもよい。備えない場合、ユーザ端末1から眼鏡端末2へ、ユーザ操作入力に対応した指示を送信する形態とすればよい。入力部55は、眼鏡端末2の本体部5と有線または無線で接続される別の機器、例えば眼鏡端末2の構成要素である操作機器に備えてもよい。その操作機器は、入力ボタンやバッテリ等を備える。ユーザは、その操作機器を所持し、手動操作する。その操作機器は、ユーザ入力操作に応じた信号を本体部5へ送る。 The input unit 55 may or may not be provided in the main body 5 and other parts of the eyeglass terminal 2. If not provided, an instruction corresponding to a user operation input may be transmitted from the user terminal 1 to the eyeglasses terminal 2. The input unit 55 may be provided in another device that is connected to the main body 5 of the eyeglass terminal 2 in a wired or wireless manner, for example, in an operating device that is a component of the eyeglass terminal 2. The operating device includes an input button, a battery, and the like. The user carries the operating device and manually operates it. The operating device sends a signal according to a user input operation to the main body unit 5.

眼鏡端末2は、汎用的な端末を用いてもよいし、覗き見防止のための専用端末としてもよい。眼鏡端末2は、汎用的な端末の場合、覗き見防止機能を利用せずに解除画面102を表示しない場合には、表示機能を用いて表示画面部21に所定の画像を表示可能である。 The spectacles terminal 2 may be a general-purpose terminal or may be a dedicated terminal for peep prevention. In the case of a general-purpose terminal, the eyeglass terminal 2 can display a predetermined image on the display screen unit 21 using the display function when the cancellation screen 102 is not displayed without using the peep prevention function.

[機能ブロック構成]
図3は、実施の形態1の覗き見防止システムの機能ブロック構成を示す。ユーザ端末1は、表示画面部11、入力部12、制御部31、記憶部32、通信部33、表示部34、不可視画面生成部41、解除画面生成部42を有する。不可視画面生成部41及び解除画面生成部42は、制御部31の一部としてソフトウェアプログラム処理により実現されてもよいし、特定の回路により実現されてもよい。
[Function block configuration]
FIG. 3 shows a functional block configuration of the peep prevention system according to the first embodiment. The user terminal 1 includes a display screen unit 11, an input unit 12, a control unit 31, a storage unit 32, a communication unit 33, a display unit 34, an invisible screen generation unit 41, and a release screen generation unit 42. The invisible screen generation unit 41 and the cancellation screen generation unit 42 may be realized by software program processing as a part of the control unit 31, or may be realized by a specific circuit.

制御部31は、CPU、ROM、RAM等により構成され、ユーザ端末1の各部を含む全体を制御する。制御部31は、OSやアプリケーションプログラムを実行する機能を有する。また、制御部31は、特有の覗き見防止機能を制御する機能を有する。 The control unit 31 includes a CPU, a ROM, a RAM, and the like, and controls the entire unit including each unit of the user terminal 1. The control unit 31 has a function of executing an OS and application programs. Further, the control unit 31 has a function of controlling a peep prevention function that is unique.

記憶部32は、制御部31等が扱う各種のデータや情報、プログラム等を記憶する。記憶部32には、元画面データ200、素材データ205、他の画像データ等が格納される。記憶部32には、不可視画面データ202や解除画面データ203等が格納されてもよい。元画面データ200は、制御部31のアプリケーションソフトウェア等が生成するデータとしてもよいし、表示部34で生成されたデータとしてもよい。元画面データ200は、外部から入力されたデータとしてもよい。素材データ205は、後述するが、画像処理で素材として使用するデータである。 The storage unit 32 stores various data, information, programs and the like handled by the control unit 31 and the like. The storage unit 32 stores the original screen data 200, the material data 205, other image data, and the like. The storage unit 32 may store the invisible screen data 202, the release screen data 203, and the like. The original screen data 200 may be data generated by application software of the control unit 31 or the like, or may be data generated by the display unit 34. The original screen data 200 may be data input from the outside. The material data 205, which will be described later, is data used as a material in image processing.

通信部33は、所定の通信インタフェースで通信処理を行う部分であり、特に眼鏡端末2の通信部53との間で有線通信インタフェースで通信処理を行う機能を含む。 The communication unit 33 is a unit that performs communication processing with a predetermined communication interface, and particularly includes a function of performing communication processing with the communication unit 53 of the eyeglass terminal 2 using a wired communication interface.

表示部34は、表示画面部11に画像、映像の表示を行う部分である。表示部34は、例えば液晶表示を行う部分であり、液晶表示駆動部を含む。表示部34は、画面の画像データに基づいて、表示画面部11を駆動して、画面の画像等を表示させる。表示画面部11に表示される画面は、図1の可視画面100及び不可視画面101がある。 The display unit 34 is a unit that displays an image and a video on the display screen unit 11. The display unit 34 is, for example, a unit that performs liquid crystal display, and includes a liquid crystal display drive unit. The display unit 34 drives the display screen unit 11 based on the image data of the screen to display the image of the screen and the like. The screens displayed on the display screen unit 11 include the visible screen 100 and the invisible screen 101 of FIG.

制御部31は、覗き見防止機能の機能オフ状態では、記憶部32の元画面データ200を、可視画面データ201として表示部34へ送信する。可視画面データ201は、可視画面100を表示するための画像データ、映像データであり、第1画面データである。表示部34は、可視画面データ201に基づいて、表示画面部11に可視画面100を表示する。 The control unit 31 transmits the original screen data 200 of the storage unit 32 to the display unit 34 as visible screen data 201 when the function of the peep prevention function is off. The visible screen data 201 is image data and video data for displaying the visible screen 100, and is first screen data. The display unit 34 displays the visible screen 100 on the display screen unit 11 based on the visible screen data 201.

制御部31は、覗き見防止機能の機能オン状態では、記憶部32の元画面データ200及び素材データ205を、不可視画面生成部41へ送信する。 The control unit 31 transmits the original screen data 200 and the material data 205 of the storage unit 32 to the invisible screen generation unit 41 in the function-on state of the peep prevention function.

不可視画面生成部41は、元画面データ200及び素材データ205を入力として、不可視画面データ202を生成する第1画像処理を行う。不可視画面生成部41は、素材データ205に基づいて、第1画像処理で用いる第1素材データを入力する。不可視画面データ202は、不可視画面101を表示するための画像データ、映像データであり、第2画面データである。不可視画面生成部41は、生成した不可視画面データ202を、表示部34へ出力、送信する。表示部34は、不可視画面データ202に基づいて、不可視画面101を表示する。 The invisible screen generation unit 41 receives the original screen data 200 and the material data 205 and performs the first image processing for generating the invisible screen data 202. The invisible screen generation unit 41 inputs the first material data used in the first image processing based on the material data 205. The invisible screen data 202 is image data and video data for displaying the invisible screen 101, and is second screen data. The invisible screen generation unit 41 outputs and transmits the generated invisible screen data 202 to the display unit 34. The display unit 34 displays the invisible screen 101 based on the invisible screen data 202.

解除画面生成部42は、同じく、元画面データ200及び素材データ205を入力として、解除画面データ203を生成する第2画像処理を行う。解除画面生成部42は、素材データ205に基づいて、第2画像処理で用いる第2素材データを入力する。解除画面データ203は、解除画面102を表示するための画像データ、映像データであり、第3画面データである。解除画面生成部42は、生成した解除画面データ203を、通信部33へ出力、送信する。通信部33は、解除画面データ203を、眼鏡端末2へ送信する。 Similarly, the release screen generation unit 42 inputs the original screen data 200 and the material data 205 and performs the second image processing for generating the release screen data 203. The cancellation screen generation unit 42 inputs the second material data used in the second image processing based on the material data 205. The release screen data 203 is image data and video data for displaying the release screen 102, and is the third screen data. The cancellation screen generation unit 42 outputs and transmits the generated cancellation screen data 203 to the communication unit 33. The communication unit 33 transmits the cancellation screen data 203 to the eyeglass terminal 2.

なお、不可視画面生成部41に入力する第1素材データと、解除画面生成部42に入力する第2素材データとは、完全に同じとしてもよいし、対応する別のデータとしてもよい。不可視画面生成部41の第1画像処理と解除画面生成部42の第2画像処理は、組として所定の関係を持つので、その関係に対応した第1素材データ及び第2素材データが使用される。 The first material data input to the invisible screen generation unit 41 and the second material data input to the release screen generation unit 42 may be completely the same or may be different corresponding data. Since the first image processing of the invisible screen generation unit 41 and the second image processing of the release screen generation unit 42 have a predetermined relationship as a set, the first material data and the second material data corresponding to the relationship are used. ..

素材データ205は、例えば、予め、どのような不可視画面101とするのかに応じて設定されている。制御部31は、予め設定されている素材データ205を、不可視画面生成部41や解除画面生成部42へ送る。 The material data 205 is set in advance, for example, according to what kind of invisible screen 101 is to be set. The control unit 31 sends the preset material data 205 to the invisible screen generation unit 41 and the release screen generation unit 42.

眼鏡端末2の通信部53は、ユーザ端末1の通信部33から送信された解除画面データ203を受信する。通信部53は、制御部51の制御に従い、解除画面データ203を、投射表示部54へ送る。投射表示部54は、解除画面データ203に基づいて、表示画面部21に、解除画面102を表示する。 The communication unit 53 of the eyeglass terminal 2 receives the release screen data 203 transmitted from the communication unit 33 of the user terminal 1. The communication unit 53 sends the release screen data 203 to the projection display unit 54 under the control of the control unit 51. The projection display unit 54 displays the release screen 102 on the display screen unit 21 based on the release screen data 203.

制御部31及び制御部51により、ユーザ端末1での不可視画面101の表示と眼鏡端末2での解除画面102の表示とにおいてタイミングが同期するように制御される。 The control unit 31 and the control unit 51 perform control such that the display of the invisible screen 101 on the user terminal 1 and the display of the release screen 102 on the eyeglass terminal 2 are synchronized in timing.

ユーザは、眼鏡端末2の装着状態及び機能オン状態で、重畳画面103を見ながら、例えば資料の編集のために、入力部12から文字等を入力する。入力部12から入力された入力情報は、制御部31へ送られる。入力情報は、画面内のどの位置でどのような入力がされたか等の情報であり、タッチパネルの場合にはタッチ入力情報を含む。制御部31は、その入力情報に応じて、アプリケーションプログラム等の処理により、元画面の内容を更新し、資料のデータに反映する。即ち、リアルタイムで、元画面データ200における画像フレームが更新される。元画面データ200の更新に伴い、不可視画面データ202及び解除画面データ203についても、更新分の画像フレームが生成される。 The user inputs characters or the like from the input unit 12 while editing the material while looking at the superimposition screen 103 while the glasses terminal 2 is attached and the function is on. The input information input from the input unit 12 is sent to the control unit 31. The input information is information such as what kind of input was made at which position on the screen, and includes touch input information in the case of a touch panel. The control unit 31 updates the content of the original screen by processing such as an application program according to the input information and reflects it in the data of the material. That is, the image frame in the original screen data 200 is updated in real time. With the update of the original screen data 200, image frames for the updated invisible screen data 202 and the released screen data 203 are also generated.

[機能オン/オフ、及びユーザ設定]
ユーザは、ユーザ端末1の入力部12、または眼鏡端末2の入力部55を通じて、覗き見防止機能に関する入力操作を行う。入力操作により、覗き見防止機能のオン/オフの状態が切り替え可能である。ユーザは、ユーザ端末1の画面で資料作成等の作業を行う際に、覗き見防止機能を有効にしたい場合には、入力部12または入力部55を通じて、機能オン状態にするための入力操作を行う。入力部12から入力する場合、入力情報を制御部31へ送る。入力部55から入力する場合、制御部51、通信部53及び通信部33を通じて、入力情報を制御部31へ送信する。これにより、制御部31は、入力操作に応じた、機能オン状態にするための指示を受け取る。制御部31は、指示に応じて、覗き見防止機能をオン状態にする。機能オン状態では、上記のように、自動的に、不可視画面101及び解除画面102を表示させる。
[Function on/off and user setting]
The user performs an input operation regarding the peep prevention function through the input unit 12 of the user terminal 1 or the input unit 55 of the eyeglass terminal 2. It is possible to switch the on/off state of the peep prevention function by an input operation. When the user wants to enable the peep prevention function when performing work such as material creation on the screen of the user terminal 1, the user performs an input operation for turning on the function through the input unit 12 or the input unit 55. To do. When inputting from the input unit 12, the input information is sent to the control unit 31. When inputting from the input unit 55, the input information is transmitted to the control unit 31 through the control unit 51, the communication unit 53, and the communication unit 33. As a result, the control unit 31 receives an instruction for turning on the function according to the input operation. The control unit 31 turns on the peep prevention function according to the instruction. In the function-on state, the invisible screen 101 and the cancel screen 102 are automatically displayed as described above.

ユーザは、覗き見防止機能を無効にしたい場合には、入力部12または入力部55を通じて、機能オフ状態にするための入力操作を行う。制御部31は、入力操作及び入力情報に応じた、機能オフ状態にするための指示を受け取る。制御部31は、指示に応じて、覗き見防止機能をオフ状態にする。機能オフ状態では、不可視画面101及び解除画面102を表示させず、可視画面100を表示させる。 When the user wants to disable the peep prevention function, the user performs an input operation for turning off the function through the input unit 12 or the input unit 55. The control unit 31 receives an instruction for turning off the function in accordance with the input operation and the input information. The control unit 31 turns off the peep prevention function according to the instruction. In the function-off state, the visible screen 100 is displayed without displaying the invisible screen 101 and the cancellation screen 102.

また、覗き見防止機能のオン/オフの切り替えは、覗き見防止機能を実現するアプリケーションプログラムの起動時に自動的にオン状態にし、起動終了時にオフ状態にするようにしてもよい。 Further, the on/off switching of the peeping prevention function may be automatically turned on when the application program that realizes the peeping prevention function is activated, and turned off when the activation is completed.

また、予め、ユーザ端末1のユーザ設定機能によって、覗き見防止機能のオン/オフに関する設定が可能である。例えば、所定の条件で自動的に機能のオン/オフを切り替えるように設定可能である。所定の条件の例としては、特定の日時、特定の場所や位置情報、特定の文書作成等のアプリケーションプログラム、等が挙げられる。また、所定の条件の例として、公知のスクリーンセーバーや低消費電力モード機能と同様に、通常状態であるオフ状態から、所定時間経過後に、自動的にオン状態に切り替えるようにしてもよい。 Further, the user setting function of the user terminal 1 can be used to set the ON/OFF of the peep prevention function. For example, the function can be set to be automatically switched on/off under a predetermined condition. Examples of the predetermined condition include a specific date and time, a specific location and position information, an application program for creating a specific document, and the like. Further, as an example of the predetermined condition, like the well-known screen saver or the low power consumption mode function, the normal state, the off state, may be automatically switched to the on state after a predetermined time elapses.

また、ユーザ設定機能の1つとして、不可視画面101及び解除画面102に関する表示設定を可能としてもよい。例えば、不可視画面101における視認のしにくさの度合いを設定可能とする。制御部31は、その度合いの設定値に応じて、後述のパターンのパラメータ等を決定する。また、例えば、不可視画面101として複数の種類の画面を表示可能である場合には、それらからユーザが選択して設定可能とする。 Further, as one of the user setting functions, display settings regarding the invisible screen 101 and the cancellation screen 102 may be enabled. For example, the degree of difficulty in visual recognition on the invisible screen 101 can be set. The control unit 31 determines parameters of a pattern described later and the like according to the set value of the degree. Further, for example, when a plurality of types of screens can be displayed as the invisible screen 101, the user can select and set them from them.

また、例えば、ユーザ端末1または眼鏡端末2に備えるセンサやカメラを用いて、ユーザ端末1または眼鏡端末2の周囲の状況、例えば他人の有無を検知して、その検知に基づいて機能のオン/オフを切り替えるようにしてもよい。 Further, for example, a sensor or a camera provided in the user terminal 1 or the eyeglass terminal 2 is used to detect a situation around the user terminal 1 or the eyeglass terminal 2, for example, the presence or absence of another person, and the function is turned on/off based on the detection. You may make it switch off.

[画像処理(1)]
不可視画面生成部41、及び解除画面生成部42で行う処理である画像処理や変換処理の例を説明する。
[Image processing (1)]
An example of image processing and conversion processing that are processing performed by the invisible screen generation unit 41 and the cancellation screen generation unit 42 will be described.

不可視画面101は、例えば、可視画面100である元画面の表示内容の視認が難しい画面であり、元画面の表示内容の視認を妨げるような何らかの加工がされた部分を持つ画面である。それに対応して、組となる解除画面102は、不可視画面101における上記加工がされた部分を、元画面の表示内容の視認ができるように戻すための加工がされた部分を持つ画面である。 The invisible screen 101 is, for example, a screen in which it is difficult to visually recognize the display content of the original screen, which is the visible screen 100, and is a screen having a portion which is processed to prevent the visually recognizable display content of the original screen. Correspondingly, the release screen 102 forming a pair is a screen having a processed part for returning the processed part of the invisible screen 101 so that the display content of the original screen can be visually recognized.

不可視画面生成部41の第1画像処理としては、元画面データ200の画像フレームに、所定のパターンである第1パターンを合成することにより、不可視画面データ202を生成する処理である。素材データ205における第1素材データは、そのパターンのデータ、あるいは、そのパターンを生成するためのパラメータ等のデータである。合成の処理は、例えば、元の画像フレームの画素の階調値に対し、パターンの画像フレームの画素の階調値を、加算や他の演算を施して、合成後のそれぞれの画素の階調値を得る処理である。 The first image process of the invisible screen generation unit 41 is a process of generating the invisible screen data 202 by combining the image frame of the original screen data 200 with a first pattern which is a predetermined pattern. The first material data in the material data 205 is data of the pattern or data such as parameters for generating the pattern. The combining process is performed, for example, by adding the gradation value of the pixel of the image frame of the pattern to the gradation value of the pixel of the original image frame or performing another calculation to obtain the gradation value of each pixel after combining. This is the process of obtaining the value.

所定のパターンの例は、縞模様、格子模様、その他の任意形状の模様、が挙げられる。パターンは、言い換えれば、画像フレーム内において階調値等が異なる2種類以上の領域が混在して配置されたものである。例えば、縞模様のパターンの例としては、第1階調値を持つ第1画素領域の線と、第2階調値を持つ第2画素領域の線とが交互に配置されたものである。第1素材データは、縞模様のパターンの画像フレームのデータ自体、あるいは、その縞模様のパターンを規定する、階調値や線領域幅等のパラメータ値のデータである。合成後の不可視画面101では、例えば縞模様が目立つ状態となり、元の文字や画像が認識しにくくなる。 Examples of the predetermined pattern include a striped pattern, a lattice pattern, and other arbitrary shaped patterns. In other words, the pattern is a mixture of two or more types of regions having different gradation values and the like in the image frame. For example, as an example of the striped pattern, lines of the first pixel area having the first gradation value and lines of the second pixel area having the second gradation value are alternately arranged. The first material data is the data itself of the image frame of the striped pattern, or the data of the parameter value such as the gradation value and the line area width that defines the striped pattern. On the invisible screen 101 after composition, for example, a striped pattern becomes conspicuous, and it becomes difficult to recognize the original character or image.

上記に対応させて、解除画面生成部42の第2画像処理としては、元画面データ200の画像フレームに、素材データ205に基づいた所定のパターンである第2パターンを合成することにより、解除画面データ203を生成する処理である。素材データ205における第2素材データは、そのパターンのデータ、あるいは、そのパターンを生成するためのパラメータ等のデータである。合成の処理は、例えば、元の画像フレームの画素の階調値に対し、パターンの画像フレームの画素の階調値を、加算や減算や他の演算を施して、合成後のそれぞれの画素の階調値を得る処理である。 Corresponding to the above, as the second image processing of the release screen generation unit 42, the release screen is generated by combining the image frame of the original screen data 200 with the second pattern that is a predetermined pattern based on the material data 205. This is a process of generating the data 203. The second material data in the material data 205 is data of the pattern or data such as parameters for generating the pattern. The combining process is performed, for example, by adding or subtracting the gradation value of the pixel of the image frame of the pattern to the gradation value of the pixel of the original image frame, or by performing another operation to calculate the gradation value of each pixel after the combination. This is a process of obtaining a gradation value.

第1画像処理で用いる第1パターンと、第2画像処理で用いる第2パターンとは、組であり、所定の関係を持つ。例えば、第1パターンが縞模様のパターンである場合に、第2パターンは、第1パターンの縞模様に対して反転や相補の関係の縞模様のパターンである。例えば、第1パターンの縞模様は、第1画素領域の第1階調値と第2画素領域の第2階調値とが交互に繰り返されるパターンであるとする。それに対し、第2パターンの縞模様は、第1画素領域の第3階調値と第2画素領域の第4階調値とが交互に繰り返されるパターンである。第1階調値に対し、第3階調値は、重畳の際に第1階調値の効果を打ち消して、元画面の画素の階調値に戻す、または近付けるようにするための階調値である。同様に、第2階調値に対し、第4階調値は、重畳の際に第2階調値の影響を打ち消して、元画面の画素の階調値に戻す、または近付けるようにする階調値である。即ち、解除画面102の内容は、不可視画面101の内容、影響を打ち消すための内容である。 The first pattern used in the first image processing and the second pattern used in the second image processing are a set and have a predetermined relationship. For example, when the first pattern is a striped pattern, the second pattern is a striped pattern having an inverted or complementary relationship with the striped pattern of the first pattern. For example, it is assumed that the striped pattern of the first pattern is a pattern in which the first gradation value of the first pixel area and the second gradation value of the second pixel area are alternately repeated. On the other hand, the striped pattern of the second pattern is a pattern in which the third gradation value of the first pixel region and the fourth gradation value of the second pixel region are alternately repeated. In contrast to the first gradation value, the third gradation value is a gradation for canceling the effect of the first gradation value at the time of superimposition and returning to or close to the gradation value of the pixel of the original screen. It is a value. Similarly, with respect to the second grayscale value, the fourth grayscale value cancels the influence of the second grayscale value upon superimposition and returns to or approaches the grayscale value of the pixel of the original screen. It is a key value. That is, the content of the cancellation screen 102 is the content of the invisible screen 101 and the content for canceling the influence.

[画像処理(2)]
画像処理及び所定のパターンの別の例は、画像フレーム内において規則的もしくは不規則的及びランダムに文字や図形を配置する処理及びパターンが挙げられる。第1素材データは、その第1パターンの画像フレーム自体のデータ、あるいは、配置する文字や図形等のオブジェクトや配置の仕方を規定するパラメータ値のデータである。第1画像処理は、例えば、元の画像フレーム内にある文字や文章や図形における、一部または全部の所定の箇所の文字や図形の画像部分が、隠されるように、所定の画像部分に置換される。これにより、合成後の不可視画面101では、文章や図形等が意味不明な内容となる。
[Image processing (2)]
Another example of the image processing and the predetermined pattern is a processing and pattern in which characters or figures are arranged regularly or irregularly and randomly in the image frame. The first material data is data of the image frame itself of the first pattern, or data of an object such as a character or figure to be arranged and data of a parameter value that defines the arrangement method. The first image processing is performed, for example, by replacing a part or all of image parts of characters or figures at predetermined positions in a character, a sentence, or a figure in the original image frame with predetermined image parts so as to be hidden. To be done. As a result, in the invisible screen 101 after composition, sentences, figures, and the like have unclear contents.

第2画像処理及び第2パターンは、上記と組になるものである。即ち、第2画像処理は、不可視画面データ202の画像フレームの中の置換された画像部分を、元の文字や図形等に戻す画像部分を持つ解除画面データ203を生成するものである。 The second image processing and the second pattern are paired with the above. That is, the second image processing is to generate the release screen data 203 having an image portion for returning the replaced image portion in the image frame of the invisible screen data 202 to the original character or figure.

[画像処理(3)]
画像処理及び所定のパターンの別の例は、所定の規則やアルゴリズムで、画像フレーム内の各画素の階調値を変調し、歪みを生じさせる加工を行う処理及びパターンである。この処理では、画像フレームの各画素の位置、例えば行や列や格子等で区分される画素領域の位置に応じて、階調値を変動させる。例えば、第1画素領域では階調値をそのままとし、第2画素領域では階調値を高くし、第3画素領域では階調値を低くする、といった加工を行う処理である。あるいは、第1画素領域では、位置を第1方向へ所定量シフトさせ、第2画素領域では、位置を第2方向へ所定量シフトさせる、といった加工を行う処理である。第1素材データは、上記変調及び加工の内容を規定するパラメータ値のデータである。上記のような処理により、元画面の画像フレームに歪みを加える。合成後の不可視画面101では、元の文字や画像が歪んでいるため、視認しにくくなる。
[Image processing (3)]
Another example of the image processing and the predetermined pattern is a processing and a pattern that modulates the gradation value of each pixel in the image frame by a predetermined rule or algorithm to cause distortion. In this process, the gradation value is changed according to the position of each pixel of the image frame, for example, the position of a pixel area divided by rows, columns, a grid, or the like. For example, the processing is performed such that the gradation value remains unchanged in the first pixel area, the gradation value increases in the second pixel area, and the gradation value decreases in the third pixel area. Alternatively, in the first pixel region, the position is shifted in the first direction by a predetermined amount, and in the second pixel region, the position is shifted in the second direction by a predetermined amount. The first material data is data of a parameter value that defines the contents of the modulation and processing. Distortion is added to the image frame of the original screen by the above processing. On the invisible screen 101 after composition, the original characters and images are distorted, and thus it is difficult to visually recognize them.

第2画像処理及び第2パターンは、上記と組になるものである。即ち、第2画像処理は、不可視画面データ202の画像フレームの中の歪みを元に戻すようにする解除画面データ203を生成するものである。なお、上記のような合成及び加工の画像処理は、公知の各種の画像処理が適用可能である。 The second image processing and the second pattern are paired with the above. That is, the second image processing is to generate the release screen data 203 that restores the distortion in the image frame of the invisible screen data 202. Note that various kinds of known image processing can be applied to the image processing of the synthesis and processing as described above.

[画像処理(4)]
画像処理及び所定のパターンの別の例は、元画面データ200の画像フレームの上に、所定のオブジェクトを合成する処理及びパターンである。所定のオブジェクトは、広告やスクリーンセーバー等が挙げられる。第1素材データは、そのオブジェクトに関するデータである。例えば、オブジェクトとして、広告オブジェクトである。広告オブジェクトのデータは、所定の文字や画像から構成されている。所定のオブジェクトのデータは、動画やプログラムにより構成されてもよい。合成の処理では、元の画像フレーム内における各画素の階調値に、広告オブジェクトの画素の階調値が、加算等で反映される。
[Image processing (4)]
Another example of the image processing and the predetermined pattern is processing and a pattern for combining a predetermined object on the image frame of the original screen data 200. Examples of the predetermined object include an advertisement and a screen saver. The first material data is data regarding the object. For example, the object is an advertising object. The data of the advertisement object is composed of predetermined characters and images. The data of the predetermined object may be composed of a moving image or a program. In the combining process, the gradation value of the pixel of the advertisement object is reflected in the gradation value of each pixel in the original image frame by addition or the like.

広告オブジェクトは、画像フレーム内の表示位置や情報内容が固定されたものでもよいし、画像フレーム内の表示位置や情報内容が変動するものでもよい。情報内容を変動させる場合、ユーザ端末1は、広告のための素材データ205を制御する。ユーザ端末1は、素材データ205に含まれている複数の広告情報に基づいて、表示する広告オブジェクトを変動させてもよい。ユーザ端末1は、通信部33を用いてインターネット上から複数の広告情報を取得して素材データ205として用いてもよい。ユーザ端末1は、広告オブジェクトの表示の際に、都度、新しい広告情報をインターネット上から取得して使用してもよい。即ち、ユーザ端末1は、動的な内容の広告を表示させてもよい。 The advertisement object may have a fixed display position or information content in the image frame, or may have a variable display position or information content in the image frame. When changing the information content, the user terminal 1 controls the material data 205 for advertisement. The user terminal 1 may change the advertisement object to be displayed based on the plurality of pieces of advertisement information included in the material data 205. The user terminal 1 may acquire a plurality of pieces of advertisement information from the Internet using the communication unit 33 and use them as the material data 205. The user terminal 1 may acquire new advertisement information from the Internet and use it each time the advertisement object is displayed. That is, the user terminal 1 may display an advertisement having dynamic content.

第2画像処理及び第2パターンは、上記と組になるものである。即ち、第2画像処理は、不可視画面データ202の画像フレームの中のオブジェクトを消去するようにする解除画面データ203を生成するものである。この形態では、覗き見9の場合、不可視画面101の広告等が視認され、元の内容は視認されにくい。 The second image processing and the second pattern are paired with the above. That is, the second image processing is to generate the release screen data 203 for deleting the object in the image frame of the invisible screen data 202. In this form, in the case of the peep 9, the advertisement or the like on the invisible screen 101 is visually recognized, and the original content is hard to be visually recognized.

[画像処理(5)]
画像処理及び所定のパターンの別の例として以下としてもよい。不可視画面101としては、全面で殆ど黒色に近い表示とする。解除画面102としては、全面で殆ど元画面に近い内容の表示とする。重畳画面103では、元画面に近い内容の表示となる。
[Image processing (5)]
Another example of the image processing and the predetermined pattern may be as follows. The invisible screen 101 is displayed almost in black on the entire surface. As the cancellation screen 102, it is assumed that the entire screen has almost the same contents as the original screen. The superimposed screen 103 is displayed with contents close to the original screen.

なお、この形態は、単に眼鏡端末2に元画面を表示してユーザ端末1の画面には何も表示しないという従来技術とは異なる。ユーザは、重畳画面103を見ながら、ユーザ端末1に、入力部12を用いて情報の入力を行うことができる。ユーザ端末1は、その入力情報を受け付けて、画面内容及び資料データ等を更新する。 This form is different from the conventional technique in which the original screen is simply displayed on the spectacles terminal 2 and nothing is displayed on the screen of the user terminal 1. The user can input information to the user terminal 1 using the input unit 12 while looking at the superimposed screen 103. The user terminal 1 receives the input information and updates the screen content, material data, and the like.

[画面例(1)]
図4は、実施の形態1の画像処理例及び画面例を概略的なイメージで示す。画像フレーム401は、可視画面100である元画面に対応する元画面データ200の画像フレームを示す。画像フレーム401の表示内容は、例えば、ユーザが作成中の資料であり、なるべく秘匿したい発明内容等に係わる文字や図形等の情報が含まれている。元の文字等の階調値を、ここでは簡略的に一律で階調値k0で表すとする。
[Screen example (1)]
FIG. 4 shows a schematic image of the image processing example and the screen example of the first embodiment. The image frame 401 shows an image frame of the original screen data 200 corresponding to the original screen which is the visible screen 100. The display content of the image frame 401 is, for example, a material being created by the user, and includes information such as characters and figures relating to the content of the invention that should be kept as secret as possible. Here, the gradation value of the original character or the like is simply and uniformly represented by the gradation value k0.

画像フレーム402は、素材データ205に基づいた第1パターンの画像フレームである。画像フレーム402は、例えば斜めの縞模様のパターンであり、第1画素領域の第1階調値k1の黒い線領域と第2画素領域の第2階調値k2の線領域とが交互に繰り返して配置されている。第1画素領域の第1階調値k1は、例えば黒色にマスクするための階調値である(これは負の値でもよい)。第2画素領域の第2階調値k2は、白い線領域として図示しているが、元画面の画素の階調値k0をそのまま反映させるためのフラグ値で構成される。 The image frame 402 is a first pattern image frame based on the material data 205. The image frame 402 is, for example, an oblique striped pattern, and a black line area having a first gradation value k1 in the first pixel area and a line area having a second gradation value k2 in the second pixel area are alternately repeated. Are arranged. The first gradation value k1 of the first pixel area is a gradation value for masking black, for example (this may be a negative value). The second gradation value k2 of the second pixel area is illustrated as a white line area, but is composed of a flag value for directly reflecting the gradation value k0 of the pixel of the original screen.

第1画像処理411は、不可視画面生成部41による処理であり、画像フレーム401に、第1パターンに対応する画像フレーム402を加算等で反映する処理である。例えば、第1画素領域では、元の階調値k0と、第1階調値k1とが加算され、第2画素領域では、元の階調値k0がそのまま使用される。 The first image processing 411 is processing by the invisible screen generation unit 41, and is processing of reflecting the image frame 402 corresponding to the first pattern on the image frame 401 by addition or the like. For example, in the first pixel area, the original gradation value k0 and the first gradation value k1 are added, and in the second pixel area, the original gradation value k0 is used as it is.

画像フレーム403は、第1画像処理411の結果であり、不可視画面101に対応する不可視画面データ202の画像フレームを示す。画像フレーム403の表示内容は、元の文字や図形の上に、第1パターンの縞模様が被さるように合成されている。第1画素領域では、加算後の階調値(k0+k1)となっており、第2画素領域では、元の階調値k0となっている。これにより、不可視画面101では、元の文字等が視認、認識しにくくなっている。なお、適用するパターンを調整すれば、視認、認識のしにくさを調整することも可能である。 The image frame 403 is a result of the first image processing 411, and shows an image frame of the invisible screen data 202 corresponding to the invisible screen 101. The display contents of the image frame 403 are combined such that the original character or figure is covered with the striped pattern of the first pattern. In the first pixel area, the added gradation value (k0+k1) is obtained, and in the second pixel area, the original gradation value k0 is obtained. This makes it difficult for the invisible screen 101 to visually recognize and recognize the original characters and the like. It is also possible to adjust the difficulty of visual recognition and recognition by adjusting the applied pattern.

画像フレーム404は、素材データ205に基づいた第2パターンの画像フレームである。画像フレーム404は、第1パターンと同じく斜めの縞模様のパターンであり、第1画素領域の第3階調値k3の線領域と第2画素領域の第4階調値k4の線領域とが交互に繰り返して配置されている。第1パターンの第1画素領域の位置と第2パターンの第2画素領域の位置とは同じであり、即ち縞模様の形状は同じである。第1画素領域の第3階調値k3は、グレーの線領域として図示しているが、第1階調値k1の黒色のマスクを打ち消すための階調値を持つ。第2画素領域の第4階調値k4は、白い線領域として図示しているが、透過領域にするためのフラグ値で構成される。 The image frame 404 is a second pattern image frame based on the material data 205. The image frame 404 is an oblique striped pattern similar to the first pattern, and the line area having the third gradation value k3 in the first pixel area and the line area having the fourth gradation value k4 in the second pixel area are formed. They are arranged alternately and repeatedly. The position of the first pixel area of the first pattern and the position of the second pixel area of the second pattern are the same, that is, the shape of the striped pattern is the same. Although the third gradation value k3 of the first pixel area is illustrated as a gray line area, it has a gradation value for canceling the black mask of the first gradation value k1. The fourth gradation value k4 of the second pixel area is shown as a white line area, but is composed of a flag value for making it a transparent area.

なお、第1パターンから、所定の関係に対応した所定の演算により、第2パターンを生成することも可能である。その場合、第2パターンのデータを第2素材データとして記憶しておかなくてもよい。 It is also possible to generate the second pattern from the first pattern by performing a predetermined calculation corresponding to a predetermined relationship. In that case, the data of the second pattern may not be stored as the second material data.

第2画像処理412は、解除画面生成部42による処理であり、画像フレーム401に、第2パターンに対応する画像フレーム404を加算等で反映する処理である。本例では、第2パターンの画像フレーム404を、そのまま解除画面102の画像フレーム405として使用する。第1画素領域では、第3階調値k3とし、第2画素領域では、透過領域とするため、いずれの階調値も使用しない。第3階調値k3は、例えば、第1階調値k1を正負反転した値が使用されてもよい。第2画像処理412としては、元画面の画像フレーム401の内容を反映させる必要は特に無いが、別の例では元画面の画像フレーム401の内容を反映してもよいので、概念的に図示している。 The second image processing 412 is processing by the release screen generation unit 42, and is processing of reflecting the image frame 404 corresponding to the second pattern on the image frame 401 by addition or the like. In this example, the image frame 404 of the second pattern is used as it is as the image frame 405 of the cancellation screen 102. Since the third gradation value k3 is set in the first pixel area and the transmission area is set in the second pixel area, no gradation value is used. As the third gradation value k3, for example, a value obtained by inverting the first gradation value k1 between positive and negative may be used. The second image processing 412 does not need to reflect the contents of the image frame 401 of the original screen, but in another example, the contents of the image frame 401 of the original screen may be reflected. ing.

画像フレーム405は、第2画像処理412の結果であり、解除画面102に対応する解除画面データ203の画像フレームを示す。画像フレーム405の表示内容は、本例では、第2パターンの画像フレーム405と同様としている。第1画素領域は第3階調値k3(第1階調値k1を正負反転した値)、第2画素領域は透過領域となっている。 The image frame 405 is the result of the second image processing 412 and shows the image frame of the release screen data 203 corresponding to the release screen 102. In this example, the display content of the image frame 405 is similar to that of the image frame 405 of the second pattern. The first pixel area is a third gradation value k3 (a value obtained by inverting the first gradation value k1), and the second pixel area is a transmissive area.

重ね合わせ413は、不可視画面101の画像フレーム403と、解除画面102の画像フレーム405とを、視線に対応するZ方向で重ね合わせて見ることを示す。この重ね合わせ413に対応する光の重畳では、不可視画面101の第1画素領域の階調値(k0+k1)と、解除画面102の第1画素領域の階調値k3とが合成される。 Superposition 413 indicates that the image frame 403 of the invisible screen 101 and the image frame 405 of the cancellation screen 102 are superposed in the Z direction corresponding to the line of sight. In the superposition of light corresponding to this superposition 413, the gradation value (k0+k1) of the first pixel area of the invisible screen 101 and the gradation value k3 of the first pixel area of the cancellation screen 102 are combined.

画像フレーム406は、重畳画面103に対応する画像フレームを示す。画像フレーム406では、第1画素領域では、不可視画面101のマスク(黒色部分)に対応する第1階調値k1の影響が、解除画面102の第3階調値k3により打ち消され、元の階調値k0またはそれに近い値となる。第2画素領域は透過領域であるため、不可視画面101内の元の階調値k0またはそれに近い値となる。画像フレーム406では、第1画素領域と第2画素領域との境界線を図示しているが、理想的にはその境界線も消えて見える。 The image frame 406 shows an image frame corresponding to the superimposed screen 103. In the image frame 406, in the first pixel area, the influence of the first gradation value k1 corresponding to the mask (black portion) of the invisible screen 101 is canceled by the third gradation value k3 of the cancellation screen 102, and the original floor The key value k0 or a value close to it. Since the second pixel area is a transmissive area, it has the original gradation value k0 in the invisible screen 101 or a value close thereto. In the image frame 406, the boundary line between the first pixel area and the second pixel area is illustrated, but ideally, the boundary line also appears to disappear.

上記例では、第2画素領域については透過領域としたが、これに限らず、第2画素領域についても、第1画素領域と同様に、第1画素領域とは異なるパラメータで、マスクするような処理を施してもよい。また、2種類の画素領域に限らず、3種類以上の画素領域についても同様に適用可能である。他の模様についても同様に適用可能である。 In the above example, the second pixel area is the transmissive area. However, the second pixel area is not limited to this, and the second pixel area is masked with a parameter different from that of the first pixel area, like the first pixel area. You may give a process. Further, the present invention is not limited to two types of pixel regions, and can be similarly applied to three or more types of pixel regions. The same applies to other patterns.

また、上記例では、マスクの処理として、元の階調値k0に第1階調値k1を加算するような画像処理としたが、これに限らず、例えば、元の階調値k0の領域を、マスクに対応する所定の階調値の領域で置換する処理としてもよい。そして、マスクした領域を元に戻すための処理としては、その置換した領域の上に、元の階調値k0の領域を再配置する処理とする。 Further, in the above example, the mask processing is the image processing in which the first gradation value k1 is added to the original gradation value k0, but the present invention is not limited to this, and for example, the area of the original gradation value k0 is used. May be replaced with a region having a predetermined gradation value corresponding to the mask. Then, as the processing for returning the masked area to the original one, the area having the original gradation value k0 is rearranged on the replaced area.

上記例は、表示画面部11及び表示画面部21に表示するための画面の画像フレームを生成する画像処理を行うものである。 The above example is for performing image processing for generating an image frame of a screen to be displayed on the display screen unit 11 and the display screen unit 21.

[画面例(2)]
図5は、別の画像処理例及び画面例を概略的なイメージで示す。画像フレーム501は、可視画面100である元画面に対応する元画面データ200の画像フレームを示す。画像フレーム502は、素材データ205に基づいたパターンの画像フレームであり、背景領域上に、広告オブジェクト502Aが配置されている。ここでは広告オブジェクト502Aは矩形の領域として広告内容を省略して示している。
[Screen example (2)]
FIG. 5 shows another image processing example and a screen example with a schematic image. The image frame 501 shows an image frame of the original screen data 200 corresponding to the original screen which is the visible screen 100. The image frame 502 is an image frame having a pattern based on the material data 205, and the advertisement object 502A is arranged on the background area. Here, the advertisement content is omitted as the advertisement object 502A is shown as a rectangular area.

第1画像処理511は、不可視画面生成部41による処理であり、画像フレーム501に、画像フレーム502を加算等で反映する処理である。画像フレーム503は、第1画像処理511の結果であり、不可視画面101に対応する不可視画面データ201の画像フレームを示す。画像フレーム503の表示内容は、元の文字や図形の上に、パターンの広告オブジェクト502Aが被さるように合成されている。広告オブジェクト502Aが配置されている領域503Aでは、元の階調値k0と、広告オブジェクト502Aの階調値とが加算されている。これにより、不可視画面101では、広告が目立つように存在し、広告により元の文字等が隠されるため、元の文字等が視認、認識しにくくなっている。 The first image processing 511 is processing by the invisible screen generation unit 41, and is processing of reflecting the image frame 502 on the image frame 501 by addition or the like. The image frame 503 is a result of the first image processing 511, and shows an image frame of the invisible screen data 201 corresponding to the invisible screen 101. The display contents of the image frame 503 are combined so that the pattern advertisement object 502A covers the original characters and figures. In the area 503A in which the advertising object 502A is arranged, the original gradation value k0 and the gradation value of the advertising object 502A are added. As a result, since the advertisement is conspicuous on the invisible screen 101 and the original character or the like is hidden by the advertisement, it is difficult to visually recognize or recognize the original character or the like.

第2画像処理511は、解除画面生成部42による処理であり、本例では、画像フレーム502から、所定の演算により、解除画面102の画像フレームを生成する処理である。所定の演算は、広告オブジェクト502Aを消去するためのオブジェクトを生成する処理である。 The second image process 511 is a process by the release screen generation unit 42, and in this example, is a process of generating an image frame of the release screen 102 from the image frame 502 by a predetermined calculation. The predetermined calculation is a process of generating an object for deleting the advertisement object 502A.

画像フレーム504は、第2画像処理512の結果であり、解除画面102に対応する解除画面データ203の画像フレームを示す。画像フレーム504の表示内容では、広告オブジェクト502Aを消去するためのオブジェクト504Aが配置されている。 The image frame 504 is the result of the second image processing 512, and shows the image frame of the release screen data 203 corresponding to the release screen 102. In the display content of the image frame 504, an object 504A for deleting the advertisement object 502A is arranged.

重ね合わせ513は、不可視画面101の画像フレーム503と、解除画面102の画像フレーム504とを、視線に対応するZ方向で重ね合わせて見ることを示す。この重ね合わせ513に対応する光の重畳では、不可視画面101の広告オブジェクトの階調値と、解除画面102のオブジェクトの階調値とが合成される。 Overlay 513 indicates that the image frame 503 of the invisible screen 101 and the image frame 504 of the cancel screen 102 are viewed in an overlapping manner in the Z direction corresponding to the line of sight. In the superimposition of light corresponding to this superposition 513, the gradation value of the advertisement object on the invisible screen 101 and the gradation value of the object on the cancellation screen 102 are combined.

画像フレーム505は、重畳画面103に対応する画像フレームを示す。画像フレーム505では、領域505Aにおいて、広告オブジェクトの階調値が、オブジェクト504Aの階調値によって打ち消されることで、広告が消去され、元の文字等が見えるようになっている。 The image frame 505 shows an image frame corresponding to the superimposed screen 103. In the image frame 505, in the area 505A, the gradation value of the advertisement object is canceled by the gradation value of the object 504A, so that the advertisement is erased and the original character or the like can be seen.

[効果等]
上記のように、実施の形態1の覗き見防止システムによれば、覗き見防止機能を用いて、ユーザ本人がユーザ端末1の画面で資料作成等の作業を行いつつ、任意の様々な表示内容を認識できると共に、画面の覗き見や撮影による情報漏れ等を防止することができる。眼鏡端末2を装着しているユーザは、元画面の表示内容を認識でき、眼鏡端末2を装着していない他者は、ユーザ端末1の画面をどの方向から見たとしても元画面の表示内容を認識できない。
[Effects, etc.]
As described above, according to the peeping prevention system of the first embodiment, the user himself/herself performs work such as material creation on the screen of the user terminal 1 by using the peeping prevention function, and various arbitrary display contents Can be recognized and information leakage due to peeping on the screen or photographing can be prevented. The user wearing the spectacles terminal 2 can recognize the display content of the original screen, and the others who are not wearing the spectacles terminal 2 can view the display content of the original screen regardless of the direction of the screen of the user terminal 1. Can't recognize.

[変形例(1)]
実施の形態1の覗き見防止システムの変形例として以下も可能である。上記実施の形態1では、主にユーザ端末1内での制御及びソフトウェアプログラム処理により、不可視画面101等を生成している。以下の変形例では、主にユーザ端末1のハードウェアの表示構造を用いて、不可視画面101を生成する。
[Modification (1)]
The following is also possible as a modification of the peep prevention system of the first embodiment. In the first embodiment, the invisible screen 101 and the like are generated mainly by the control and software program processing in the user terminal 1. In the modification below, the invisible screen 101 is generated mainly by using the display structure of the hardware of the user terminal 1.

図6は、変形例の覗き見防止システムの機能ブロック構成を示す。ユーザ端末1は、表示画面部11におけるハードウェアとして、第1表示層11A、第2表示層11Bを有する。Z方向に対し、奥側に第1表示層11A、手前側に第2表示層11Bを有する。第1表示層11Aは例えば液晶表示層である。第2表示層11Bは、例えば第1表示層11Aの面上に設置される、透過型で表示機能を持つシートである。第2表示層11Bは、元々ユーザ端末1に備えていてもよいし、後から追加的にユーザ端末1に設置されるものでもよい。第2表示層11Bは、第1表示層11Aの面に貼り付けられるものでもよい。第2表示層11Bは、第1表示層11Aの面に投射表示を行うものでもよい。 FIG. 6 shows a functional block configuration of a modified peep prevention system. The user terminal 1 has a first display layer 11A and a second display layer 11B as hardware in the display screen unit 11. It has a first display layer 11A on the back side and a second display layer 11B on the front side with respect to the Z direction. The first display layer 11A is, for example, a liquid crystal display layer. The second display layer 11B is a transmissive sheet having a display function, which is installed on the surface of the first display layer 11A, for example. The second display layer 11B may be originally included in the user terminal 1, or may be additionally installed in the user terminal 1 later. The second display layer 11B may be attached to the surface of the first display layer 11A. The second display layer 11B may perform projection display on the surface of the first display layer 11A.

機能オフ状態では、ユーザ端末1は、元画面データ200に基づいて、表示部34を通じて、第1表示層11Aに、元画面である可視画面100を表示する。機能オフ状態では、ユーザ端末1は、第1表示層11Aに可視画面100を表示すると共に、マスク画面データ215に基づいて、第2表示層11Bに、マスク画面105を表示する。これにより、ユーザ端末1の表示画面部11では、可視画面100とマスク画面105との重ね合わせにより、不可視画面101が構成される。 In the function-off state, the user terminal 1 displays the visible screen 100 that is the original screen on the first display layer 11A through the display unit 34 based on the original screen data 200. In the function-off state, the user terminal 1 displays the visible screen 100 on the first display layer 11A and also displays the mask screen 105 on the second display layer 11B based on the mask screen data 215. As a result, in the display screen unit 11 of the user terminal 1, the invisible screen 101 is formed by superimposing the visible screen 100 and the mask screen 105.

ユーザ端末1は、予めマスク画面データ215を保持している。もしくは、ユーザ端末1は、実施の形態1と同様に、元画面データ200や素材データ205に基づいて、マスク画面データ215を生成する処理を行ってもよい。 The user terminal 1 holds the mask screen data 215 in advance. Alternatively, the user terminal 1 may perform the process of generating the mask screen data 215 based on the original screen data 200 and the material data 205, as in the first embodiment.

マスク画面105は、言い換えると、フィルタ画面である。マスク画面105は、可視画面100の内容が視認できない、または視認しにくくなるように、実施の形態1のパターン等と同様に表示される画面である。マスク画面105は、可視画面100内の少なくとも一部の画素をマスキングまたはフィルタリングする。 In other words, the mask screen 105 is a filter screen. The mask screen 105 is a screen displayed in the same manner as the pattern or the like in the first embodiment so that the contents of the visible screen 100 cannot be visually recognized or are difficult to visually recognize. The mask screen 105 masks or filters at least some pixels in the visible screen 100.

また、ユーザ端末1は、マスク画面データ215と組になる解除画面データ203を、予め保持している。もしくは、ユーザ端末1は、マスク画面データ215に基づいて解除画面データ203を実施の形態1と同様に生成する。ユーザ端末1は、実施の形態1と同様に、解除画面データ203を、通信を通じて、眼鏡端末2へ送信する。眼鏡端末2は、実施の形態1と同様に、解除画面データ203に基づいて、表示画面部21に解除画面102を表示する。この解除画面102は、マスク画面105による作用を打ち消すための画面である。これにより、ユーザの眼3には、可視画面100、マスク画面105、及び解除画面102の重ね合わせによって、重畳画面103が結像される。 In addition, the user terminal 1 holds in advance the release screen data 203 paired with the mask screen data 215. Alternatively, the user terminal 1 generates the cancellation screen data 203 based on the mask screen data 215 as in the first embodiment. The user terminal 1 transmits the release screen data 203 to the eyeglasses terminal 2 through communication, as in the first embodiment. The eyeglass terminal 2 displays the release screen 102 on the display screen unit 21 based on the release screen data 203, as in the first embodiment. The cancellation screen 102 is a screen for canceling the effect of the mask screen 105. As a result, the superimposed screen 103 is imaged on the user's eye 3 by superimposing the visible screen 100, the mask screen 105, and the release screen 102.

他の変形例として、上記第2表示層11Bは、例えば液晶表示装置における偏光等の制御により実現されてもよいし、視野角、即ち出射角度を制御する層として実現されてもよい。 As another modification, the second display layer 11B may be realized, for example, by controlling the polarization or the like in the liquid crystal display device, or may be realized as a layer that controls the viewing angle, that is, the emission angle.

[変形例(2)]
実施の形態1の覗き見防止システムの変形例として以下も可能である。上記実施の形態1では、元画面に対し、特定の素材データを用いて特定の画像処理を行うことにより、不可視画面101及び解除画面102を生成している。それに対し、以下の変形例では、元画面の内容に応じて、異なる素材データ205を用いて異なる画像処理を行うことにより、異なる内容の不可視画面101及び解除画面102を生成する。例えば、制御部31は、元画面データ200の内容を、いくつかの種類に分類する判別を行う。種類は、例えば、文字が多い/少ない、画像領域が多い/少ない、白背景が多い/黒背景が多い、等が挙げられる。制御部31は、判別した種類に応じて、複数の素材データ205から、適用するための1つの素材データ205を選択する。そして、制御部31は、その選択した素材データ205を用いて、それに対応する画像処理により、不可視画面101及び解除画面102を生成させる。
[Modification (2)]
The following is also possible as a modification of the peep prevention system of the first embodiment. In the first embodiment, the invisible screen 101 and the release screen 102 are generated by performing specific image processing on the original screen using specific material data. On the other hand, in the following modified example, different image processing is performed by using different material data 205 according to the content of the original screen to generate the invisible screen 101 and the release screen 102 having different contents. For example, the control unit 31 determines to classify the content of the original screen data 200 into some types. The types include, for example, a large number/small number of characters, a large/small image area, a large white background/a large black background, and the like. The control unit 31 selects one material data 205 to be applied from the plurality of material data 205 according to the determined type. Then, the control unit 31 uses the selected material data 205 to generate an invisible screen 101 and a cancel screen 102 by performing image processing corresponding to the selected material data 205.

また、例えば、制御部31は、元画面の文字の量や大きさを判別し、それに応じて、画像処理で適用するパターンにおける模様やオブジェクト等のサイズを決定してもよい。これにより、文字の大きさ等に合わせて、視認しにくくする効果が得られるようにする。 Further, for example, the control unit 31 may determine the amount and size of characters on the original screen, and accordingly determine the size of a pattern, an object, or the like in the pattern applied in the image processing. As a result, it is possible to obtain the effect of making it difficult to visually recognize in accordance with the size of characters and the like.

(実施の形態2)
図7を用いて、本発明の実施の形態2の覗き見防止システムについて説明する。実施の形態2の基本的な構成は、実施の形態1と同様であり、以下、実施の形態2の構成における実施の形態1の構成とは異なる部分について説明する。
(Embodiment 2)
A peep prevention system according to the second embodiment of the present invention will be described with reference to FIG. 7. The basic configuration of the second embodiment is the same as that of the first embodiment, and hereinafter, the part of the configuration of the second embodiment that is different from the configuration of the first embodiment will be described.

実施の形態2では、ユーザ端末1と眼鏡端末2は、無線通信インタフェースで接続されている。また、実施の形態2では、ユーザ端末1と眼鏡端末2との一対一の関係付けを行う。特定のユーザ端末1と特定の眼鏡端末2とが接続された構成でのみ、覗き見防止機能を実現する。そのために、特定の鍵IDを用いて、ユーザ端末1と眼鏡端末2との一対一の関係付けを行う。ユーザ端末1は、鍵IDを用いて、解除画面データ203を暗号化し、暗号化解除画面データとして、眼鏡端末2へ送信する。眼鏡端末2は、鍵IDを用いて、暗号化解除画面データを復号化し、復号化された解除画面データ203を用いて、解除画面102を表示する。 In the second embodiment, the user terminal 1 and the eyeglass terminal 2 are connected by a wireless communication interface. Further, in the second embodiment, the user terminal 1 and the eyeglass terminal 2 are associated with each other on a one-to-one basis. The peep prevention function is realized only in the configuration in which the specific user terminal 1 and the specific eyeglass terminal 2 are connected. Therefore, a one-to-one relationship between the user terminal 1 and the eyeglasses terminal 2 is established using a specific key ID. The user terminal 1 uses the key ID to encrypt the cancellation screen data 203 and sends it to the spectacles terminal 2 as the encryption cancellation screen data. The eyeglasses terminal 2 decrypts the decryption screen data using the key ID, and displays the decryption screen 102 using the decrypted decryption screen data 203.

実施の形態2では以下のような状況を考慮する。仮に、実施の形態1の眼鏡端末2と同様の機能を持つ他の眼鏡端末が存在し、ユーザ本人の付近にいる他者がその眼鏡端末を装着しているとする。その眼鏡端末は、ユーザ端末1から、解除画面データ203を、無線通信等によって傍受できるとする。その他者が、その眼鏡端末を装着した状態で、ユーザ端末1の画面を覗き見した場合、その他者には重畳画面103が見えるので、元画面の内容が認識できてしまう。実施の形態2では、そのような状況でも覗き見防止を実現する。 In the second embodiment, the following situation is considered. It is assumed that another spectacle terminal having the same function as that of the spectacle terminal 2 of the first embodiment is present and that another person near the user wears the spectacle terminal. It is assumed that the eyeglass terminal can intercept the release screen data 203 from the user terminal 1 by wireless communication or the like. When the other person looks into the screen of the user terminal 1 while wearing the eyeglass terminal, the other person can see the superimposed screen 103, and thus the contents of the original screen can be recognized. In the second embodiment, peep prevention is realized even in such a situation.

[機能ブロック構成]
図7は、実施の形態2の覗き見防止システムの機能ブロック構成を示す。ユーザ端末1は、実施の形態1の構成要素の他に、鍵ID管理部37を有する。眼鏡端末2は、実施の形態1の構成要素の他に、鍵ID確認部57を有する。また、ユーザ端末1の通信部33と、眼鏡端末2の通信部53とは、無線通信インタフェースで接続されている。
[Function block configuration]
FIG. 7 shows a functional block configuration of the peep prevention system according to the second embodiment. The user terminal 1 has a key ID management unit 37 in addition to the components of the first embodiment. The spectacles terminal 2 has a key ID confirmation unit 57 in addition to the components of the first embodiment. The communication unit 33 of the user terminal 1 and the communication unit 53 of the eyeglass terminal 2 are connected by a wireless communication interface.

実施の形態2において、覗き見防止機能のオン状態で、重畳画面103を表示するまでの流れは以下である。 In the second embodiment, the flow until the superimposed screen 103 is displayed when the peep prevention function is on is as follows.

(1) まず、予め、ユーザ端末1の鍵ID管理部37と、眼鏡端末2の鍵ID確認部57との間で、所定の手続きにより、鍵IDを決定して登録する。ユーザ本人が使用する、特定のユーザ端末1と特定の眼鏡端末2との一対一の関係に対応させて、特定の鍵IDが決定される。鍵ID管理部37は、ユーザ端末1側に持つ鍵ID701を、ユーザ端末1内にセキュアに保持する。鍵ID確認部57は、眼鏡端末2側に持つ鍵ID702を、眼鏡端末2内にセキュアに保持する。鍵ID701と鍵ID702は、対応する同じ値を持つ情報である。また、公知の公開鍵暗号システム等を適用する場合には、鍵ID701と鍵ID702は、対応する異なる値を持つ情報としてもよい。 (1) First, a key ID is determined and registered in advance by a predetermined procedure between the key ID management unit 37 of the user terminal 1 and the key ID confirmation unit 57 of the eyeglass terminal 2. The specific key ID is determined in association with the one-to-one relationship between the specific user terminal 1 and the specific eyeglass terminal 2 used by the user himself. The key ID management unit 37 securely holds the key ID 701 held on the user terminal 1 side in the user terminal 1. The key ID confirmation unit 57 securely holds the key ID 702 possessed by the eyeglass terminal 2 in the eyeglass terminal 2. The key ID 701 and the key ID 702 are information having the same corresponding values. When a publicly known public key cryptosystem or the like is applied, the key ID 701 and the key ID 702 may be information having different corresponding values.

鍵IDの登録に関する所定の手続きの例は以下である。ユーザは、最初の設定のために、ユーザ端末1に眼鏡端末2を無線通信インタフェースで接続する。ユーザ端末1の鍵ID管理部37は、通信部33を通じて、眼鏡端末2の鍵ID確認部57と通信する。鍵ID管理部37は、その眼鏡端末2を一意に識別可能である眼鏡端末IDを要求する。鍵ID確認部57は、応答として、自身の眼鏡端末2を一意に識別可能である眼鏡端末IDを、通信部53を通じて、ユーザ端末1の鍵ID管理部37へ送信する。 An example of a predetermined procedure for registering the key ID is as follows. The user connects the eyeglass terminal 2 to the user terminal 1 through the wireless communication interface for the initial setting. The key ID management unit 37 of the user terminal 1 communicates with the key ID confirmation unit 57 of the eyeglass terminal 2 through the communication unit 33. The key ID management unit 37 requests an eyeglass terminal ID that can uniquely identify the eyeglass terminal 2. As a response, the key ID confirmation unit 57 transmits an eyeglass terminal ID that can uniquely identify the own eyeglass terminal 2 to the key ID management unit 37 of the user terminal 1 through the communication unit 53.

眼鏡端末IDは、眼鏡端末2に予め持つID、例えば機器製造番号等を用いてもよいし、眼鏡端末2の通信アドレス等を用いてもよいし、眼鏡端末2に対してユーザにより設定されているIDがある場合にはそのIDを用いてもよい。 The eyeglass terminal ID may be an ID that the eyeglass terminal 2 has in advance, such as a device serial number, or a communication address of the eyeglass terminal 2, or the like, which is set by the user for the eyeglass terminal 2. If there is an existing ID, that ID may be used.

鍵ID確認部57から受信した眼鏡端末IDと、自身のユーザ端末1の端末IDとを用いて、それらを関係付けて、鍵IDを決定し、鍵ID701として自身に登録する。鍵ID管理部37は、例えば、眼鏡端末IDの値と端末IDの値との所定の演算により鍵IDの値を決定してもよい。鍵ID管理部37は、例えば、眼鏡端末IDと端末IDとの2つを関連付けてそのまま1つの鍵IDとしてもよい。 Using the spectacle terminal ID received from the key ID confirmation unit 57 and the terminal ID of the user terminal 1 of the user, they are associated with each other to determine the key ID and register it as the key ID 701. The key ID management unit 37 may determine the value of the key ID by performing a predetermined calculation of the value of the eyeglass terminal ID and the value of the terminal ID, for example. The key ID management unit 37 may, for example, associate two eyeglass terminal IDs and a terminal ID with each other and use them as one key ID as they are.

端末IDは、ユーザ端末1に予め持つID、例えば機器製造番号等を用いてもよいし、ユーザ端末1の通信アドレス等を用いてもよいし、ユーザ端末1に対してユーザにより設定されているIDがある場合にはそのIDを用いてもよい。 The terminal ID may be an ID that the user terminal 1 has in advance, such as a device serial number or the like, or a communication address of the user terminal 1 or the like, or is set by the user for the user terminal 1. If there is an ID, that ID may be used.

鍵ID管理部37は、決定した鍵IDを、眼鏡端末2にも通知する。鍵ID確認部57は、通知された鍵IDを、鍵ID702として、自身に登録する。 The key ID management unit 37 also notifies the eyeglass terminal 2 of the determined key ID. The key ID confirmation unit 57 registers the notified key ID as a key ID 702 in itself.

なお、ユーザ端末1のユーザ設定機能を用いて、上記鍵IDの値をユーザにより任意にパスワードのようなものとして設定可能としてもよい。また、鍵IDとして端末IDを用いる形態としてもよいし、鍵IDとして眼鏡端末IDを用いる形態としてもよい。 The value of the key ID may be arbitrarily set by the user as a password using the user setting function of the user terminal 1. Also, the terminal ID may be used as the key ID, or the eyeglass terminal ID may be used as the key ID.

(2) 鍵IDの登録済みの状態において、機能オン状態で、ユーザ端末1は、解除画面データ203を眼鏡端末2へ送信する際に、鍵ID管理部37を用いる。制御部31は、解除画面生成部42で生成した解除画面データ203を、通信部33を通じて眼鏡端末2へ送信する前に、鍵ID管理部37と連携する。鍵ID管理部37は、鍵ID701を用いて、解除画面データ203に対して所定の暗号化処理を施し、その結果である暗号化解除画面データ703を得る。通信部33は、その暗号化解除画面データ703を、眼鏡端末2の通信部53へ送信する。 (2) When the key ID is already registered and the function is on, the user terminal 1 uses the key ID management unit 37 when transmitting the release screen data 203 to the eyeglass terminal 2. The control unit 31 cooperates with the key ID management unit 37 before transmitting the release screen data 203 generated by the release screen generation unit 42 to the eyeglass terminal 2 through the communication unit 33. The key ID management unit 37 uses the key ID 701 to perform a predetermined encryption process on the descrambling screen data 203 and obtains the descrambling screen data 703 as a result. The communication unit 33 transmits the decryption screen data 703 to the communication unit 53 of the eyeglass terminal 2.

(3) 眼鏡端末2の通信部53は、暗号化解除画面データ703を受信し、鍵ID確認部57と連携する。鍵ID確認部57は、鍵ID702を用いて、その暗号化解除画面データ703に対して所定の復号化処理を施し、その結果である解除画面データ203を得る。その後、解除画面データ203に基づいて、実施の形態1と同様に、投射表示部54を通じて、表示画面部21に解除画面102を表示する。 (3) The communication unit 53 of the eyeglass terminal 2 receives the decryption screen data 703 and cooperates with the key ID confirmation unit 57. The key ID confirmation unit 57 uses the key ID 702 to perform a predetermined decryption process on the decrypted screen data 703, and obtains the released screen data 203 as a result. Then, based on the release screen data 203, the release screen 102 is displayed on the display screen unit 21 through the projection display unit 54 as in the first embodiment.

上記鍵IDを持っていない他の眼鏡端末が、ユーザ端末1から暗号化解除画面データ703を無線傍受等で取得したとしても、復号化できないので、解除画面102を表示することはできない。 Even if another spectacle terminal that does not have the key ID acquires the decryption screen data 703 from the user terminal 1 by wireless interception or the like, the decryption screen data 703 cannot be decrypted and therefore the cancellation screen 102 cannot be displayed.

[効果等]
上記のように、実施の形態2によれば、特定のユーザ端末1と特定の眼鏡端末2との一対一の関係でのみ、重畳画面103の表示が可能であり、実施の形態1よりも更に覗き見防止効果を高めることができる。実施の形態2では、仮に他者が同じような機能を持つ眼鏡端末を装着した場合でも、特定の鍵IDを用いた処理を経由する必要があるので、元画面の内容を認識することはできない。
[Effects, etc.]
As described above, according to the second embodiment, it is possible to display the superimposed screen 103 only in the one-to-one relationship between the specific user terminal 1 and the specific eyeglass terminal 2, and further than in the first embodiment. The peep prevention effect can be enhanced. In the second embodiment, even if another person wears a spectacles terminal having a similar function, it is necessary to go through a process using a specific key ID, so that the contents of the original screen cannot be recognized. ..

[変形例(1)]
実施の形態2の変形例として、鍵IDに関する処理として以下も可能である。ユーザ端末1に眼鏡端末2が無線接続され、ユーザ端末1から眼鏡端末2へ解除画面データ203を送信する際に、ユーザ端末1の鍵ID管理部37から眼鏡端末2へ鍵ID確認を要求する。ユーザ端末1は、眼鏡端末2から応答として正しい鍵IDを受信した場合、特定の眼鏡端末2であることが確認できるので、その後、解除画面データ203を送信する。仮に他の眼鏡端末が無線接続された場合、その眼鏡端末から正しい鍵IDは受信できないので、ユーザ端末1は解除画面データ203を送信しない。
[Modification (1)]
As a modified example of the second embodiment, the following can be performed as the process related to the key ID. When the eyeglass terminal 2 is wirelessly connected to the user terminal 1 and the release screen data 203 is transmitted from the user terminal 1 to the eyeglass terminal 2, the key ID management unit 37 of the user terminal 1 requests the eyeglass terminal 2 for key ID confirmation. .. When the user terminal 1 receives the correct key ID from the spectacles terminal 2 as a response, the user terminal 1 can confirm that it is the specific spectacles terminal 2, and then transmits the cancellation screen data 203. If another eyeglass terminal is wirelessly connected, the correct key ID cannot be received from that eyeglass terminal, and therefore the user terminal 1 does not transmit the release screen data 203.

[変形例(2)]
実施の形態2では、ユーザ端末1側が主体として鍵IDを管理している。これに限らず、変形例として、眼鏡端末2側が主体として、鍵IDを管理してもよい。この変形例では、眼鏡端末2に、鍵ID管理部37に相当する処理部を備え、鍵IDの決定及び登録を行う。ユーザ端末1には、鍵ID確認部57に相当する処理部を備える。
[Modification (2)]
In the second embodiment, the user terminal 1 side mainly manages the key ID. However, the present invention is not limited to this, and as a modified example, the eyeglass terminal 2 side may mainly manage the key ID. In this modification, the eyeglass terminal 2 includes a processing unit corresponding to the key ID management unit 37, and determines and registers the key ID. The user terminal 1 includes a processing unit corresponding to the key ID confirmation unit 57.

[変形例(3)]
変形例として、ユーザ端末1は更に以下の処理を行う。不可視画面生成部41は、鍵ID701をパラメータの1つとして用いた画像処理により不可視画面データ202を生成する。解除画面生成部42は、解除画面データ203を生成し、通信部33を通じて眼鏡端末2へ送信する。眼鏡端末2は、受信した解除画面データ203に、更に鍵ID702をパラメータの1つとして用いて所定の処理を施し、眼鏡端末2内での解除画面データ203を生成し、その解除画面データ203を用いて解除画面102を表示する。鍵ID701を用いた処理と、鍵ID702を用いた処理とが、所定の関係を持つ。
[Modification (3)]
As a modification, the user terminal 1 further performs the following processing. The invisible screen generation unit 41 generates the invisible screen data 202 by image processing using the key ID 701 as one of the parameters. The cancellation screen generation unit 42 generates the cancellation screen data 203 and transmits the cancellation screen data 203 to the eyeglass terminal 2 through the communication unit 33. The eyeglass terminal 2 further performs predetermined processing on the received release screen data 203 by using the key ID 702 as one of the parameters, generates release screen data 203 in the eyeglass terminal 2, and outputs the release screen data 203. The cancel screen 102 is displayed by using. The process using the key ID 701 and the process using the key ID 702 have a predetermined relationship.

以上、本発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されず、その要旨を逸脱しない範囲で種々変更可能である。 Although the present invention has been specifically described above based on the embodiments, the present invention is not limited to the above embodiments and can be variously modified without departing from the scope of the invention.

1…ユーザ端末、2…眼鏡端末、3…眼、4…通信ケーブル、5…本体部、6…透過光、7…反射光、8…重畳光、9…覗き見、11…表示画面部、12…入力部、21…表示画面部、100…可視画面、101…不可視画面、102…解除画面、103…重畳画面。 DESCRIPTION OF SYMBOLS 1... User terminal, 2... Eyeglass terminal, 3... Eye, 4... Communication cable, 5... Main body part, 6... Transmitted light, 7... Reflected light, 8... Superposed light, 9... Peeping, 11... Display screen part, 12... Input part, 21... Display screen part, 100... Visible screen, 101... Invisible screen, 102... Release screen, 103... Superimposition screen.

Claims (1)

覗き見防止システムであって、
ユーザが使用するユーザ端末と、
前記ユーザ端末と通信が可能に接続され、前記ユーザが装着する眼鏡端末と、
を備え、
前記ユーザ端末は、
覗き見防止機能のオフ状態では、第1表示画面部に、可視状態の元画面である第1画面を表示し、
前記覗き見防止機能のオン状態では、前記第1表示画面部に、前記第1画面に対応した、不可視状態の画面である第2画面を表示し、前記第2画面に対する入力を受け付け、
前記眼鏡端末は、前記覗き見防止機能のオン状態では、第2表示画面部に、前記第2画面の不可視状態を解除するための第3画面を表示し、
前記眼鏡端末を装着している前記ユーザの眼に、前記第2画面と前記第3画面との重ね合わせにより、前記第1画面の表示内容が可視状態となる第4画面を結像させ、
前記ユーザ端末は、
前記第1表示画面部に前記第1画面を表示するための第1画面データに基づいて、第1画像処理により、前記第2画面を表示するための第2画面データを生成し、前記第2画面データに基づいて、前記第1表示画面部に前記第2画面を表示し、
前記第1画面データに基づいて、第2画像処理により、前記第3画面を表示させるための第3画面データを生成し、前記第3画面データを、前記眼鏡端末へ送信し、
前記眼鏡端末は、前記第3画面データを受信し、前記第3画面データに基づいて、前記第2表示画面部に前記第3画面を表示し、
前記ユーザ端末は、
前記第1画面データと、素材データとに基づいて、前記第1画像処理により、前記第2画面データを生成し、
前記第1画面データと、前記素材データとに基づいて、前記第2画像処理により、前記第3画面データを生成し、
前記素材データは、前記第1画面の表示内容を視認できない、または視認しにくくする加工のための所定の広告オブジェクトを含むデータであり、
前記第2画面には、前記広告オブジェクトに基づいた広告情報が表示される、
覗き見防止システム。
A peep prevention system,
A user terminal used by the user,
An eyeglass terminal that is communicably connected to the user terminal and is worn by the user,
Equipped with
The user terminal is
In the off state of the peep prevention function, the first screen, which is the original screen in the visible state, is displayed on the first display screen section,
In the ON state of the peep prevention function, a second screen, which is a screen in an invisible state corresponding to the first screen, is displayed on the first display screen unit, and an input to the second screen is accepted.
The eyeglass terminal displays a third screen for canceling the invisible state of the second screen on the second display screen section when the peep prevention function is on.
By superimposing the second screen and the third screen on the eyes of the user wearing the spectacles terminal, a fourth screen in which the display content of the first screen becomes visible is formed into an image .
The user terminal is
Second screen data for displaying the second screen is generated by first image processing based on first screen data for displaying the first screen on the first display screen unit, Displaying the second screen on the first display screen portion based on screen data,
Based on the first screen data, second image processing is performed to generate third screen data for displaying the third screen, and the third screen data is transmitted to the eyeglass terminal.
The spectacles terminal receives the third screen data, displays the third screen on the second display screen unit based on the third screen data,
The user terminal is
Generating the second screen data by the first image processing based on the first screen data and the material data,
Generating the third screen data by the second image processing based on the first screen data and the material data,
The material data is data including a predetermined advertisement object for processing for making the display content of the first screen invisible or difficult to see,
Advertising information based on the advertising object is displayed on the second screen,
Peep prevention system.
JP2016082365A 2016-04-15 2016-04-15 Peep prevention system Active JP6730837B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016082365A JP6730837B2 (en) 2016-04-15 2016-04-15 Peep prevention system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016082365A JP6730837B2 (en) 2016-04-15 2016-04-15 Peep prevention system

Publications (2)

Publication Number Publication Date
JP2017191293A JP2017191293A (en) 2017-10-19
JP6730837B2 true JP6730837B2 (en) 2020-07-29

Family

ID=60084859

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016082365A Active JP6730837B2 (en) 2016-04-15 2016-04-15 Peep prevention system

Country Status (1)

Country Link
JP (1) JP6730837B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7338255B2 (en) * 2019-06-17 2023-09-05 京セラドキュメントソリューションズ株式会社 Display device and display method
CN111312073B (en) * 2020-02-25 2022-08-12 深圳市隆利科技股份有限公司 Peep-proof display screen and electronic equipment
WO2022226615A1 (en) * 2021-04-26 2022-11-03 Melo Andre Augusto Ceballos Smart media protocol, media id for responsibility and authentication, and device for security and privacy in the use of devices with screens, to make message data more private
US11928250B2 (en) * 2021-06-25 2024-03-12 International Business Machines Corporation Securing visible data
JP7161797B1 (en) 2021-11-30 2022-10-27 政志 松本 Data input support device, data input support system, data input support method, and data input support program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05323267A (en) * 1992-05-26 1993-12-07 Toshiba Corp Liquid crystal display device
JP2005055586A (en) * 2003-08-01 2005-03-03 Skr Technology Inc Display system and security system
JP5024688B2 (en) * 2010-05-14 2012-09-12 株式会社アイ・エス・ビー Display device and program
JP2013205605A (en) * 2012-03-28 2013-10-07 Seiko Epson Corp Projector, terminal device, program and system
JP6264982B2 (en) * 2014-03-24 2018-01-24 富士ゼロックス株式会社 Information display device, information display system, and program

Also Published As

Publication number Publication date
JP2017191293A (en) 2017-10-19

Similar Documents

Publication Publication Date Title
JP6730837B2 (en) Peep prevention system
CN101681585B (en) Image processing device, its method, and display device
CN109765994A (en) Improvement to the protection and the access that calculate the data in equipment
CN105807428B (en) A kind of head-mounted display apparatus and system
JP2013110514A (en) Operation input system
TWI629507B (en) Head-mounted display devices and adaptive masking methods thereof
JP2006267604A (en) Composite information display device
CN104076512A (en) Head-mounted display device and method of controlling head-mounted display device
US20070247392A1 (en) Method for displaying private/secure data
WO2009130985A1 (en) Information input system
CN110248004A (en) Terminal, the control method of terminal and image acquiring method
WO2008102883A1 (en) Image processing device and method, program, and display device
JP5464130B2 (en) Information display system, apparatus, method and program
JP2004302186A (en) Personal digital assistant
CN104932675A (en) Display Device, Image Display System, And Information Processing Method
JP2016004402A (en) Information display system having transmission type hmd and display control program
JP6036291B2 (en) Display device, display system, and display device control method
WO2016095422A1 (en) Glasses, display terminal and image display processing system and method
WO2020115815A1 (en) Head-mounted display device
US8144164B2 (en) Image display apparatus and method
CN113906765A (en) Obfuscating location-specific data associated with a physical environment
EP2765777A1 (en) Use of active shutter device to securely display content
KR20210064040A (en) Modifying Display Operating Parameters based on Light Superposition from a Physical Environment
TWI704472B (en) Electronic device for displaying virtual image and operation method thereof
Hwang et al. 23.4: Augmented Edge Enhancement for Vision Impairment using Google Glas

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190402

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200703

R150 Certificate of patent or registration of utility model

Ref document number: 6730837

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250