CN106066750B - 显示*** - Google Patents

显示*** Download PDF

Info

Publication number
CN106066750B
CN106066750B CN201610248349.6A CN201610248349A CN106066750B CN 106066750 B CN106066750 B CN 106066750B CN 201610248349 A CN201610248349 A CN 201610248349A CN 106066750 B CN106066750 B CN 106066750B
Authority
CN
China
Prior art keywords
display
screen
neck
unit
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610248349.6A
Other languages
English (en)
Other versions
CN106066750A (zh
Inventor
柴田幸雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of CN106066750A publication Critical patent/CN106066750A/zh
Application granted granted Critical
Publication of CN106066750B publication Critical patent/CN106066750B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/04Display device controller operating with a plurality of display units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及一种能够进行更多的多个画面的内容显示的显示***,操作者将头部安装型显示装置安装在头部,第一显示器位于正面,操作者的眼睛面向第一显示器。关于头部安装型显示装置,操作者在右侧能够通过右侧的显示部观察放大像,操作者在左侧能够通过左侧的显示部观察放大像。

Description

显示***
技术领域
本发明涉及一种将设置在电子设备上的液晶显示装置(LCD)等显示器和头部安装型显示装置进行组合的显示领域。
背景技术
在控制机床的数值控制装置中为了显示各种数据而使用液晶显示装置(LCD)。这样,一般使用利用了LCD的显示器。并且,通过一台LCD进行多个画面的内容显示。另外,为了进行无法用一台LCD显示的数量的画面的内容显示,而进行通过使用多台LCD来增加画面的内容显示的数量。
另外,这里所说的画面是指通过控制机床的数值控制装置的显示器显示的例如***结构画面、诊断画面、波形诊断画面、警告画面等画面,是通过PC(个人计算机)的显示器显示的例如通过表计算软件显示的画面、通过文档生成软件显示的画面等画面。
另外,作为显示装置的一个方式,公知在日本特开2014-186089号公报、日本特开2013-73070号公报、日本特开2013-258614号公报、日本特开2013-255102号公报、日本特开平10-334274号公报、日本特表平9-508478号公报、日本特开平9-197336号公报、日本特开平5-91582号公报以及日本专利第5216761号公报所公开的安装在人体头部的头部安装型显示装置。
在进行多个画面的内容显示时,会有以下问题,即显示内容有限度,另外显示器大型化。另外,在使用多台显示器的情况下,会有设置这些显示器的面积增大的问题。例如,在工厂的机床中,会有在小型的机床中使用多台显示器本来就比较困难,且成本上升的问题。
发明内容
因此,本发明的目的为,鉴于上述现有技术的问题点而提供一种能够进行更多的多个画面的内容显示的显示***。
本发明显示***使用设置在电子设备上的第一显示器、具有第二显示器的头部安装型显示装置,该显示***具备:显示目的地选择单元,其选择是显示在上述第一显示器上还是显示在上述第二显示器上的显示目的地;以及画面选择单元,其选择在通过上述显示目的地显示单元选择的显示器上显示哪个画面的画面,上述头部安装型显示装置在操作者将上述头部安装型显示装置安装到头部来辨认上述第一显示器的画面时不妨碍上述第一显示器的视野的位置具备上述第二显示器,在通过上述显示目的地选择单元选择的显示目的地显示通过上述画面选择单元选择的画面。
上述显示目的地选择单元是选择键,可以通过上述选择键的触摸位置或按压位置选择上述显示目的地。
上述显示目的地选择单元是选择键,可以通过上述选择键的触摸次数或按压次数来选择上述显示目的地。
上述显示目的地选择单元是选择键,可以通过上述选择键的触摸方向或按压方向来选择上述显示目的地。
上述头部安装型显示位置具备眼睛方向检测单元以及颈部方向检测单元,上述显示目的地选择单元可以作为上述眼睛方向检测单元以及颈部方向检测单元。
上述头部安装型显示装置具备眼睛方向检测单元或颈部方向检测单元,上述显示目的地选择单元可以作为上述眼睛方向检测单元以及颈部方向检测单元。
作为显示***,可以将上述第二显示器与上述头部安装型显示装置的本体进行铰链结合,能够以铰链结合轴为中心转动,通过上述眼睛方向检测单元以及颈部方向检测单元来检测眼睛的方向和颈部的方向,求出将上述眼睛的方向和上述颈部的方向合成后的方向,进行如下驱动控制,即当上述合成后的方向是上述第一显示器方向时打开上述第二显示器,当上述合成后的方向是上述第二显示器方向时,关闭上述第二显示器。
作为显示***,可以使上述第二下显示器左右滑动,通过上述眼睛方向检测单元以及颈部方向检测单元来检测眼睛的方向和颈部的方向,进行如下驱动,即如果将眼睛的方向和颈部的方向合成后的方向是右方向,则使上述第二显示器向左滑动,如果将眼睛的方向和颈部的方向合成后的方向是左方向,则使上述第二显示器向右滑动。
作为显示***,可以通过上述眼睛方向检测单元以及颈部方向检测单元来检测眼睛的方向和颈部的方向,在头部安装型显示装置中设置有:当将眼睛的方向和颈部的方向合成后的方向是上述第一显示器方向时透射光,当将眼睛的方向和颈部的方向合成后的方向是上述第二显示器方向时不透射光的物质。
本发明的显示***使用具有多个显示器的头部安装型显示装置,该显示***具备:显示目的地选择单元,其选择使上述多个显示器的一个或多个的哪个显示器显示的显示目的地;以及画面选择单元,其选择在通过上述显示目的地选择单元选择出的显示器上显示哪个画面的画面,在通过上述显示目的地选择单元选择出的显示目的地上显示通过上述画面选择单元选择出的画面。
本发明的显示***将在头部安装型显示装置的显示器的右眼以及左眼中的至少一方上显示的显示区域分为多个,通过眼睛方向检测单元以及颈部方向检测单元的至少一方来检测眼睛的方向和颈部的方向中的至少一方,并且当将检测出的上述眼睛的方向和颈部的方向合成后的方向是正面时,将正面看到的显示区域放大得比剩余的显示区域大,将正面看到的显示区域以外的显示区域进行缩小,当将眼睛的方向和颈部的方向合成后的方向是正面方向以外时,放大将眼睛的方向以及颈部的方向合成后的方向的显示区域,缩小包括正面看到的显示区域的剩余区域。
通过本发明能够提供一种能够进行更多的多个画面的内容显示的显示***。
附图说明
通过参照附图说明以下的实施例,能够更加明确本发明的上述以及其他目的、特征。
图1是表示头部安装型显示装置的一例的图。
图2是表示具备了第一显示器和第二显示器的显示***的图。
图3是表示在图2所示的显示***中在第一显示器上显示并使用键的显示***的图。
图4是表示在图2所示的显示***中在第一显示器的显示部分以外设置了键的显示***的图。
图5是表示通过触摸或按压画面选择键的右边而使A画面显示在显示部2R放大像上的例子的图。
图6是表示使第一显示器的B画面移动到显示部2R放大像中的例子的图。
图7是表示在第一显示器的显示部分以外设置画面选择键,并在第一显示器的显示部分上设置画面选择显示部,通过触摸或按压画面选择键的右边而使A画面显示在显示部放大像上的例子的图。
图8是表示通过触摸或按压A画面选择键和R选择键而使A画面显示在显示部2R放大像上的例子的图。
图9是表示在第一显示器的显示部分以外设置画面选择键和显示目的地选择键,并通过触摸或按压A画面选择键和R选择键而使A画面显示在显示部2R放大像上的例子的图。
图10是表示在使用了鼠标的情况下使A画面显示在显示部2R放大像上的例子的图。
图11是表示在头部安装型显示装置侧设置眼睛的方向检测器,将通过眼睛向右而选择出的A画面显示在显示部2R放大像上的例子的图。
图12是表示通过2次触摸或按压画面选择键而使A画面显示在第一显示部上的例子的图。
图13是通过触摸或按压从左向右滑动画面选择键而使A画面显示在显示部2R放大像上的例子的图。
图14是表示通过最近的操作将A画面设为有效,并选择了A画面中的A画面7的例子的图。
图15是表示通过触摸或按压RCL选择键来将D画面设为有效,并选择了D画面4的例子的图。
图16是表示将功能选择键和RCL选择键设置在头部安装型显示装置的操作部上的例子的图。
图17是表示使用鼠标来选择A画面中的A画面2的情况的例子的图。
图18是表示通过使鼠标向左移动,显示部2L放大像的D画面成为有效的情况的图。
图19是表示在头部安装型显示装置设置了透射型LCD的例子的图。
图20是表示在观看第一显示器时能够通过透射型LCD看到第一显示器的图。
图21是表示通过对透射型LCD施加电压使透射型LCD变暗,从而容易观察头部安装型显示装置的显示部2R放大像或显示部2L放大像的例子的图。
图22是表示在头部安装型显示装置中具备了相当于第一显示器的设备的例子的图。
图23是表示结构上为一体式,能够看到显示部2R放大像、显示部2C放大像以及显示部2L放大像的例子的图。
图24是在结构上为一体式的情况下只将右眼作为例子而表示的图,是表示通过使眼睛面向正面而缩小显示显示部2L放大像和显示部2R放大像,并放大显示显示部2C放大像的例子的图。
图25是表示通过使眼睛向右而缩小显示显示部2L放大像和显示部2C放大像,并放大显示显示部2R放大像的例子的图。
图26是表示将显示部2R和显示部2L的耳侧设为铰链结构的例子的图。
图27是表示在使眼睛向右的例子中关闭右侧的显示部2R的例子的图。
图28是表示在使眼睛向右的例子中使显示部2R和显示部2L向左滑动的例子的图。
图29是表示眼睛的方向和颈部的方向之间的关系的图。
具体实施方式
以下结合附图说明本发明的实施方式。
图1是表示头部安装型显示装置1的一个例子的图。表示将头部安装型显示装置1安装到操作者10的头部的状态。另外,包括图1所示的各结构的大小和厚度等是概念的、示意性的,不限于和现实的情况是相同的,并且存在多个能够实现本发明的头部安装型显示装置1。
在观察设置在控制机床的控制装置等电子设备上的显示器(以下称为“第一显示器”)的显示画面的部分没有头部安装型显示装置1的显示器(以后称为“第二显示器”)。图1中未图示第一显示器。在该例子中为了不妨碍第一显示器5(参照图2)的视野,以使第二显示器2来到眼睛的左右的方式设置头部安装型显示装置1的第二显示器的显示部2R和显示部2L(以后称为“显示部2R”和“显示部2L”)。图1中第二显示器是右眼用的显示部2R和左眼用的显示部2L。另外,第二显示器设为可移动使得能够调整到容易观察的位置,从而提高使用方便性。
驱动头部安装型显示装置1的电源虽然没有图示,但是可以是电池,也可以从第一显示器或其他有线地提供。处理画面等的控制器(可以是相当于包括计算机的个人计算机,也可以是包括计算机的专用器,还可以是不包括计算机的专用器)可以与第一显示器一体式地设置,也可以与第一显示器分开地设置在别的地方。显示在头部安装型显示装置1上的画面等信息可以从一体式或分离式的控制器无线地传输,也可以有线地传输。来自头部安装型显示装置1的信息可以无线地传输,也可以有线地传输。
另外,在上述说明中在第一显示器上显示画面选择部等,但是也可以显示在第二显示器上。这时,也可以将控制器设置在头部安装型显示装置1一侧。关于设置在头部安装型显示装置1一侧的控制器,考虑日本特开2014-186089号公报和日本特开2013-255102号公报中记载的方式,是公知的事实所以省略说明。另外,在能够小型化的情况下希望不将头部安装型显示装置1和控制器分开而进行一体化。
图2是表示具备了第一显示器和第二显示器的显示***的图。图2和图1一样是包括大小和厚度等的概念的、示意的图。第一显示器5位于正面,有在面向第一显示器5的状态下将头部安装型显示装置1安装在头部上的状态的操作者。
只表示操作者10的眼睛8和鼻子9。关于头部安装型显示装置1只表示显示部2R和显示部2L。在显示部2R中通过显示部2R放大像7R表示操作者10观察到的放大像,在显示部2L中通过显示部2L放大像7L表示操作者10观察到的放大像。作为输入装置表示了硬键盘6的例子。另外,关于用于观察放大像的结构,在日本特开2013-73070号公报、日本特表平9-508478号公报、日本特开平9-197336号公报以及日本特开5-91582号公报以外也申请了多个发明,由于是公知的事实,所以省略详细的说明。
除了硬键盘6以外,作为输入装置能够使用MDI(Manual Date Input:手动数据输入)和软键盘等。另外,作为输入装置能够使用声音识别***、图像识别***(例如考虑以下情况,即在板上描绘选择键等按键,通过图像识别操作者表示的按钮的位置和文字以及数值并进行处理,或通过图像识别操作者用手指和指示棒等在空间等表示的文字和数字等)、手腕(身体)点击输入***(例如日本专利第5786854号公报)等。
也可以在结构例的输入装置以外追加输入装置。图3是表示以下例子,即除了作为图2的结构例的输入装置即硬键盘6以外所使用的输入装置,在第一显示器5的显示部分上显示键,通过硬键盘6的键选择第一显示器5的显示部分的上的键11。另外,当第一显示器5附带有触摸面板时能够通过直接按压第一显示器5的显示部分上的键来选择。
图4表示作为除了图2的结构例的装置即硬键盘6以外所使用的输入装置,在第一显示器5的显示部分以外设置了键12的结构。是在第一显示器5的显示部分上的画面选择显示部14显示该键的内容,通过按压第一显示器5的显示部分以外的键12来进行键输入的例子。另外,也可以根据第一显示器5的显示部分上的画面选择显示部14的键内容通过硬键盘6的键来选择画面。
另外,作为另外追加的输入装置也可以使用鼠标。关于鼠标的用法是公知的事实,所以省略说明。另外,不言而喻,在图3和图4中能够使用鼠标选择键。
另外,作为另外追加的输入装置也可以使用触控式鼠标(touch pad)。在第一显示器5的显示部分上放置触控式鼠标(假设在软触控式鼠标主要附带触摸面板的情况),在第一显示器5的显示部分以外配置触控式鼠标(硬触控式鼠标),配置在硬键盘上或者配置在MDI上。关于触控式鼠标的用法是公知的事实所以省略说明。另外,不言而喻,在图3和图4中能够使用触控式鼠标进行键选择。
实施例1
图5是表示在将头部安装型显示装置1安装在头部的状态下观察第一显示器5的状态。关于头部安装型显示装置1,只表示第二显示器2即显示部2R和显示部2L。在第一显示器5已经显示B画面和C画面。硬键盘和MDI和软键盘等输入装置比较繁琐因此不表示(以下关于同样的结构也相同)。
第一显示器5是使用了附带触摸面板5a的显示器的例子。是使用触摸面板的功能在第一显示器5的显示部分下面作为画面选择部13显示从A画面选择键13A到D画面选择键13D的例子。进而在有E画面选择键13E以后的画面选择的情况下,如果触摸或按压[>]则显示E以后的画面选择键。如果触摸或按压[<]则返回到原来。所谓返回到原来是之前的状态还是最初的状态为任意的。([>]和[<]的键的移动和以下是相同的)。
在通过画面选择部13的A画面选择键13A选择A画面的情况下,在图5中表示通过触摸或按压键的右边而能够在显示部2R放大像7R观察到A画面的放大像的例子(以下将“能够观察到画面的放大像的例子”称为“显示了画面的例子”)。
能够调整头部安装型显示装置1使得能在第一显示器5的右边观察到显示部2R放大像7R。在该显示例的方法中,通过触摸或按压键的中央而在第一显示器5显示A画面,通过触摸或按压键的左边而在显示部2L放大像7L显示A画面。能够调整头部安装型显示装置1使得能够在第一显示器5的左边观察到显示部2L放大像7L。
图6是表示使第一显示器5的B画面显示移动到显示部2R放大像7R中的例子的图。画面选择部13具有A画面选择键13A、B画面选择键13B、C画面选择键13C以及D画面选择键13D。是通过触摸或按压B画面选择键13B的右侧将B画面显示在显示部2R放大像7R上的例子。通过按压B画面选择键13B的右侧,B画面从第一显示器5移动15并显示在显示部2R放大像7R上。另外,可以将画面选择部13的各个画面选择键分为显示部2R放大像7R用、第一显示器5用以及显示部2L放大像7L用。
实施例2
图7是表示在第一显示器5的显示部分以外设置画面选择键(画面选择部17),并在第一显示器5的显示部分上设置画面选择显示部16,显示画面选择键的内容的例子的图。是通过按压第一显示器5的显示部分以外的画面选择键而进行画面选择的例子。画面选择部17具有A画面选择键17A、B画面选择键17B、C画面选择键17C以及D画面选择键17D。
当第一显示器5的显示部分之外的键(画面选择部17的键)在本例的情况下设为3触点键,通过按压A画面选择键17A的右边而将A画面显示在显示部2R放大像7R上的例子。在该显示例的方法中,通过按压A画面选择键17A的中央而在第一显示器5显示A画面,通过按压A画面选择键17A的左边而在显示部2L放大像7L显示A画面。另外,也可以将各个画面选择键分为显示部2R放大像7R用、第一显示器5用、显示部2L放大像7L用。
实施例3
图8是表示第一显示器5附带触摸面板的显示器的例子的图。在本例中,使用触摸面板的功能,在第一显示器5的显示部分的下部,作为画面选择部18而显示从A画面选择键18A到D画面选择键18D。在显示目的地选择部19有R、C、L的选择键19R、19C、19L,如果触摸或按压R选择键19R,则选择显示部2R放大像7R作为选择出的画面的显示目的地,如果触摸或按压C选择键19C,则选择第一显示器5作为选择出的画面的显示目的地,如果触摸或按压L选择键19L,则选择显示部2L放大像7L作为选择出的画面的显示目的地。是通过触摸或按压A画面选择键18A,并触摸或按压R选择键19R,在显示部2R放大像7R显示A画面的例子。在本例子中,先触摸或按压画面选择部18的键,后触摸或按压显示选择部19的键,但是也可以先触摸或按压显示目的地选择部19的键,后触摸或按压画面选择部18的键。
实施例4
图9是表示以下例子的图,即在第一显示器5的显示部分以外设置画面选择键(画面选择部21),在第一显示器5的显示部分上设置画面选择显示部20,显示画面选择键(画面选择部21)的内容,在第一显示器5的显示部分以外设置R、C、L选择键(显示目的地选择部23),在第一显示器5的显示部分上设置显示目的地选择显示部22,显示了R、C、L选择键23R、23C、23L的内容。
是通过按压第一显示器5的显示部分以外的画面选择键(画面选择部21)来进行画面的选择,通过按压R、C、L选择键(显示目的地选择部23)来进行显示目的地的选择的例子。图9图示了通过按压A画面选择键21A,并按压R选择键23R而在显示部2R放大像7R上显示A画面的例子。在本例子中,先按压画面选择键(画面选择部21)后按压R、C、L选择键(显示目的地选择部23),但是也可以先按压R、C、L选择键(显示目的地选择部23)后按压画面选择键(画面选择部21)。
实施例5
图10是表示在使用了鼠标25的情况下的实施例。如果点击开始,则在第一显示器5的显示画面上显示画面选择部24。在本例中是以下例子,即进行从A画面24A到D画面24D的选择显示,用鼠标25选择A画面24A,并进行拖拽而在显示部2R放大像7R显示A画面。此时,鼠标25作为显示目的地选择单元发挥功能。也可以在第一显示器5上设置画面选择部24,用鼠标选择A画面,并进行拖拽而在显示部2R放大像7R显示A画面。在有E画面以后的情况下还能够显示,但是关于显示方法是公知的事实因此省略说明。另外,也可以使用触控式鼠标来代替鼠标。
实施例6
图11是以下的例子,即在头部安装型显示装置1一侧设置眼睛方向检测器27,判别眼睛的方向,判断在显示部2R放大像7R、第一显示器5、显示部2L放大像7L的哪里显示选择画面,并在与眼睛的方向对应的地方显示选择出的画面。本例的画面选择是一例,也可以使用其它的画面选择的方法。本例中眼睛的方向位于右侧,所以判断为正在观察显示部2R放大像7R,并在显示部2R放大像7R上显示由画面选择部28选择出的A画面。另外,通过眼睛的方向进行了说明,但是也可以检测颈部的方向并选择显示目的地,也可以通过眼睛的方向和颈部的方向的检测结果来选择显示目的地。眼睛的方向的检测在日本特开2014-186089号公报和日本特开平10-334274号公报等中是公知的事实,所以省略说明,关于颈部方向的检测在日本特开2013-258614号公报和日本特开2013-255102号公报等中是公知的事实,所以省略说明。
实施例7
图12是第一显示器为附带触摸面板5a的显示器的例子。在第一显示器画面的下部,作为画面选择部29而显示从A画面选择键29A到D画面选择键29D。例如在通过画面选择部29的A画面选择键29A选择A画面的情况下,本例中通过例如2次触摸或按压键而在第一显示器5上显示A画面。在该显示例的方法中,例如通过一次触摸或按压键而在显示部2R放大像7R显示A画面,例如通过三次触摸或按压键而在显示部2L放大像7L显示A画面。另外,如图7所示,也可以在第一显示器5的显示部分以外设置画面选择键,并在第一显示器5的显示部分上设置画面选择显示部,例如2次按压A画面选择键并在第一显示器显示A画面(这种情况下,第一显示器不需要附带触摸面板5a)。
实施例8
图13是第一显示器5为附带触摸面板的显示器的例子。是作为画面选择部30而显示从A画面选择键30到D画面选择键30D的例子。在通过画面选择部30的A画面选择键30A选择A画面的情况下,本例中是通过触摸或按压使得键例如从左向右滑动从而在显示部2R放大像7R中显示A画面的例子。
在该显示例的方法中,通过触摸或按压使得键例如从下向上(或者从上向下)滑动从而在第一显示器5中显示A画面,通过触摸或按压使得键例如从右向左滑动从而在显示部2L放大像7L中显示A画面。通过触摸或按压使得键例如按顺时针方向画圆地滑动从而在显示部2R放大像中显示A画面,通过触摸或按压使得键例如按逆时针方向画圆地滑动从而在显示部2L放大像中显示A画面。另外,当然也包括倾斜运动的情况。
实施例9
接着,以下描述各个画面(例如A画面)具有多个画面时的选择的一例、将显示在显示部2R放大像、第一显示器以及显示部2L放大像中的画面的哪一个设为有效的一例。以下所描述的仅仅是一例,除了记述以外当然还有很多方法。
图14中,在显示部2R放大像7R显示A画面,在第一显示器5显示B画面和C画面,在显示部2L放大像7L显示D画面。将A画面显示在显示部2R放大像7R上是最近的操作,因此A画面设为有效(作为画面而有效)。A画面的内容为从第一个到第n个的画面1到画面n。但是,n为自然数。将从A画面的画面1到画面n设为从A画面1到A画面n。
这里说明选择A画面7的情况。首先切换到能够通过功能选择键32选择从画面1到画面n的模式(称为画面n选择模式。此时,A画面为有效所以能够选择从A画面1到A画面n)。当然,也可以使硬键盘6或MDI具有相当功能选择键的功能。在本例中,能够一次性显示在第一显示器5的选择部31中的达到4个,所以显示从A画面1到A画面4。
这里没有A画面7,所以触摸或按压[>]并将从接下来的A画面5到A画面8显示在第一显示器5的选择部31中。
因为有A画面选择键31-7(31A7),所以触摸或按压A画面7选择键31-7并显示在显示部2R放大像7R中。进行阅览、或输入的作业。接着说明使有效画面转移到显示部2L放大像7L的D画面的情况。图15是通过触摸或按压RCL选择键33,成为有效的画面发生改变的例子。例如,在图15中每次触摸或按压RCL选择键33时,当有效画面以显示部2R放大像A画面→第一显示器B画面→第一显示器C画面→显示部2L放大像D画面而发生变化时,则如果将RCL选择键触摸或按压三次,则显示部2L放大像的D画面为有效。
这里说明选择D画面4的情况。首先通过功能选择键32切换为画面n选择模式。当然也可以使硬键盘6和MDI具有相当功能选择键的功能。本例子中一次能够在第一显示器5的选择部31显示的画面达到4个,D画面是有效,所以在选择部31显示D画面1到D画面4。触摸或按压D画面4选择键并显示在显示部2L放大像上。进行阅览、或输入的作业。
另外,当在显示部2R放大像7R、第一显示器5、显示部2L放大像7L上显示的画面数较多时,可以在每次触摸或按压RCL选择键33时,有效画面以显示部2R放大像7R→第一显示器5→显示部2L放大像7L的方式变化,在它们中分别设置切换画面的有效的键,也可以在键盘和MDI上设置←↑↓→的键(或者通过设置在键盘和MDI上的键)来进行操作。
图16是在头部安装型显示装置1的操作部34上设置功能选择键和RCL选择键的一例。在该例子中设为功能选择键和RCL选择键,但是当然也可以设置其它的键。另外,在左侧设置了键,但是也可以在右侧设置还可以在双方设置。在该例子中通过头部安装型显示装置的操作部的功能选择键切换为画面n选择模式,触摸或按压D画面4选择键并显示在显示部2L放大像上。进行阅览、或输入的作业。
图17是使用鼠标的情况的例子的图。在显示部2R放大像7R显示A画面,在第一显示器5显示B画面和C画面,在显示部2L放大像7L显示D画面。将A画面显示在显示部2R放大像7R上是最近的操作,A画面为有效(作为画面有效)。A画面的内容为从画面1到画面n。将从A画面的画面1到n设为从A画面1到A画面n。这里描述选择A画面2的情况。A画面的下部有[<]和[>]以及5个A画面切换用的显示36。如果点击其中的2则显示A画面2。进行阅览、或输入的作业。接着说明将有效移到显示部2L放大像的D画面的情况。
如图18所示,在该例子中将鼠标35向左移动,从而显示部2L放大像7L的D画面成为有效。另外,也可以通过用鼠标点击设为有效。然后,进行阅览、或输入的作业。当然在该例子中虽然设为鼠标35但也可以是触控式鼠标。另外第一显示器5和头部安装型显示装置1的显示部中画面的移动、放大以及缩小等功能在个人计算机等中是公知的事实,所以省略说明。
实施例10
图19是表示在头部安装型显示装置上设置透射型LCD的例子的图。头部安装型显示装置1具备右眼用的显示部2R、左眼用的显示部2L、配置在显示部2R和显示部2L之间的透射型LCD38。
如图20所示,安装了图19所示的头部安装型显示装置1的操作者10在观察第一显示器5时能够通过透射型LCD38辨认第一显示器5的显示画面。
头部安装型显示装置1通过眼睛方向检测器27(参照图11)检测操作者10的眼睛的方向,如果判断操作者10正在观察头部安装型显示装置1的显示部2R放大像7R或显示部2L放大像7L,则如图21所示那样进行对透射型LCD38施加电压并使透射型LCD38变暗的控制。这样,操作者10会容易观察到头部安装型显示装置1的显示部2R放大像7R或显示部2L放大像7L。
安装在头部安装型显示装置1上的设备不需要是透射型LCD38,只要是以下设备就能够使用,即在观察第一显示器5的显示画面时能够观察到显示在第一显示器5的显示画面上的像,在观察到头部安装型显示装置1的显示部2R的显示部2R放大像7R或显示部2L的显示部2L放大像7L的情况下能够使显示器5的显示画面变暗。
实施例11
图22是表示在头部安装型显示装置1中具备了相当于第一显示器5的设备的例子的图。在头部安装型显示装置1中,在观察第一显示器5的显示画面的方向即操作者10的前面设置显示部2C,在左右设置头部安装型显示装置1的显示部2R和显示部2L。
图22表示以下的例子,即如果观察显示部2C,则能够将相当于在设置在电子设备上的第一显示器5的显示画面所显示的像观察为通过显示部2C显示的显示部2C放大像7C。这样,只通过具备了显示部2R、2C以及2L的头部安装型显示装置1就能够相当于将设置在电子设备上的显示器(第一显示器5)、具备有显示部2R和2L的头部安装型显示装置1进行组合的显示***。
实施例12
在实施例11中,将头部安装型显示装置1所具备的显示部在结构上分为显示部2R、显示部2C以及显示部2L,但是在实施例12中也可以如图23所示那样在结构上作为一体式(显示部2D),以便能够观察到显示部2R放大像7R、显示部2C放大像7C、显示部2L放大像7L。在图23所示的实施例12中将头部安装型显示装置1设为了护目镜类型(goggles-type)的显示器,但是也可以是眼镜类型的其他类型。作为护目镜类型有日本特开2013-258614号公报,作为眼镜类型有日本专利第5216761号公报,因为是公知的事实,省略详细说明。另外,日本特开2013-258614号公报、日本专利第5216761号公报都不是如本发明那样如何显示画面的情况。另外,关于全景图像有日本特开2013-258614号公报,但不是像本发明那样显示多个画面的情况。
关于如图23所示那样将显示部在结构上作为一体式的情况(显示部2D),在图24只表示右眼的例子(根据日本特开2013-258614号公报、日本专利第5216761号公报可知两眼也可以)。在观察到正面时,放大显示相当于第一显示器5的显示部2C放大像7C并缩小(也可以缩小整体)显示显示部2R放大像7R和显示部2L放大像7L的横向宽度。
在使眼睛和颈部的方向向右移动(转动/旋转)的情况下,例如将通过显示部2D显示的放大像如图25那样缩小显示显示部2L放大像7L以及显示部2C放大像7C的横向宽度(也可以缩小整体),并增大显示部2R放大像7R(增大横向的宽度),从而靠向左而来到中央侧(移动),由此容易观察,并能够减轻眼睛的疲劳(包括眼睛疲劳)。即使在使眼睛和颈部的方向向左移动(转动/旋转)的情况下也同样增大显示部2L放大像(增大横向的宽度)。只表示了右眼的例子,但是在用左眼观察放大像时也同样。另外,是用两眼观察还是用单眼观察、缩小率和放大率、以怎样程度来到(移动)中央侧等都是任意的。如实施例6所示那样,关于眼睛方向的检测,在日本特开2014-186089号公报和日本特开平10-334274号公报等中是公知的事实,关于颈部方向的检测,在日本特开2013-258614号公报和日本特开2013-255102号公报等中是公知的事实,所以省略说明。
实施例13
图26是表示将显示部2R和显示部2L的耳侧做成铰链结构39的例子的图。即是这样的例子:将头部安装型显示装置1的显示部2R的耳侧做成铰链39的结构,并进行如下驱动控制,即在使眼睛和颈部向右方移动(转动/旋转)的情况下移动(转动/旋转)到容易观察到显示部2R的左侧(鼻侧)的位置(关闭),在将头部安装型显示装置1的显示部2L的耳侧做成铰链39的结构,使眼睛和颈部向左方移动(转动/旋转)的情况下移动(转动/旋转)到容易观察到显示部2L的右侧(鼻侧)的位置(关闭)。
在观察正面的情况下打开显示部2R和显示部2L(打开的角度是任意的),由此在观察正面时不会成为妨碍,从而能够得到开放感。另外,铰链部分可以是显示部耳侧的地方也可以是包括显示部和框部的地方。另外,通过在显示部和框的多个地方设置铰链39,能够不仅控制开闭的角度,也能够细微地控制第二显示器的位置。
图27是在眼睛向右的例子中右侧的显示部2R关闭的例子。本例中,在左右耳侧设置了铰链39,但也可以在眉毛侧设置铰链39,也可以在眼睛的下侧设置铰链39。另外,本例中,当眼睛向右时只关闭了显示部2R但也可以一起关闭显示部2L。
实施例14
图28是以下的例子,使第二显示器从右向左、从左向右移动(滑动/转动/旋转)地进行驱动控制,以及在使眼睛和颈部从正面向右移动(转动/旋转)时,使第二显示器从右向左移动(滑动/转动/旋转),从而能够观察到显示器2R,在使眼睛和颈部从正面向左移动(转动/旋转)时,使第二显示器从左向右移动(滑动/转动/旋转),从而能够观察到显示器2L,所以能够减轻眼睛的疲劳。本例中眼睛是右方向,所以是使显示部2R和显示部2L从右向左移动(滑动/转动/旋转)的例子。
本例中同时移动(滑动/转动/旋转)了显示部2R和显示部2L,但是也可以分别独立地驱动控制。另外,本例中虽然左右移动(滑动/转动/旋转),但当然也可以上下或倾斜地移动(滑动/转动/旋转)。作为关联的专利文献有日本特开平10-111470号公报。
图29是表示眼睛的方向和颈部的方向之间的关系的变形后的概略图,表示将眼睛的方向和颈部方向合成后的方向观察哪里的图。颈部方向(颈部的方向)是指使颈部围绕圆周方向旋转时相对于正面方向的方向。因此,在说颈部方向是右方的情况下,为在身体面向正面的状态下颈部面向右方。另外,图29的颈部角度是在使颈部围绕圆周方向旋转时相对于正面方向的旋转角度。眼睛的方向是相对于颈部(=头)的方向。因此当眼睛的方向是左方时,眼睛相对于颈部向左。另外,图29的眼睛的角度是在使眼睛围绕圆周方向旋转时相对于颈部(=头)的旋转角度。为了容易地表示将眼睛的方向和颈部方向合成后的方向面向哪个方向,通过绝对值来表示角度。例如,在颈部是左,眼睛是右的情况下,角度的绝对值大致相等,通过眼睛角度≒颈部角度来表示,表示辨认正面。当颈部是右,眼睛是左时,且眼睛角度的绝对值比颈部的角度绝对值大的情况下,通过眼睛角度>颈部角度来表示,表示辨认显示部放大像7L。图29(a)中,颈部方向是正面(旋转角度为零),眼睛方向是右方向。这样,表示辨认显示部2R放大像7R。另外,图29(a)中,“观察-显示部2R放大像7R”表示将眼睛的方向和颈部方向合成后的方向是“观察显示部2R放大像7R”。以下同样。
图29(b)中,眼睛方向和颈部方向都是正面方向。表示通过“观察-第一显示器5”辨认第一显示器5。图29(c)中,眼睛的方向是左方向,颈部方向是正面(旋转角度为0)。表示通过“观察-显示部2L放大像7L”辨认显示部2L放大像7L。图29(d)中,颈部方向是右旋转方向,眼睛是左方向。将眼睛的方向和颈部方向合成后的方向是左(眼睛角度比颈部角度充分大),所以辨认显示部2L放大像7L。图29(e)中,当眼睛的方向是左(眼睛角度≒颈部角度)时,观察到的显示器是第一显示器5。
图29(f)中,眼睛方向是向前(straight forward),辨认显示部2R放大像7R。图29(g)中,眼睛的方向是右,颈部方向也是右,辨认显示部2R放大像7R。图29(h)中,眼睛的方向是左,颈部方向是左方向。辨认显示部2L放大像7L。
图29(i)中,眼睛的方向是向前,颈部方向是左,辨认显示部2L放大像7L。图29(j)中,眼睛的方向是右(眼睛角度≒颈部角度),所以辨认第一显示器5。图29(k)中,眼睛的方向是右方向(眼睛角度比颈部角度充分大),所以辨认显示部2R放大像7R。
至此为止所描述的情况只是一例,当然有很多显示的种类和输入(包括选择和操作)的方法。
头部安装型显示装置1的显示器的放大像设为第一显示器5的左右,但也可以是上下,也可以是对角线,配置是任意的。这时通过检测眼睛和颈部的方向,使头部安装型显示装置的显示器移动(滑动/转动/旋转),从而能够减轻眼睛的疲劳。
头部安装型显示装置的显示器的显示部说明了2个,但也可以是一个,另外也可以是3个以上。说明了第一显示器(包括LCD等)为一个,但也可以是2个。
另外,第一显示器5不限定于机床的数值控制装置的显示装置和个人计算机的显示装置。
作为缺省,可以在电源接通后显示电源切断前的画面,也可以生成几种显示器画面模式,选择在电源接通后显示哪个模式。
可以直接在视网膜上描绘头部安装型显示装置1的显示部放大像。关于直接在视网膜上描绘的情况,除了专利第5216761号公报以外也申请了多个发明,这是公知的事实,所以省略说明。
以上说明了本发明的实施方式,但本发明不限定于上述实施方式的例子,能够通过增加适当的变更,以其它方式来实施。

Claims (9)

1.一种显示***,使用设置在电子设备上的第一显示器、具有第二显示器的头部安装型显示装置,其特征在于,
该显示***具备:
显示目的地选择单元,其选择显示目的地,即是使上述第一显示器进行显示还是使上述第二显示器进行显示;以及
画面选择单元,其选择画面,即在通过上述显示目的地选择单元选择出的显示器上显示哪个画面,
上述头部安装型显示装置具备设为可移动使得能够调整到如下位置的上述第二显示器,该位置是:在操作者将上述头部安装型显示装置安装在头部来辨认上述第一显示器的画面时不妨碍上述第一显示器的视野的位置,
该显示***在通过上述显示目的地选择单元选择出的显示目的地显示通过上述画面选择单元选择出的画面。
2.根据权利要求1所述的显示***,其特征在于,
上述显示目的地选择单元是选择键,
通过上述选择键的触摸位置或按压位置选择上述显示目的地。
3.根据权利要求1所述的显示***,其特征在于,
上述显示目的地选择单元是选择键,
通过上述选择键的触摸次数或按压次数来选择上述显示目的地。
4.根据权利要求1所述的显示***,其特征在于,
上述显示目的地选择单元是选择键,
通过上述选择键的触摸方向或按压方向来选择上述显示目的地。
5.根据权利要求1所述的显示***,其特征在于,
上述头部安装型显示装置具备眼睛方向检测单元以及颈部方向检测单元,上述显示目的地选择单元是上述眼睛方向检测单元以及颈部方向检测单元。
6.根据权利要求1所述的显示***,其特征在于,
上述头部安装型显示装置具备眼睛方向检测单元或颈部方向检测单元,上述显示目的地选择单元是上述眼睛方向检测单元或上述颈部方向检测单元。
7.根据权利要求5所述的显示***,其特征在于,
在该显示***中,
上述第二显示器与上述头部安装型显示装置的本体铰链结合,能够以铰链结合轴为中心转动,
通过上述眼睛方向检测单元以及颈部方向检测单元来检测眼睛的方向以及颈部的方向,
求出将上述眼睛的方向以及上述颈部的方向合成后的方向,
进行如下驱动控制,即当上述合成后的方向是上述第一显示器的方向时,打开上述第二显示器,当上述合成后的方向是上述第二显示器的方向时,关闭上述第二显示器。
8.根据权利要求5所述的显示***,其特征在于,
在该显示***中,
能够使上述第二显示器左右滑动,
通过上述眼睛方向检测单元以及颈部方向检测单元来检测眼睛的方向以及颈部的方向,
进行如下驱动控制,即如果将眼睛的方向以及颈部的方向进行合成后的方向是右方向,则使上述第二显示器向左滑动,如果将眼睛的方向以及颈部的方向合成后的方向是左方向,则使上述第二显示器向右滑动。
9.根据权利要求5所述的显示***,其特征在于,
在该显示***中,
通过上述眼睛方向检测单元以及颈部方向检测单元来检测眼睛的方向和颈部的方向,
在头部安装型显示装置上设置有:当将眼睛的方向和颈部的方向合成后的方向是上述第一显示器的方向时透射光,当将眼睛的方向和颈部的方向合成后的方向是上述第二显示器的方向时不透射光的物质。
CN201610248349.6A 2015-04-20 2016-04-20 显示*** Active CN106066750B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015085849A JP6426525B2 (ja) 2015-04-20 2015-04-20 表示システム
JP2015-085849 2015-04-20

Publications (2)

Publication Number Publication Date
CN106066750A CN106066750A (zh) 2016-11-02
CN106066750B true CN106066750B (zh) 2020-12-22

Family

ID=57043252

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610248349.6A Active CN106066750B (zh) 2015-04-20 2016-04-20 显示***

Country Status (4)

Country Link
US (1) US10268433B2 (zh)
JP (1) JP6426525B2 (zh)
CN (1) CN106066750B (zh)
DE (1) DE102016107202B4 (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10318225B2 (en) * 2015-09-01 2019-06-11 Microsoft Technology Licensing, Llc Holographic augmented authoring
US20170115489A1 (en) * 2015-10-26 2017-04-27 Xinda Hu Head mounted display device with multiple segment display and optics
CN110235438B (zh) * 2016-12-01 2021-12-28 Lg 电子株式会社 图像显示设备和包含该图像显示设备的图像显示***
US10451882B2 (en) * 2018-03-16 2019-10-22 Sharp Kabushiki Kaisha Hinged lens configuration for a compact portable head-mounted display system
US10665206B2 (en) * 2018-07-30 2020-05-26 Honeywell International Inc. Method and system for user-related multi-screen solution for augmented reality for use in performing maintenance
US11853533B1 (en) * 2019-01-31 2023-12-26 Splunk Inc. Data visualization workspace in an extended reality environment
TWI745955B (zh) * 2020-05-06 2021-11-11 宏碁股份有限公司 擴增實境系統與其錨定顯示方法
US11391962B1 (en) * 2020-12-31 2022-07-19 Lenovo (United States) Inc. Head mounted display nosepiece
US11402964B1 (en) * 2021-02-08 2022-08-02 Facebook Technologies, Llc Integrating artificial reality and other computing devices
TWI797929B (zh) * 2021-12-29 2023-04-01 華碩電腦股份有限公司 顯示控制方法
CN114401362A (zh) * 2021-12-29 2022-04-26 影石创新科技股份有限公司 一种图像显示方法、装置和电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102540464A (zh) * 2010-11-18 2012-07-04 微软公司 提供环绕视频的头戴式显示设备
JP2012162117A (ja) * 2011-02-03 2012-08-30 Denso Corp 表示制御システム、表示制御装置及びプログラム
JP2012233962A (ja) * 2011-04-28 2012-11-29 Konica Minolta Holdings Inc 投影システム、投影装置、投影方法、および制御プログラム
JP2014056017A (ja) * 2012-09-11 2014-03-27 Pioneer Electronic Corp 画像表示装置、画像表示方法、画像表示制御装置、コンピュータプログラム及び記録媒体

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5115705A (en) 1974-07-31 1976-02-07 Toyota Motor Co Ltd Kyukibenojushinai fukunenshoshitsukaranaru nainenkikan
JP3003322B2 (ja) 1991-09-30 2000-01-24 ソニー株式会社 映像表示装置
JPH05216761A (ja) 1992-01-28 1993-08-27 Nec Corp マイクロプロセッサ
WO1995021396A2 (en) 1994-02-07 1995-08-10 Virtual I/O, Inc. Personal visual display
US5864326A (en) 1992-02-07 1999-01-26 I-O Display Systems Llc Depixelated visual display
JP3344498B2 (ja) * 1993-05-26 2002-11-11 東芝システムテクノロジー株式会社 プラント監視装置
JPH09197336A (ja) 1996-01-19 1997-07-31 Olympus Optical Co Ltd 画像表示装置
JPH10111470A (ja) 1996-10-08 1998-04-28 Olympus Optical Co Ltd 画像表示装置
US20060053371A1 (en) * 1997-04-14 2006-03-09 Anderson Thomas G Navigation and viewing in a multidimensional space
JPH10334274A (ja) 1997-05-29 1998-12-18 Canon Inc 仮想現実方法及び装置並びに記憶媒体
US20060250322A1 (en) * 2005-05-09 2006-11-09 Optics 1, Inc. Dynamic vergence and focus control for head-mounted displays
SE0601216L (sv) * 2006-05-31 2007-12-01 Abb Technology Ltd Virtuell arbetsplats
JP4880693B2 (ja) * 2006-10-02 2012-02-22 パイオニア株式会社 画像表示装置
US7547101B2 (en) * 2007-01-02 2009-06-16 Hind-Sight Industries, Inc. Eyeglasses with integrated telescoping video display
WO2009041055A1 (ja) 2007-09-26 2009-04-02 Panasonic Corporation ビーム走査型表示装置、その表示方法、プログラム、及び集積回路
US8416268B2 (en) * 2007-10-01 2013-04-09 Pioneer Corporation Image display device
US8446586B2 (en) 2008-10-15 2013-05-21 Allan Yang Wu Method and apparatus for increasing adipose vascular fraction
JP5198368B2 (ja) * 2009-06-18 2013-05-15 本田技研工業株式会社 車両用画像表示装置
JP4679661B1 (ja) * 2009-12-15 2011-04-27 株式会社東芝 情報提示装置、情報提示方法及びプログラム
US8964298B2 (en) 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
JP5786854B2 (ja) 2010-03-15 2015-09-30 日本電気株式会社 入力装置、入力方法及びプログラム
US8780014B2 (en) * 2010-08-25 2014-07-15 Eastman Kodak Company Switchable head-mounted display
JP2012233963A (ja) * 2011-04-28 2012-11-29 Konica Minolta Holdings Inc 投影システム、投影装置、投影方法、および制御プログラム
WO2013049248A2 (en) * 2011-09-26 2013-04-04 Osterhout Group, Inc. Video display modification based on sensor input for a see-through near-to-eye display
JP5458080B2 (ja) 2011-09-28 2014-04-02 株式会社東芝 表示装置
US20130088413A1 (en) * 2011-10-05 2013-04-11 Google Inc. Method to Autofocus on Near-Eye Display
US9081177B2 (en) * 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response
JP5973795B2 (ja) 2012-06-07 2016-08-23 オリンパス株式会社 頭部装着型表示装置、画像表示システム及びプログラム
JP2013258614A (ja) 2012-06-13 2013-12-26 Sony Computer Entertainment Inc 画像生成装置および画像生成方法
US20140002629A1 (en) 2012-06-29 2014-01-02 Joshua J. Ratcliff Enhanced peripheral vision eyewear and methods using the same
US20140101608A1 (en) * 2012-10-05 2014-04-10 Google Inc. User Interfaces for Head-Mountable Devices
JP2014174507A (ja) * 2013-03-13 2014-09-22 Nec Corp 拡張現実表示装置及び情報端末並びにマルチディスプレイシステム、プログラム
JP6107276B2 (ja) 2013-03-22 2017-04-05 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
US9513702B2 (en) * 2013-07-15 2016-12-06 Lg Electronics Inc. Mobile terminal for vehicular display system with gaze detection
US10001645B2 (en) * 2014-01-17 2018-06-19 Sony Interactive Entertainment America Llc Using a second screen as a private tracking heads-up display
US9361732B2 (en) * 2014-05-01 2016-06-07 Microsoft Technology Licensing, Llc Transitions between body-locked and world-locked augmented reality
US20150348322A1 (en) * 2014-06-02 2015-12-03 Dell Products L.P. Dynamically Composited Information Handling System Augmented Reality at a Primary Display
KR102217561B1 (ko) * 2014-06-23 2021-02-19 엘지전자 주식회사 헤드 마운티드 디스플레이 및 그것의 제어방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102540464A (zh) * 2010-11-18 2012-07-04 微软公司 提供环绕视频的头戴式显示设备
JP2012162117A (ja) * 2011-02-03 2012-08-30 Denso Corp 表示制御システム、表示制御装置及びプログラム
JP2012233962A (ja) * 2011-04-28 2012-11-29 Konica Minolta Holdings Inc 投影システム、投影装置、投影方法、および制御プログラム
JP2014056017A (ja) * 2012-09-11 2014-03-27 Pioneer Electronic Corp 画像表示装置、画像表示方法、画像表示制御装置、コンピュータプログラム及び記録媒体

Also Published As

Publication number Publication date
DE102016107202A1 (de) 2016-10-20
CN106066750A (zh) 2016-11-02
US10268433B2 (en) 2019-04-23
JP2016208177A (ja) 2016-12-08
US20160306600A1 (en) 2016-10-20
JP6426525B2 (ja) 2018-11-21
DE102016107202B4 (de) 2021-09-23

Similar Documents

Publication Publication Date Title
CN106066750B (zh) 显示***
JP5749043B2 (ja) 電子機器
JP2005078644A (ja) タッチ式操作面を備えたディスプレイ
TW201510877A (zh) 使用圖像重疊減少顯示延遲的系統及方法,以及用於提供回應顯示裝置上所畫路徑之回饋的加速器
WO2012133272A1 (ja) 電子機器
JP2004005212A (ja) 情報処理装置およびコンピュータの操作方法
CN107111468A (zh) 具有虚拟显示器的显示***
WO2022067302A1 (en) Methods for navigating user interfaces
US20160026244A1 (en) Gui device
TW200726269A (en) Method for controlling image display
KR101370027B1 (ko) 안경형 디스플레이 디바이스용 마우스 장치 및 그 구동 방법
JPWO2012026095A1 (ja) 文字列検索装置
US20130314348A1 (en) Electronic device
JP2008116791A (ja) 電子書籍装置のページめくり方法
JP2014191629A (ja) 表示装置および同装置における画面制御方法
JP2012194626A (ja) 表示装置
JP2009106578A (ja) 眼精疲労軽減システムおよびプログラム
CN104820489B (zh) 管理低延时的直接控制反馈的***和方法
KR100357563B1 (ko) 에이브이/네비게이션 시스템의 계기 조작 장치
JP2003076350A (ja) 映像表示装置
KR101831510B1 (ko) 투명 디스플레이 장치 및 그것의 양면 디스플레이 방법
US20240241579A1 (en) Transparent display apparatus
KR20080098558A (ko) 태블릿모니터를 이용한 정보 제공 장치 및 방법
JPH03256112A (ja) 制御処理装置
JP6638761B2 (ja) 情報機器、情報機器におけるオブジェクトの報知方法、及び情報機器のプログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant