CN104423573A - 显示装置及其操作方法 - Google Patents
显示装置及其操作方法 Download PDFInfo
- Publication number
- CN104423573A CN104423573A CN201410250434.7A CN201410250434A CN104423573A CN 104423573 A CN104423573 A CN 104423573A CN 201410250434 A CN201410250434 A CN 201410250434A CN 104423573 A CN104423573 A CN 104423573A
- Authority
- CN
- China
- Prior art keywords
- display device
- display
- controller
- screen
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 37
- 238000004891 communication Methods 0.000 claims abstract description 40
- 230000000694 effects Effects 0.000 claims description 27
- 210000001508 eye Anatomy 0.000 claims description 26
- 230000008859 change Effects 0.000 claims description 22
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 230000008878 coupling Effects 0.000 claims description 6
- 238000010168 coupling process Methods 0.000 claims description 6
- 238000005859 coupling reaction Methods 0.000 claims description 6
- 230000036544 posture Effects 0.000 description 27
- 210000004027 cell Anatomy 0.000 description 25
- 238000013515 script Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 13
- 230000008569 process Effects 0.000 description 13
- 230000000007 visual effect Effects 0.000 description 13
- 230000036541 health Effects 0.000 description 12
- 238000010295 mobile communication Methods 0.000 description 10
- 230000004044 response Effects 0.000 description 9
- 230000002123 temporal effect Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 210000003811 finger Anatomy 0.000 description 8
- 239000011521 glass Substances 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 230000005236 sound signal Effects 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 6
- 230000001276 controlling effect Effects 0.000 description 6
- 210000003128 head Anatomy 0.000 description 6
- 238000002604 ultrasonography Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- NBIIXXVUZAFLBC-UHFFFAOYSA-N Phosphoric acid Chemical compound OP(O)(O)=O NBIIXXVUZAFLBC-UHFFFAOYSA-N 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000013011 mating Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 208000019901 Anxiety disease Diseases 0.000 description 2
- 230000036506 anxiety Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000005672 electromagnetic field Effects 0.000 description 2
- 210000005224 forefinger Anatomy 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000003032 molecular docking Methods 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 230000001105 regulatory effect Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 238000005096 rolling process Methods 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 238000000060 site-specific infrared dichroism spectroscopy Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 239000010409 thin film Substances 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- KLDZYURQCUYZBL-UHFFFAOYSA-N 2-[3-[(2-hydroxyphenyl)methylideneamino]propyliminomethyl]phenol Chemical compound OC1=CC=CC=C1C=NCCCN=CC1=CC=CC=C1O KLDZYURQCUYZBL-UHFFFAOYSA-N 0.000 description 1
- 101150012579 ADSL gene Proteins 0.000 description 1
- 102100020775 Adenylosuccinate lyase Human genes 0.000 description 1
- 108700040193 Adenylosuccinate lyases Proteins 0.000 description 1
- 241000287181 Sturnus vulgaris Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 201000001098 delayed sleep phase syndrome Diseases 0.000 description 1
- 208000033921 delayed sleep phase type circadian rhythm sleep disease Diseases 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 238000001093 holography Methods 0.000 description 1
- 210000005260 human cell Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000012528 membrane Substances 0.000 description 1
- 230000006386 memory function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 210000003739 neck Anatomy 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000036387 respiratory rate Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 210000003296 saliva Anatomy 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/02—Viewing or reading apparatus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/103—Formatting, i.e. changing of presentation of documents
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72409—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
- H04M1/72412—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
本发明涉及一种显示装置及其操作方法。可穿戴电子设备包括,无线通信单元,该无线通信单元被配置成被无线地连接到投影仪,用于将被存储的演示投影到外部设备的屏幕上;主体,该主体被配置成被用户穿戴;麦克风,该麦克风被集成地连接到主体;显示单元,该显示单元被配置成被附接到主体;以及控制器,该控制器被配置成将通过麦克风输入的语音信息与被存储的演示的相对应的内容相匹配,并且至少在显示单元上显示跟随相应内容的内容的跟随部分。
Description
技术领域
本发明涉及一种显示装置和操作显示装置的方法,并且具体地涉及被连接到用于进行演示的投影仪并且被配置成可安装在身体的特定部分上的显示装置和操作该显示装置的方法。
背景技术
投影仪将从预定的显示装置传输的图像信息投影到屏幕上以便进行演示并且向出席者示出图像。通过移动性将用于将图像信息传送到投影仪的显示器广泛地归类成移动/便携式终端和固定终端。通过便携式将移动终端进一步归类成手持式终端和车载终端。
响应于对于多样化功能的日益增长的需求,终端被形成为具有诸如拍摄照片对象作为静止图像或者运动图像、再现数字音频和视频压缩文件、玩游戏、接收广播等等的多个功能的多媒体播放器。此外,为了支持和改进显示装置的功能考虑对多媒体播放器的结构和软件改进。
另外,演示的演示者通过被连接到显示装置的投影仪使用被投影到屏幕上的图像等等进行演示。然而,偶尔地,仅图像被投影到屏幕上,演示没有平滑地进行。
例如,演示者应提供解释同时确保演示中的计划的进度并且同时测量出席者的专注力和出席者对演示的易懂性。然而,如果演示者进行演示同时以这样的方式掌握信息的各种情形和类型,则偶尔地,他/她发现他的/她的解释不足是时间紧张的,省略重要解释或者对于解释困惑不解。
另外,如果演示者在演示的进行期间问与解释有关的问题,则偶尔在长时间内他/她应记得问题或者发现时间太不充分而不能有效地回答问题。
因此,对于给演示者提供方式以帮助他/她平滑地进行演示的必要解释的需求日益增加。此示例是能够被安装在穿戴者的头上的显示装置。
这样的显示装置的示例是智能眼镜。此外,而且在智能眼镜上也可以方便地执行在现有的移动终端上可执行的功能,该智能眼镜是被安装在身体的特定部分上的可穿戴装置的示例。然而,不利之处在于,智能眼镜在大小上小,并且信息可传输到穿戴者,即,演示的演示者被限制。
特别地,因为演示者不得不在没有任何中断的情况下提供解释,所以必须以不防止解释被中断的方式向演示者提供信息。
发明内容
因此,详细描述的方面是为了提供一种显示装置和操作显示装置的方法,该显示装置可安装在诸如头部的演示的演示者的身体上,其根据演示者当前演示的详情和在演示者进行演示的速度提供接下来要演示的内容信息和时间信息。
详细描述的另一方面是为了提供一种显示装置和操作显示装置的方法,该显示装置可安装在诸如头部的演示的演示者的身体上,虽然事件不可预料地发生,诸如当演示者处于紧张状态中时或者当演示者忘记演示的详情时提供有关信息以便平滑地进行演示。
详细描述的又一方面是为了提供显示装置和操作显示装置的方法,该显示装置被配置成给演示者提供从外部设备传输的与演示有关的信息,或者生成对该信息的反馈并且提供反馈。
为了实现这些和其它的优点并且根据本说明书的用途,如在此具体化和广泛地描述的,提供一种输出装置,该输出装置被配置成被连接到用于进行演示的投影仪并且输出与要被投影在屏幕上的图像有关的内容信息,输出装置包括主体,该主体被配置成可安装在身体的特定部分上;麦克风,该麦克风集成地连接到主体;以及控制器,该控制器匹配通过麦克风输入的语音信息和与演示相关联的已经存储的内容详情并且输出跟随与语音信息相匹配参考值或者以上的内容详情的一部分的内容详情的至少一部分。
在输出装置中,输出单元可以是骨传导演示器,该骨传导演示器被集成地连接到主体,并且控制器可以将跟随内容详情转换成语音信号,将语音信号传输到骨传导演示器,并且调节语音信号的输出速度使得输出速度对应于语音信息的输入速度。
为了实现这些和其它的优点并且根据本说明书的用途,如在此具体化和广泛地描述的,提供一种显示装置,该显示装置被配置成被连接到用于进行演示的投影仪并且从而输出与要被投影在屏幕上的图像有关的内容信息,显示装置包括主体,该主体被配置成可安装在身体的特定部分上;麦克风,该麦克风被集成地连接到主体;控制器,该控制器匹配通过麦克风输入的语音信息和与演示相关联的已经存储的内容详情并且检测跟随与语音信息相匹配参考值或者以上的内容详情的一部分的内容信息;以及显示器,该显示器被连接到主体,被布置在对应于穿戴者的两只眼睛当中的至少一只眼睛的位置中,并且从而被配置成显示检测到的跟随内容信息的至少一部分。
在显示装置中,控制器可以调节被显示在显示器上的跟随内容信息的输出速度,使得跟随内容信息的输出速度对应于语音信息的输入速度,并且基于输出速度,与跟随内容信息有关的附加信息可以被显示在显示器上。在显示装置中,附加信息可以包括关于主体的穿戴者的信息、基于语音信息的输入速度和内容的剩余量计算的时间信息、关于已经存储的内容的数量的信息、指示演示进行的程度的信息、与跟随内容信息有关的附加信息、以及关于演示的出席者的信息当中的至少一个。
在显示装置中,已经指配的内容可以包括多个页面并且可以基于已经指配给多个页面中的每一个的时间信息和关于演示时间的剩余量的信息,控制器可以确定要被显示在显示器上的跟随内容信息的输出范围。
显示装置可以进一步包括用于检测关于穿戴者的活体信息(生物信号)的感测单元,该感测单元被集成地连接到主体,其中基于检测到的活体信息控制器监视穿戴者的状态,并且当穿戴者被确定为是处于紧张状态时,执行控制使得跟随内容信息的输出大小被改变或者高亮效果被输出。
在显示装置中,检测触摸输入的触摸传感器可以被设置在主体的至少一个区域中,其中用于检测由穿戴者输入的姿势的第一相机可以被包括在主体的外表面中,并且基于触摸传感器和第一相机当中的至少一个识别的由穿戴者输入的姿势,控制器可以执行控制使得显示器变化出现在显示器中。
在显示装置中,响应于其中当主体和屏幕彼此面向时穿戴者摇动被定位在主体和屏幕之间的他的/她的手的姿势输入,控制器可以执行控制使得被输出到显示器的图像被投影到被连接到投影仪的屏幕上。
在显示装置中,在第一方向上,响应于旋转被施加到显示器的边界区域的多个触摸开始点的姿势输入,控制器可以以导航方式放大被显示在显示器上的跟随内容信息。
在显示装置中,在第二方向上,响应于旋转被施加到显示器的边界区域的多个触摸开始点的姿势输入,控制器可以以导航方式缩小被显示在显示器上的跟随内容信息。
在显示装置中,当在第一方向上拖动被施加到主体的区域的触摸的输入被施加时,控制器可以在第一方向上滚动被显示在显示器上的跟随内容信息的行,并且当在第二方向上拖动被施加到主体的区域的触摸的输入被施加时,控制器可以在第二方向上滚动被显示在显示器上的跟随内容信息的行。
在显示装置中,基于轻敲主体的第一区域预定次数的触摸输入,控制器可以在第一方向上对与跟随内容相对应的文档页面进行翻页,并且基于在主体的第二区域上轻敲预定的次数的触摸输入,控制器可以在第二方向上对与跟随内容信息相对应的文档页面进行翻页。
显示装置进一步包括用于跟踪穿戴者的凝视的第二相机,该第二相机被连接到主体的内部,其中当穿戴者的凝视被固定到被输出到显示器的特定对象时,控制器可以执行控制使得与特定对象相关联的附加搜索的结果被显示在显示器的区域上。
在显示装置中,响应于在语音信息的输入没有被施加时在预定时间内穿戴者的凝视被固定到屏幕,控制器可以将高亮效果输出到被显示在显示器上的跟随内容信息的脚本,或者将跟随内容信息转换成语音信号并且输出语音信号。
在显示装置中,控制器可以控制显示器使得与通过麦克风输入的预定语音命令相对应的显示器变化出现。
在显示装置中,当通过麦克风输入的语音信息保持与已经存储的内容信息不相匹配时,控制器可以执行控制使得预定的报警被输出。
在显示装置中,预定的报警可以包括在用于跟随内容信息的声音消息、振动、以及高亮效果当中的至少一个或者多个。
显示装置可以进一步包括分别对应于穿戴者的左眼和右眼的第一显示器和第二显示器,其中控制器可以执行控制使得与通过麦克风输入的语音信息相对应的视觉信息被输出到第一显示器和第二显示器中的任意一个并且与跟随内容信息或者附加搜索的结果有关的附加信息被输出到另一个。
显示装置可以进一步包括无线通信单元,该无线通信单元被连接到外部设备并接收对应于与演示有关的无线信号,其中,控制器可以将无线信号转换成字符,并且在显示器的区域上显示字符或者以其中字符可传送到外部的文档文件格式存储字符。
在显示装置中,无线通信单元可以被配置成使得至少数据的项目可传送到被连接的外部设备,并且控制器可以使用字符作为关键词搜索已经存储的内容详情并且控制显示器使得与搜索的结果相对应的数据被显示在显示器上或者控制无线通信单元使得通过无线通信单元传送与搜索的结果相对应的数据。
显示装置可以进一步包括无线通信单元,该无线通信单元用于进行与投影仪的无线通信,其中当检测到为了将与演示相关联的已经存储的内容传送到投影仪而设置的姿势输入时,控制器可以控制投影仪使得被显示在显示器上的屏幕被同时输出到屏幕。
为了实现这些和其它的优点并且根据本说明书的用途,如在此具体化和广泛地描述的,提供一种操作显示装置的方法,该显示装置被配置成被连接到用于进行演示的投影仪并且从而输出与要被投影到屏幕上的图像有关的内容信息,该方法包括,匹配通过被连接到主体的麦克风输入的语音信息和与演示相关联的已经存储的内容详情;检测跟随与语音信息相匹配了参考值或者以上的内容详情的一部分的内容信息;在被布置的显示器上显示与跟随内容信息的位置相对应的详情的至少一部分以便对应于在主体的穿戴者的两只眼睛当中的至少一只眼睛;以及调节被显示在显示器上的跟随内容信息的输出速度使得跟随内容信息的输出速度对应于语音信息的输入速度。
根据在下文中给出的详细描述,本申请的进一步范围将变得更加显然。然而,应理解的是,仅通过说明给出指示本公开的优选实施例的特定示例和详细描述,因为对本领域的技术人员来说本公开的精神和范围内的各种变化和修改将变得更加显然。
附图说明
被包括以提供本发明的进一步理解并且被包含到本申请中且组成本说明书的一部分的附图,图示示例性实施例并且连同描述一起用以解释本发明的原理。
在附图中:
图1是图示根据本发明的实施例的显示装置的示例的框图;
图2A和图2B是图示其中根据本发明的实施例的显示装置能够操作的通讯***的图;
图3是图示根据本发明的实施例的被配置成被安装在主体的特定部分上的显示装置的示例的图;
图4是图示根据本发明的实施例的显示装置和被连接到显示装置以进行演示的***的图;
图5是图示根据本发明的实施例的操作显示装置的方法的流程图;
图6A至图6C是图示图5中的流程图的图;
图7A至图7H是图示根据本发明的实施例的其中基于穿戴者的各种移动控制被输出到显示装置的屏幕、或者被投影到显示装置上的图像的示例的图;
图8A至图8B是图示根据本发明的实施例的其中基于穿戴者的状态控制被输出到显示装置的屏幕的示例的图;
图9A至图9B是图示根据本发明的实施例的其中基于来自穿戴者的语音命令控制被输出到显示装置的屏幕的示例的图;
图10A至图10C是图示其中根据本发明的实施例的显示装置被连接到外部设备以接收问题并且为了准备回答问题的目的进行搜索的示例的图;以及
图11是图示根据本发明的实施例的显示装置将与演示有关的信息提供给穿戴者并且同时将要被投影的视频信息提供给投影仪的事实的图。
具体实施方式
参考附图,现在详细地描述示例性实施例。为了参考附图简要地描述,相同或者等效的组件将会设有相同的附图标记,并且其描述将不会被重复。被用于在跟随的描述中公开的组成要素的后缀“模块”和“单元”仅旨在用于本说明书的简单描述,并且后缀本身没有给予任何特定的意义或者功能。在描述本发明中,如果对于相关的已知功能或者构造的详细解释被认为没有必要地转移本发明的主旨,则省略这样的解释,但是本领域的技术人员将会理解。附图被用于帮助容易地理解本发明的技术思想,并且应理解本发明的思想不受附图限制。
图1是根据一个示例性实施例的显示装置100的框图。显示装置100可以包括组件,诸如无线通信单元110、音频/视频(A/V)输入单元120、用户输入单元130、感测单元140、输出单元150、存储器160、接口单元170、控制器180、电源190等等。图1示出具有各种组件的显示装置100,但是理解的是,不要求实现所有的示出的组件。可以可替换地实现更多或者更少的组件。
无线通信单元110通常可以包括一个或者多个模块,其允许显示装置100和无线通信***之间或者显示装置100和显示装置100位于的网络之间的无线通信。例如,无线通信单元110可以包括广播接收模块111、移动通信模块112、无线互联网模块113、短程通信模块114、位置信息模块115等等中的至少一个。
广播接收模块111经由广播信道接收来自外部广播管理实体的广播信号和/或广播相关信息。广播信道可以包括卫星信道和地面信道。广播管理实体可以指示生成和传送广播信号和/或广播相关信息的服务器或者接收预生成的广播信号和/或广播相关信息并且将它们发送到显示装置的服务器。除了别的之外,广播信号可以被实现为TV广播信号、无线电广播信号以及数据广播信号。广播信号可以进一步包括与TV或者无线电广播信号组合的数据广播信号。
广播相关信息的示例可以包括与广播频道、广播节目、广播服务提供商等等相关联的信息。广播相关信息可以经由移动通信网络来提供,并且由移动通信模块112接收。
可以按照各种形式来实现广播相关信息。例如,广播相关信息可以包括数字多媒体广播(DMB)的电子节目指南(EPG)和数字视频广播-手持(DVB-H)的电子服务指南(ESG)等等。
广播接收模块111可以被配置成接收从各种类型的广播***传送的数字广播信号。这样的广播***包括数字多媒体广播-地面(DMB-T)、数字多媒体广播-卫星(DMB-S)、媒体前向链路(MediaFLO)、数字视频广播-手持(DVB-H)、综合业务数字广播-地面(ISDB-T)等等。广播接收模块111可以被配置为适合于传送广播信号的每一种广播***以及数字广播***。
经由广播接收模块111接收到的广播信号和/或广播相关信息可以被存储在诸如存储器160的适当的设备中。
移动通信模块112接收来自移动通信网络上的网络实体(例如,基站、外部显示装置、服务器等等)中的至少一个的无线信号/将无线信号传送到移动通信网络上的网络实体(例如,基站、外部显示装置、服务器等等)中的至少一个。在此,无线信号可以包括音频呼叫信号、视频(电话)呼叫信号,或者根据文本/多媒体消息的传输/接收的各种格式的数据。
移动通信模块112可以实现视频呼叫模式和语音呼叫模式。视频呼叫模式指示在观看被叫方的图像的情况下进行呼叫的状态。语音呼叫模式指示在没有观看被叫方的图像的情况下呼叫的状态。无线通信模块112可以传送和接收语音和图像中的至少一个,以便实现视频呼叫模式和语音呼叫模式。
无线互联网模块113支持用于显示装置的无线互联网接入。此模块可以被内部地或者外部地耦合到显示装置100。此无线互联网接入的示例可以包括无线LAN(WLAN)(Wi-Fi)、无线宽带(Wibro)、全球微波接入互操作(Wimax)、高速下行链路分组接入(HSDPA)等等。
短程通信模块114表示用于短程通信的模块。用于实现此模块的适当的技术可以包括蓝牙TM(BLUETOOTHTM)、射频识别(RFID)、红外数据协会(IrDA)、超宽带(UWB)、紫峰TM(ZigBeeTM)、近场通信(NFC)等等。
位置信息模块115表示用于检测或者计算显示装置的位置的模块。位置信息模块115的示例可以包括全球定位***(GPS)模块。
继续参考图1,A/V输入单元120被配置为将音频或者视频信号输入提供给显示装置。A/V输入单元120可以包括相机121和麦克风122。相机121在视频呼叫模式或者拍摄模式下接收并且处理通过图像传感器获得的视频或者静止图片的图像帧。被处理的图像帧可以被显示在显示器151上。
通过相机121处理的图像帧可以被存储在存储器160中或者经由无线通信单元110被传送到外部。而且,可以从通过相机121获取的图像帧计算用户的位置信息等等。根据显示装置的配置可以提供两个或者更多个相机121。
当显示装置处于特定模式,诸如电话呼叫模式、记录模式、语音识别模式等等时,麦克风122可以接收外部音频信号。该音频信号被处理为数字数据。对于电话呼叫模式,处理的数字数据被转换为经由移动通信模块112可传送到移动通信基站的格式用于输出。麦克风122可以包括配合的噪声消除算法以消除在接收外部音频信号的过程中产生的噪声。
用户输入单元130可以生成用户输入的输入数据以控制显示装置的操作。用户输入单元130可以包括键盘、薄膜开关、触摸板(例如,静压/电容)、滚动轮、滚动开关等等。
感测单元140提供显示装置的各个方面的状态测量。例如,感测单元140可以检测显示装置的打开/闭合状态、显示装置100的位置的变化、与显示装置100的用户接触的存在或不存在、显示装置100的位置、显示装置100的加速/减速等等,使得生成用于控制显示装置100的操作的感测信号。
例如,关于滑盖型显示装置,感测单元140可以感测显示装置的滑动部分是否被打开或者闭合。其它的示例包括感测功能,诸如感测单元140感测由电源190提供的电力的存在或不存在、接口单元170和外部设备之间的耦合或者其它连接的存在或不存在。
输出单元150被配置为输出音频信号、视频信号或者触觉信号。输出单元150可以包括显示器151、音频输出模块153、报警单元154以及触觉模块155。
显示器151可以输出在显示装置100中处理的信息。例如,当在电话呼叫模式下操作显示装置时,显示单元151将会提供包括与呼叫相关联的信息的用户界面(UI)或者图形用户界面(GUI)。作为另一示例,如果显示装置是处于视频呼叫模式或者拍摄模式,那么显示器151可以附加地或者替换地显示拍摄的和/或接收到的图像、UI或者GUI。
例如,使用液晶显示器(LCD)、薄膜晶体管液晶显示器(TFT-LCD)、有机发光二极管(OLED)、柔性显示器、三维(3D)显示器、电子墨水显示器等等中的至少一个可以实现显示器151。
这些显示器151中的一些能够被实现为透过其能够看到外部的透明型或者透光型,这被称为“透明显示器”。透明显示器的典型示例可以包括透明OLED(TOLED)等等。显示器151的后表面也可以被实现为透光。在此配置下,用户能够通过由终端主体的显示器151占据的区域观看位于终端主体的后侧处的对象。
根据显示装置100的配置的方面在数目上可以实现两个或者更多个显示器151。例如,多个显示器151可以被布置在一个表面上以相互隔开或者集成,或者可以被布置不同的表面上。
显示器151也可以被实现成用于显示立体图像的立体显示单元152。在此,立体图像可以是三维(3D)立体图像,并且3D立体图像是指的是使得观众感到在监视器或者屏幕上的对象的渐进深度和逼真度与现实空间相同的图像。通过使用双眼视差来实现3D立体图像。双眼视差指的是由两眼的位置形成的视差。当两眼观看不同的2D图像时,图像通过视网膜传送到大脑并且在大脑中组合以提供深度的感知和真实感觉。
立体显示单元152可以使用立体显示方案,诸如立体方案(眼镜方案)、自动立体方案(无眼镜方案)、投影方案(全息方案)等。通常用于家庭电视接收器等的立体方案包括惠斯顿(Wheatstone)立体方案等。
自动立体方案例如包括视差屏障方案、光栅方案、全景成像方案等。投影方案包括反射全息方案、透射全息方案等。
通常,3D立体图像由左图像(左眼图像)和右图像(右眼图像)组成。根据左和右图像如何被组合为3D立体图像,将3D立体成像方法划分为:上下方法,其中,在一个帧中上下地布置左和右图像;L至R(左至右,并排)方法,其中,在一个帧中左和右地布置左和右图像;棋盘方法,其中,以拼贴的形式布置左和右图像的分片;隔行方法,其中,通过行和列交错地布置左和右图像;以及,时间顺序(或逐帧)方法,其中,按照时间交错地显示左和右图像。
而且,对于3D缩略图图像,左图像缩略图和右图像缩略图分别从原始图像帧的左图像和右图像被生成,并且然后被组合以生成单个3D缩略图图像。通常,缩略图指的是缩小的图像或缩小的静止图像。从而显示被生成的左图像缩略图和右图像缩略图,其中按照深度的在其间的水平距离差对应于在屏幕上的左图像和右图像之间的视差,提供了立体空间感觉。
如所图示的,通过立体处理单元(未示出)在立体显示单元152上显示用于实现3D立体图像所需要的左图像和右图像。立体处理单元可以接收3D图像并且提取左图像和右图像,或者可以接收2D图像并且将其改变为左图像和右图像。
在此,如果显示器151和触摸灵敏传感器(被称为触摸传感器)其间具有分层的结构(被称为“触摸屏”),则显示器151可以被用作输入装置和输出装置。触摸传感器可以被实现成触摸膜、触摸片、触摸板等等。
触摸传感器可以被配置为将施加给显示器151的特定部分的压力,或者从显示器151的特定部分出现的电容的变化转换为电输入信号。而且,触摸传感器可以被配置为不仅感测被触摸的位置和被触摸的区域,而且感测触摸压力。在此,触摸对象是将触摸输入施加在触摸传感器上的对象。触摸对象的示例可以包括手指、触摸笔、尖笔、指针等等。
当通过触摸传感器感测触摸输入时,相应的信号被传送到触摸控制器。触摸控制器处理接收到的信号,并且然后将相应的数据传送到控制器180。因此,控制器180可以感测已经触摸了显示器151的哪个区域。
仍然参考图1,接近传感器141可以被布置在由触摸屏覆盖的或者在触摸屏附近的显示装置100的内部区域处。可以提供接近传感器141作为感测单元140的一个示例。接近传感器141指示传感器,在没有机械接触的情况下,通过使用电磁场或者红外线,感测靠近要感测表面的对象或者布置在要感测表面附近的对象的存在或不存在。接近传感器141具有比接触传感器更长的寿命和更强的实用性。
接近传感器141可以包括透射型光电传感器、直接反射型光电传感器、镜反射型光电传感器、高频振荡接近传感器、电容型接近传感器、磁型接近传感器、红外线接近传感器等等。当触摸屏被实现为电容型时,通过电磁场的变化来感测指针接近触摸屏。在本实例中,触摸屏(触摸传感器)也可以被分类成接近传感器。
在下文中,为了简要描述,指针被定位在接近触摸屏而没有接触的状态将会被称为“接近触摸”,而指针实际上接触触摸屏的状态将会被称为“接触触摸”。对于与触摸屏上的指针的接近触摸相对应的位置,这样的位置对应于其中在指针的接近触摸之后指针垂直于触摸屏面向的位置。
接近传感器141感测接近触摸和接近触摸方式(例如,距离、方向、速度、时间、位置、移动状态等等)。与感测的接近触摸和感测的接近触摸方式有关的信息可以被输出到触摸屏。
当将触摸传感器以分层方式叠加在立体显示单元152上时(在下文中,称为“立体触摸屏”),或者当组合立体显示单元152和感测触摸操作的3D传感器时,立体显示单元152也可以被用作3D输入设备。
作为3D传感器的示例,感测单元140可以包括接近传感器141、立体触摸感测单元142、超声感测单元143和相机感测单元144。
接近传感器141检测在没有机械接触的情况下通过使用电磁力或红外线而施加触摸的感测对象(例如,用户的手指或尖笔)和检测表面之间的距离。通过使用该距离,终端识别已经触摸了立体图像的哪个部分。具体地说,当触摸屏是静电触摸屏时,基于根据感测对象的接近的电场的改变来检测感测对象的接近程度,并且通过使用接近程度来识别对于3D图像的触摸。
立体触摸感测单元142被配置成检测向触摸屏施加的触摸的强度或持续时间。例如,立体触摸感测单元142可以感测触摸压力。当压力强大时,可以将触摸识别为相对于朝着终端的内部位于远离触摸屏的对象的触摸。
超声感测单元143被配置成通过使用超声波来识别感测对象的位置信息。例如,超声感测单元143可以包括光学传感器121和多个超声传感器。光学传感器被配置成感测光并且超声传感器可以被配置成感测超声波。因为光远远比超声波快,所以光到达光学传感器的时间远远比超声波到达超声传感器的时间短。因此,可以基于光作为参考信号通过使用超声波到达的时间差计算波生成源的位置。
相机感测单元144包括相机121、光电传感器和激光传感器中的至少一个。例如,相机121和激光传感器可以被组合以检测感测对象相对于3D立体图像的触摸。当由激光传感器检测到的距离信息被添加到通过相机捕获的2D图像时,能够获得3D信息。
在另一个示例中,在显示设备上层叠光电传感器。该光电传感器被配置成扫描与触摸屏接近的感测对象的移动。详细地,光电传感器包括在行和列处的光电二极管和晶体管,以通过使用根据所施加的光的数量改变的电信号来扫描在光电传感器上安装的内容。即,光电传感器根据光的变化来计算感测对象的坐标,以因此获得感测对象的位置信息。
音频输出模块153可以在呼叫信号接收模式、呼叫模式、记录模式、语音识别模式、广播接收模式等中将从无线通信单元110接收到的或存储在存储器160中的音频数据转换和输出为声音。而且,音频输出模块153可以提供与由显示装置100执行的特定功能相关的可听输出(例如,呼叫信号接收声音、消息接收声音等)。音频输出模块153可以包括扬声器、蜂鸣器等等。
报警单元154输出用于通知关于发生显示装置100的事件的信号。在显示装置100中产生的事件可以包括呼叫信号接收、消息接收、按键信号输入、触摸输入等等。除了视频或者音频信号之外,例如,使用通知关于事件的发生的振动,报警单元154可以以不同的方式输出信号。也可以经由音频输出模块153输出视频或者音频信号,因此显示器151和音频输出模块153可以被分类为报警单元154的一部分。
触觉模块155产生用户能够感觉的各种触觉效果。通过触觉模块155产生的触觉效果的代表性示例包括振动。能够控制触觉模块155的强度和模式。例如,不同的振动可以被组合以被输出或者被顺序地输出。
除了振动之外,触觉模块155可以生成各种其它触觉效果,诸如通过相对于接触皮肤垂直移动的针布置、通过注入孔或吸收孔的空气的喷射力或吸收力、在皮肤上的接触、电极的接触、静电力等的刺激的效果、通过使用能够吸收或生成热量的元件再现冷和热感觉的效果。
触觉模块155可以被实现成允许用户通过诸如用户的手指或手臂的肌肉感觉来感觉触觉效果,并且通过直接接触来传送触觉效果。可以根据显示装置100的配置来提供两个或更多个触觉模块155。
存储器160可以存储用于处理和控制由控制器180执行的操作的软件程序,或者可以暂时存储被输入或输出的数据(例如,电话簿、消息、静止图像、视频等)。另外,存储器160可以存储关于当触摸被输入到触摸屏时输出的各种模式的振动和音频信号的数据。
存储器160可以包括至少一种类型的存储介质,包括闪速存储器、硬盘、微型多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机存取存储器(RAM)、静态随机存取存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁存储器、磁盘和光盘。而且,可以与网络存储装置相关地操作显示装置100,该网络存储装置在因特网上执行存储器160的存储功能。
接口单元170用作与和显示装置100连接的每一个外部设备的接口。例如,外部设备可以向外部设备传送数据,接收和传送到显示装置100的每个元件的电力,或向外部设备传送显示装置100的内部数据。例如,接口单元170可以包括有线或无线头戴耳机端口、外部电源端口、有线或无线数据端口、存储卡端口、用于连接具有认证模块的设备的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等。
该标识模块可以是存储用于鉴权使用显示装置100的权限的各种信息的芯片,并且可以包括用户身份模块(UIM)、订户身份模块(SIM)和通用订户身份模块(USIM)等。另外,具有标识模块的设备(下文中称为“识别设备”)可以采取智能卡的形式。因此,识别设备可以经由接口单元170与终端100连接。
当显示装置100与外部托架连接时,接口单元170可以用作用于允许来自托架的电力通过其被供应到显示装置100的通道,或可以用作用于允许用户从托架输入的各种命令信号通过其被传输到显示装置的通道。从托架输入的各种命令信号或电力可以操作为用于识别显示装置被正确地安装在托架上的信号。
控制器180通常控制显示装置的整体操作。例如,控制器180执行与语音呼叫、数据通信和视频呼叫等相关联的控制和处理。控制器180可以包括用于再现多媒体数据的多媒体模块181。多媒体模块181可以被配置在控制器180内或可以被配置成与控制器180分离。
控制器180可以执行模式识别处理,以分别将在触摸屏上执行的手写输入或绘图输入识别为字符或图像。
而且,控制器180可以执行锁定状态以当显示装置的状态满足预设条件时限制用户输入用于应用的控制命令。而且,控制器180可以在显示装置的锁定状态下基于在显示器151上感测到的触摸输入控制在锁定状态下被显示的锁定屏幕。
电源单元190接收外部电力或内部电力,并且在控制器180的控制下供应用于操作各自的元件和组件所需的适当电力。
可以使用例如软件、硬件或其任何组合来在计算机可读介质或者其类似的介质中实现在此所述的各个实施例。
对于硬件实施方式,可以通过使用以下中的至少一种来实现在此描述的实施例:专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理器件(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微控制器、微处理器、被设计用来执行在此描述的功能的电子单元。在一些情况下,这样的实施例也可以由控制器180本身实现。
对于软件实施方式,可以通过单独的软件模块来实现诸如在此所述的过程或功能的实施例。每一个软件模块可以执行在此所述的一个或多个功能或操作。可以通过以任何适当的编程语言编写的软件应用来实现软件代码。软件代码可以存储在存储器160中并由控制器180执行。
在下文中,将会描述通过根据本发明的实施例的显示装置100可操作的通信***。
图2A和图2B是图示根据本发明的显示装置100可操作的通信***的概念图。
首先,参考图2A,这样的通信***利用不同的空中接口和/或物理层。例如,通过通信***使用的这样的空中接口的示例包括:频分多址(FDMA)、时分多址(TDMA)、码分多址(CDMA)、以及通用移动电信***(UMTS)、UMTS的长期演进(LTE)、全球移动通信***(GSM)等。
仅通过非限制性示例,进一步的描述将会与CDMA通信***有关,但是这样的教导同等地应用于包括CDMA无线通信***的其它***类型。参考图2A,示出CDMA无线通信***,其具有多个显示装置100、多个基站(BS)270、基站控制器(BSC)275、以及移动交换中心(MSC)280。
MSC280可以被配置成与传统的公共交换电话网络(PSTN)290对接。并且MSC280也可以被配置成与BSC275对接。BSC275经由回程线被耦合到基站270。可以根据包括例如E1/T1、ATM、IP、PPP、帧中继、HDSL、ADSL、或者xDSL的数个已知的接口中的任何一个来配置回程线。因此,***中能够包括多个BSC275,如在图2A中图示的。
每个基站270可以包括一个或者多个扇区,每个扇区具有全向天线或者在放射状地远离基站270的特定方向上指定的天线。可替选地,每个扇区可以包括两个或者更多个不同的天线。每个基站270可以被配置成支持多种频率分配,每个频率分配具有特定的频谱(例如,1.25MHz、5MHz等等)。
扇区和频率分配的交叉可以被称为CDMA信道。基站270也可以被称为基站收发器子***(BTS)。在一些情况下,术语“基站”可以用于统称为BSC275,以及一个或多个基站270。基站也可以被表示为“小区站点”。可替选地,给定的基站270的单个扇区可以被称为小区站点。
如在图2A中所示的,广播发射器(BT)295将广播信号传送到在***内操作的显示装置100。广播接收模块111(图1B)通常被配置在显示装置100内部以接收由BT295传送的广播信号。
图2A进一步描述数个全球定位***(GPS)卫星300。这样的卫星300便于定位多个显示装置100中的至少一个的位置。在图2中描述了两个卫星,但是可以通过比两个卫星更多或者更少数目的卫星来获得有用的位置信息。GPS模块115(图1B)通常被配置成与卫星300协作以获得想要的位置信息。要理解的是,可以可替选地实现其它类型的位置检测技术(即,除了或者替代GPS定位技术可以使用的定位技术)。必要时,GPS卫星300中的至少一个可以被可替选地或者另外配置成提供卫星DMB传输。
在无线通信***的典型操作期间,基站270可以从各种显示装置100接收反向链路信号的集合。显示装置100进行呼叫、短信,并且执行其它的通信。在基站270内处理通过给定的基站270接收到的每个反向链路信号。得到的数据被转发给相关联的BSC275。BSC275提供包括基站270之间的软切换的***化的移动性管理功能和呼叫资源分配。BSC275也可以将接收到的数据路由给MSC280,然后其提供用于对接PSTN290的附加的路由服务。类似地,PSTN290与MSC280对接,并且MSC280与BSC275对接,其依次控制基站270以将向前链路信号的集合传送到显示装置100。
在下文中,将会参考图2B描述用于使用无线保真(WiFi)定位***(WPS)获取显示装置的位置信息的方法。
Wi-Fi定位***(WPS)300指的是使用Wi-Fi基于无线局域网(WLAN)的位置确定技术作为用于使用被设置在用于传送到Wi-Fi模块并且从Wi-Fi模块接收的无线接入点320和显示装置100中的Wi-Fi模块跟踪显示装置100的位置的技术。
Wi-Fi定位***300可以包括Wi-Fi位置确定服务器310、显示装置100、被连接到显示装置100的无线接入点(AP)320、以及被存储有任何无线AP信息的数据库330。
基于显示装置100的位置信息请求消息(或者信号)Wi-Fi位置确定服务器310提取被连接到显示装置100的无线AP320的信息。无线AP320的信息可以通过显示装置100被传送到Wi-Fi位置确定服务器310或者从无线AP320被传送到Wi-Fi位置确定服务器310。
基于显示装置100的位置信息请求消息提取的无线AP的信息可以是MAC地址、SSID、RSSI、信道信息、隐私、网络类型、信号强度以及噪声强度中的至少一个。
Wi-Fi位置确定服务器310接收被连接到如上所述的显示装置100的无线AP320的信息,并且将接收到的无线AP320信息与被包含在预先建立的数据库320中的信息进行比较以提取(或者分析)显示装置100的位置信息。
另外,参考图2B,作为示例,被连接到显示装置100的无线AP被图示为第一、第二、以及第三无线AP320。然而,根据其中显示装置100位于的无线通信环境可以以各种形式改变被连接到显示装置100的无线AP的数目。当显示装置100被连接到无线AP中的至少一个时,Wi-Fi定位***300能够跟踪显示装置100的位置。
接下来,更加详细地考虑到被存储有无线AP信息的数据库330,被布置在不同位置处的任何无线AP的各种信息可以被存储在数据库330中。
被存储在数据库330中的任何无线AP的信息可以是诸如MAC地址、SSID、RSSI、信道信息、隐私、网络类型、纬度和经度坐标、无线AP位于的建筑物、楼层、详细室内位置信息(GPS坐标可用)、AP拥有者地址、电话号码等等的信息。
以这样的方式,任何无线AP信息和与任何无线AP相对应的位置信息可以被一起存储在数据库330中,并且因此Wi-Fi位置确定服务器310可以从数据库330检索与被连接到显示装置100的无线AP320的信息相对应的无线AP信息以提取被匹配到搜索到的无线AP的位置信息,从而提取显示装置100的位置信息。
此外,被提取的显示装置100的位置信息可以通过Wi-Fi位置确定服务器310被传送到显示装置100,从而获取显示装置100的位置信息。
接下来,图3是图示其中参考图1描述的根据本发明的一个实施例的显示装置100可安装在身体的特定部分上的配置的图。参考图3,显示装置100包括主体框架101、麦克风122、输出单元(报警单元153和/或显示器151)以及控制器180。
根据本发明的实施例的显示装置100被实现为头盔显示器(HMD)装置。作为特定示例,根据本发明的实施例的显示装置100被实现为智能眼镜。
另外,根据本发明的实施例的显示装置100被配置成可安装在身体的特定部分上,诸如头、手腕、脖子、以及耳朵、或者衣服的顶部上。另外,检测穿戴者的触摸输入的触摸传感器被布置在主体框架101的一个点、或者一个区域处。
如果显示器151被提供给根据本发明的实施例的显示装置100,则与演示有关的视觉信息是以2D或者3D形式。在本实例中,显示器151与主体100相组合使得显示器151被布置在与穿戴者的左眼和右眼当中的至少一个相对应的位置中并且输出与演示有关的视觉信息。
此外,从视图的概念角度看,与演示有关的视觉信息是与已经被存储在主体100中的要进行的演示相关联的内容,或者是从外部设备接收到的数据,或者是根据穿戴者的输入生成的所有对象。例如,与演示有关的视觉信息包括用于演示的文本文件、与从外部设备接收到的演示有关的查询数据等等。
另外,根据本发明的实施例的显示装置100可以是不具有显示器的输出装置。在本实例中,通过演示器(具体地,骨传导演示器)执行与演示有关的信息的输出。
被连接到主体100的麦克风122接收进行演示的穿戴者的语音。另外,控制器180将通过麦克风122实时输入的语音信息和与已经存储的演示相关联的内容详情相匹配。如果检测匹配到语音信息达参考值或者更大值的内容详情的一部分,则控制器180将跟随被匹配的部分的内容详情,即,穿戴者接下来演示的详情的至少一部分输出到显示器151或者扬声器153。
此外,根据被实时输入到麦克风122的语音信息的输入速度,控制器180调节被输出到显示器151或者演示器153的跟随内容详情的输出速度。例如,如果逐行地输出穿戴者顺次地演示的详情的脚本,穿戴者进行演示越快,则被输出到显示器151的脚本行被滚动就越快。相反地,穿戴者进行演示越慢,被输出到显示器151的脚本行被滚动就越慢。可替选地,当穿戴者缓慢地进行演示时,脚本行保持在固定状态下。
接下来,参考图4,描述用于进行演示的根据本发明的实施例的显示装置、和被连接到显示装置的***。如在图4中所图示,根据本发明的实施例的显示装置100被连接到用于将图像投影到屏幕80上的投影仪50。另外,显示装置100可以被连接到给投影仪50提供视频信息的另一显示装置,例如,移动终端70。
在此,根据本发明的实施例的无线地连接到显示装置100的另一显示装置80的示例是移动电话、智能电话、膝上型计算机、个人数字助理(PDA)、便携式多媒体播放器(PMP)、导航仪、数字TV机、或者桌上型计算机。可替选地,显示装置80可以与根据本发明的实施例的显示装置100相同。在上面描述的其它显示装置70被统称为“外部设备”。
被连接到投影仪50的外部设备70提供要被投影到屏幕80上的视频信息。另外,外部设备70与显示装置100通信以接收要被投影到屏幕80上的视频信息。另外,外部设备70与显示装置100通信以将与演示有关的数据传送到显示装置100。
在上面描述的被输出到显示装置100的屏幕信息和/或声音信息是从外部设备70传送的内容,是已经被存储在显示装置200中的内容,或者是基于该内容生成的数据。
另外,显示装置100基于穿戴者的姿势输入、穿戴者的语音命令、或者穿戴者的活体信息、或者基于从外部设备70接收到的控制命令,执行有关操作。例如,显示装置100显示对应于用户的输入的屏幕变化或者输出对应于从外部设备70接收到的控制命令的屏幕和/或声音。
另外,投影仪50从根据本发明的实施例的显示装置100或者外部设备70接收要被投影到屏幕80上的视频信息。
在前述情况下,显示装置100起到给穿戴者提供与演示有关的信息的作用并且同时起到将与演示有关的信息传送到投影仪50的作用。此外,被提供给穿戴者的信息和被提供给投影仪50的信息可以是不同的信息范围。例如,较大量的信息被提供给进行演示的穿戴者,用于解释的最小量的信息被提供给将视频信息提供给屏幕的投影仪50。
因此,当接收视频信息时,投影仪50以使它们适合于实际图像形式的方式信号处理接收到的R、G、B图像信号并且将信号处理的结果实现为实际图像形式,诸如激光或者LCD。其后,投影仪50将实际图像形式放大地投影到屏幕70上。
另外,例如,使用短程通信标准、诸如Wi-Fi的无线因特网标准、或者诸如通用串行总线(USB)的外部设备接口标准,在显示装置100和外部设备70之间并且在外部设备170和投影仪50之间进行无线或者有线连接。
另外,如果在显示装置100和外部设备70之间进行连接,则显示装置100通过投影仪50输出与要被投影到屏幕80上的图像相同的屏幕信息,或者输出包括比屏幕投影的图像详细的信息的屏幕信息。为了这样做,显示装置100从外部设备70接收与相应的屏幕信息有关的数据。
此外,显示装置100通过被设置在主体中的相机操作检测穿戴者的姿势,跟踪穿戴者的凝视以执行相应的操作,或者操作使得相应的屏幕信息被传送到外部设备70,用于通过投影仪50投影到屏幕上。
另外,显示装置100控制将相应的屏幕信息直接地传送到投影仪50并且从而控制要被投影到屏幕80上的图像。在本实例中,同时通过预定的姿势输入,显示装置100的穿戴者能够控制被输出到显示装置100的屏幕信息和被投影到屏幕80上的屏幕信息。
下面参考图5和图6A至图6C描述为了帮助演示进行操作显示装置100的方法。特别地,图5是图示根据本发明的一个实施例的操作显示装置的方法的流程图,并且图6A至图6C是图示图5中的流程图的图。
在此,被连接到能够执行演示的投影仪50的显示装置100,输出与被投影到屏幕80上的图像有关的内容信息(图4)。另外,显示装置100被配置成被安装在身体的特定部分上。在此,作为显示装置100的示例,为了描述的目的描述头盔显示器(HMD)。然而,本发明不限于本示例,根据本发明的实施例的实施例被实现为不具有显示器的一种类型的显示装置、其中应用AP并且屏幕被输出到显示器的一种类型的显示装置、或者其中可安装在身体的不同部分(例如,手腕、脖子、耳朵、或者肩部)上或者在衣服顶部上的一种类型的显示器装置。
另外,与演示相关联的内容事先被存储在显示装置100中。与此内容一起,附加的信息可以被进一步存储,诸如演示的时间和日期、演示的地点、以及出席者的数目。另外,与为用于与演示相关联的内容的特定对象而设置且被链接到特定对象的标签有关的详细信息等等被事先存储。
此外,如果从多个页面制作与演示相关联的内容,则重要级别被指配给每个页面或者演示时间事先被指配给各个页面,并且然后被指配的重要级别和演示时间被存储。另外,优选的是,在演示进行之前事先存储信息,但是如有必要,当演示正在进行中时对于外部设备(服务器)能够提供信息,并且在演示被完成之后也能够更新信息。
首先,根据本发明的实施例的显示装置100被安装在进行演示的穿戴者的身体的特定部分上。因此,显示装置100检测安装状态和安装位置并且输出与在身体的特定部分上的安装相对应的报警。
另外,当被配置成将与演示有关的图像信息投影到屏幕80上的投影仪50被接通时,通过穿戴者的输入或者自动地,显示装置100自动地识别此并且被连接到投影仪50。
当在接通状态下控制器180检测显示装置100被穿戴并且被连接到投影仪50时(S501),显示装置100输出相应的报警并且从而穿戴者能够识别演示的开始(S502)。当演示开始(在S502中是)时,显示装置100的控制器180将通过麦克风122输入的关于穿戴者(或者演示的演示者)的语音信息和与显示装置100中的已经存储的内容相关联的内容详情相匹配(S503)。
具体地,控制器180对语音信息输入执行语音到文本(STT)转换并且然后在STT转换的结果和与已经存储的演示相关联的内容中的字符之间进行比较以获得它们彼此一致的程度。此外,控制器180首先确定通过麦克风122输入的语音信息是否与已经存储的穿戴者的语音信息一致。当确定它们彼此不一致时,控制器180不执行匹配处理。
根据一个实施例,与已经存储的演示相关联的内容可以是在演示开始之前穿戴者事先存储在显示装置100中的内容。另外,根据另一实施例,与已经存储的演示相关联的内容可以是通过被连接到外部设备70或者外部服务器从外部设备70或者外部服务器下载或者流式传输的内容。
此外,当演示开始时,控制器180在演示内操作定时器。定时器可以操作使得随着时间流逝对于演示而设置的预定时间减少到“0”。由于在步骤S503中的匹配,如果检测到与已经存储的演示相关联的内容与通过麦克风122输入的穿戴者的语音信息相匹配的程度是在参考值或者以上,则控制器180检测关于跟随其中检测到内容的匹配部分的位置的内容的一部分的信息(S504)。
在此,参考值是预定的比值或者通过用户输入改变的比值。例如,与已经存储的演示相关联的内容的特定部分与穿戴者的语音信息相匹配了百分之九十或者更多,其中检测到匹配的相应的位置被确定为是内容的匹配部分。
另外,如果从多行或者多页面制作已经存储的内容,则控制器180预先确定匹配开始处的参考。例如,控制器180确定匹配的开始行或者匹配的开始页面。控制器180确定与被投影到屏幕80上的图像信息相对应的内容的页面是匹配的开始页面。为此,在本发明中描述的显示装置100至少包括相机121以获得被投影到屏幕80上的图像。
另外,根据通过麦克风122输入的语音信息的输入速度,控制器180调节检测到跟随的内容信息的程度。此外,控制器180仅检测与跟随的内容信息的位置相对应的指针值并且从而仅向穿戴者提供相应的位置信息。在本实例中,等待状态被保持直到用于输出的用户的输入被应用。
以这样的方式,当检测跟随内容信息时,控制器180向显示器151显示与检测到的跟随的内容信息相对应的详情的至少一部分(S505)。在此,与跟随的内容信息相对应的详情指的是穿戴者根据演示顺序接下来演示的详情,即,在与穿戴者的语音信息相匹配的与已经存储的演示相关联的内容的一部分之后存储的内容详情。
例如,与跟随的内容信息相对应的详情可以是接下来要说的事物的详情的脚本或者可以是跟随当前被显示在屏幕80上的图像的页面。以这样的方式,在当前进行中的演示的详情之前的内容详情被事先提供给演示者。这帮助演示者准备接下来要说什么。结果,演示平滑地进行。
在此,显示器151被配置成被布置使得对应于主体的穿戴者的两只眼睛当中的至少一个。即,显示器151被布置以对应于穿戴者的左眼或者右眼,或者穿戴者的两只眼睛。
另外,控制器180不仅将检测到的跟随内容信息,而且将正在被演示以及在之前刚刚演示的内容信息输出到显示器151。在本实例中,控制器180显示与通过麦克风122输入的语音信息相对应的内容信息和跟随的内容信息以便在它们之间视觉地区分。
例如,具有原色(primary color)的与演示相关联的内容的脚本被输出到显示器151。当穿戴者进行演示时,效果(在下文中被称为“NORAEBANG字幕效果”)被输出,其中脚本以不同的颜色(或者以不同的形状)改变。为此,控制器180实时更新被输出到显示器151的屏幕并且屏幕改变。
另外,以各种方式实现或者修改向显示器151显示与跟随的内容信息相对应的详情的方法。作为一个示例,被输出到显示器151的内容屏幕可以是其中对于穿戴者来说内容屏幕仅是可观看的类型。
例如,内容屏幕可以是其中为穿戴者显示增强现实的屏幕的类型。增强现实的屏幕被实现使得投影仪和棱镜在邻近于如在图3中图示的相机121的位置处被相互连接并且因此视觉信息被传输到投影仪,然后从投影仪传输到棱镜,并且从棱镜直接地传播到穿戴者的眼球。另外,内容屏幕可以是其中通过控制器180提供的视觉信息仅被显示在以对应于穿戴者的两只眼睛当中的至少一只眼睛的方式布置的显示器151内的类型,结果是为穿戴者显示屏幕。
作为另一示例,被输出到显示器151的内容屏幕可以是其中通过屏幕80或者其它对象(例如,墙壁或者桌子)为所有的观众显示内容屏幕的类型。为此,除了显示器151之外,图3中的显示装置100进一步包括投影单元,该投影单元被配置成包括光源元件、图像形成模块、以及透镜。一个或者多个投影单元被设置在邻近于显示器151的位置中。
在此,光源元件是发射光的元件。图像形成模块被配置成使用光形成视频信息(或者屏幕信息)。投影单元包括,特别地,激光二极管,作为光源元件。激光二极管是由例如红激光二极管制成。
在本实例中,使用从投影单元发射的光(例如,可视光),控制器180同时将当前输出到显示器151的视觉信息输出到屏幕80或者另一对象。因此,如在图3中所图示的其中显示器151在大小上被限制的眼镜型显示装置100的缺点被克服。
另外,存在比被投影到屏幕80上的视频信息量的大的视觉信息能够被提供给演示的出席者的优点。存在比与被投影到屏幕80上的视频信息种类多的视觉信息能够被提供给演示的出席者的另一优点。
作为另一示例,根据本发明的实施例的显示器151可以是其中显示器151没有被包括并且屏幕信息没有被提供给如上所述的穿戴者的类型。在这样的情况下,通过与显示装置100集成地组合的音频输出模块152输出通过控制器180检测到的跟随的内容信息的详情。
另外,基于内容信息的输出速度,控制器180将与跟随内容信息有关的附加信息进一步输出到显示器151。在此,附加信息包括关于主体的穿戴者的信息、基于语音信息的输入速度和内容的剩余量计算的时间信息、关于已经存储的内容的数量的信息、指示演示进行的程度的信息、与跟随的内容信息有关的附加信息以及关于演示的出席者的信息当中的至少一个。
如果显示器151包括分别对应于穿戴者的左眼和右眼的第一显示器和第二显示器,则控制器180将与关于穿戴者的语音的信息相对应的视觉信息(例如,内容的脚本)输出到第一显示器和第二显示器中的任意一个,并且将与跟随内容信息有关的附加信息或者附加搜索的结果输出到另一个。
例如,如果多个显示器151被提供使得分别对应于穿戴者的左眼和右眼,如在图6A中所示,则要被演示的脚本613和正在被演示的内容的脚本611以视觉区分的方式被输出到第一显示器610(例如,“NORAEBANG字幕效果”)。例如,当穿戴者说“AAA”时,在显示器151上显示的脚本“AAA”上输出NORAEBANG字幕效果。
用于通过内容的脚本滚动的控制键612被显示在第一显示器610的一个区域上。此外,当穿戴者的接近触摸被施加到控制键612时,被输出到第一显示器610的脚本被滚动。
另外,与被投影在屏幕80上的图像相同或者在演示进行中与被投影在屏幕80上的图像相同的图像622被输出到图6A中的第二显示器620。诸如指示整个内容中的相应的图像622的位置的缩略图图像623或者指示进度的程度的指示符625的附加信息被显示在图6A中的第二显示器620上。
此外,穿戴者将指示符625移向所期待的位置以便在显示器151上显示所期待的页面。另外,指示取决于演示的进度的时间信息的图像621被显示在第二显示器620的一个区域上。图像621包括关于被指配给相应的页面的时间(例如,4分钟30秒)的时间的信息和关于当前流逝的时间(例如,15秒钟)的信息。
作为另一示例,参考图6B,正在被演示的脚本631和要被演示的内容的脚本632以视觉区分的方式被输出到第一显示器610(例如,NOREBANG效果),并且根据关于通过麦克风122输入的穿戴者的语音的信息自动地滚动脚本或者沿着通过相机121识别的穿戴者的凝视的方向滚动。
然后,与被投影到屏幕80上的图像相同,或者演示进行中与被投影到屏幕80上的图像相同的图像630被输出到第二显示器620,以便具有其中图像630出现在前面的多页面重叠结构。通过被显示在第二显示器620的一个区域上的控制键640改变以这样的方式输出的屏幕。
多个页面中的每一个具有位置信息和被指配的时间信息。具体地,当穿戴者将接近触摸施加到指示“下一个”的控制键时,如在图6B中所图示的,“翻页效果”被输出并且同时跟随图像622的页面被显示。
作为另一示例,参考图6C,以视觉区分的方式(例如,NORAEBANG字幕效果),正在被演示的脚本631和要被演示的内容的脚本632被输出到第一显示器610,并且与正在被演示的脚本631相关联的附加搜索的结果被显示在第二显示器620上。
为此,穿戴者对被显示在第二显示器620上的“附加键645”执行接近触摸。然后,与当前正在被演示的脚本关键字661相关联的网络搜索结果655被显示在第二显示器620上。如果网络搜索结果的数目是两个或者更多个,则用于执行翻页功能的不同键662a和662b被输出。
另外,如果显示器151是一个,则跟随内容信息和在上面描述的附加信息分别被显示在多个区域上,当根据用户操作改变屏幕时被显示,或者取决于演示环境,以弹出窗口的形式被显示。
此外,如果通过麦克风122输入的穿戴者的声调超过参考范围,即,如果穿戴者的声音是极高音或者极低音,则指示穿戴者的声音的当前音调的指示符被显示在显示器151上。例如,如果穿戴者的声音的音调高于参考范围,则控制器180将指示向上方向的红色箭头输出到显示器151以便穿戴者识别他的/她当前声调,或者控制器180将指示向下方向的箭头输出到显示器151以便给穿戴者提供用于降低他/她的声调的指南。
相反,如果穿戴者的语音的声调低于参考范围,则控制器180将指示向下方向的蓝色箭头输出到显示器151,以便穿戴者识别他的/她的当前声调,控制器180将指示向上方向的箭头输出到显示器151以便给穿戴者提供用于通过他的/她的进一步提升的音调进行演示的指南。
另外,如果从通过麦克风122输入的语音产生的穿戴者的演示速度超过参考值(即,极快)或者被确定为超过已经被指配给演示的时间(即,极慢),则显示装置100在显示器151上显示与当前演示速度相对应的指示符(或者适当的速度指南指示符),以便给穿戴者提供用于以适当的速度演讲的指南。
另外,下面详细地描述被输出到显示器151的不同详情、输出范围、用户界面(UI)、以及屏幕变化相关联的操作的各种示例。以这样的方式,跟随内容信息被输出到显示器151(或者音频输出模块153),控制器180调节内容信息的输出速度使得内容信息的输出速度对应于关于被输入到麦克风122的穿戴者的语音的信息的输入速度(S506)。
此外,当在本发明中描述的显示装置100被配置成没有包括如上所述的显示器151,并且从而没有向穿戴者提供屏幕信息时,控制器180将检测到的跟随内容详情转换成语音信号,将转换的结果传输到音频输出模块153,例如,骨传导演示器,并且调节语音信号的输出速度使得语音信号的输出速度对应于语音信息的输入速度。例如,控制器180执行控制使得语音信息的输入速度较快,通过骨传导演示器输出的跟随内容详情的输出速度较快。
在上面描述的语音信息的匹配处理、检测处理、以及输出处理重复直到演示被完成(S507)。此外,当连接的投影仪50被变成断开状态时,或者当预定的用户输入被施加到显示装置100时,控制器180将此识别为演示的终止。
另外,当在步骤S507中识别演示的终止时,控制器180输出对应于演示的终止的预定报警(例如,报警声音、振动、指南消息)。
如上所述,根据本发明的实施例的显示装置被安装在进行演示的演示者的头部上。因此,为了让演示者平滑地继续进行演示,显示装置事先提供有关信息,并且在没有执行特定操作的情况下根据演示者的演示速度操作。这给演示者提供便利。
在下面描述示例,在其中的每一个中根据被施加到在本发明中描述的显示装置100的各种输入,被输出到显示装置100的屏幕和/或声音被控制或者被投影到图像80上的图像被控制。
图7A至图7H是图示根据本发明的实施例的其中基于通过穿戴者输入的各种信号控制被输出到显示装置的屏幕,或者被投影到显示装置的图像的示例的图。
因此,作为示例,显示装置100包括显示器151并且从多个页面制作与已经存储的演示相关联的内容。另外,被输出到显示器151的跟随内容信息和附加信息(例如,关于内容的位置信息、时间信息、关于附加结果的信息等等)中的每一个被假定为包括比被投影到屏幕80上的图像的数量大的信息量。
另外,基于被指配给多个页面中的每一个的时间信息和关于演示时间的剩余数量的信息,控制器180确定要被显示在显示器151上的跟随内容信息的输出范围。
例如,当被指配给相应的页面的时间几乎被消耗时,显示器151事先输出跟随页面。另外,如果被指配给演示的时间几乎被消耗,则考虑到演示的进行速度变得越来越快,显示器151将比参考范围大的内容信息数量输出到显示器151。
此外,当与不同的页面相比较已经被指配给相应的页面的时间较长,识别相应的页面包含重要的解释时,控制器151将较大量的内容信息输出到显示器151。相反地,如果与不同页面相比较已经被指配给相应的页面的时间较短,考虑到因为其不重要将会跳过相应的页面的可能性,则控制器151将跟随页面事先输出到显示器151。在本实例中,仅参考屏幕80中的图像,穿戴者给出解释。
另外,如在图3中所图示,为了检测通过穿戴者输入的各种信号,显示装置100包括在用于检测活体信息(生物信号)的感测单元140、用于检测穿戴者的姿势的第一相机121、用于跟踪穿戴者的凝视的第二相机、以及被设置在保持显示装置100的形式的框架101的一个点或者一个区域中的触摸传感器当中的至少一个或多个。
根据一个实施例,基于通过感测单元140检测到的穿戴者的活体信息(生物信号)控制器180确定进行演示的穿戴者是否处于紧张的状态中。通过被连接到显示装置100的外部设备70进行此确定。
在此,生物信号意指在人类细胞之间的电信号,例如,脑电图(EEG)信号、心电图(ECG)信号、血液容积图(PPG)信号、以及皮肤电反应(GSR)信号当中的一个,但是不限于这些。生物信号包括被广泛地用于测量现有技术中的情感状态的各种信息,例如,体温、凝视方向上的变化、瞳孔大小的变化、眨眼的次数等等。
当通过感测单元140感测到的脉搏速率、或者呼吸速率被识别为被增加时,并且/或者当体温被识别为被增加到参考值或者以上时,控制器180确定穿戴者是处于紧张状态中。
另外,为了确定穿戴者是否处于紧张中,控制器180将通过感测单元140检测到的活体信息设置为第一确定参考,并且将诸如穿戴者的音调或者声音抖动、或者穿戴者咽下他的/她的口水的次数的不同检测信息设置为第二确定参考。
当以这样的方式,确定穿戴者是处于紧张状态时,控制器180输出对应于被输出到显示器151的跟随内容信息的图像的大小或者字符大小的变化,或者输出高亮效果。
具体地,如果当跟随内容详情被输出到如在图7A中所图示的显示器151时穿戴者被确定是处于紧张状态时,字符720“投影A”的大小被改变并且从而被输出为粗字体的字符720",以帮助穿戴者容易地识别对于演示他/她应读出的脚本。与此同时,引起闪烁的高亮效果被输出到字符720"以引起穿戴者的注意。另外,控制器180将下一个要演示的字符720输出到音频输出模块153,例如,骨传导演示器。
另外,根据穿戴者紧张的程度可以在不同阶段(in phases)执行此处理。另外,与此同时,控制器180输出通过图像显示装置100已经注册的声音或者内容屏幕,以便减轻穿戴者的紧张状态。此外,根据一个实施例,控制器180执行控制使得,基于穿戴者的姿势输入,显示变化出现在被输出到显示器151的跟随内容信息中。
为此,在显示装置100中,检测触摸输入的触摸传感器被设置在主体框架的至少一个区域中,并且用于检测穿戴者输入的姿势的第一相机121被设置在主体的外表面中。即,第一相机121被用于检测穿戴者输入的姿势。
从视图的概念角度来看,姿势输入在概念上包括使用诸如穿戴者的手、邻近的对象等等的移动的运动姿势的输入、使用邻近对象或者手的形状或者大小的识别的输入、以及使用诸如手的特定移动的手势的输入。
参考图7B至图7H,下面描述特定示例,在其中的每一个中使用第一相机121和触摸传感器控制通过穿戴者输入的各种姿势输出到显示器151或者屏幕80的视频信息。
根据第一实施例,如在图7B中所图示,当显示装置100和将演示的图像投影到的屏幕80彼此面向时,当施加姿势输入,其中穿戴者摇动或者挥动被定位在主体和屏幕之间的穿戴者的他的/她的手701预定的次数时,响应于此,控制器180执行控制使得当前被投影到显示器151上的图像720也被投影在屏幕80上。
此外,当与被投影到屏幕80上的图像相对应的声音被输出时,此声音也被变成对应于被输出到显示器151的图像的声音。以这样的方式,其中被输出到屏幕80的图像和被输出到显示器151的图像是相同的情况仅被限制于施加上面描述的姿势输入。
随着时间流逝,来自被输出到屏幕80的图像的不同图像(即,跟随内容信息和附加信息)被输出回到显示器151。另外,当预定的控制信号被传送到被连接到显示装置100的投影仪50时,被输出到屏幕80的屏幕返回到前一个屏幕。
根据第二实施例,如在图7C和图7D中所图示,当在预定的方向上旋转被施加到显示器151的边界区域的多个触摸开始点的姿势输入时,控制器180以导航的方式放大或者缩小被显示在显示器151中的跟随内容信息。
具体地,参考图7C,当在第一方向上,例如,顺时针地旋转被施加到显示器151的边界区域(例如,框架)的多个触摸开始点(例如,其中穿戴者利用他的/她的拇指或者食指(和其它手指)抓握显示器的框架的操作)时,控制器180以导航的方式放大被显示在显示器151上的跟随内容信息。
因此,增加大小并且以前一个屏幕730的中心作为屏幕735的中心的屏幕735被输出到显示器151。在本实例中,穿戴者将接触触摸施加到前一个屏幕730或者大小增加的屏幕735,并且从而屏幕的不同部分被移动或者旋转以被定位在中心。另外,根据内容的类型(例如,地图)大小扩大的屏幕735包括进一步的详细信息。
具体地,参考图7D,当在第二方向上,例如,逆时针地旋转被施加到显示器151的边界区域(例如,框架)的多个触摸开始点(例如,其中穿戴者利用他的/她的拇指或者食指(和其它手指)抓握显示器的框架的操作)时,控制器180以导航的方式缩小被显示在显示器151上的跟随内容信息。
因此,以作为屏幕735的中心的前一个屏幕730的中心减少其大小的屏幕735被输出到显示器151。在本实例中,大小减少的屏幕735在大小上比前一个屏幕小,但是进一步扩宽内容的输出范围。
另外,根据第三实施例,参考图7E,当在第一方向上,例如,在朝着穿戴者的向内方向C上拖动被施加到显示装置100的框架101的一个区域的触摸的输入被施加时,控制器180在第一方向上滚动被显示在显示器151中的跟随内容信息的脚本行,即,使得脚本行被显示。
此外,参考图7F,当在第二方向上,例如,在与向内方向C相反的向外方向D上拖动被施加到显示装置100的框架101的一个区域的触摸的输入被施加时,控制器180在第二方向上滚动跟随内容信息的脚本行,即,使得前一个脚本行被显示。
另外,根据第四实施例,参考图7G,基于在显示装置100的框架101的第一区域(例如,右侧区域)上轻敲预定的次数(例如,两次)的触摸输入,控制器180在第一方向上(例如,在跟随页面的方向上)对与被显示在显示器151上的跟随内容信息相对应的文档页面进行翻页。
此外,参考图7H,基于在显示装置100a的框架101的第二区域(例如,左侧区域)上轻敲预定的次数(例如,两次)的触摸输入,控制器180在第二方向上(例如,在前一页面的方向上)对与被显示在显示器151上的跟随内容信息相对应的文档页面进行翻页。
另外,根据第五实施例,当在显示装置100的框架101的第二区域或者第一区域上轻敲三次或者更多次的触=摸输入时,或者当对第一区域或者第二区域执行长的触摸输入时,翻页加速。即,在与相应的区域相对应的方向上输出翻多个页面的效果。当在此状态下施加短的触摸输入时,翻页停止并且在停止点处的页面被输出到显示器151。
参考图8A和图8B,下面描述示例,在其中的每一个中基于穿戴者的状态控制被输出到显示装置的屏幕。这样做,显示装置100可以进一步包括用于跟踪穿戴者的凝视的第二相机,其被连接到主体的内部。第二相机对应于穿戴者的眼球的移动而移动或者旋转。
即,第二相机被用于跟踪穿戴者的凝视。眼镜跟踪指的是其中通过从通过相机输入的图像识别穿戴者的瞳孔跟踪穿戴者的凝视的技术。眼睛跟踪在运动广播、残疾人专用***、消费者的交通线的识别以及消费者的凝视的识别中具有应用。近年来,已经对在用于眼睛跟踪的界面的各种算法进行研究。
当在跟随内容信息被输出到显示器151时在预定时间内穿戴者的凝视被固定到被输出到显示器151的特定对象时,控制器180将与特定对象相关联的附加搜索的结果输出到显示器151的一个区域。
例如,如果如在图8A中所图示的显示装置100的穿戴者凝视被输出到显示器151的“A”对象801两秒钟,则与“A”对象801相关联的网络搜索结果810和820被显示在显示器151的不同区域上。另外,显示装置100的穿戴者被识别为凝视被输出到屏幕80的特定对象,与相应的对象相关联的网络搜索结果被输出。
此外,如果当跟随内容信息被输出到显示器151时穿戴者的到麦克风122的语音信息的输入没有被施加并且在预定时间内穿戴者的凝视被固定到屏幕,则控制器180识别穿戴者忘记下一个演示什么,或者穿戴者处于紧张状态中。
在本实例中,控制器180执行控制使得在被输出到显示器151的跟随内容信息的脚本上输出高亮效果或者跟随内容信息被转换成语音信号并且从而被输出。例如,如在图8B中所图示的穿戴者900在演示进行期间没有说出任何单词的情况下在预定时间(例如,五秒钟或者更长时间)内凝视屏幕80时,在被输出到显示装置100的显示器151的屏幕中读取的脚本中的一些上输出高亮效果(例如,闪烁、颜色变化、加框标志等等)。
然后,与此同时,用于输出下一个要演示的内容信息的图标840,作为语音被显示在显示器151的一个区域上。当穿戴者将接近触摸施加到相应的图标840时,要被下一个演示的内容信息被输出为穿戴者已经记录的语音。
参考图9A和图9B,下面描述示例,在其中的每一个中基于穿戴者的语音命令控制被输出到显示装置的屏幕。当跟随内容信息和附加信息被输出到显示器151时,当通过麦克风122施加预定的语音命令时,控制器180控制显示器151使得对应于语音命令输入的显示变化被显示。
此外,预定的语音命令是通过显示装置100已经注册的命令。例如,当参考特定页面的语音(例如,“页面五”、“第一页面”)、或者参考页面的移动方向的语音(例如,“下一页”)当前被输出时,与相应的语音命令相对应的操作被执行。
例如,如在图9A中所图示,当在与跟随内容信息相对应的屏幕被输出到显示器151时穿戴者说出“下一个”时,控制器180将此识别为用于显示下一页的控制命令。因此,页面3的屏幕901变成页面4的屏幕903。
另外,例如,如在图9B中所图示,当与跟随页面信息相对应的页面9的屏幕903被输出到显示器151时穿戴者说出“开始”,控制器180将其识别为用于显示演示的开始页面的控制命令。因此,在显示器151中页面9的屏幕903变成页面1的屏幕904。另外,同时对屏幕80执行与如在图9A和图9B中所图示的相对应的屏幕变化。
另外,控制器180被设置以便仅响应于穿戴者的语音命令操作。为此,控制器180将通过麦克风122输入的语音命令与已经记录的穿戴者的语音进行比较以确定在它们之间是否存在一致性。
此外,偶尔在演示的进行期间,穿戴者花费大量的时间谈论与演示无直接相关的主题。在本实例中,显示装置100需要指导穿戴者谈论与演示有关的主题。
为此,如果在预定时间或者更长时间内通过麦克风122输入的语音信息保持与已经存储的内容详情不匹配,则控制器180输出预定的报警。此外,预定的报警包括在声音、消息、振动、以及用于跟随内容信息的高亮效果(用于表示时间信息的图像的高亮效果)当中的至少一个或者多个。
当与已经存储的内容的详情不匹配的语音信息保持较长时间时,报警的强度较大。另外,通过穿戴者的连续的多个输入执行在上面描述的显示器151和/或屏幕80中的屏幕变化。
例如,如果在不用操作投影仪50的情况下被投影到屏幕80上的图像要被改变,则为了移向与所期待的内容信息相对应的页面对图像显示装置100执行触摸姿势、凝视变化等等,并且然后通过在图7B中图示的姿势输入被输出到显示器151的屏幕被提供给屏幕80。
下面描述其示例,在其中的每一个中在本发明中描述的显示装置100被连接到将视频信息提供给投影仪50或被连接到不同的显示装置100的外部设备70,以便控制被输出到显示器151的屏幕或者控制显示装置100的操作。
在图10A至图10C图示的示例中,根据本发明的实施例的显示装置100被连接到外部设备70或者不同的显示装置100,以便接收与演示相关联的问题并且为了准备回答问题进行搜索。
另外,例如,使用短程通信标准、诸如Wi-Fi的无线因特网标准、或者诸如通用串行总线(USB)的外部设备接口,在显示装置100和外部设备70之间并且在外部设备170和投影仪50之间进行无线或者有线连接。
另外,如果在显示装置100和外部设备70之间进行连接,则显示装置100输出与通过投影仪50被投影到屏幕80上的图像相同的屏幕信息、或者输出包括比屏幕投影的图像详细的信息的屏幕信息。这样做,显示装置100从外部设备70接收与相应的屏幕信息有关的数据。
为此,显示装置100进一步包括用于接收对应于与在上面描述的演示有关的信息的无线信号的无线通信单元,其被连接到外部设备70或者不同的显示装置。
当从被连接的外部设备70或者不同的显示装置接收无线信号时,控制器180将无线信号转换成字符并且从转换产生的字符被显示在显示器151的一个区域上。另外,控制器180以其中字符可被传送到外部的文档文件格式存储从转换产生的字符。
另外,在本发明中描述的显示装置100能够至少将数据的项目传送到通过无线通信单元连接的外部设备70或者不同的显示装置。
在本实例中,控制器180使用从转换产生的字符作为关键字搜索与已经存储的演示相关联的内容详情。与搜索的结果相应的数据被显示在显示器151上或者被传送到连接的外部设备70并且从而能够对数据执行反馈。
例如,如在图10A中所图示,显示装置100从被连接的外部设备70接收视频信息或者将接收到的视频信息提供或输出到屏幕80或者显示器151。另外,如在图10A中所图示,由演示者穿戴的显示装置100和倾听演示的听众穿戴的显示装置100b被相互连接用于它们之间的交互。
在本实例中,如在图10B中所图示,当通过穿戴者的显示装置100接收被输入到通过听众穿戴的显示装置100b的问题时,与对应于跟随内容信息的脚本A相对应的问题被输出到显示器151的一个区域B。其中问题被显示的顺序对应于当问题从听众穿戴的显示装置100b到达的时间。另外,虽然被输出到听众穿戴的显示装置100b和穿戴者穿戴的显示装置100的屏幕相互不同,但是对应于问题的字符被显示在与其中听众将问题输入到的页面相对应的脚本位置上。
图10C图示显示装置100传送到听众穿戴的显示装置100b的响应屏幕。显示装置100使用与问题相对应的字符作为搜索关键词搜索与已经存储的演示相关联的内容详情(能够包括更加详细的附加信息)。搜索的结果1010和1020被传送到传送问题的听众的显示装置,并且因此在没有中断演示进行的情况下提供问题的答案。当回答不令人满意时,听众能够将其它问题传送到显示装置100。
另外,在本发明中描述的显示装置100通过被设置在听众穿戴的显示装置中的相机收集与听众理解演示的程度有关的信息,并且在显示器151上显示其可理解水平低于参考值的演示的一部分。
接下来,图11是图示显示装置100将与演示有关的信息提供给穿戴者并且同时向投影仪50提供要被投影的视频信息的图。在此,在上面描述了其中为穿戴者的左眼和右眼分别提供显示装置100的显示单元(即,第一显示器和第二显示器)的示例,但是本发明不限于在上面描述的示例。
另外,显示装置100能够将预定的无线信号传送到投影仪50并且从投影仪50接收预定的无线信号。当在上面描述的跟随内容信息和附加信息被输出到显示装置100的显示器151时,控制器180检测用于将与演示相关联的已经存储的内容传送到投影仪50的预定的姿势输入。
如在图11中所图示,这样的姿势是,例如,其中当显示器151的框架的多个点被触摸时手指指向投影仪50的姿势输入。当检测到这样的姿势输入时,控制器180控制投影仪50使得被显示在显示器151上的屏幕被同时输出到屏幕80。具体地,如在图11中所示,当其中在第二显示器(左侧显示器)的框架的多个点被触摸时手指指向投影仪50的姿势输入被触发时,通过投影仪50被输出到第二显示器的屏幕1110被投影到屏幕80上。
相反地,当其中在穿戴者触摸第一显示器(右侧显示器)的框架的多个点时手指指向投影仪50的姿势输入时,通过投影仪50被输出到第一显示器的屏幕被显示在屏幕80上。
如果以这样的方式相同的图像被输出到显示器151和屏幕80,则当直到检测到穿戴者输入的不同姿势(例如,面向投影仪50绘制形状“X”的姿势输入)之前改变被输出到显示器151的屏幕时,被输出到屏幕80的屏幕被相应地改变。
如上所述,在根据本发明的实施例的显示装置,和控制该显示装置的方法中,有关信息被提供使得,通过被安装在穿戴者的头部或者其它部分上的显示装置,演示的演示者平滑地继续进行演示。这给演示者提供便利,因为用于控制的用户操作简单。另外,虽然事件不可预料地发生,诸如当演示者处于紧张状态时,或者当演示者忘记演示的详情时,有关信息被提供使得在没有任何中断的情况下进行演示。这以便利的方式帮助演示者进行演示。
另外,以演示者可辨别的方式提供从不同的外部设备传输的与演示有关的信息,或者产生对于该信息的反馈并且将其传输到外部设备,在演示的演示者和听众之间立即地和快速地进行交互。
前述的实施例和优点仅是示例性的并且没有被认为是限制本公开。本教导能够被容易地应用于其它类型的设备。此描述旨在是说明性的,并且没有限制权利要求的范围。对本领域的技术人员来说,许多替选、修改、以及变化将是显然的。可以以各种方式来组合在此描述的实施例的特征、结构、方法和其它特性以获得附加的和/或可替选的示例性实施例。
当在没有脱离其特征的情况下可以以几种方式来实现本特征时,也应理解的是,上述实施例不受前述的描述的任何详情的限制,除非另外明文规定,而是应该在所附的权利要求中定义的其范围内广泛地解释,并且因此所有的变化和修改落入在权利要求的边界和范围内、或者这样的边界和范围的等同物旨在通过所附的权利要求被包含。
Claims (20)
1.一种可穿戴的电子设备,包括:
无线通信单元,所述无线通信单元被配置成无线地连接到投影仪,用于将被存储的演示投影到外部设备的屏幕上;
主体,所述主体被配置成被用户穿戴;
麦克风,所述麦克风被集成地连接到所述主体;
显示单元,所述显示单元被配置成被附接到所述主体;以及
控制器,所述控制器被配置成:
将通过所述麦克风输入的语音信息与所述被存储的演示的相应的内容相匹配,并且
在所述显示单元上至少显示跟随所述相应的内容的内容的跟随部分。
2.根据权利要求1所述的电子设备,其中,所述控制器进一步被配置成:
将所述语音信息转换成文本,并且
搜索所述被存储的演示查找转换的文本以便将所述语音信息与所述相应的内容相匹配。
3.根据权利要求2所述的电子设备,其中,所述控制器进一步被配置成:
以不同的高亮效果在所述显示单元上显示所述转换的文本以区分所显示的转换的文本与跟随所述相应的内容的内容的跟随部分。
4.根据权利要求1所述的电子设备,其中,所述显示单元包括用于所述用户的第一和第二眼睛的第一和第二显示区域。
5.根据权利要求4所述的电子设备,其中,所述控制器进一步被配置成:
在所述第一显示区域上显示所述内容的跟随部分;并且
在所述第二显示区域上显示与被投影到所述屏幕上的演示的图像相同的图像的至少一部分。
6.根据权利要求5所述的电子设备,其中,所述控制器进一步被配置成在所述第二显示区域上显示进度指示符,所述进度指示符基于被投影到所述屏幕上的图像指示所述演示的进度状态。
7.根据权利要求5所述的电子设备,其中,所述演示被存储在内容的多个页面中,并且
其中,所述控制器进一步被配置成:
在所述第二显示区域上将所述内容的多个页面显示为与所述多个页面当中的首先显示的当前被投影在所述外部设备的屏幕上的页面重叠。
8.根据权利要求7所述的电子设备,其中,所述控制器进一步被配置成在所述显示单元上显示页面选项,所述页面选项能够被触摸或者接近触摸以对所述多个页面进行翻页。
9.根据权利要求4所述的电子设备,其中,所述控制器进一步被配置成:
在所述第一显示区域上显示所述相应的内容,
搜索关于被显示的相应的内容的附加信息,并且
在所述第二显示区域上显示所述附加信息。
10.根据权利要求1所述的电子设备,其中,所述控制器进一步被配置成:
将所述内容的跟随部分转换成语音信号,
将所述语音信号输出到所述用户的耳朵,并且
调节所述语音信号的输出速度以对应于所述语音信息的输入速度。
11.根据权利要求1所述的电子设备,进一步包括:
感测单元,所述感测单元被配置成检测穿戴所述电子设备的用户的生物状态,
其中,所述控制器进一步被配置成监视检测到的生物状态,并且当所述检测到的生物状态指示所述用户处于紧张状态时高亮内容详情的跟随部分或者改变输出大小。
12.根据权利要求1所述的电子设备,进一步包括:
至少一个相机,所述至少一个相机在所述主体上并且被配置成检测所述用户输入的姿势。
13.根据权利要求12所述的电子设备,其中,所述控制器进一步配置成,当检测到的姿势输入包括在所述主体和所述屏幕面向彼此时在所述主体和所述屏幕之间所述用户挥动他们的手时,将被输出到所述显示单元的图像投影到所述外部设备的屏幕上。
14.根据权利要求12所述的电子设备,其中,所述控制器进一步被配置成,当检测到的姿势输入包括在第一方向上旋转手势时,放大被显示在所述显示单元上的所述内容的跟随部分,并且当所述检测到的姿势输入包括在与所述第一方向相反的第二方向上旋转手势时,缩小被显示在所述显示单元上的所述内容的跟随部分。
15.根据权利要求12所述的电子设备,其中,所述控制器进一步被配置成在与被施加到包括触摸传感器的所述主体的区域的触摸和拖动的方向相对应的方向上滚动被显示在所述显示单元上的所述内容的跟随部分的行。
16.根据权利要求12所述的电子设备,其中,所述控制器进一步被配置成基于在所述主体的第一区域上的轻敲触摸输入对所述内容的跟随部分的页面进行向前翻页,并且基于在所述主体的第二区域上的轻敲触摸输入对所述内容的跟随部分的页面进行向后翻页。
17.根据权利要求4所述的电子设备,进一步包括:
至少一个相机,所述至少一个相机在所述主体上并且被配置成跟踪所述用户的眼睛移动,
其中,当检测到的眼睛移动被固定到被输出到所述第一显示区域的特定对象时,所述控制器进一步被配置成执行与所述特定对象相关联的搜索并且在所述第二显示区域上显示搜索的结果。
18.根据权利要求1所述的电子设备,其中,所述控制器匹配通过所述麦克风输入的语音信息和预设语音命令,并且当所述语音信息匹配预设语音命令时,执行所述预设语音命令。
19.根据权利要求1所述的电子设备,其中,所述无线通信单元进一步被配置成从外部设备接收对应于与所述演示有关的信息的无线信号,并且
其中,所述控制器进一步被配置成,将所述无线信号转换成字符,并且在所述显示单元的区域上显示所述字符或者将所述字符存储成其中所述字符可外部地传送的文档文件格式。
20.一种控制可穿戴的电子设备的方法,所述可穿戴的电子设备包括主体,所述主体被配置成被用户穿戴,所述方法包括:
经由无线通信单元无线地连接到投影仪,用于将被存储的演示投影到外部设备的屏幕上;
经由控制器,将通过与所述主体集成连接的麦克风输入的语音信息与所述被存储的演示的相应的内容相匹配;以及
经由显示单元,在所述显示单元上至少显示跟随所述相应的内容的内容的跟随部分。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130106742A KR102083596B1 (ko) | 2013-09-05 | 2013-09-05 | 디스플레이장치 및 디스플레이장치의 동작방법 |
KR10-2013-0106742 | 2013-09-05 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104423573A true CN104423573A (zh) | 2015-03-18 |
CN104423573B CN104423573B (zh) | 2019-03-15 |
Family
ID=50624344
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410250434.7A Active CN104423573B (zh) | 2013-09-05 | 2014-06-06 | 显示装置及其操作方法 |
Country Status (4)
Country | Link |
---|---|
US (2) | US9557961B2 (zh) |
EP (1) | EP2846255B1 (zh) |
KR (1) | KR102083596B1 (zh) |
CN (1) | CN104423573B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104898997A (zh) * | 2015-05-04 | 2015-09-09 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN106066537A (zh) * | 2015-04-24 | 2016-11-02 | 松下电器(美国)知识产权公司 | 头戴式显示器和头戴式显示器的控制方法 |
CN106371271A (zh) * | 2016-11-08 | 2017-02-01 | 湖北恒颖超科技有限公司 | 一种具有缓存播放数据和手势控制的激光投影仪 |
WO2017107182A1 (zh) * | 2015-12-25 | 2017-06-29 | 深圳市柔宇科技有限公司 | 头戴式显示设备 |
CN107102804A (zh) * | 2016-02-19 | 2017-08-29 | 索尼移动通信株式会社 | 控制设备、控制方法和程序 |
CN107438980A (zh) * | 2015-04-13 | 2017-12-05 | 三星电子株式会社 | 显示装置及其设定方法 |
CN108062216A (zh) * | 2017-12-10 | 2018-05-22 | 汤庆佳 | 一种基于互动式教学的智能书写设备及其工作方法 |
CN110187503A (zh) * | 2018-02-23 | 2019-08-30 | 罗德施瓦兹两合股份有限公司 | 用于查找特定测量仪器的测量仪器识别***及方法 |
CN110232111A (zh) * | 2019-05-30 | 2019-09-13 | 杨钦清 | 一种文本显示方法、装置及终端设备 |
CN112313731A (zh) * | 2018-06-16 | 2021-02-02 | 欧克斯赛特有限公司 | 用于在便携式显示器上控制数字放大率的手持装置 |
CN113342158A (zh) * | 2020-03-03 | 2021-09-03 | 阿里巴巴集团控股有限公司 | 眼镜设备以及数据处理方法、装置、电子设备 |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10686972B2 (en) * | 2013-09-03 | 2020-06-16 | Tobii Ab | Gaze assisted field of view control |
KR101882594B1 (ko) | 2013-09-03 | 2018-07-26 | 토비 에이비 | 휴대용 눈 추적 디바이스 |
WO2015064935A1 (en) * | 2013-10-28 | 2015-05-07 | Lg Electronics Inc. | Electronic device and control method thereof |
KR20150083703A (ko) * | 2014-01-10 | 2015-07-20 | 삼성전자주식회사 | 데이터 처리 방법 및 그 전자 장치 |
US20150281250A1 (en) | 2014-03-26 | 2015-10-01 | Zeetings Pty Limited | Systems and methods for providing an interactive media presentation |
KR20150129423A (ko) * | 2014-05-12 | 2015-11-20 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 제스처 인식 방법 및 전자 장치 |
GB2528867A (en) * | 2014-07-31 | 2016-02-10 | Ibm | Smart device control |
TWI524214B (zh) * | 2014-08-15 | 2016-03-01 | 中強光電股份有限公司 | 簡報系統、穿戴式裝置及簡報的文稿呈現方法 |
KR20160112559A (ko) * | 2015-03-19 | 2016-09-28 | 삼성전자주식회사 | 터치 패널을 포함하는 전자 장치 및 그 제어 방법 |
US9774990B2 (en) * | 2015-04-21 | 2017-09-26 | Verizon Patent And Licensing Inc. | Proximity-based verification of programming instructions |
CN104834383A (zh) * | 2015-05-26 | 2015-08-12 | 联想(北京)有限公司 | 一种输入方法和电子设备 |
CN106412469B (zh) * | 2015-08-03 | 2019-05-24 | 中强光电股份有限公司 | 投影***、投影装置与投影***的投影方法 |
US10691250B2 (en) * | 2015-09-24 | 2020-06-23 | Sony Corporation | Information processing device, information processing method, and program for preventing reflection of an operation in an output |
CN106572378A (zh) * | 2016-09-30 | 2017-04-19 | 乐视控股(北京)有限公司 | 一种视频介绍信息显示方法及装置 |
CN106371632B (zh) * | 2016-10-25 | 2019-08-20 | 歌尔科技有限公司 | 一种智能穿戴设备 |
US11507216B2 (en) * | 2016-12-23 | 2022-11-22 | Realwear, Inc. | Customizing user interfaces of binary applications |
US11099716B2 (en) | 2016-12-23 | 2021-08-24 | Realwear, Inc. | Context based content navigation for wearable display |
US10620910B2 (en) | 2016-12-23 | 2020-04-14 | Realwear, Inc. | Hands-free navigation of touch-based operating systems |
EP3585254B1 (en) | 2017-02-24 | 2024-03-20 | Masimo Corporation | Medical device cable and method of sharing data between connected medical devices |
WO2018156809A1 (en) * | 2017-02-24 | 2018-08-30 | Masimo Corporation | Augmented reality system for displaying patient data |
WO2018208616A1 (en) | 2017-05-08 | 2018-11-15 | Masimo Corporation | System for pairing a medical system to a network controller by use of a dongle |
US10614794B2 (en) * | 2017-06-15 | 2020-04-07 | Lenovo (Singapore) Pte. Ltd. | Adjust output characteristic |
TWI659647B (zh) * | 2017-11-21 | 2019-05-11 | 晶睿通訊股份有限公司 | 影像播放設備及其影像播放方法 |
US11029834B2 (en) * | 2017-12-20 | 2021-06-08 | International Business Machines Corporation | Utilizing biometric feedback to allow users to scroll content into a viewable display area |
KR102482589B1 (ko) * | 2018-02-12 | 2022-12-30 | 삼성전자주식회사 | 음성 인식 서비스 운용 방법 및 이를 지원하는 전자 장치 |
KR102179220B1 (ko) * | 2018-07-17 | 2020-11-16 | 김홍성 | 음성인식을 이용한 전자성경 시스템 |
WO2020095584A1 (ja) * | 2018-11-08 | 2020-05-14 | パナソニックIpマネジメント株式会社 | 検出システム及び情報表示システム |
JP2022102885A (ja) * | 2020-12-25 | 2022-07-07 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、情報処理システムおよびプログラム |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101634930A (zh) * | 2009-08-18 | 2010-01-27 | 酷派软件技术(深圳)有限公司 | 一种终端及其帮助用户操作的方法 |
CN102455843A (zh) * | 2010-10-21 | 2012-05-16 | 浪潮乐金数字移动通信有限公司 | 一种ppt文件的操作控制方法和装置 |
US20120249416A1 (en) * | 2011-03-29 | 2012-10-04 | Giuliano Maciocci | Modular mobile connected pico projectors for a local multi-user collaboration |
US20130007668A1 (en) * | 2011-07-01 | 2013-01-03 | James Chia-Ming Liu | Multi-visor: managing applications in head mounted displays |
US20130127980A1 (en) * | 2010-02-28 | 2013-05-23 | Osterhout Group, Inc. | Video display modification based on sensor input for a see-through near-to-eye display |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002165156A (ja) * | 2000-11-27 | 2002-06-07 | Canon Inc | 頭部装着型画像表示装置および画像情報表示システム |
US6901558B1 (en) * | 2002-01-09 | 2005-05-31 | International Business Machines Corporation | System and method for displaying status of background worker threads |
JP4961914B2 (ja) * | 2006-09-08 | 2012-06-27 | ソニー株式会社 | 撮像表示装置、撮像表示方法 |
JP5262688B2 (ja) * | 2008-12-24 | 2013-08-14 | ブラザー工業株式会社 | プレゼンテーションシステム及びそのプログラム |
US8490002B2 (en) * | 2010-02-11 | 2013-07-16 | Apple Inc. | Projected display shared workspaces |
KR101252169B1 (ko) * | 2011-05-27 | 2013-04-05 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
KR101203921B1 (ko) * | 2011-09-21 | 2012-11-27 | 유제형 | 안구 추적과 위치 기반 서비스를 이용한 정보 제공 장치 |
WO2013057658A1 (en) * | 2011-10-19 | 2013-04-25 | Vadim Dukhovny | Enhancement of presentation or online collaboration meeting |
-
2013
- 2013-09-05 KR KR1020130106742A patent/KR102083596B1/ko active IP Right Grant
-
2014
- 2014-02-21 US US14/186,176 patent/US9557961B2/en active Active
- 2014-04-03 EP EP14001246.9A patent/EP2846255B1/en active Active
- 2014-06-06 CN CN201410250434.7A patent/CN104423573B/zh active Active
-
2016
- 2016-12-21 US US15/387,139 patent/US10606553B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101634930A (zh) * | 2009-08-18 | 2010-01-27 | 酷派软件技术(深圳)有限公司 | 一种终端及其帮助用户操作的方法 |
US20130127980A1 (en) * | 2010-02-28 | 2013-05-23 | Osterhout Group, Inc. | Video display modification based on sensor input for a see-through near-to-eye display |
CN102455843A (zh) * | 2010-10-21 | 2012-05-16 | 浪潮乐金数字移动通信有限公司 | 一种ppt文件的操作控制方法和装置 |
US20120249416A1 (en) * | 2011-03-29 | 2012-10-04 | Giuliano Maciocci | Modular mobile connected pico projectors for a local multi-user collaboration |
US20130007668A1 (en) * | 2011-07-01 | 2013-01-03 | James Chia-Ming Liu | Multi-visor: managing applications in head mounted displays |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107438980A (zh) * | 2015-04-13 | 2017-12-05 | 三星电子株式会社 | 显示装置及其设定方法 |
CN106066537A (zh) * | 2015-04-24 | 2016-11-02 | 松下电器(美国)知识产权公司 | 头戴式显示器和头戴式显示器的控制方法 |
CN104898997A (zh) * | 2015-05-04 | 2015-09-09 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
WO2017107182A1 (zh) * | 2015-12-25 | 2017-06-29 | 深圳市柔宇科技有限公司 | 头戴式显示设备 |
CN107407960A (zh) * | 2015-12-25 | 2017-11-28 | 深圳市柔宇科技有限公司 | 头戴式显示设备 |
CN107102804A (zh) * | 2016-02-19 | 2017-08-29 | 索尼移动通信株式会社 | 控制设备、控制方法和程序 |
CN107102804B (zh) * | 2016-02-19 | 2021-08-10 | 索尼移动通信株式会社 | 控制设备、控制方法和记录介质 |
CN106371271A (zh) * | 2016-11-08 | 2017-02-01 | 湖北恒颖超科技有限公司 | 一种具有缓存播放数据和手势控制的激光投影仪 |
CN108062216A (zh) * | 2017-12-10 | 2018-05-22 | 汤庆佳 | 一种基于互动式教学的智能书写设备及其工作方法 |
CN110187503A (zh) * | 2018-02-23 | 2019-08-30 | 罗德施瓦兹两合股份有限公司 | 用于查找特定测量仪器的测量仪器识别***及方法 |
CN110187503B (zh) * | 2018-02-23 | 2023-08-22 | 罗德施瓦兹两合股份有限公司 | 用于查找特定测量仪器的测量仪器识别***及方法 |
CN112313731A (zh) * | 2018-06-16 | 2021-02-02 | 欧克斯赛特有限公司 | 用于在便携式显示器上控制数字放大率的手持装置 |
CN110232111A (zh) * | 2019-05-30 | 2019-09-13 | 杨钦清 | 一种文本显示方法、装置及终端设备 |
CN113342158A (zh) * | 2020-03-03 | 2021-09-03 | 阿里巴巴集团控股有限公司 | 眼镜设备以及数据处理方法、装置、电子设备 |
CN113342158B (zh) * | 2020-03-03 | 2022-08-30 | 阿里巴巴集团控股有限公司 | 眼镜设备以及数据处理方法、装置、电子设备 |
Also Published As
Publication number | Publication date |
---|---|
EP2846255B1 (en) | 2018-07-11 |
KR102083596B1 (ko) | 2020-03-02 |
US10606553B2 (en) | 2020-03-31 |
CN104423573B (zh) | 2019-03-15 |
US9557961B2 (en) | 2017-01-31 |
KR20150028084A (ko) | 2015-03-13 |
US20150067516A1 (en) | 2015-03-05 |
US20170102917A1 (en) | 2017-04-13 |
EP2846255A1 (en) | 2015-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104423573B (zh) | 显示装置及其操作方法 | |
US10356398B2 (en) | Method for capturing virtual space and electronic device using the same | |
CN105892051B (zh) | 眼镜式终端及其控制方法 | |
CN105988666B (zh) | 移动终端及其控制方法 | |
CN104423580B (zh) | 可穿戴的眼镜型终端及其控制方法、具有该终端的*** | |
US10318007B2 (en) | Head mounted display device for multi-tasking and method for controlling same | |
US9602954B2 (en) | Mobile terminal and method for controlling the same | |
EP3130993B1 (en) | Mobile terminal and method for controlling the same | |
US10776618B2 (en) | Mobile terminal and control method therefor | |
US20150169166A1 (en) | Mobile terminal and method for controlling the same | |
KR20160128119A (ko) | 이동 단말기 및 이의 제어방법 | |
CN105359084B (zh) | 显示装置及其控制方法 | |
CN104049740A (zh) | 移动终端及其控制方法 | |
KR20170088691A (ko) | 페어링된 장치, 알림 및 어플리케이션의 제어에 관한 한 손 조작 모드를 적용한 이동 통신 단말기 | |
CN104281402A (zh) | 移动终端及其控制方法 | |
KR20170002038A (ko) | 이동 단말기 | |
CN104423886A (zh) | 移动终端及其控制方法 | |
KR20170089662A (ko) | 증강현실을 제공하는 웨어러블 디바이스 | |
CN104349154A (zh) | 眼镜式终端的信息提供设备和信息提供方法 | |
KR20170019262A (ko) | 이동 단말기 및 그것의 제어방법 | |
KR20170099088A (ko) | 전자 기기 및 그 제어방법 | |
KR20160035911A (ko) | 이동단말기 및 그 제어방법 | |
KR20180113115A (ko) | 전자장치 및 이의 동작방법 | |
KR20180009170A (ko) | 이동 단말기 및 그의 동작 방법 | |
KR20160071013A (ko) | 글래스 타입의 이동 단말기 및 그 제어방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |