CN107710747B - 控制设备、控制方法 - Google Patents
控制设备、控制方法 Download PDFInfo
- Publication number
- CN107710747B CN107710747B CN201680032836.7A CN201680032836A CN107710747B CN 107710747 B CN107710747 B CN 107710747B CN 201680032836 A CN201680032836 A CN 201680032836A CN 107710747 B CN107710747 B CN 107710747B
- Authority
- CN
- China
- Prior art keywords
- output
- user
- hmd40
- unit
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/02—Viewing or reading apparatus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/64—Constructional details of receivers, e.g. cabinets or dust covers
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Transforming Electric Information Into Light Information (AREA)
Abstract
本发明根据头戴式显示器是被安装还是被卸下提供了良好的视听环境。控制设备(20)包括用于识别头戴式显示器是被安装还是被卸下的状态识别单元(26),以及根据安装或卸下用于控制从与头戴式显示器分开提供的显示设备(30)的声音输出和视频输出的输出控制单元(27)。
Description
技术领域
本发明涉及一种控制设备、控制方法和程序。
背景技术
已经开发了一种用户穿戴在用户的头上以观看视频等的头戴式显示器。未来,在观看视频等时,用户期望在供用户远距离观看视频的诸如电视(TV) 接收器、显示器和移动终端的显示设备与用户穿戴在头上以观看视频的头戴式显示器和之间切换。传统上已知的是,用户通过在TV接收器的固定显示设备与诸如便携式游戏机和平板终端的由用户在手边操作的便携式显示设备之间切换来切换视频输出。
发明内容
[技术问题]
由于用户穿戴在头上以在显示器上观看的头戴式显示器的特性,由于用户在穿戴头戴式显示器的状态下视野被阻挡,所以用户看不到外部。此外,一旦用户穿戴耳机,外部声音变得不需要。因此,在用户穿戴头戴式显示器时,通过限制来自显示设备的不需要的输出,能够降低功率消耗。通过限制来自显示设备的声音输出,具有用户可以专注于使用头戴式显示器的观看的效果。当显示设备被设计为在用户卸下头戴式显示器时立即恢复输出,用户可以通过卸下头戴式显示器来立即使用显示设备。如上所述,当根据头戴式显示器的穿戴来限制显示设备的输出时,可以提供合适的观看环境。
另一方面,在一些情况下不仅通过根据头戴式显示器的穿戴限制来自显示设备的输出,通过增加来自显示设备的输出,可以提供适当的观看环境。例如,在由多人参加的游戏中,通过布置使得一个用户穿戴头戴式显示器并且在显示设备上显示不应该描绘给穿戴头戴式显示器的用户的信息,可以提高游戏的乐趣。
如上所述,期望根据头戴式显示器的穿戴或卸下来提供合适的观看环境。由于没有考虑头戴式显示器的使用,所以不能实现提供这种合适的观看环境。
本发明旨在解决上述问题,并且具有根据头戴式显示器的穿戴或卸下提供合适的观看环境的目的。
[问题的解决方案]
为了解决上述问题,根据本发明的控制设备包括识别单元,配置为识别头戴式显示器的穿戴或卸下,以及输出控制单元,配置为根据穿戴或卸下控制从与头戴式显示器分开提供的来自显示设备的声音输出和视频输出的至少一个输出。
在上述控制设备中,根据头戴式显示器的穿戴,输出控制单元可以限制从与头戴式显示器分开提供的显示设备的声音输出和视频输出的至少一个输出。
在上述控制设备中,根据头戴式显示器的卸下,输出控制单元可以取消从与头戴式显示器分开提供的显示设备的输出限制。
在上述控制设备中,根据头戴式显示器的穿戴,输出控制单元可以通过关闭电源限制从头戴式显示器分开提供的显示设备的声音输出和视频输出。
在上述控制设备中,根据头戴式显示器的卸下,输出控制单元可以通过打开电源取消从头戴式显示器分开提供的显示设备的声音输出和视频输出的限制。
控制设备还包括用户识别单元,配置为识别穿戴头戴式显示器的用户,以及输出控制单元,其可以使与头戴式显示器分开提供的显示设备为不同于识别用户的用户输出声音输出和视频输出的至少一个输出。
在上述控制设备中,输出控制单元可以根据头戴式显示器的卸下,限制输出的声音输出和视频输出的至少一个。
根据本发明的控制方法包括识别头戴式显示器的穿戴或卸下的识别步骤,以及根据穿戴或卸下控制从与头戴式显示器分开提供的显示设备的声音输出和视频输出的至少一个输出的输出控制步骤。
根据本发明的程序使计算机作为识别单元以及输出控制单元的功能,识别单元配置为识别可穿戴设备的穿戴和卸下,输出控制单元配置为根据穿戴和卸下,控制从与头戴式显示器分开提供的显示设备的声音输出和视频输出的至少一个输出。该程序可以存储在计算机可读信息存储介质中。
附图描述
图1是描绘根据第一实施例的视频显示***的总体配置的示例的视图。
图2是描绘根据第一实施例的控制设备的硬件配置的示例的示意图。
图3是描绘根据第一实施例的显示设备的硬件配置的示例的示意图。
图4是描绘根据第一实施例的头戴式显示器(HMD)的硬件配置的示例的示意图。
图5A是描绘根据第一实施例的视频显示***的使用场景的示例的视图。
图5B是描绘根据第一实施例的视频显示***的使用场景的示例的视图。
图6是描绘根据第一实施例的由控制设备实现的主要功能的示例的功能框图。
图7是描绘根据第一实施例的当用户穿戴HMD时由控制设备执行的显示设备的输出控制过程的示例的流程图。
图8是描绘根据第一实施例的当用户卸下HMD时由控制设备执行的显示设备的输出控制过程的示例的流程图。
图9A是描绘根据第二实施例的视频显示***的使用场景的示例的视图。
图9B是描绘根据第二实施例的视频显示***的使用场景的示例的视图。
图10是描绘根据第二实施例的当用户穿戴HMD时由控制设备执行的显示设备的输出控制过程的示例的流程图。
图11是描绘根据第二实施例的当用户卸下HMD时由控制设备执行的显示设备的输出控制过程的示例的流程图。
具体实施方式
第一实施例
在下文中,将参照附图描述作为本发明的一个实施例的第一实施例。
***配置
图1是描绘根据第一实施例的视频显示***1的总体配置的示例的视图。如图1所示,根据第一实施例的视频显示***1配置为包括娱乐设备10、控制设备20、显示设备30、头戴式显示器(HMD)40和照相机单元50。例如,娱乐设备10和控制设备20经由高分辨率多媒体接口(HDMI)(注册商标) 电缆或通用串行总线(USB)电缆连接在一起。例如,控制设备20和显示设备30经由HDMI电缆连接在一起。例如,控制设备20和HMD 40经由HDMI 电缆或USB电缆连接在一起。例如,娱乐设备10和照相机单元50经由USB 电缆连接在一起。
娱乐设备10是诸如家用游戏机、数字多功能盘(DVD)播放器和蓝光 (注册商标)播放器的信息处理设备。根据第一实施例的娱乐设备10向控制设备20输出视频信号以及表示声音的声音信号,该视频信号例如表示通过执行安装的游戏程序或者通过读取光盘的盘的再现生成的视频。
控制设备20是通过在娱乐设备10、显示设备30和HMD 40之间中继信号来控制显示设备30和HMD 40的信息处理设备。根据第一实施例的控制设备20获取从娱乐设备10输出的视频信号和声音信号。然后,控制设备20向 HMD 40输出用于HMD 40的视频信号和声音信号,并向显示设备30输出用于显示设备30的视频信号和声音信号。输出到HMD 40和显示设备30的每个信号可以是通过由控制设备20转换而获取的信号。例如,控制设备20可以将从娱乐设备10输出的用于HMD 40的每个信号转换为适合显示设备30 的信号。然后,控制设备20将所获取的信号输出到显示设备30。可替代地,控制设备20可以将从娱乐设备10输出的用于显示设备30的每个信号转换为适合HMD 40的信号。然后,控制设备20将所获取的信号输出到HMD 40。
显示设备30是诸如家用电视接收装置的固定的显示设备,例如,设置在离用户一定距离的位置以供用户观看视频。根据第一实施例的显示设备30使第一显示单元34显示由从控制设备20接收的视频信号表示的视频,并且使第一声音输出单元35输出由从控制设备20接收的声音信号表示的声音。
HMD 40是安装在用户头部上的眼罩式视频显示设备。HMD 40通过使用配备在HMD40中的显示设备向用户呈现诸如静止图像和运动图像的视频。根据第一实施例的HMD 40使第二显示单元44显示由从控制设备20接收的视频信号表示的视频,并且使第二声音输出单元45输出由从控制设备 20接收的声音信号表示的声音。
硬件配置
图2是描绘根据第一实施例的控制设备20的硬件配置的示例的示意图。如图2所示,根据第一实施例的控制设备20配置为包括控制单元21、存储单元22、第一输入-输出接口(I/F)23、第二输入-输出接口(I/F)24和第三输入-输出接口(I/F)25。
控制单元21包括诸如中央处理单元(CPU)的程序控制设备,并且根据存储在存储单元22中的程序执行各种信息处理。
存储单元22包括诸如随机存取存储器(RAM)和只读存储器(ROM) 的存储器元件,并且存储由控制单元21执行的程序。存储单元22还用作控制单元21的工作存储器。
第一输入-输出I/F 23是例如用于将控制设备20连接到显示设备30的诸如HDMI端口和USB端口的接口。第一输入-输出I/F 23根据来自控制单元 21的指令将各种信号输出到显示设备30。此外,第一输入-输出I/F 23接收从显示单元30输出的信号,并且将接收到的信号输出到控制单元21。
第二输入-输出I/F 24是例如用于将控制设备20连接到HMD 40的诸如 HDMI端口和USB端口的接口。第二输入-输出I/F 24根据来自控制单元21 的指令将各种信号输出到HMD 40。此外,第二输入-输出I/F 24接收从HMD 40输出的信号,并且将接收到的信号输出到控制单元21。
第三输入-输出I/F 25是例如用于将控制设备20连接到娱乐设备10的诸如HDMI端口和USB端口的接口。第三输入-输出I/F 25根据来自控制单元 21的指令将各种信号输出到娱乐设备10。此外,第三输入-输出I/F 25接收从娱乐设备10输出的信号,并且将接收到的信号输出到控制单元21。
图3是描绘根据第一实施例的显示设备30的硬件配置的示例的示意图。如图3所示,根据第一实施例的显示设备30配置为包括控制单元31、存储单元32、输入-输出I/F 33、第一显示单元34、第一声音输出单元35和供电单元36。
控制单元31包括诸如CPU的程序控制设备,并且根据存储在存储单元 32中的程序执行各种信息处理。
存储单元32包括诸如RAM和ROM的存储器元件,并且存储由控制单元31执行的程序。存储单元32还用作控制单元31的工作存储器。
输入-输出I/F 33是例如用于将控制设备20连接到显示设备30的诸如 HDMI端口和USB端口的接口。输入-输出I/F 33根据来自控制单元31的指令将各种信号输出到控制设备20。此外,输入-输出I/F 33接收从控制设备 20输出的信号,并且将接收到的信号输出到控制单元31。
第一显示单元34是诸如液晶显示器和有机电致发光(EL)显示器的显示设备,并且显示由从控制设备20输出的视频信号表示的视频。
第一声音输出单元35是例如内置于显示设备30中的诸如内部扬声器的声音输出设备,并且输出由从控制设备20输出的声音信号表示的声音。可以与显示设备30分开提供第一声音输出单元35。
供电单元36提供显示设备30的每个单元操作所需的电力给这些单元。供电单元36配置为例如包括开关电路,并且可以根据从控制设备20输出的控制信号来单独地向显示设备30的每个单元供应电力或停止电力。利用这种布置,可以使显示设备30在诸如断电状态和睡眠状态的省电模式下运行。
图4是描绘根据第一实施例的HMD 40的硬件配置的示例的示意图。如图4所示,根据第一实施例的HMD 40配置为包括控制单元41、存储单元42、输入-输出I/F 43、第二显示单元44、第二声音输出单元45和传感器单元46。
控制单元41包括诸如CPU的程序控制设备,并且根据存储在存储单元 42中的程序执行各种信息处理。
存储单元42包括诸如RAM和ROM的存储器元件,并且存储由控制单元41执行的程序。存储单元42还用作控制单元41的工作存储器。
输入-输出I/F 43是例如用于将控制设备20连接到HMD 40的诸如HDMI 端口和USB端口的接口。输入-输出I/F 43根据来自控制单元41的指令将各种信号输出到控制设备20。此外,输入-输出I/F 43接收从控制设备20输出的信号,并且将接收到的信号输出到控制单元41。
第二显示单元44是诸如液晶显示器和有机EL显示器的显示设备,并且显示由从控制设备20输出的视频信号表示的视频。
第二声音输出单元45是例如通过附着在用户的耳朵而使用的诸如耳机和听筒的声音输出设备,并且输出由从控制设备20输出的声音信号表示的声音。
传感器单元46例如是诸如红外传感器和接触传感器的传感器,并且检测用户是否穿戴HMD 40。例如,假设红外传感器被设置在HMD 40中的位置,该位置与安装有HMD的状态下的用户的面部相对(即,与第二显示单元44 相邻的位置)。在这种情况下,红外传感器用红外光照射物体,并且通过检测获取的反射光来测量与物体的距离。通过利用该测量,红外传感器检测用户的面部是否位于与红外传感器或第二显示单元44相对的位置。基于该操作,红外传感器检测用户是否穿戴HMD 40。代替红外传感器,也可以设置诸如能够检测用户的面部的电荷耦合器件(CCD)图像传感器的被称为图像拾取元件的设备。此外,当接触传感器设置在HMD 40和用户在将HMD 40安装到用户的状态下彼此接触的位置处时,接触传感器可以基于接触传感器是否检测到接触来检测用户是否穿戴HMD 40。根据第一实施例的传感器单元46 可以检测用户的视野是否被HMD阻挡。
视频显示***的使用场景
将描述根据第一实施例的视频显示***1的使用场景。
图5A和5B是描绘根据第一实施例的视频显示***1的使用场景的示例的视图。图5A和5B描绘了一个用户(在这种情况下,用户A)使用视频显示***1玩游戏的状态。通过穿戴或卸下HMD 40,用户A可以在对于游戏的执行使用显示设备30和对于游戏的执行使用HMD40之间自由切换。
图5A描绘了用户A正在用显示设备30执行游戏的状态。在显示设备 30的第一显示单元34上显示游戏视频,并且从显示设备30的第一声音输出单元35输出声音。然后,HMD 40处于从用户A上卸下的状态。当用户A 在如图5A所示的视频和声音被输出到显示设备30的状态下穿戴HMD 40时,那么游戏的视频和声音被输出到HMD 40,并且用户用HMD 40执行游戏的剩余部分。此时,如图5B所示,视频不显示在显示设备30的第一显示单元 34上,并且声音不从显示设备30的第一声音输出单元35上输出。
当用户A在如图5B所示的用户A通过穿戴HMD 40执行游戏的状态下卸下HMD 40时,视频和声音不被输出到HMD 40。此时,如图5A所示,游戏视频变为正在显示设备30的第一显示单元34上显示的状态,并且声音变为正从显示设备30的第一声音输出单元35在输出的状态。因此,用户可以通过使用显示设备30执行游戏的剩余部分。
由于HMD 40的特性,当穿戴HMD 40时,视野被阻挡,并且用户不能看到外面。也就是说,从外部显示设备30输出的视频和声音对于用户使用 HMD 40执行游戏来说变得不需要。特别地,从显示设备30输出的声音对于用户使用HMD 40执行游戏变为噪音。噪音妨碍了HMD 40的使用,并且希望停止噪声。此外,通过停止来自显示设备30的不需要的视频输出和声音输出,具有可以抑制功率消耗的效果。因此,在第一实施例中,当用户穿戴HMD 40时,限制从显示设备30输出的声音和视频。当用户卸下HMD 40时,恢复来自显示设备30的声音输出和视频输出。以这种方式,根据HMD 40的穿戴和卸下来控制来自显示设备30的输出。
功能框图
下面将详细描述根据第一实施例由视频显示***1实现的功能。
图6是描绘根据第一实施例的由控制设备20实现的主要功能的示例的功能框图。如图6所示,根据第一实施例的控制设备20功能性地配置为包括状态识别单元26和输出控制单元27。这些功能通过控制单元21执行存储在存储单元22中的程序实现。该程序可以通过存储在诸如光盘的各种计算机可读信息存储介质中来提供,或者可以经由诸如因特网的通信网络提供给控制设备20。
状态识别单元26获取HMD 40的传感器单元46的检测结果,并且根据检测结果识别HMD 40的状态。在这种情况下,HMD 40指示HMD 40安装在用户上的状态或HMD 40从用户上卸下的状态。具体地,当传感器单元46 检测到用户时,传感器单元46识别出HMD 40处于安装在用户上的状态。另一方面,当传感器单元46未检测到用户时,传感器单元46识别出HMD40 处于从用户上卸下的状态。HMD 40可以指示用户的视野被HMD阻挡的状态,或者用户可以看到HMD的外部的状态。
状态识别单元26可以基于照相机单元50捕获的运动图像来识别HMD 40的状态。在这种情况下,照相机单元50捕获用户的运动图像,并且状态识别单元26在每个预定时间从娱乐设备10获取由照相机单元50捕获的运动图像。然后,状态识别单元26分析所获取的运动图像,并识别HMD 40是处于安装在用户上的状态还是HMD 40处于从用户卸下的状态。状态识别单元 26可以根据由娱乐设备10执行的视频分析的结果来识别HMD 40的状态。
输出控制单元27根据通过状态识别单元26的识别结果,控制从显示设备30的视频输出和/或从显示设备30的声音输出。此外,输出控制单元27 根据通过状态识别单元26的识别结果,控制从HMD 40的视频输出和/或从 HMD 40的声音输出。
具体地,当状态识别单元26已经识别出HMD 40处于安装在用户上的状态时,输出控制单元27限制从显示设备30的第一声音输出单元35的声音输出。具体地,当输出控制单元27停止向显示设备30输出声音信号时,不输出来自显示设备30的第一声音输出单元35的声音。此外,当输出控制单元27将控制信号输出到显示设备30用于控制音量时,可以控制从显示设备 30的第一声音输出单元35输出的声音的音量。例如,当控制设备20向显示设备30输出用于使音量静音的控制信号时,则从显示设备30的第一声音输出单元35输出的声音被静音。控制设备20可以向显示设备30输出用于减小音量的控制信号,以减小从显示设备30的第一声音输出单元35输出的声音的音量。另一方面,当状态识别单元26已经识别出HMD40处于安装在用户上的状态时,输出控制单元27开始到HMD 40的视频输出和/或从HMD 40的声音输出。也就是说,输出控制单元27将视频信号和/或声音信号输出到 HMD 40。
利用上述布置,可以停止或减少当用户穿戴HMD时变得不需要的从显示设备30声音输出。用户可以通过减少来自外部的噪音来专注于HMD 40的使用。停止或减少声音输出也具有减少不需要的功率消耗的效果。
接下来,当状态识别单元26已经识别出HMD 40处于从用户上卸下的状态时,输出控制单元27取消从显示设备30的第一声音输出单元35的声音输出的限制。具体地,当输出控制单元27已经停止向显示设备30输出声音信号时,输出控制单元27开始向显示设备30输出声音信号。此外,当输出控制单元27正在向显示设备30输出用于静音或减小音量的控制信号时,输出控制单元27向显示设备30输出用于取消静音或减小音量的控制信号。利用这种布置,恢复从显示设备30的第一声音输出单元35的声音输出。另一方面,当状态识别单元26已经识别出HMD 40处于从用户上卸下的状态时,输出控制单元27限制从HMD 40的视频输出和/或从HMD 40的声音输出。即,输出控制单元27停止向HMD 40输出视频信号和/或声音信号。
当状态识别单元26已经识别出HMD 40处于安装在用户上的状态时,输出控制单元27可以限制从显示设备30的第一显示单元34的视频输出。具体地,通过布置使得输出控制单元27停止向显示设备30输出视频信号,视频不输出到显示设备30的第一显示单元34。利用这种布置,可以停止当用户穿戴HMD 40时变得不需要的从显示设备30的视频输出。结果,可以减少不需要的功率消耗。
在这种情况下,当状态识别单元26已经识别出HMD 40处于从用户上卸下的状态时,输出控制单元27取消从显示设备30的第一显示单元34的视频输出的限制。具体地,当输出控制单元27停止向显示设备30输出视频信号时,输出控制单元27开始向显示设备30输出视频信号。利用这种布置,恢复从显示设备30的第一显示单元34的视频输出。
当状态识别单元26已经识别出HMD 40处于安装在用户上的状态时,输出控制单元27可以限制从第一显示单元34的视频输出和从第一声音输出单元35的声音输出。具体地,通过布置使得输出控制单元27停止向显示设备30输出视频信号和声音信号,视频和声音都不从显示设备30输出。此外,输出控制单元27可以输出用于操作显示设备30的供电单元36的控制信号,以控制对显示设备30的电力供应。例如,当控制设备20向显示设备30输出用于关闭对显示设备30的电力供应的控制信号时,供电单元36停止对显示设备30的电力供应。结果,停止从第一显示单元34的视频输出和从第一声音输出单元35的声音输出。控制设备20可以向显示设备30输出用于将显示设备30设置为睡眠状态的控制信号。在这种情况下,可以布置使得当供电单元36停止对显示设备30的一些功能的电力供应时,停止从第一显示单元34 的视频输出和从第一声音输出单元35的声音输出。
在这种情况下,当状态识别单元26已经识别出HMD 40处于从用户上卸下的状态时,输出控制单元27取消对从显示单元30的第一显示单元34的视频输出和从第一声音输出单元35的声音输出。具体地,通过布置使得输出控制单元27向显示设备30输出用于打开对显示设备30的电力供应的控制信号,供电单元36开始向显示设备30供应电力,使得恢复从第一显示单元34 的视频输出和从第一声音输出单元35的声音输出。输出控制单元27可以向显示设备30输出用于取消显示设备30的睡眠状态的控制信号。在这种情况下,可以布置使得当供电单元36开始向第一显示单元34和第一声音输出单元35供应电力时,恢复从第一显示单元34的视频输出和从第一声音输出单元35的声音输出。
利用上述布置,通过停止当用户穿戴HMD 40时变得不需要的对显示设备30电力供应,停止外部视频输出和声音输出。结果,用户可以专注于HMD 的使用,并且可以减少不需要的功率消耗。
可以布置使得当输出控制单元27向显示设备30输出用于操作显示设备 30的屏幕设置的控制信号时,控制从显示设备30的第一显示单元34的视频输出。例如,当控制设备20向显示设备30输出用于降低屏幕的亮度或关闭背光的控制信号时,可以降低从显示设备30的第一输出单元的视频输出,并且减少功率消耗。
输出控制过程
将参照图7的流程图描述由根据第一实施例的控制设备20执行的当用户穿戴HMD40时的显示设备40的输出控制过程的示例。
首先,当用户A在如图5A所示的游戏的视频和声音被输出到显示设备 30的状态下穿戴HMD 40时,将由HMD 40的传感器单元46检测到的检测信号发送到控制设备20。
控制设备20的状态识别单元26获取从HMD 40发送的检测信号(S101),并且基于获取的检测信号识别HMD 40的状态(S102)。在这种情况下,控制设备20的状态识别单元26基于指示用户的检测的检测信号识别HMD 40处于安装在用户上的状态。
由于在步骤S102中控制设备20的状态识别单元26已经识别出HMD 40 处于安装在用户上的状态,所以控制设备20的输出控制单元27开始从HMD 40的输出(S103)。控制设备20的输出控制单元27限制从显示设备30的输出(S104),并结束过程。在这种情况下,如图5B所示,用户穿戴HMD 40,并且显示设备30变成处于不输出游戏的视频和声音的状态。
接下来,将参照图8的流程图描述由根据第一实施例的控制设备20执行的当用户卸下HMD 40时的显示设备30的输出控制过程的示例。
首先,当用户A在如图5B所示的游戏的视频和声音不被输出到显示设备30的状态下卸下HMD 40时,将由HMD 40的传感器单元46检测到的检测信号发送到控制设备20。
控制设备20的状态识别单元26获取从HMD 40发送的检测信号(S201)。控制设备20的状态识别单元26基于获取的检测信号识别HMD 40的状态 (S202)。在这种情况下,控制设备20的状态识别单元26基于指示用户的检测的检测信号识别HMD 40处于从用户上卸下的状态。
由于在步骤S202中控制设备20的状态识别单元26已经识别出HMD 40 处于从用户上卸下的状态,所以控制设备20的输出控制单元27开始从显示设备30的输出(S203)。控制设备20的输出控制单元27限制从HMD 40的输出(S204),并结束过程。在这种情况下,如图5A所示,用户卸下HMD 40,并且显示设备30变成处于输出游戏的视频和声音的状态。
第二实施例
在下文中,将描述作为本发明的另一个实施例的第二实施例。
考虑到穿戴HMD 40的用户由于被阻挡的视野而不能看到外部的特征,考虑利用将穿戴HMD 40的用户不应该观看或收听的视频和声音输出到显示设备30。在第一实施例中,当用户穿戴HMD 40时,从显示设备30的视频和声音的输出受到限制。然而,在第二实施例中,当用户穿戴HMD 40时,将用于与穿戴HMD 40的用户不同的用户的视频和声音输出到显示设备30。此外,由于没有穿戴HMD 40的用户不能观看或收听输出到HMD 40的视频和声音,所以可以将仅用于穿戴HMD 40的用户的视频和声音输出到HMD 40。
图9A和9B是描绘根据第二实施例的视频显示***1的使用场景的示例的视图。图9A和图9B描绘了多个用户(在这种情况下,用户A和用户B) 通过使用视频显示***1一起执行游戏的状态。图9A描绘了用户A和用户 B通过使用显示设备30一起执行游戏的状态。游戏视频被显示在显示设备30 的第一显示单元34上,并且游戏声音从显示设备30的第一声音输出单元35 输出。HMD 40处于未安装在任何用户的状态。当用户A在如图9A所示从显示设备30输出视频和声音的状态下穿戴HMD 40时,用于用户A的视频和声音被输出到HMD 40。在这种情况下,如图9B所示,用于用户B的视频和声音被输出到显示设备30。例如,作为用户B的视频的用户目标视频300 被添加到第一显示单元34。
当用户A在如图9B所示的用户A穿戴HMD 40的状态下卸下HMD 40 时,视频和声音不被输出到HMD 40。如图9A所示,游戏的视频和声音被输出到显示设备30,但是,在这种情况下,在图9B中的第一显示单元34上显示的用户目标视频300不被显示。
下面将详细描述根据第二实施例的由视频显示***1实现的功能。
首先,除了HMD 40的传感器单元46以及控制设备20的状态识别单元 26和输出控制单元27具有不同的功能之外,根据第二实施例的视频显示***1类似于根据第一实施例的视频显示***1。因此,这里将省略重复的描述。
根据第二实施例的HMD 40的传感器单元46包括诸如CCD图像传感器、互补金属氧化物半导体(CMOS)图像传感器和红外图像传感器的图像拾取元件。当HMD 40被安装在用户上时,图像拾取元件通过捕获用户的面部图像来检测用户。可以布置使得红外传感器或接触传感器检测用户,并且CCD 图像传感器或CMOS图像传感器捕获用户的面部图像以识别用户。
根据第二实施例的控制设备20的状态识别单元26根据HMD 40的传感器单元46的检测结果,识别HMD 40的状态并识别穿戴HMD 40的用户。具体地,状态识别单元26获取由传感器单元46捕获的用户的面部图像,并且通过使用已知的面部识别技术或虹膜识别技术来提取特征信息。然后,状态识别单元26通过将提取的特征信息与预先注册的注册用户的特征信息进行对照来识别用户。利用这种布置,可以将HMD 40识别为安装在用户上,并且可以识别穿戴HMD 40的用户。另外,识别穿戴HMD 40的用户的方法不限于上述示例。例如,可以使用从通过HMD 40中提供的麦克风单元收集的由用户生成的语音通过已知的语音识别提取的特征信息来识别用户。可替代地,可以通过使穿戴HMD 40的用户执行登录操作来识别用户。可以使用由照相机单元50捕获的用户图像来识别用户。
根据第二实施例的输出控制单元27根据由状态识别单元26的识别结果,控制从显示设备30的视频输出和/或从显示设备30的声音输出。此外,根据第二实施例的输出控制单元27根据由状态识别单元26的识别结果,控制从 HMD 40的视频输出和/或从HMD 40的声音输出。
具体地,当HMD 40被识别为处于安装在用户上的状态时,根据第二实施例的输出控制单元27使HMD 40输出用于识别的用户的视频和/或声音。例如,输出控制单元27使HMD40输出与识别的用户的用户标识符相关联的从娱乐设备10发送的聊天声音或消息。在这种情况下,输出控制单元27可以将视频和/或声音输出到显示设备30,但是限制仅用于穿戴HMD 40的用户的视频和/或声音的输出。
当状态识别单元26已经识别出HMD 40处于从用户上卸下的状态时,输出控制单元27限制从HMD 40的视频输出和声音输出,并且将所有的视频和/或声音输出到显示设备30。
如上所述,通过识别穿戴HMD 40的用户并且通过将仅用于识别的用户的视频和声音输出到HMD 40,可以在其他用户不知道的情况下将视频和声音提供给识别的用户。
此外,当状态识别单元26已经识别出HMD 40处于安装在用户上的状态时,根据第二实施例的输出控制单元27使显示设备30输出用于与识别的用户不同的用户的视频和/或声音。例如,输出控制单元27可以使显示设备 30输出与所识别的用户的用户标识符不相关联的视频和/或声音。可替代地,输出控制单元27可以使用照相机单元50等来识别没有穿戴HMD 40的其他用户,并且使显示设备30输出与仅识别的其他用户的用户标识符相关联的视频和/或声音。
当状态识别单元26已经识别出HMD 40处于从用户上卸下的状态时,输出控制单元27限制向显示设备30输出用于不同于穿戴HMD 40的用户的用户的视频和/或声音。例如,输出控制单元27限制向显示设备30输出与所识别的用户的用户标识符不相关联的视频和/或声音。可替代地,输出控制单元27限制向显示设备30输出与仅没有穿戴HMD 40的其他用户的用户标识符相关联的视频和/或声音。
如上所述,通过识别穿戴HMD 40的用户,可以从显示设备30输出在用户穿戴HMD40的同时穿戴HMD 40的用户不应该观看或收听的视频和声音。
接下来,将参照图10的流程图描述根据第二实施例的由控制设备20执行的当用户卸下HMD 40时的显示设备30的输出控制过程的示例。
首先,当用户A在如图9A所示的用户和用户B一起使用显示设备30 的状态下穿戴HMD 40时,由HMD 40的传感器单元46检测到的检测信号和由传感器单元46捕获的用户的图像被发送到控制设备20。
控制设备20的状态识别单元26获取从HMD 40发送的用户的检测信号和面部图像(S301)。然后,控制设备20的状态识别单元26基于所获取的检测信号来识别HMD 40的状态(S302),并且基于所获取的用户的面部图像来识别用户(S303)。在这种情况下,控制设备20的状态识别单元26基于指示用户的检测的检测信号来识别HMD 40处于安装在用户上的状态。控制设备 20的状态识别单元26通过将预先注册的用户的特征信息与从所获取的用户的面部图像中提取的特征信息进行对照来识别穿戴HMD 40的用户(在这种情况下为用户A)。
控制设备20的输出控制单元27将与由控制设备20的状态识别单元26 在步骤S303中识别的用户的用户标识符相关联的视频和声音输出到HMD 40 (S304)。随后,控制设备20的输出控制单元27将与由控制设备20的状态识别单元26在步骤S303中识别的用户的用户标识符不相关联的视频和声音输出到显示设备30(S305)。然后,过程结束。
在这种情况下,如图9B所示,例如,用户A穿戴HMD 40,并且没有穿戴HMD 40的用户B变成处于使用显示设备30的状态。在这种情况下,如图9A所示,显示设备30显示在用户A和用户B不在一起使用显示设备 30(在这种情况下,用户目标视频300)的状态下未显示的视频。也就是说,当用户A穿戴HMD 40时,在显示设备30的第一显示单元34上显示用于用户B而不是用于用户A观看的用户目标视频300。
接下来,将参照图11的流程图来描述根据第二实施例的由控制设备20 执行的当用户卸下HMD 40时的显示设备30的输出控制过程的示例。
首先,当用户A在如图9B所示用户A穿戴HMD 40并且没有穿戴HMD 40的用户B正在使用的显示设备30的状态下卸下HMD 40时,将由HMD 40 的传感器单元46检测的检测信号发送到控制设备20。
控制设备20的状态识别单元26获取从HMD 40发送的检测信号(S401)。然后,控制设备20的状态识别单元26从所获取的检测信号中识别HMD 40 的状态(S402)。在这种情况下,控制设备20的状态识别单元26基于指示未检测到用户的检测信号来识别HMD 40处于从用户卸下的状态。
由于控制设备20的状态识别单元26已经在步骤S402中识别出HMD 40 处于从用户卸下的状态,所以控制设备20的输出控制单元27向显示设备30 输出与所有用户(在这种情况下,用户A和用户B)相关联的视频和声音 (S403)。控制设备20的输出控制单元27限制从HMD 40的输出(S404),并且该过程结束。在这种情况下,如图9A所示,用户A和用户B变成通过使用显示设备30一起执行游戏的状态。在显示设备30的第一显示单元34上显示游戏视频,但是不显示用户目标视频300。
本发明不限于上述实施例。
例如,状态识别单元26可以被包括在娱乐设备10中。在这种情况下,由HMD 40的传感器单元46检测的检测信号可以经由控制设备20被发送到娱乐设备10。可以根据由娱乐设备10接收到的检测信号来识别HMD 40的状态。然后,可以将指示由娱乐设备10识别的HMD40的状态的信号发送到控制设备20。控制设备20可以根据HMD 40的状态来控制从显示设备30和 HMD 40的输出。
此外,状态识别单元26可以被包括在HMD 40中。在这种情况下,HMD 40可以根据由传感器单元46检测的检测信号来识别HMD 40的状态。然后,可以将指示由HMD 40识别的HMD40的状态的信号发送到控制设备20。控制设备20可以根据HMD 40的状态来控制从显示设备30和HMD 40的输出。
在上述实施例中,描述了控制设备20和娱乐设备10是分开体的示例。可替代地,控制设备20和娱乐设备10可以是整体设备。例如,可以布置使得当控制设备20包括在娱乐设备10中时,由HMD 40的传感器单元46检测到的检测信号被发送到娱乐设备10,并且娱乐设备10根据接收到的检测信号识别HMD 40的状态。然后,娱乐设备10可以根据HMD 40的状态来控制来自显示设备30和HMD 40的输出。
在上述实施例中,尽管描述了在视频显示***中包括一个HMD 40的示例,但是可以包括多个HMD 40。在这种情况下,假定控制设备20可连接到多个HMD 40。
Claims (4)
1.一种控制设备,包括:
识别单元,配置为识别头戴式显示器的穿戴或卸下;
用户识别单元,配置为识别穿戴所述头戴式显示器的用户;以及
输出控制单元,配置为根据穿戴或卸下控制来自所述头戴式显示器的声音输出和视频输出的至少一个输出以及来自与所述头戴式显示器分开提供的显示设备的声音输出和视频输出的至少一个输出,其中
所述输出控制单元使所述头戴式显示器为识别的用户输出声音输出和视频输出的至少一个,
所述输出控制单元使与所述头戴式显示器分开提供的所述显示设备为不同于识别的用户的用户输出所述声音输出和所述视频输出的至少一个,以及
用于识别的用户的输出的至少一个的内容与用于不同于识别的用户的用户的输出的至少一个的内容不同。
2.根据权利要求1所述的控制设备,其中所述输出控制单元根据所述头戴式显示器的卸下,限制为不同于识别的用户的用户输出的所述声音输出和所述视频输出的至少一个。
3.一种控制方法,包括:
识别头戴式显示器的穿戴或卸下的识别步骤;
识别穿戴所述头戴式显示器的用户的用户识别步骤;以及
根据穿戴或卸下控制来自所述头戴式显示器的声音输出和视频输出的至少一个输出以及来自与所述头戴式显示器分开提供的显示设备的声音输出和视频输出的至少一个输出的输出控制步骤,其中
所述输出控制步骤使所述头戴式显示器为识别的用户输出声音输出和视频输出的至少一个,
输出控制步骤使与所述头戴式显示器分开提供的所述显示设备为不同于识别的用户的用户输出所述声音输出和所述视频输出的至少一个,以及
用于识别的用户的输出的至少一个的内容与用于不同于识别的用户的用户的输出的至少一个的内容不同。
4.根据权利要求3所述的控制方法,其中所述输出控制步骤根据所述头戴式显示器的卸下,限制为不同于识别的用户的用户输出的所述声音输出和所述视频输出的至少一个。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015-119431 | 2015-06-12 | ||
JP2015119431 | 2015-06-12 | ||
PCT/JP2016/066658 WO2016199699A1 (ja) | 2015-06-12 | 2016-06-03 | 制御装置、制御方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107710747A CN107710747A (zh) | 2018-02-16 |
CN107710747B true CN107710747B (zh) | 2020-03-27 |
Family
ID=57503730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680032836.7A Active CN107710747B (zh) | 2015-06-12 | 2016-06-03 | 控制设备、控制方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10527848B2 (zh) |
EP (1) | EP3310042B1 (zh) |
JP (1) | JP6356915B2 (zh) |
CN (1) | CN107710747B (zh) |
WO (1) | WO2016199699A1 (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3258876B1 (en) * | 2015-02-20 | 2023-10-18 | Covidien LP | Operating room and surgical site awareness |
US11861255B1 (en) * | 2017-06-16 | 2024-01-02 | Apple Inc. | Wearable device for facilitating enhanced interaction |
JP6738308B2 (ja) * | 2017-08-01 | 2020-08-12 | 株式会社コロプラ | 情報処理方法、プログラム、仮想空間配信システム及び装置 |
KR101960456B1 (ko) * | 2017-08-04 | 2019-03-20 | 주식회사 판타포 | Vr기기 중앙 관리 방법 및 시스템 |
JP7252398B2 (ja) * | 2018-07-04 | 2023-04-04 | マクセル株式会社 | 仮想オブジェクト操作方法およびヘッドマウントディスプレイ |
JP2020027192A (ja) | 2018-08-13 | 2020-02-20 | セイコーエプソン株式会社 | 頭部装着表示装置、および表示システム |
US11935201B2 (en) * | 2022-04-28 | 2024-03-19 | Dell Products Lp | Method and apparatus for using physical devices in extended reality environments |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009171505A (ja) * | 2008-01-21 | 2009-07-30 | Nikon Corp | ヘッドマウントディスプレイ |
CN103064187A (zh) * | 2011-10-24 | 2013-04-24 | 索尼公司 | 头戴式显示器及用于控制头戴式显示器的方法 |
CN103430534A (zh) * | 2011-03-06 | 2013-12-04 | 索尼公司 | 头戴式显示器 |
JP2013258555A (ja) * | 2012-06-12 | 2013-12-26 | Sony Computer Entertainment Inc | ヘッドマウントディスプレイ、生体情報管理装置、および生体情報表示方法 |
WO2014103193A1 (ja) * | 2012-12-27 | 2014-07-03 | ソニー株式会社 | 内視鏡下手術支援システム及び画像制御方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6426740B1 (en) * | 1997-08-27 | 2002-07-30 | Canon Kabushiki Kaisha | Visual-axis entry transmission apparatus and method therefor |
JP3880294B2 (ja) * | 2000-07-19 | 2007-02-14 | キヤノン株式会社 | 頭部装着機構及びそれを用いた頭部装着装置 |
CN101827103B (zh) * | 2004-03-10 | 2012-07-04 | 高通股份有限公司 | 具有改进链路同步的高数据速率接口 |
US8745494B2 (en) * | 2009-05-27 | 2014-06-03 | Zambala Lllp | System and method for control of a simulated object that is associated with a physical location in the real world environment |
KR20130136566A (ko) * | 2011-03-29 | 2013-12-12 | 퀄컴 인코포레이티드 | 로컬 멀티-사용자 협업을 위한 모듈식 모바일 접속된 피코 프로젝터들 |
JP5906692B2 (ja) * | 2011-11-29 | 2016-04-20 | セイコーエプソン株式会社 | 表示装置 |
JP2014092940A (ja) * | 2012-11-02 | 2014-05-19 | Sony Corp | 画像表示装置及び画像表示方法、並びにコンピューター・プログラム |
US10019057B2 (en) * | 2013-06-07 | 2018-07-10 | Sony Interactive Entertainment Inc. | Switching mode of operation in a head mounted display |
GB201310365D0 (en) | 2013-06-11 | 2013-07-24 | Sony Comp Entertainment Europe | Head-mountable apparatus and systems |
KR20150041453A (ko) * | 2013-10-08 | 2015-04-16 | 엘지전자 주식회사 | 안경형 영상표시장치 및 그것의 제어방법 |
JP6465030B2 (ja) * | 2013-11-26 | 2019-02-06 | ソニー株式会社 | ヘッドマウントディスプレイ |
JP6381061B2 (ja) * | 2014-07-28 | 2018-08-29 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | Bluetooth(登録商標)通信方法およびデバイス |
JP5904246B2 (ja) | 2014-09-24 | 2016-04-13 | ソニー株式会社 | 頭部装着型表示装置、表示方法 |
KR102167719B1 (ko) * | 2014-12-08 | 2020-10-19 | 삼성전자주식회사 | 언어 모델 학습 방법 및 장치, 음성 인식 방법 및 장치 |
-
2016
- 2016-06-03 JP JP2017523617A patent/JP6356915B2/ja active Active
- 2016-06-03 WO PCT/JP2016/066658 patent/WO2016199699A1/ja active Application Filing
- 2016-06-03 CN CN201680032836.7A patent/CN107710747B/zh active Active
- 2016-06-03 EP EP16807406.0A patent/EP3310042B1/en active Active
- 2016-06-03 US US15/570,869 patent/US10527848B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009171505A (ja) * | 2008-01-21 | 2009-07-30 | Nikon Corp | ヘッドマウントディスプレイ |
CN103430534A (zh) * | 2011-03-06 | 2013-12-04 | 索尼公司 | 头戴式显示器 |
CN103064187A (zh) * | 2011-10-24 | 2013-04-24 | 索尼公司 | 头戴式显示器及用于控制头戴式显示器的方法 |
JP2013258555A (ja) * | 2012-06-12 | 2013-12-26 | Sony Computer Entertainment Inc | ヘッドマウントディスプレイ、生体情報管理装置、および生体情報表示方法 |
WO2014103193A1 (ja) * | 2012-12-27 | 2014-07-03 | ソニー株式会社 | 内視鏡下手術支援システム及び画像制御方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107710747A (zh) | 2018-02-16 |
JPWO2016199699A1 (ja) | 2017-12-14 |
EP3310042B1 (en) | 2021-12-15 |
EP3310042A4 (en) | 2019-02-20 |
US10527848B2 (en) | 2020-01-07 |
EP3310042A1 (en) | 2018-04-18 |
US20180164587A1 (en) | 2018-06-14 |
WO2016199699A1 (ja) | 2016-12-15 |
JP6356915B2 (ja) | 2018-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107710747B (zh) | 控制设备、控制方法 | |
CN108683798B (zh) | 一种声音输出控制方法及移动终端 | |
US10931805B2 (en) | Method and apparatus for controlling application program, and electronic device | |
US8774592B2 (en) | Media reproduction for audio visual entertainment | |
EP2990943B1 (en) | Intelligent terminal device control method and system | |
US9507420B2 (en) | System and method for providing haptic feedback to assist in capturing images | |
US9851779B2 (en) | Method and apparatus for controlling sleep mode using a low power processor in portable terminal | |
US20220343919A1 (en) | Voice-Controlled Split-Screen Display Method and Electronic Device | |
WO2014142600A2 (en) | Display control method and apparatus | |
US20110274405A1 (en) | Media recording for audio visual entertainment | |
WO2019107885A1 (en) | Electronic device operating in associated state with external audio device based on biometric information and method therefor | |
KR101512918B1 (ko) | 미디어 검출에 기초한 시스템 타임아웃 리셋 | |
WO2011125905A1 (ja) | テレビ受信機の動作モード自動設定装置、動作モード自動設定装置を備えたテレビ受信機、動作モード自動設定方法 | |
CN109275129B (zh) | 通信处理方法、装置、电子设备及存储介质 | |
US9516405B2 (en) | Multimedia playing system and sound channel control method thereof | |
US20110206353A1 (en) | Televison apparatus | |
CN111510785B (zh) | 视频播放的控制方法、装置、终端和计算机可读存储介质 | |
WO2017022769A1 (ja) | ヘッドマウントディスプレイ、表示制御方法及びプログラム | |
WO2021172941A1 (ko) | 영상 스트리밍 방법 및 이를 지원하는 전자 장치 | |
JP4734855B2 (ja) | 情報処理装置 | |
US20090040327A1 (en) | Image-Taking Device | |
KR20150133466A (ko) | 이동 단말기 및 그 제어 방법 | |
US20230408308A1 (en) | Wearable device and control method thereof | |
GB2583822A (en) | Head mountable imaging apparatus and system for assisting a user with reduced vision | |
CN118250370A (zh) | 用于标识内容呈现伴随设备端口的电子设备和对应方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |