CN106067833A - 移动终端及其控制方法 - Google Patents

移动终端及其控制方法 Download PDF

Info

Publication number
CN106067833A
CN106067833A CN201610011663.2A CN201610011663A CN106067833A CN 106067833 A CN106067833 A CN 106067833A CN 201610011663 A CN201610011663 A CN 201610011663A CN 106067833 A CN106067833 A CN 106067833A
Authority
CN
China
Prior art keywords
image
mobile terminal
touch
region
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610011663.2A
Other languages
English (en)
Other versions
CN106067833B (zh
Inventor
辛宇炯
沈弘兆
朴美贤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of CN106067833A publication Critical patent/CN106067833A/zh
Application granted granted Critical
Publication of CN106067833B publication Critical patent/CN106067833B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3827Portable transceivers
    • H04B1/385Transceivers carried on the body, e.g. in helmets
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72439User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

本发明提供一种移动终端及其控制方法。眼镜式移动终端包括:输出单元,该输出单元被配置成输出信息;相机;无线通信单元,该无线通信单元被配置成与外部终端无线地通信;以及控制器,该控制器被配置成经由无线通信单元将通过相机接收到的第一图像发送到外部终端,从外部终端接收指示被显示在外部终端上的第一图像的触摸输入是在眼镜式移动终端的相对应的查看范围的外部的触摸信息,并且经由输出单元显示指示被显示在外部终端上的第一图像的触摸输入是在眼镜式移动终端的查看区域的外部的指示符。

Description

移动终端及其控制方法
技术领域
本发明涉及一种移动终端,并且更加特别地,涉及一种移动终端及其控制方法。尽管本发明适合于广范围的应用,但是其特别地适合于使用具有比用户的视角更宽的视角的相机共享拍摄的图像。
背景技术
终端通常能够被分类成移动/便携式终端或者固定终端。移动终端也能够被分类成手持终端或者车载终端。移动终端的功能是多样化的。例如,移动终端的功能包括数据和音频通信、经由相机的图片和视频捕获、语音记录、经由扬声器***播放音乐文件以及在显示单元上输出图像或者视频。一些终端执行电子游戏的功能或者多媒体播放器的功能。另外,移动终端能够接收提供诸如广播、视频以及电视节目的可视内容的多播信号。
随着终端的功能被多样化,终端以被装备有包括捕获图片或者视频、播放音乐或者视频文件、玩游戏、接收广播等的复杂功能的多媒体播放器的形式被实现。另外,也能够方便地携带眼镜式的可佩戴装置。特别地,眼镜式的可佩戴装置能够包括被配置成在用户的眼睛的相同方向中拍摄图像的相机。
此外,通过相机拍摄的图像能够包括通过当前佩戴眼镜式的可佩戴装置的用户看到的区域的图像。如果通过眼镜式的可佩戴装置拍摄的图像通过不同的终端被输出,则不同终端的用户能够具有与当前佩戴眼镜式的可佩戴装置的用户的相同的用户体验。
发明内容
因此,本发明的一个目的是为了提供一种移动终端及其控制方法,其在实质上避免由于现有技术的限制和缺点造成的一个或者多个问题。
本发明的另一目的是为了提供一种移动终端及其控制方法,通过其能够增强用户的便利。
本发明的又一目的是为了提供一种移动终端及其控制方法,通过其能够与不同的终端共享拍摄的图像。
本发明的另一目的是为了提供一种移动终端及其控制方法,通过其如果通过不同的终端选择在拍摄的图像上的指定点,则能够指示所选择的点。
为了实现这些目的和其它的优点并且根据本发明的用途,如在此具体化和广泛地描述的,本发明提供一种眼镜式移动终端,包括:输出单元,该输出单元被配置成输出信息;相机;无线通信单元,该无线通信单元被配置成与外部终端无线地通信;以及控制器,该控制器被配置成经由无线通信单元将通过相机接收到的第一图像发送到外部终端,从外部终端接收指示被显示在外部终端上的第一图像的触摸输入是在眼镜式移动终端的相对应的查看范围外的触摸信息,并且经由输出单元显示指示被显示在外部终端上的第一图像的触摸输入是在眼镜式移动终端的查看区域外的指示符。本发明也提供一种控制眼镜式移动终端的方法。
在另一方面中,本发明提供一种移动终端,该移动终端包括无线通信单元,该无线通信单元被配置成从眼镜式移动终端接收图像;显示单元,该显示单元被配置成显示从眼镜式移动终端接收到的图像;以及控制器,该控制器被配置成与不在眼镜式移动终端的查看范围内的图像的另一部分区别地显示与眼镜式移动终端的查看范围相对应的图像的部分。
根据在下文中给出的详细描述,本发明的适用性的进一步范围将变得更加显然。然而,仅通过说明给出指示本发明的优选实施例的特定示例和详细描述,因为根据本详细描述,对本领域的技术人员来说本发明的精神和范围内的各种变化和修改将变得更加显然。
附图说明
从以下给出的详细描述和伴随的附图将会更加全面地理解本发明,仅通过图示给出附图,并且因此附图不限制本发明,并且其中:
图1A是根据本公开的移动终端的框图;
图1B和图1C是从不同的方向看到的移动终端的一个示例的概念图;
图2是图示与本发明的一个实施例有关的眼镜式的移动终端200的一个示例的透视图;
图3是其上装载有头戴式显示器的眼镜式的移动终端的图;
图4是图示利用直板式移动终端作为眼镜式移动终端的一个示例的图;
图5是包括投射单元的移动终端的图;
图6是图示描述在人类视角和相机的视角之间的差的一个示例的图;
图7是图示通过显示单元输出拍摄的图像的一部分的一个示例的图;
图8是根据本发明的实施例的拍摄的图像共享方法的流程图;
图9是图示在拍摄的图像上可识别地显示查看区域的一个示例的图;
图10是图示在拍摄的图像上可识别地显示触摸位置的一个示例的图;
图11A至图11C是分别图示响应于通过平板装置接收到的触摸输入的类型改变通过眼镜装置的显示单元输出的信息的类型的示例的图;
图12是图示输出指示符的一个示例的图;
图13是图示以眼球的形状输出指示符的一个示例的图;
图14是图示以用户的面部的形状输出指示符的一个示例的图;
图15是图示响应于触摸输入的类型变化而显示的指示符的类型的一个示例的图;
图16是图示响应于触摸输入的位置变化而显示的指示符的类型的一个示例的图;
图17是图示输出指示触摸位置已经进入查看区域的内部的指示符的一个示例的图;
图18是图示输出指示用户拍摄不同的区域的指示符的一个示例的图;
图19是图示显示与包括触摸位置的指定区域相对应的图像的一个示例的图;
图20是图示通过眼镜装置输出通过平板装置捕获的拍摄的图像的一个示例的图;
图21是描述眼镜装置的输出示例的图;
图22是图示通过覆盖拍摄的图像输出捕获到的图像的一个示例的图;
图23是图示通过平板装置输出合成图像的一个示例的图;
图24是图示在拍摄的图像中固定地输出与指定空间相对应的图像的一个示例的图;
图25是图示响应于通过平板装置接收到的用户输入开始眼镜装置的拍摄的一个示例的图;
图26是图示如果对象重新进入查看区域则重启拍摄的一个示例的图;以及
图27是图示执行声音缩放的一个示例的图。
具体实施方式
参考附图,现在详细地给出在此公开的示例性实施例的描述。为了参考附图简要描述,相同的或者等效的组件可以被提供有相同的附图标记,并且其描述将不会被重复。通常,诸如“模块”和“单元”的后缀可以被用于指代元件或者组件。这样的后缀的使用在此旨在仅有助于说明书的描述,并且后缀本身旨在没有给予任何特定的意义或者功能。附图被用于帮助容易地理解各种技术特征并且应理解附图没有限制在此提出的实施例。正因如此,除了在附图中特别陈述的,本公开应被解释为还延伸到任何变更、等效物以及替代。
尽管在此可以使用术语第一、第二等以描述各种要素,这些要素不受这些术语的限制。这些术语通常仅被用于区分一个要素与另一要素。当要素被称为与另一要素“相连接”时,要素能够与另一要素直接地相连接或者也可以存在中间要素。相反地,当要素被称为“直接地与”另一要素“相连接”时,不存在中间要素。
单数表示可以包括复数表示,除非根据上下文其表示明确不同的意义。在此使用诸如“包括”或者“具有”的术语,并且应理解,它们旨在指示在本说明书中公开的数个组件、功能或者步骤的存在,并且也理解,可以同样地利用更多或者更少的组件、功能、或者步骤。
可以使用各种不同类型的终端实现在此提出的移动终端。这样的终端的示例包括蜂窝电话、智能电话、用户设备、膝上型计算机、数字广播终端、个人数字助理(PDA)、便携式多媒体播放器(PMP)、导航仪、便携式计算机(PC)、板式PC、平板PC、超级本、可佩戴设备(例如,智能手表、智能眼镜、头戴式显示器(HMD))等等。仅通过非限制性示例,将会参考特定类型的移动终端进行进一步的描述。然而,这样的教导等同地应用于其它类型的终端,诸如在上面注明的那些类型。另外,这样的教导也可以被应用于诸如数字TV、桌上型计算机等等的固定终端。
现在参考图1A-1C,其中图1A是根据本公开的实施例的移动终端的框图,并且图1B和图1C是从不同的方向看到的移动终端的一个示例的概念视图。示出移动终端100,该移动终端100具有诸如无线通信单元110、输入单元120、感测单元140、输出单元150、接口单元160、存储器170、控制器180、以及电源单元190的各种组件。不要求实现所有图示的组件,并且可以替换地实现更多或者更少的组件。
现在参考图1A,示出具有无线通信单元110的移动终端100,该无线通信单元110被配置有数个通常实现的组件。例如,无线通信单元110通常包括允许在移动终端100和无线通信***或者移动终端位于的网络之间的无线通信的一个或者多个组件。
无线通信单元110通常包括一个或者多个模块,其允许在移动终端100和无线通信***之间的诸如无线通信的通信、在移动终端100和另一移动终端之间的通信、在移动终端100与外部服务器之间通信。此外,无线通信单元110通常包括将移动终端100连接到一个或者多个网络的一个或者多个模块。为了有助于这样的通信,无线通信单元110包括广播接收模块111、移动通信模块112、无线互联网模块113、短程通信模块114、以及位置信息模块115中的一个或者多个。
输入单元120包括:用于获得图像或者视频的相机121;麦克风122,该麦克风122是一种用于输入音频信号的音频输入设备;以及用于允许用户输入信息的用户输入单元123(例如,触摸键、推动键、机械键、软键等等)。数据(例如,音频、视频、图像等等)通过输入单元120被获得并且可以根据设备参数、用户命令、以及其组合通过控制器180分析和处理。
通常使用被配置成感测移动终端的内部信息、移动终端的周围环境、用户信息等等的一个或者多个传感器实现感测单元140。例如,在图1A中,示出具有接近传感器141和照明传感器142的感测单元140。
必要时,感测单元140可以替换地或者附加地包括其它类型的传感器或者设备,诸如触摸传感器、加速度传感器、磁传感器、G传感器、陀螺仪传感器、运动传感器、RGB传感器、红外线(IR)传感器、手指扫描传感器、超声传感器、光学传感器(例如,相机121)、麦克风122、电池量表、环境传感器(例如,气压计、湿度计、温度计、辐射检测传感器、热传感器、以及气体传感器等)、以及化学传感器(例如,电子鼻、医疗传感器、生物传感器等等),仅列举一些。移动终端100可以被配置成利用从感测单元140获得的信息,并且特别地,从感测单元140的一个或者多个传感器及其组合获得的信息。
输出单元150通常被配置成输出诸如音频、视频、触觉输出等等的各种类型的信息。示出具有显示单元151、音频输出模块152、触觉模块153、以及光学输出模块154的输出单元150。显示单元151可以具有与触摸传感器的层间结构或者一体化结构以便于有助于触摸屏幕。触摸屏幕可以提供在移动终端100和用户之间的输出界面,并且用作提供在移动终端100和用户之间的输入界面的用户输入单元123。
接口单元160用作能够被耦合到移动终端100的各种类型的外部设备的接口。例如,接口单元160可以包括各种有线或者无线端口、外部电源端口、有线或者无线数据端口、存储卡端口、用于连接具有标识模块的设备的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。在一些情况下,响应于外部设备被连接到接口单元160,移动终端100可以执行与被连接的外部设备相关联的各种控制功能。
存储器170通常被实现为存储数据以支持移动终端100的各种功能或者特征。例如,存储器170可以被配置成存储在移动终端100中执行的应用程序、用于移动终端100的操作的数据或者指令等等。经由无线通信可以从外部服务器下载这些应用程序中的一些。在制造或者装运时其它的应用程序可以被安装在移动终端100内,其通常是用于移动终端100的基本功能(例如,接收呼叫、拨打电话、接收消息、发送消息等等)的情况。应用程序被存储在存储器170中、安装在移动终端100中,并且通过控制器180执行以执行用于移动终端100的操作(或者功能)是常见的。
除了与应用相程序关联的操作,控制器180通常还用作控制移动终端100的整体操作。控制器180能够通过处理通过在图1A中描述的各种组件输入或者输出的信号、数据、信息等等,或者激活被存储在存储器170中的应用程序来提供或者处理适合于用户的信息或者功能。作为一个示例,控制器180根据已经存储在存储器170中的应用程序的执行控制在图1A-1C中图示的一些组件或者所有组件。
电源单元190能够被配置成接收外部电力或者提供内部电力以便于供应对于操作被包括在移动终端100中的元件和组件所要求的适当的电力。电源单元190可以包括电池,并且电池可以被配置成被嵌入在终端主体中,或者被配置成从终端主体可拆卸。
继续参考图1A,现在将会更加详细地描述在本附图中描述的各种组件。关于无线通信单元110,广播接收模块111通常被配置成经由广播信道从外部广播管理实体接收广播信号和/或广播相关信息。广播信道可以包括卫星信道、陆地信道、或者两者。在一些实施例中,可以利用两个或者更多个广播接收模块111以有助于同时接收两个或者更多个广播信道,或者支持广播信道之间的切换。
移动通信模块112能够将无线信号传送到一个或者多个网络实体并且/或者从一个或者多个网络实体接收无线信号。网络实体的典型示例包括基站、外部移动终端、服务器等等。这样的网络实体形成移动通信网络的一部分,其根据用于移动通信(例如,全球移动通信***(GSM)、码分多址(CDMA)、CDMA2000(码分多址2000)、EV-DO(增强的语音数据优化或者仅增强的语音数据)、宽带CDMA(WCDMA)、高速下行链路分组接入(HSDPA)、HSUPA(高速上行链路分组接入)、长期演进(LTE)、LTE-A(高级长期演进)等等)的技术标准或者通信方法构造。经由移动通信模块112传送和/或接收到的无线信号的示例包括音频呼叫信号、视频(电话)呼叫信号、或者支持文本和多媒体消息的通信的各种格式的数据。
无线互联网模块113被配置成有助于无线互联网接入。此模块可以被内部地或者外部地耦合到移动终端100。无线互联网模块113可以根据无线互联网技术经由通信网络传送和/或接收无线信号。这样的无线互联网接入的示例包括无线LAN(WLAN)、无线保真(Wi-Fi)、Wi-Fi直连、数字生活网络联盟(DLNA)、无线宽带(Wibro)、全球微波接入互操作(Wimax)、高速下行链路分组接入(HSDPA)、HSUPA(高速上行链路分组接入)、长期演进(LTE)、LTE-A(高级长期演进)等等。无线互联网模块113可以根据一个或者多个这样的无线互联网技术,或者其它的互联网技术传送/接收数据。
在一些实施例中,当根据例如WiBro、HSDPA、HSUPA、GSM、CDMA、WCDMA、LTE、LTE-A等等作为移动通信网络的一部分实现无线互联网接入时,无线互联网模块113执行这样的无线互联网接入。正因如此,互联网模块113可以与移动通信模块112协作,或者用作移动通信模块112。
短程通信模块114被配置成有助于短程通信。适合于实现这样的短程通信的技术包括:蓝牙(BLUETOOTHTM)、射频识别(RFID)、红外数据协会(IrDA)、超宽带(UWB)、紫蜂(ZigBee)、近场通信(NFC)、无线保真(Wi-Fi)、Wi-Fi直连、无线USB(无线通用串行总线)等等。经由无线局域网,短程通信模块114通常支持在移动终端100和无线通信***之间的无线通信,在移动终端100和另一移动终端100之间的通信、或者在移动终端和另一移动终端100(或者外部服务器)位于的网络之间的通信。无线局域网的一个示例是无线个人局域网。
在一些实施例中,另一移动终端(可以类似于移动终端100配置)可以是可佩戴装置,例如,智能手表、智能眼镜或者头戴式显示器(HMD),其能够与移动终端100交换数据(或者以其它方式与移动终端100协作)。短程通信模块114可以感测或者识别可佩戴装置,并且允许在可佩戴装置和移动终端100之间的通信。另外,当感测到的可佩戴的设备是被授权与移动终端100通信的设备时,例如,控制器180可以使在移动终端100中处理的数据经由短程通信模块114传输到可佩戴的设备。因此,可佩戴的设备的用户可以在可佩戴的设备上使用在移动终端100中处理的数据。例如,当在移动终端100中接收到呼叫时,用户可以使用可佩戴的设备应答呼叫。而且,当在移动终端100中接收到消息时,用户能够使用可佩戴的设备检查接收到的消息。
位置信息模块115通常被配置成检测、计算、导出或者以其它方式识别移动终端的位置。作为示例,位置信息模块115包括全球定位***(GPS)模块、Wi-Fi模块、或者两者。如有必要,位置信息模块115可以与无线通信单元110中的任意其它模块替换地或者附加地发挥作用以获得与移动终端的位置有关的信息。
作为一个示例,当移动终端使用GPS模块时,可以使用从GPS卫星发送的信号获取移动终端的位置。作为另一示例,当移动终端使用Wi-Fi模块时,能够基于将无线信号传送到Wi-Fi模块或者从Wi-Fi模块接收无线信号的无线接入点(AP)有关的信息获取移动终端的位置。
输入单元120可以被配置成允许对移动终端120的各种类型的输入。这样的输入的示例包括音频、图像、视频、数据、以及用户输入。使用一个或者多个相机121经常获得图像和视频输入。这样的相机121可以处理在视频或者图像捕获模式下通过图像传感器获得的静止图片或者视频的图像帧。被处理的图像帧能够被显示在显示单元151上或者被存储在存储器170中。在一些情况下,相机121可以以矩阵配置排列以允许具有多个角度或者焦点的多个图像被输入到移动终端100。作为另一示例,相机121可以以立体排列定位以获取用于实现立体图像的左图像和右图像。
麦克风122通常被实现以允许对移动终端100的音频输入。根据在移动终端100中执行的功能能够以各种方式处理音频输入。如有必要,麦克风122可以包括各种噪声去除算法以去除在接收外部音频的过程中产生的不想要的噪声。
用户输入单元123是允许用户输入的组件。这样的用户输入可以使控制器180控制移动终端100的操作。用户输入单元123可以包括机械输入元件中的一个或者多个(例如,键、位于移动终端100的前和/或后表面或者侧表面上的按钮、薄膜开关、滚动轮、滚动开关等等)、或者触摸敏感的输入等等。作为一个示例,触摸敏感的输入可以是通过软件处理被显示在触摸屏上的虚拟键或者软键、或者在除了触摸屏之外的位置处位于移动终端上的触摸键。此外,虚拟键或者可视键可以以例如图形、文本、图标、视频、或者其组合的各种形状显示在触摸屏上。
感测单元140通常被配置成感测移动终端的内部信息、移动终端的周围环境、用户信息等等中的一个或者多个。控制器180通常与感测单元140协作以基于通过感测单元140提供的感测控制移动终端100的操作或执行与被安装在移动终端中的应用程序相关联的数据处理、功能或者操作。使用任何种类的传感器可以实现感测单元140,现在将会更加详细地描述其中的一些。
接近传感器141可以包括在没有机械接触的情况下通过使用磁场、红外线等等感测接近表面的对象、或者位于表面附近的对象的存在或者不存在的传感器。接近传感器141可以被布置在通过触摸屏覆盖的移动终端的内部区域处,或者触摸屏附近。例如,接近传感器141可以包括任何透射型光电传感器、直接反射型光电传感器、镜反射型光电传感器、高频振荡接近传感器、电容型接近传感器、磁型接近传感器、红外线接近传感器等等。当触摸屏被实现为电容型时,接近传感器141能够通过电磁场的变化来感测指示器相对于触摸屏的接近,其响应于具有导电性的对象的接近。在本示例中,触摸屏(触摸传感器)也可以被归类成接近传感器。
术语“接近触摸”将会在此被经常引用以表示其中指示器被定位为在没有接触触摸屏的情况下接近触摸屏的场景。术语“接触触摸”将会在此被经常引用以表示其中指示器物理接触触摸屏的场景。对于与指示器相对于触摸屏的接近触摸相对应的位置,这样的位置将会对应于其中指示器垂直于触摸屏的位置。接近传感器141可以感测接近触摸,和接近触摸模式(例如,距离、方向、速度、时间、位置、移动状态等等)。
通常,控制器180处理与通过接近传感器141感测到的接近触摸和接近触摸样式相对应的数据,并且在触摸屏上输出可视信息。另外,根据相对于触摸屏上的点的触摸是接近触摸还是接触触摸,控制器180能够控制移动终端100执行不同的操作或者处理不同的数据。
使用任何各种触摸方法,触摸传感器能够感测被施加到诸如显示单元151的触摸屏的触摸。这样的触摸方法的示例包括电阻型、电容型、红外型、以及磁场型等等。作为一个示例,触摸传感器可以被配置成将被施加到显示单元151的特定部分的压力的变化转换成电输入信号,或者将在显示单元151的特定部分处出现的电容转换成电输入信号。触摸传感器也可以被配置成不仅感测被触摸的位置和被触摸的区域,而且感测触摸压力和/或触摸电容。触摸对象通常被用于将触摸输入施加到触摸传感器。典型的触摸对象的示例包括手指、触摸笔、触笔、指示器等等。
当通过触摸传感器感测触摸输入时,相对应的信号可以被传送到触摸控制器。触摸控制器可以处理接收到的信号,并且然后将相对应的数据传送到控制器180。因此,控制器180能够感测已经触摸显示单元151的哪一个区域。在此,触摸控制器可以是与控制器180分离的组件、控制器180、或者其组合。
在一些实施例中,控制器180能够根据触摸了触摸屏或者除了触摸屏之外被设置的触摸键的一种触摸对象执行相同或者不同的控制。例如,基于移动终端100的当前操作状态或者当前执行的应用,可以决定根据提供触摸输入的对象是否执行相同或者不同的控制。
触摸传感器和接近传感器可以被单独地或者组合实现,以感测各种类型的触摸。这样的触摸包括短(或者轻敲)触摸、长触摸、多触摸、拖动触摸、轻击触摸、捏缩触摸、捏放触摸、滑动触摸、悬停触摸等等。
如有必要,超声传感器可以被实现以使用超声波识别与触摸对象有关的位置信息。例如,控制器180可以基于通过照明传感器和多个超声传感器感测到的信息计算波生成源的位置。因为光比超声波快得多,所以光到达光学传感器的时间远远比超声波到达超声传感器的时间短。使用此事实可以计算波生成源的位置。例如,可以基于光作为参考信号使用与超声波到达传感器的时间的时间差计算波生成源的位置。
相机121通常包括相机传感器(CCD、CMOS等等)、光传感器(或者图像传感器)、以及激光传感器中的至少一个。利用激光传感器实现相机121可以允许相对于3D立体图像的物理对象的触摸的检测。光传感器可以被层压在显示装置上,或者与显示装置重叠。光传感器可以被配置成扫描接近触摸屏的物理对象的移动。更加详细地,光传感器可以包括在行和列处的光电二极管和晶体管以使用根据被施加的光的数量改变的电信号扫描在光传感器处接收到的内容。即,光传感器可以根据光的变化计算物理对象的坐标从而获得物理对象的位置信息。
显示单元151通常被配置成输出在移动终端100中处理的信息。例如,显示单元151可以响应于屏幕执行信息显示在移动终端100处执行的应用的执行屏幕信息或者用户界面(UI)和图形用户界面(GUI)信息。在一些实施例中,显示单元151可以被实现为用于显示立体图像的立体显示单元。典型的立体显示单元可以采用诸如立体方案(眼镜方案)、自动立体方案(无眼镜方案)、投影方案(全息方案)等等的立体显示方案。
音频输出模块152通常被配置成输出音频数据。可以从任何数目的不同的来源获得这样的音频数据,使得可以从无线通信单元110接收音频数据或者可以已经将其存储在存储器170中。可以在诸如信号接收模式、呼叫模式、记录模式、语音识别模式、广播接收模式等等的模式期间输出音频数据。音频输出模块152能够提供与由移动终端100执行的特定功能(例如,呼叫信号接收声音、消息接收声音等等)有关的音频输出。音频输出模块152也可以被实现为接收器、扬声器、蜂鸣器等等。
触觉模块153能够被配置成产生用户能够感觉、感知、或者以其它方式体验的各种触觉效果。通过触觉模块153产生的触觉效果的典型示例是振动。能够通过用户选择或者通过控制器进行设置来控制通过触觉模块155产生的振动的强度、模式等等。例如,触觉模块153可以以组合的方式或者顺序的方式输出不同的振动。
除了振动之外,触觉模块153能够生成各种其它的触觉效果,包括通过诸如垂直移动以接触皮肤的针排列的刺激的效果、通过喷孔或者吸入口的空气的喷射力或者吸力、对皮肤的触摸、电极的接触、静电力、通过使用能够吸收或者产生热的元件再现冷和暖的感觉的效果等等。
触觉模块153也能够被实现以允许用户通过诸如用户的手指或者手臂的肌肉感觉来感觉触觉效果,以及通过直接接触传递触觉效果。根据移动终端100的特定配置也可以设置两个或者更多个触觉模块153。
光学输出模块154能够使用光源的光输出用于指示事件产生的信号。在移动终端100中产生的事件的示例可以包括消息接收、呼叫信号接收、未接来电、报警、日程表通知、电子邮件接收、通过应用的信息接收等等。可以实现通过光学输出模块154输出的信号因此移动终端发射单色光或者具有多种颜色的光的方式。例如,当移动终端感测用户已经查看了产生的事件时信号输出可以结束。
接口单元160用作用于要连接到移动终端100的外部设备的接口。例如,接口单元160能够接收从外部设备传送的数据,接收电力以传送到移动终端100内的元件和组件,或者将移动终端100的内部数据传送到这样的外部设备。接口单元160可以包括有线或者无线头戴式受话器端口、外部电源端口、有线或者无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。
识别模块可以是存储用于认证使用移动终端100的权限的各种信息的芯片并且可以包括用户识别模块(UIM)、订户识别模块(SIM)、通用订户识别模块(USIM)等等。另外,具有识别模块(在此也被称为“识别装置”)的装置可以采用智能卡的形式。因此,识别装置经由接口单元160能够与终端100相连接。
当移动终端100与外部托架相连接时,接口单元160能够用作允许电力从托架供应到移动终端100的通道或者可以用作允许用户从托架输入的各种命令信号传递到移动终端的通道。从托架输入的各种命令信号或者电力可以作为用于识别移动终端被正确地安装在托架上的信号操作。
存储器170能够存储程序以支持移动终端180的操作并且存储输入/输出数据(例如,电话簿、消息、静止图像、视频等等)。存储器170可以存储与响应于触摸屏上的触摸输入而输出的各种样式的振动和音频有关的数据。存储器170可以包括一种或者多种类型的存储介质,包括闪存、硬盘、固态盘、硅盘、多媒体卡微型、卡型存储器(例如,SD或DX存储器等)、随机存取存储器(RAM)、静态随机存取存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁存储器、磁盘、光盘等等。也可以关于在诸如互联网的网络上执行存储器170的存储功能的网络存储设备操作移动终端100。
控制器180通常能够控制移动终端100的一般操作。例如,当移动终端的状态满足预设条件时控制器180能够设置或者释放用于限制用户输入与应用有关的控制命令的锁定状态。控制器180也能够执行与语音呼叫、数据通信、视频呼叫等等相关联的控制和处理,或者执行模式识别处理以将在触摸屏上执行的手写输入或者绘图输入分别识别为字符或者图像。另外,控制器180能够控制这些组件中的一个或者组合以便于实现在此公开的各种示例性实施例。
电源单元190接收外部电力或者提供内部电力并且供应对于操作被包括在移动终端100中的各自的元件和组件所需的适当的电力。电源单元190可以包括电池,该电池通常是可充电的或者可拆卸地耦合到终端主体,用于充电。电源单元190可以包括连接端口。连接端口可以被配置为接口单元160的一个示例,用于供应电力以对电池再充电的外部充电器被电气地连接到该接口单元160。
作为另一示例,电源单元190可以被配置成在没有使用连接端口的情况下以无线的方式对电池再充电。在本示例中,使用以磁感应为基础的感应耦合方法或者以电磁谐振为基础的电磁谐振耦合方法,电源单元190能够接收从外部无线电力发射器传递的电力。可以使用例如软件、硬件、或者其任何组合,以计算机可读介质、机器可读介质、或者类似介质实现在此描述的各种实施例。
现在参考图1B和图1C,参考直板式终端主体描述移动终端100。然而,可以以任何各种不同的配置可替选地实现移动终端100。这样的配置的示例包括其中两个和更多个主体以相对可移动的方式被相互组合的手表式、夹式、眼镜式、或者折叠式、翻盖式、滑盖式、摇摆式、以及旋转式和其组合。在此论述将会经常与特定类型的移动终端(例如,直板式、手表式、眼镜式等等)有关。然而,与特定类型的移动终端有关的这样的教导通常也将会应用于其它类型的移动终端。
移动终端100通常将会包括形成终端的外观的壳体(例如,框架、外罩、盖等)。在本实施例中,使用前壳体101和后壳体102形成壳体。各种电子组件被包含在前壳体101和后壳体102之间形成的空间中。至少一个中间外壳可以被附加地布置在前外壳101和后外壳102之间。
显示单元151被示出位于终端主体的前侧上以输出信息。如图所示的,显示单元151的窗口151a可以被安装到前壳体101以与前壳体101一起形成终端主体的前表面。在一些实施例中,电子组件也可以被安装到后壳体102。这样的电子组件的示例包括可拆卸的电池191、识别模块、存储卡等等。后盖103被示出,覆盖电子组件,并且此盖可以被可拆卸地耦合到后壳体102。因此,当从后壳体102拆卸后盖103时,被安装到后壳体102的电子组件被外部地暴露。
如图所示的,当后盖103被耦合到后壳体102时,后壳体102的侧表面被部分地暴露。在一些情况下,在耦合之后,后壳体102也可以被后壳体103完全地屏蔽。在一些实施例中,后盖103可以包括用于外部地暴露相机121b或者音频输出模块152b的开口。
壳体101、102、103可以通过注入成型合成树脂形成或者可以由例如不锈钢(STS)、铝(Al)、钛(Ti)等等的金属形成。作为对其中多个壳体形成用于容纳组件的内部空间的示例的替代,移动终端100可以被配置使得一个壳体形成内部空间。在本示例中,具有连体的移动终端100被形成因此合成树脂或者金属从侧表面延伸到后表面。
如有必要,移动终端100可以包括防水单元,用于防止水进入到终端主体。例如,防水单元可以包括防水构件,其位于窗口151a和前壳体101之间、在壳体101和后壳体102之间、或者后壳体102和后盖103之间、以当这些壳体被耦合时密封地密封内部空间。
图1B和图1C描述如被布置在移动终端上的某些组件。然而,可替选的布置是可能的并且在本公开的教导内。一些组件可以被省略或者重新布置。例如,第一操纵单元123a可以位于终端主体的另一表面上,并且第二音频输出模块152b可以位于终端主体的侧表面上。
显示单元151输出在移动终端100中处理的信息。使用一个或者多个适当的显示装置可以实现显示单元151。这样的适当的显示装置的示例包括液晶显示器(LCD)、薄膜晶体管-液晶显示器(TFT-LCD)、有机发光二极管(OLED)、柔性显示器、3维(3D)显示器、电子墨水显示器、以及其组合。
使用能实现相同或者不同的显示技术的两个显示装置可以实现显示单元151。例如,多个显示单元151可以被布置在一侧上,或者被相互分开,或者这些装置可以被集成,或者这些装置可以被布置在不同的表面上。
显示单元151也可以包括触摸传感器,该触摸传感器感测在显示单元处接收到的触摸输入。当触摸被输入到显示单元151时,触摸传感器可以被配置成感测此触摸并且例如,控制器180可以生成与触摸相对应的控制命令或者其它信号。以触摸方式输入的内容可以是文本或者数值,或者能够以各种模式指示或者指定的菜单项目。
触摸传感器可以以具有触摸图案的膜或者在窗口151a的后表面上直接地构图的金属线的形式配置,该膜被布置在窗口151a和窗口151a的后表面上的显示器之间。可替选地,触摸传感器可以与显示器集成地形成。例如,触摸传感器可以被布置在显示器的基板上或者显示器内。显示单元151也可以与触摸传感器一起形成触摸屏。在此,触摸屏可以用作用户输入单元123(参见图1A)。因此,触摸屏可以替换第一操纵单元123a的功能中的至少一些。
第一音频输出模块152a可以以扬声器的形式被实现以输出语音音频、报警声音、多媒体音频再现等等。显示单元151的窗口151a通常将会包括允许通过第一音频输出模块152a生成的音频通过的孔径。一个替选是允许音频沿着结构主体之间的组装间隙(例如,在窗口151a和前壳体101之间的间隙)被释放。在本示例中,被独立地形成以输出声音的孔可以不被看到或者在外观上以其它方式被隐藏,从而进一步简化移动终端100的外观和制造。
光学输出模块154能够被配置成输出用于指示事件产生的光。这样的事件的示例包括消息接收、呼叫信号接收、未接来电、报警、日程表通知、邮件接收、通过应用的信息接收等等。当用户已经检查到产生的事件时,控制器能够控制光学输出单元154停止光输出。
第一相机121能够处理诸如在捕获模式或者视频呼叫模式下通过图像传感器获得的静止或者运动图像的图像帧。然后被处理的图像帧能够被显示在显示单元151上或者被存储在存储器170中。第一和第二操纵单元123a和123b是用户输入单元123的示例,通过用户可以对其进行操纵以将输入提供给移动终端100。第一和第二操纵单元123a和123b也可以被统称为操纵部分,并且可以采用允许用户执行诸如触摸、推动、滚动等等的操纵的任何触觉方法。第一和第二操纵单元123a和123b也可以采用允许用户执行诸如接近触摸、盘旋等等的操纵的任何非触觉的方法。
图1B图示作为触摸键的第一操纵单元123a,但是可能的替选包括机械键、推动键、触摸键、以及其组合。可以以各种方式使用在第一操纵单元123a和第二操纵单元123b处接收到的输入。例如,用户可以使用第一操纵单元123a将输入提供给菜单、归位键、取消、搜索等等,并且用户可以使用第二操纵单元123b提供输入以控制从第一音频输出模块152a或者第二音频输出模块152b输出的音量等级、切换到显示单元151的触摸识别模式等等。
作为用户输入单元123的另一示例,后输入单元(未示出)可以位于终端主体的后表面上。用户能够操纵后输入单元以将输入提供给移动终端100。可以以各种不同的方式使用输入。例如,用户可以使用后输入单元以提供用于从第一或者第二音频输出模块152a或者152b输出的电源开/关、开始、结束、滚动、控制音量级的输入,切换到显示单元151的触摸识别模式等等。后输入单元可以被配置成允许触摸输入、推动输入、或者其组合。
后输入单元可以位于在终端主体的厚度方向中重叠前侧的显示单元151。作为一个示例,后输入单元可以位于终端主体的后侧的上端部分上使得当用户使用一只手抓握终端主体时用户能够使用食指容易地操纵它。可替选地,后输入单元能够被定位在终端主体的后侧的至多任何位置处。
包括后输入单元的实施例可以实现后输入单元中的第一操纵单元123a的功能性的一些或者全部。正因如此,在其中从前侧省略第一操纵单元123a的情形下,显示单元151能够具有更大的屏幕。作为又一替代,移动终端100可以包括手指扫描传感器,该手指扫描传感器扫描用户的指纹。然后控制器180能够使用通过手指扫描传感器感测的指纹信息作为认证过程的一部分。手指扫描传感器也可以被安装在显示单元151中或者在用户输入单元123中被实现。
示出麦克风122位于移动终端100的末端处,但是其他的位置是可能的。如有必要,可以实现多个麦克风,利用这样的布置允许接收立体声音。接口单元160可以用作允许移动终端100对接外部设备的路径。例如,接口单元160可以包括用于连接到另一设备(例如,耳机、外部扬声器等等)的连接端子、用于近场通信的端口(例如,红外数据协会(IrDA)端口、蓝牙端口、无线LAN端口等等)、或者用于将电力供应到移动终端100的电源端子中的一个或多个。接口单元160可以以用于容纳诸如订户识别模块(SIM)、用户识别模块(UIM)、或者用于信息存储的存储卡的外部卡的插槽的形式实现。
示出第二相机121b位于终端主体的后侧处并且包括与第一相机单元121a的图像捕获方向大体上相反的图像捕获方向。如有必要,第二相机121a可以被替换地位于其他的位置处,或者使其可移动的,以便于具有不同于被示出的图像捕获方向。
第二相机121b能够包括沿着至少一条线布置的多个透镜。多个透镜也可以以矩阵配置布置。该相机可以被称为“阵列相机”。当第二相机121b被实现为阵列相机时,可以使用多个透镜以各种方式捕获图像并且图像具有更好的质量。
如在图1C中所示,示出闪光灯124与第二相机121b相邻。当通过相机121b捕获物体的图像时,闪光灯124可以照明物体。如在图1C中所示,第二音频输出模块152b能够位于终端主体上。第二音频输出模块152b可以结合第一音频输出模块152a实现立体声功能,并且也可以被用于实现用于呼叫通信的扬声器电话模式。
用于无线通信的至少一个天线可以位于终端主体上。天线可以被安装在终端主体中或者通过壳体形成。例如,配置广播接收模块111的一部分的天线可以可伸缩到终端主体中。可替选地,使用被附接到后盖103的内表面的膜,或者包括导电材料的壳体,可以形成天线。
用于将电力供应到移动终端100的电源单元190可以包括电池191,该电池191被安装在终端主体中或者可拆卸地耦合到终端主体的外部。电池191可以经由被连接到接口单元160的电源电缆接收电力。而且,能够使用无线充电器以无线方式对电池191再充电。通过电磁感应或者电磁谐振可以实现无线充电。
示出后盖103,其被耦合到后壳体102用于屏蔽电池191,以防止电池191的分离,并且保护电池191免受外部冲击或者外来材料。当从终端主体可拆卸电池191时,后壳体103可以被可拆卸地耦合到后壳体102。
用于保护外观或者协助或者扩展移动终端100的功能的附件也能够被提供在移动终端100上。作为附件的一个示例,可以提供用于覆盖或者容纳移动终端100的至少一个表面的盖或者袋。盖或者袋可以与显示单元151协作以扩展移动终端100的功能。附件的另一示例是用于协作或者扩展对触摸屏的触摸输入的触摸笔。
根据又一实施例,移动终端可以被配置为可佩戴在人体上的设备。这样的设备超出用户使用他们的手抓握移动终端的常用技术。可佩戴的设备的示例包括智能手表、智能眼镜、头戴式显示器(HMD)等等。
典型的可佩戴的设备能够与另一移动终端100(或者与另一终端100协作)交换数据。在这样的设备中,可佩戴的设备通常具有少于协作的移动终端的功能。例如,移动终端100的短程通信模块114可以感测或者识别足够近以与移动终端通信的可佩戴的设备。另外,当感测到的可佩戴的设备是被授权与移动终端100通信的设备时,例如,控制器180能够经由短程通信模块114将在移动终端100中处理的数据传送到可佩戴的设备。因此,可佩戴的设备的用户能够在可佩戴的设备上使用移动终端100中处理的数据。例如,当在移动终端100中接收到呼叫时,用户能够使用可佩戴的设备应答呼叫。而且,当在移动终端100中接收到消息时,用户能够使用可佩戴的设备检查接收到的消息。
图2是图示根据另一示例性实施例的眼镜式移动终端200的一个示例的透视图。眼镜式移动终端200能够是在人体的头部上可佩戴的并且被提供有框架(壳体、外壳等等)。框架可以是由柔性材料制成以容易被佩戴。示出移动终端200的框架,其具有能够是由相同或者不同材料制成的第一框架201和第二框架202。通常,移动终端200可以被配置成包括与图1A-图1C的移动终端100相同或者相似的特征。
框架可以被支撑在头部上并且限定用于安装各种组件的空间。如所图示的,诸如控制模块280、音频输出模块252等等的电子组件可以被安装在框架部分上。而且,用于覆盖左眼和右眼中的任意一个或者两者的透镜203可以被可拆卸地耦合到框架部分。
控制模块280控制被布置在移动终端200中的各种电子组件。控制模块280可以被理解为与前述的控制器180相对应的组件。图2图示控制模块280被安装在头部的一侧上的框架部分中,但是其他的位置是可能的。
显示单元251可以被实现为头戴式显示器(HMD)。HMD指的是通过其显示器被安装在头部上以在用户的眼睛的前面直接示出图像的显示技术。为了当用户佩戴眼镜式移动终端200时在用户眼镜的前面直接提供图像,显示单元251可以定位为对应于左眼和右眼中的任意一个或者两者。图2图示显示单元251位于与右眼相对应的部分上以输出通过用户的右眼可观看的图像。
显示单元251可以使用棱镜将图像投射到用户的眼睛。而且,棱镜可以由光学透明的材料形成使得用户能够在用户的前面观看被投射的图像和一般视域(用户通过眼睛观看的范围)。以这样的方式,通过显示单元251输出的图像可以被观看同时与一般视域重叠。移动终端200可以使用显示器通过将虚拟图像重叠在现实图像或者背景上提供增强现实(AR)。
相机221可以位于与左眼和右眼中的任意一个或者两者相邻以捕获图像。因为相机221位于与眼睛相邻,所以相机221能够获取用户当前观看的场景。相机221可以被定位在移动终端的几乎任何位置处。在一些实施例中,多个相机221可以被利用。这样的多个相机221可以被用于获取立体图像。
眼镜式移动终端200可以包括用户输入单元223a和223b,用户能够操纵其中的每一个以提供输入。用户输入单元223a和223b可以采用允许经由触觉输入来进行输入的技术。典型的触觉输入包括触摸、推动等等。用户输入单元223a和223b被示出为当它们分别位于框架部分和控制模块280上时以推动方式和触摸方式可操作。
必要时,移动终端200可以包括将输入声音处理成电音频数据的麦克风和用于输出音频的音频输出模块252。音频输出模块252可以被配置成以一般的音频输出方式或者骨传导方式产生音频。当以骨传导方式实现音频输出模块252时,当用户佩戴移动终端200时音频输出模块252可以被紧密地贴附到头部并且振动用户的颅骨以传送声音。
如在参考图2的前述描述中所提及的,眼镜式移动终端的显示单元可以被配置有HMD(头戴式显示器)。因为一般眼镜式移动终端的透镜是处于透明的或者半透明的状态,所以用户能够在没有任何限制的情况下看到外部环境。但是,在具有被装载在其上的HMD型显示单元的移动终端中,因为显示单元阻挡用户的眼睛,所以用户不能够看到外部环境。
例如,图3是具有被装载在其上的头戴式显示器的眼镜式的移动终端的图。参考图3,如果人佩戴眼镜式的移动终端,则显示单元310能够在人的眼睛的前面被伸展。因为头戴式显示单元310阻挡用户的眼睛,所以用户不能够看到外部环境而是仅能够看到显示单元310的输出。
此外,如果通过显示单元310输出通过相机拍摄到的拍摄的图像(例如,通过相机记录的视频),则用户能够看到外部环境,不管当前佩戴眼镜式的移动终端如何。因此,相机能够被设置到在用户的眼睛的相同方向中的移动终端的前部。如果眼镜式的移动终端被提供有至少两个相机,则基于通过多个相机获得的图像准备3D图像并且然后可以被输出到显示单元。
另外,当直板式的移动终端与框架相组合时,移动终端能够作为眼镜式的移动终端被利用。例如,图4是图示利用直板式的移动终端作为眼镜式的移动终端的一个示例的图。
参考图4,如果直板式的移动终端与框架相组合用于建立VR(虚拟现实)环境,则移动终端能够被用作为眼镜式。例如,参考图4(a)和图4(b),在直板式移动终端400已经被组装有框架410之后,用户能够通过被形成在框架410中的穿孔420观看直板式移动终端400的输出。在市场上出售的框架410的一个示例可以包括Google的CardBoardTM
如果头戴式显示器被提供,则通过显示单元限制当前佩戴眼镜式移动终端的用户的视野。特别地,因为显示单元阻挡视图,所以用户仅能够从显示单元观看输出,而不能够看到外部环境。但是,如果用于拍摄用户的眼睛的相同方向的相机的拍摄的图像通过显示单元被显示,则用户能够看到外部环境,不管佩戴眼镜式移动终端如何。
眼镜式的移动终端可以包括投射单元,该投射单元被配置成在用户的视野的范围内的空间中,而不是被布置在用户的眼睛的前面中的显示单元中,投射诸如2D图像、3D图像、全息图等等的图形图像。在本实例中,用户能够通过透明或者半透明眼镜观看外部环境和在空间中投射的图形图像。
例如,图5是包括投射单元的移动终端的图。如在图5中的示例中所示,眼镜装置的移动终端能够通过将图形图像投射到空间将信息发送给用户。因此,用户能够同时观看实时外部环境510和被投射在空间中的图形对象520。例如,包括被配置成将图形图像投射到空间中的投射单元530的眼镜式移动终端可以包括微软的HoloLensTM
基于上面的描述,如下详细地描述根据本发明的实施例的移动终端。首先,本发明的实施例涉及使用在两个移动终端之间的通信通过另一移动终端输出通过一个移动终端拍摄的图像的方法。
为了下面的描述的清楚起见,在下面的附图中,被配置成将通过相机拍摄的图像提供给另一移动终端的一个移动终端被假定为眼镜式,并且被配置成从另一移动终端接收拍摄的图像的一个移动终端被假定为诸如智能电话、平板装置等的直板式移动终端。此外,眼镜式的移动终端被称为眼镜装置,并且直板式的移动终端被称为平板装置。根据在下面的描述中所提及的实施例,组件的名称可以根据上下文被确定为被包括在眼镜装置中的组件或者被包括在平板装置中的组件。
眼镜装置包括能够被暴露于眼镜装置的前侧的相机。如果相机被安装以拍摄当前佩戴眼镜装置的用户的眼睛的相同方向,则相机能够捕获通过当前佩戴眼镜装置的用户观看到的部分。
通常,人类视角大约是136度。然而,因为人类视觉神经集中于在视网膜的中心部分上,所以超过视角范围60度的区域的识别率降低。特别地,因为人的实际视角仅等于大约60度,所以超过视角的区域未被正确地识别。
如果通过眼镜式的移动终端的前侧暴露的相机的视角大于60度,则相机也能够捕获人类识别率降低的部分。此外,如果相机的视角大于136度,则相机能够捕获人不能够看到的部分以及人类识别率降低的部分。
例如,图6是图示描述在人类视角和相机的视角之间的差的一个示例的图。参考图6,假定通过人可清楚地识别的范围对应于属于等于或者小于60度的视角的部分,如果相机的视角大于60度,则相机也能够捕获人类识别率降低的部分。此外,假定人类视角是136度,如果相机的视角大于136度,则相机也能够捕获用户不能够看到的部分。
特别地,像在图6(a)和图6(b)中示出的示例一样,如果相机的视角足够宽,则相机能够捕获人不能够看到的部分以及人类识别率降低的部分。根据在下面描述的实施例,因为相机的视角足够宽,所以假定相机能够捕获人不能够看到的部分或者人类识别率降低的部分。
如果眼镜装置被设置有头戴式显示器,如在图3或者图4中所示,则眼镜装置的控制器能够控制拍摄的图像中的部分区域以通过显示单元被输出。例如,眼镜装置的控制器能够将通过相机拍摄的图像中的对应于用户看到的区域(例如,与60度的视角相对应的区域)的图像输出到显示单元。
例如,图7是图示通过显示单元输出拍摄的图像的部分的一个示例的图。参考图7,如在参考图6的前述描述中所提及的,当相机的视角大于用户的视角时,相机能够捕获比用户可识别的空间更宽的空间。此外,如在图7(a)的示例中所示,控制器能够通过显示单元输出拍摄的图像的部分720,而不是输出通过相机捕获的整个图像710。如果通过显示单元输出的部分720对应于未佩戴眼镜装置的用户观看的部分,而用户佩戴眼镜装置,则用户能够观看与在没有佩戴眼镜装置的情况下看到的相同的外部环境。
如果当前佩戴眼镜装置的用户移动他们的瞳孔,则能够改变在拍摄的图像710中要被显示的部分720的位置。例如,如果当前佩戴眼镜装置的用户的瞳孔向右移动,则如在图7(b)中的示例中所示,在拍摄的图像710中通过显示单元将会输出的部分720的位置也能够向右移动。因此,用于跟踪用户的瞳孔的位置的相机或者传感器能够被嵌入在眼镜装置的内表面中。
如在图5中的示例中所示,如果眼镜是处于透明或者半透明的状态中,则不必通过显示单元(或者投射单元)输出通过相机捕获的拍摄的图像。即使拍摄的图像没有被输出,用户也能够通过眼镜看到外部环境。但是,在本实例中,眼镜式的控制器能够将当前佩戴眼镜装置的用户当前观看到的拍摄的图像的一部分的位置信息发送到平板式的移动终端。在本实例中,位置信息可以包括通过眼镜装置的用户当前观看的部分的坐标信息、用于计算通过眼镜装置的用户当前观看的部分(例如,用于计算当前佩戴眼镜装置的用户的瞳孔的位置的设定值或者眼镜装置的用户当前观看的部分)的信息等等。
为了下面的描述的清楚和方便起见,在通过眼镜装置的相机捕获的图像中通过眼镜装置的显示单元输出的区域或者与在通过眼镜装置的相机捕获的图像中用户当前观看的部分相对应的区域将会被命名为“查看区域”。特别地,根据在下面的描述中所提及的实施例,查看区域可以意指在通过眼镜装置捕获的图像中的通过眼镜装置的显示单元输出的区域或者在通过眼镜装置捕获的图像中的与用户当前观看的部分相对应的区域。
在下面的描述中,将会假定与在图4中示出的前述示例一样眼镜式的移动终端被设置有头戴式显示器来详细地描述实施例。但是,在下面的描述中提及的实施例可应用于不包括头戴式显示器的眼镜装置。
例如,在下面的描述中所提及的实施例能够被应用于包括投射单元的移动终端,该投射单元被配置成通过被提供有透明的或者半透明的眼镜将图形图像投射到空间中,与前面在图5中示出的示例一样。在本实例中,移动终端能够跳过输出通过相机捕获的拍摄的图像,并且能够通过将图形图像投射到空间中,而不是使用显示单元输出对于用户所要求的信息。特别地,当在下面的描述中所提及的实施例被应用于在图5中示出的类型的眼镜装置时,用于通过眼镜装置的显示单元显示通过眼镜装置的相机捕获的拍摄的图像的配置能够被省略。另外,用于通过眼镜装置的显示单元输出信息(例如,指示符、从平板装置接收到的拍摄的图像等等)的配置能够被用于通过投射单元将信息(例如,指示符、从平板装置接收到的拍摄的图像等等)输出到空间的配置替代。
在另一实例中,在下面的描述中所提及的实施例能够被应用于在图2中示出的类型的眼镜装置。虽然在下面的实施例中出现的两个移动终端分别被假定为眼镜式和直板式,但是下面的实施例的适用性不限于两种类型的移动终端。
例如,虽然使用能够拍摄与用户的眼睛相同方向的装置(例如,隐形眼镜型可佩戴装置、项链式可佩戴装置等等)替代用于发送拍摄的图像的眼镜式的移动终端,但是在下面的描述中所提及的实施例是可应用的并且与另一终端的通信能够被执行,而不是直板式的移动终端。另外,在下面的描述中所提及的实施例可应用于具有显示单元的装置(例如,可佩戴装置等等)。
接下来,图8是根据本发明的实施例的拍摄的图像共享方法的流程图。为了下面的描述的清楚和方便起见,假定在眼镜装置和平板装置之间当前建立了无线通信信道。例如,如果在眼镜装置和平板装置之间视频呼叫开始,则在眼镜装置和平板装置之间已经建立用于收发图像数据的无线通信信道。在本实例中,眼镜装置和平板装置能够使用诸如蓝牙、WLAN(例如,Wi-Fi等等)等等的通信技术和/或诸如LTE、HSPDA等等的蜂窝技术执行通信。
一旦在眼镜装置和平板装置之间建立了无线通信信道,眼镜装置显示在通过相机捕获的拍摄的图像(例如,通过相机拍摄的视频等等)中的与查看区域相对应的图像(S801)并且然后能够将拍摄的图像发送到平板装置(802)。当多个相机被包括在眼镜装置中时,被发送到平板装置的拍摄的图像可以包括基于通过多个相机捕获的拍摄的图像创建的3D图像。已经从眼镜装置接收拍摄的图像之后,平板装置显示接收到的拍摄的图像并且能够控制查看区域以可识别地显示在被显示的拍摄的图像上(S803)。
例如,图9是图示在拍摄的图像上可识别地显示查看区域的一个示例的图。参考图9,如果接收到通过眼镜装置捕获的拍摄的图像,则平板装置的控制器能够控制接收到的拍摄的图像910通过显示单元输出。另外,平板装置的控制器能够控制查看区域920可识别地显示在拍摄的图像910上。
根据在图9中示出的示例,矩形被显示在拍摄的图像910上,从而查看区域920被识别地显示。通过查看区域的可识别的标记,平板装置的用户能够区分当前佩戴眼镜装置的用户观看的区域和当前佩戴眼镜装置的用户不能够观看的区域。特别地,查看区域的内部图像能够被视为当前佩戴眼镜装置的用户当前观看的区域,而查看区域的外部图像能够被视为当前佩戴眼镜装置的用户不能够观看的区域。
在平板装置正在显示拍摄的图像时,如果接收到对平板装置的显示单元的触摸输入(在S804中是),则平板装置能够将触摸信息发送到眼镜装置(S805)。在本实例中,触摸信息可以包括关于在拍摄的图像上的触摸位置的信息、指示是否触摸查看区域的内部的信息、关于从查看区域的中心(或者边缘)到被触摸的位置的距离的信息、关于从查看区域的中心到触摸位置的方向的信息、以及关于触摸类型的信息(例如,指示用户的触摸输入是单触摸、长触摸、拖动输入等等的信息)中的至少一个。
如果从平板装置接收到触摸信息,则眼镜装置能够确定是否基于接收到的触摸信息触摸查看区域的内部或者外部。如果确定查看区域的内部被触摸(在S806中是),则眼镜装置能够在输出的拍摄的图像上显示通过平板装置接收到的触摸输入的位置(S807)。
例如,图10是图示在拍摄的图像上可识别地显示触摸位置的一个示例的图。参考图10,如果从平板装置接收到触摸信息,则眼镜装置的控制器能够控制对应于通过触摸信息指示的触摸位置的部分可识别地显示在通过显示单元输出的拍摄的图像上。
根据在图10中示出的示例,当通过平板装置接收到用于触摸查看区域1010的内部的触摸输入时,通过眼镜式的显示单元以圆形的指示符1020被输出到通过触摸信息指示的触摸位置。另外,眼镜装置的控制器能够输出反馈以指示查看区域的内部被触摸。在本实例中,反馈能够包括振动、报警声音、照明(例如,LED等等)等等中的至少一个。眼镜装置的控制器能够根据通过平板装置接收到的触摸输入的类型调节被显示在触摸位置处的信息的类型。
例如,图11A至图11C分别是图示响应于通过平板装置接收到的触摸输入的类型改变通过眼镜装置的显示单元输出的信息的类型的示例的图。参考图11A,如果通过平板装置接收到将简单触摸(即,将触摸施加到指定的点并且然后释放触摸的输入)施加到查看区域1110的内部的触摸输入,则指示触摸位置的第一指示符1120能够通过眼镜装置的显示单元被输出。
参考图11B,如果通过平板装置接收到将长触摸(即,触摸指定的点的输入超过指定时间)施加到查看区域1110的内部的触摸输入,则指示长触摸位置的第二指示符1130能够通过眼镜式装置的显示单元被输出。参考图11C,如果通过平板装置接收到在查看区域1110的内部内的拖动输入,则跟随拖动轨迹的以箭头形状的第三指示符1140能够通过眼镜装置的显示单元被输出。
特别地,像在图11A至图11C中示出的示例中一样,取决于通过平板装置接收到的触摸输入的类型,眼镜装置的控制器能够调节通过眼镜装置的显示单元将会输出的指示符的形状。此外,如果确定查看区域的外部被触摸(S806),则眼镜装置的控制器能够控制指示符被输出以指示查看区域外部已经被触摸(S808)。如果查看区域的外部被触摸,则在拍摄的图像上的通过触摸信息指示的触摸位置能够被可识别地显示。
例如,图12是图示输出指示符的一个示例的图。参考图12,如果通过平板装置接收到的触摸输入是对查看区域1210的外部的触摸,则眼镜装置的控制器能够通过显示单元输出指示符1220,其指示查看区域的外部已经被触摸。此外,参考图12(a)和图12(b),指示符1220可以具有面向触摸位置的箭头形状。如果这样,用户能够识别被分布在通过箭头指示的方向中的查看区域外部的区域已经被触摸。
此外,控制器能够控制箭头的大小与在触摸位置和查看区域之间的距离成比例地增加。例如,如果在触摸位置和查看区域之间的距离等于或者小于预设参考值d_ref,如在图12(a)的示例中所示,则眼镜装置的控制器以小的尺寸输出箭头。此外,如果在触摸位置和查看区域之间的距离变得大于预设参考值d_ref,如在图12(b)中的示例中所示,则眼镜装置的控制器能够以大的尺寸控制箭头以被输出。
当用户转动他们的头部时,如果在触摸位置和查看区域之间的距离减少,则控制器能够控制箭头的大小减少。相反地,如果在触摸位置和查看区域之间的距离增加,则控制器能够控制箭头的大小增加。
在另一示例中,如果通过平板装置触摸查看区域外部的触摸输入的数目增加,则通过眼镜装置输出的箭头的大小能够增加。例如,响应于通过平板装置接收到的第一触摸输入,如在图12(a)中的示例中所示,则眼镜装置的控制器以小的尺寸输出箭头。此外,如果在第一触摸响应之后经过指定时间之前平板装置接收重新触摸相邻位置的触摸输入,如在图12(b)中的示例中所示,则眼镜装置的控制器能够控制以大的尺寸输出箭头。
根据在图12中示出的示例,指示符具有箭头的形状。然而,指示符可以具有眼睛的图像或者用户的面部的图像。例如,图13是图示以眼球的形状输出指示符的一个示例的图。参考图13,如果通过平板装置接收到的触摸输入是对查看区域1310的外部的触摸,则眼镜装置的控制器能够通过显示单元输出将眼球作为指示符的图像1320。
此外,在眼球图像1320中的瞳孔的位置可以被布置为面向触摸位置。例如,如果查看区域外部的右侧部分被触摸,如在图13(a)中所示,则控制器能够控制在人类眼球图像1320中的瞳孔的位置被布置在右侧。此外,如果在触摸位置和查看区域之间的距离增加更多,则控制器能够控制瞳孔被布置为更加靠近图像的边缘。
例如,如果在触摸位置和查看区域之间的距离等于或者小于预设参考值d1,如在图13(a)中的示例中所示,则眼镜的控制器将瞳孔布置在与眼球图像1320的中心分开了“a”的位置处。随后,如果在触摸位置和查看区域之间的距离变得大于预设值,如在图13(b)中的示例中所示,则眼镜装置的控制器能够将瞳孔布置在与眼球图像1320的中心分开了“b(>a)”的位置处。
当用户转动他们的头部时,如果在触摸位置和查看区域之间的距离变得较小,则控制器能够布置瞳孔以变得更加靠近眼球图像的中心。相反地,如果在触摸位置和查看区域之间的距离变大,则控制器能够布置瞳孔以变得远离眼球图像的中心。
图14是图示以用户的面部的形状输出指示符的一个示例的图。参考图14,如果通过平板装置接收到的触摸输入是对查看区域1410的外部的触摸,则眼镜装置的控制器能够通过显示单元输出面部的图像1420作为指示符。
此外,控制器能够控制面部图像1420面向的方向被设置为朝着触摸位置。例如,如果查看区域的外部的右侧部分被触摸,如在图14(a)的示例中所示,则控制器能够控制面向右侧的面部图像1420被输出。另外,如果在触摸位置和查看区域之间的距离增加更多,则控制器能够控制头部转向的程度增加。
例如,眼镜装置的控制器能够控制面部图像1420以下述方式被输出。首先,当在触摸位置和查看区域之间的距离大于预设值d1时而不是当在触摸位置和查看区域之间的距离等于或者小于预设参考值d1(图14(a)、图14(b))时,进一步转动面部图像1420。
随着用户转动他们的面部,如果在触摸位置和查看区域之间的距离逐渐地变小,则控制器能够控制面部图像1420以头部转动较少的方式被输出。相反地,如果在触摸位置和查看区域之间的距离逐渐地变大,则控制器能够控制面部图像1420以头部转动较多的方式被输出。
指示符的形状不受到在图12至图14中示出的那些的限制。另外,能够输出不同于在附图中示出的那些的类型的指示符。如果触摸被输入到查看区域的外部,则眼镜装置的控制器能够输出反馈以指示查看区域的外部已经被触摸。此外,响应于对查看区域的外部的触摸输出的反馈的类型可以不同于响应于对查看区域的内部的触摸输出的反馈的类型。
例如,当查看区域的内部被触摸时,第一类型的振动、第一报警声音以及第一颜色的照明中的至少一个被输出。当查看区域的外部被触摸时,第二类型的振动、第二报警声音以及第二颜色的照明中的至少一个能够被输出。因此,当前佩戴眼镜装置的用户能够根据反馈的类型识别是否触摸查看区域的内部或者查看区域的外部。
眼镜装置的控制器能够根据通过平板装置接收到的触摸输入的类型调节显示指示符的类型。例如,图15是图示响应于触摸输入的类型变化被显示的指示符的类型的一个示例的图。
参考图15,如果通过平板装置接收到用于触摸查看区域1510的外部的第一类型的触摸输入,则眼镜装置的控制器能够控制第一类型的指示符被输出。例如,参考图15(a),当平板装置接收通过单个指示器触摸查看区域1510的外部的触摸输入时,其能够以箭头形状控制指示符1520以通过眼镜装置被输出。
此外,如果通过平板装置接收到用于触摸查看区域1510的外部的第二类型的触摸输入,则眼镜装置的控制器能够控制第二类型的指示符被输出的。例如,参考图15(b),当平板装置接收利用两个指示器触摸查看区域1510的外部的触摸输入时,通过眼镜装置输出以眼球图像形状的指示符1530。
根据在图15(a)和图15(b)中示出的示例,指示符分别具有箭头和眼球图像的形状。但是,如在前述的描述中所提及的,指示符的形状不限于在附图中示出的形状。此外,根据在图15(a)和图15(b)中示出的示例,通过触摸平板装置的指示器的数目区分触摸输入类型。此外,通过触摸时间、触摸方向、直接触摸的存在或者不存在(例如,接近触摸和直接触摸能够被视为不同类型的触摸输入)等中的一个以及通过指示器的数目能够区分触摸类型。
在其它实例中,眼镜装置的控制器能够取决于在触摸输入的位置和查看区域之间的距离调节被显示的指示符的类型。例如,图16是图示响应于触摸输入的位置变化被显示的指示符的类型的一个示例的图。
参考图16,当通过平板装置接收到触摸查看区域1610的外部的触摸输入时,如果触摸输入的位置位于在离查看区域1610的指定参考内,则控制器180能够控制第一类型的指示符被输出。例如,参考图16(a),当通过平板装置接收到的触摸输入的位置位于离查看区域1610的参考值d1内时,眼球图像1620通过眼镜装置的显示单元被输出作为指示符。因此,当触摸位置接近查看区域1610时,如果对于用户来说在没有转动头部的情况下仅通过移动瞳孔足以观看触摸位置,则如在图16(a)中的示例中所示,眼镜装置的控制器能够输出眼球图像1620替代面部图像。
此外,当通过平板装置接收到触摸查看区域1610的外部的触摸输入时,如果触摸输入的位置位于离查看区域1610的指定参考外,则控制器180能够控制第二类型的指示符被输出。例如,参考图16(a),当通过平板装置接收到的触摸输入的位置位于离查看区域1610的参考值d1之外时,面部图像1630通过眼镜装置的显示单元被输出作为指示符。因此,当触摸位置接近查看区域1610时,如果对于用户来说难以通过仅移动瞳孔观看触摸位置,如在图16(b)中的示例中所示,则眼镜装置的控制器能够输出面部图像1630替代眼球图像。
当眼镜装置的用户改变他们的眼睛或者转动他们的头部时,如果用户触摸的平板装置的位置进入查看区域,则眼镜装置的控制器可以停止输出指示符或者输出指示触摸位置已经被移动到查看区域的新指示符。
图17是输出指示触摸位置已经进入查看区域的内部的指示符的一个示例的图。参考图17(a),当通过平板装置接收到的触摸输入是在查看区域1710的外部时,眼镜装置的控制器能够控制指示查看区域1710的外部已经被触摸的指示符被输出。根据在图17(a)中示出的示例,其中朝着触摸位置转动头部的面部图像1720作为指示符被输出。
其后,在当前佩戴眼镜装置的用户转动他们的头部或者改变他们的眼睛时,如果触摸位置进入查看区域1710的内部,则眼镜装置的控制器可以停止输出指示符或者输出指示触摸位置已经被移动到查看区域的新指示符。例如,参考图17(b),当触摸位置进入查看区域1710的内部时,用于面朝前的面部图像1730作为指示符被输出。
眼镜装置的控制器能够与指示符一起输出诸如振动、声音、照明等等的反馈。通过指示符、反馈等等,当前佩戴眼镜装置的用户能够精确地意识到通过平板装置的用户触摸的位置。
当用户正在观看通过平板装置从眼镜装置接收到的拍摄的图像时,用户能够发出用于拍摄不能够被眼镜装置捕获的区域的请求。例如,当平板装置的用户期待检查当前眼镜装置不能够捕获的空间时,平板装置的用户能够通过触摸输入请求眼镜装置捕获不同的空间。
如果从平板装置接收到用于请求捕获不同空间的触摸输入,则眼镜装置的用户能够控制指示用户拍摄不同区域的指示符被输出。例如,图18是图示输出指示用户拍摄不同区域的指示符的一个示例的图。
参考图18,当平板装置的用户正在观看从眼镜装置发送的拍摄的图像时,如果平板装置的用户通过平板装置施加指定的触摸输入,则眼镜装置的控制器能够控制指示从当前拍摄的地点远离移动到另一地点的指示符被输出。例如,参考图18(a),如果通过平板装置接收到以当前触摸查看区域1810的外部的指示器在向左方向中被拖动的方式施加的触摸输入,则眼镜装置的控制器能够通过显示单元输出指示用户在向右方向中移动的图像1820。
特别地,如在图18(a)中的示例中所示,如果平板装置在指定的方向中接收拖动输入,则眼镜装置的控制器能够控制指示用户在与指示器被拖动方向的相反的方向中移动的指示符1820被输出。如在示例中所示,眼镜装置的控制器能够输出指示用于以在其中指示器已经被拖动以移动的相同方向中移动的指示符。
如果当前佩戴眼镜装置的用户在通过指示符指示的方向中移动,则眼镜装置的控制器能够控制指示符的输出被结束。例如,参考图18(b),当眼镜装置能够进一步捕获右侧环境时,指示符的输出被停止。在当前佩戴眼镜装置的用户在不同于通过指示符指示的方向中移动时,可以连续地或者通过被强调(例如,通过被扩大)显示指示符。
根据在前述的描述中所提及的实施例,在通过眼镜装置的显示单元输出的拍摄的图像上,指示在查看区域内的通过平板装置接收到的触摸输入的位置的指示符或者指示通过平板装置已经接收到触摸查看区域外部的触摸输入的指示符被输出。
如果眼镜装置具有与参考图5描述的相同的配置,如在前述的描述中所提及的,则装置能够跳过输出通过相机拍摄的图像。在本实例中,如果通过平板装置接收到触摸查看区域内部的触摸输入,则眼镜装置的控制器能够将图形图像投射到在与用户的查看范围内的触摸位置相对应的空间中的区域。如果通过平板装置接收到触摸查看区域内部的触摸输入,则眼镜装置的控制器能够输出指示在用户的查看范围内触摸查看区域外部的触摸输入已经被接收的指示符。
特别地,通过投射以将图形图像显示到用户实际上看到的外部环境,能够将必要的信息提供给当前佩戴眼镜装置的用户。当通过平板装置接收到触摸查看区域的外部的触摸输入时,除了与查看区域相对应的图像,眼镜装置的控制器还能够显示与包括触摸位置的指定区域相对应的图像。
例如,图19是图示显示与包括触摸位置的指定区域相对应的图像的一个示例的图。参考图19,当通过平板装置接收到触摸查看区域1910的外部的用户输入时,眼镜装置的控制器能够将包括触摸位置的指定区域相对应的图像输出到显示单元。
例如,参考图19(a),当通过眼镜装置的显示单元输出与查看区域1910相对应的图像时,如果通过平板装置接收到触摸查看区域1910的外部的触摸输入,则眼镜装置的控制器能够控制与包括触摸位置的指定区域相对应的图像1930以通过显示单元被另外输出。根据在图19(b)中示出的示例,通过覆盖与查看区域1910相对应的图像1920与指定的区域相对应的图像1930被输出。
根据触摸位置能够调节与指定的区域相对应的图像1930的输出位置。例如,参考图19(a)和图19(b),如果查看区域1910的外部的底部被触摸,则与指定区域相对应的图像1930可以位于显示单元的右侧部分。此外,当查看区域1910的外部的左侧部分或者右侧部分被触摸时,与指定区域相对应的图像1930可以位于显示单元的左侧部分或者右侧部分。
当眼镜装置的用户改变他们的眼睛或者转动他们的头部时,如果用户触摸的平板装置的位置进入查看区域1910的内部,则眼镜装置的控制器可以停止输出部分图像1930。此外,眼镜装置的控制器可以输出诸如振动、声音、照明等等的反馈。
根据在前述的描述中所提及的实施例,拍摄的图像一发送到平板装置,眼镜装置就通过显示单元输出拍摄的图像。如果眼镜装置接收指定的用户输入同时输出通过相机拍摄的图像,则眼镜装置从平板装置接收通过平板装置捕获到的拍摄的图像并且然后能够输出接收到的拍摄的图像。
例如,图20是图示通过眼镜装置输出通过平板装置捕获到的拍摄的图像的一个示例的图。参考图20,当通过眼镜装置的显示单元输出通过眼镜装置的相机捕获的拍摄的图像的部分2010时,如果接收到指定的用户输入,则眼镜装置的控制器能够控制通过平板装置捕获的拍摄的图像2020以通过眼镜装置的显示单元被输出。
例如,如在图20中的示例中所示,如果当前佩戴眼镜装置的用户做出转动他们的头部同时闭上他们的眼睛的姿势,则眼镜装置的控制器能够在显示单元上输出通过平板装置捕获的图像2020。
根据在图20中示出的示例,预设的用户输入包括在指定的时间内通过闭上他们的眼睛转动他们的头部的姿势。除了在附图中示出的示例之外,预设的用户输入可以包括不同类型的姿势输入、直接操纵眼镜装置的输入等中的一个。
在眼镜装置已经设置用于显示通过平板装置捕获的拍摄的图像的区域的坐标之后,眼镜装置能够取决于是否通过所设置的坐标指示的区域被包括在查看区域中确定是否输出通过平板装置捕获的图像或者通过眼镜装置捕获的图像。
例如,图21是描述眼镜装置的输出示例的图。参考图21,眼镜装置的控制器能够设置将输出通过平板装置捕获的拍摄的图像的坐标。此外,基于用于输出通过平板装置捕获的拍摄的图像的用户输入,眼镜装置能够设置用于输出通过平板装置捕获的拍摄的图像的坐标。例如,如在图21中的示例中所示,如果从当前佩戴眼镜装置的用户检测到在指定的时间内闭上它们的眼睛之后用户转动他们的头部的姿势,则眼镜装置的控制器能够在姿势的检测之后基于眼镜装置的坐标设置用于输出通过平板装置捕获的拍摄的图像的坐标。
例如,基于用于眼镜装置的x轴方向的旋转角、用于y轴方向的旋转角、到x轴的距离、到y轴的距离、到z轴的距离等等,眼镜装置能够设置用于输出通过平板装置捕获的拍摄的图像的坐标。如果通过所设置的坐标指示的区域被整体地包括在查看区域内部,如在图21(a)中的示例中所示,则眼镜装置2100的控制器能够控制通过平板装置捕获的拍摄的图像2110以通过显示单元被输出。
在当前佩戴眼镜装置2100的用户移动他们的瞳孔或者转动他们的头部时,如果通过所设置的坐标指示的区域的一部分被移动远离查看区域,如在图21(b)中的示例中所示,则眼镜装置2100的控制器能够输出通过平板装置捕获的拍摄的图像2110的一部分,并且也能够控制通过眼镜装置2100捕获的拍摄的图像2120以通过剩余的区域被显示。
如果通过所设置的坐标指示的区域完全地移动远离查看区域,如在图21(c)中的示例中所示,则眼镜装置2100的控制器停止通过平板装置捕获的拍摄的图像的输出并且也能够控制通过眼镜装置2100捕获的拍摄的图像被输出。
如果当前佩戴眼镜装置2100的用户重新输入在指定的时间内闭上他们的眼睛之后转动他们的头部的姿势,则基于眼镜装置2100的新坐标在姿势的输入之后眼镜装置2100的控制器能够新设置用于输出通过平板装置捕获的拍摄的图像的坐标。
根据参考图19至图21的描述,与通过平板装置接收到的触摸位置相对应的图像、从平板装置接收到的拍摄的图像等等能够通过眼镜装置的显示单元被输出。如果眼镜装置的移动终端具有参考图5描述的配置,则眼镜装置的控制器能够将与触摸位置相对应的部分的图像或者通过平板装置接收到的拍摄的图像输出到空间,而不是将与触摸位置相对应的部分的图像或者通过平板装置接收到的拍摄的图像输出到显示单元。
当通过平板装置触摸存在于查看区域外部的对象时,眼镜装置捕获被触摸的对象并且然后能够设置用于输出捕获到的图像的坐标。其后,如果通过所设置的坐标指示的区域被包括在查看区域的内部中,则眼镜装置的控制器能够控制捕获到的图像以通过重叠拍摄的图像被显示。
例如,图22是图示通过重叠拍摄的图像输出捕获到的图像的一个示例的图。参考图22,如果通过平板装置接收到触摸查看区域2210外部的对象2220的触摸输入,则眼镜装置的控制器通过捕获所选择的对象2220创建捕获到的图像并且能够设置用于输出捕获到的图像的坐标。此外,眼镜装置的控制器基于在捕获时对象2220被显示在拍摄的图像中的位置能够设置用于显示捕获到的图像的坐标。
例如,参考图22(a),通过平板装置接收到触摸位于查看区域2210外部的海鸥2220的触摸输入。响应于通过平板装置接收到的用户输入,眼镜装置的控制器能够创建捕获海鸥2220的捕获的图像。在本实例中,基于在拍摄的图像上的海鸥的位置能够设置捕获到的图像的输出位置。
例如,在当前佩戴眼镜装置的用户移动他们的瞳孔或者转动他们的头部时,如果用于输出捕获到的图像的区域被包括在查看区域2210的内部,参考图22(b),则眼镜装置的控制器能够控制捕获到的图像2240以通过重叠拍摄的图像2230被输出。
只有当为捕获目标事先设置的对象2220不能存在于拍摄的图像中,眼镜装置的控制器输出捕获到的图像。只有当为捕获对象事先设置的对象2220不能存在于拍摄的图像中,眼镜装置的控制器能够跳过捕获到的图像的输出。特别地,如果为捕获对象事先设置的对象2220存在于拍摄的图像中,则因为能够实时观看对象2220,所以没有必要输出捕获到的图像。如果眼镜装置的移动终端具有参考图5描述的配置,则眼镜装置的控制器能够将捕获到的图像投射到空间中替代通过显示单元输出捕获到的图像。
根据参考图8的前述的描述,平板装置显示从眼镜装置接收到的拍摄的图像。另外,查看区域可识别地显示在被显示的拍摄的图像上。眼镜装置的控制器能够在拍摄的图像中输出从合成被指定为用户的查看区域的图像创建的合成图像而不是输出拍摄的图像。
例如,图23是图示通过平板装置输出合成图像的一个示例的图。参考图23(a),平板装置能够在从眼镜装置2300接收到的拍摄的图像中输出与查看区域相对应的图像2330。其后,在当前佩戴眼镜装置2300的用户移动他们的瞳孔或者转动他们的头部时,如果新的空间区域被包括在查看区域2320中,参考图23(b),平板装置的控制器能够控制从在重新被包括在查看区域中的空间区域中合成被显示的图像2330与图像2340而创建的合成图像被输出。
因此,通过平板装置的显示单元,能够仅输出在通过眼镜装置2300捕获的图像2310中在具有被包括在用户的查看区域中至少一次的历史的区域中的图像。平板装置显示通过眼镜装置捕获的拍摄的图像的至少一部分并且也能够控制用于指定的空间的图像以被固定的输出,不论眼镜装置的运动如何。
例如,图24是图示在拍摄的图像中固定地输出与指定空间相对应的图像的一个示例的图。参考图24,平板装置的控制器能够通过显示单元输出通过眼镜装置2300捕获的拍摄的图像的一部分。根据在图24(a)中示出的示例,与查看区域2410相对应的图像2420通过显示单元被输出。
当输出拍摄的图像的至少一部分时,如果接收到用于请求固定的用户输入,则平板装置的控制器能够输出对应于指定空间的图像以被固定地输出,不论眼镜装置2400的运动如何。例如,当通过平板装置输出拍摄的图像中的第一区域时,如果接收到用于请求图像的固定的用户输入,则平板装置的控制器能够在与眼镜装置2400的运动相反的方向中(或者在与查看区域的位移相反的方向中)位移可显示的区域2420。根据在图24(b)中示出的示例,当由于当前佩戴眼镜装置2400的用户的移动导致查看区域2410在x轴上被位移了d1时,可显示的区域2420在x轴上与查看区域2410被分开了“-d1”。
像在图24(a)和图24(b)中示出的示例一样,当在与眼镜装置的移动方向相反的方向中移动可显示的区域时,通过平板装置能够同时输出指定空间中的区域。当眼镜装置的移动距离相对长时,如果眼镜装置的相机不能够进一步捕获被设置为固定地输出的指定空间,则平板装置的控制器可以输出对于指定空间的捕获图像。
根据在图24中示出的示例,平板装置接收用于固定地输出通过平板装置接收到的用于指定的空间的图像的用户输入。此外,用于固定地输出用于指定的空间的图像的用户输入也可以通过眼镜装置接收。当通过眼镜装置接收用于固定地输出用于指定空间的图像的用户输入时,平板装置能够固定地输出用于指定的空间的图像,不论眼镜装置的运动如何。
如果通过平板装置接收到触摸查看区域中的对象的用户输入,则眼镜装置的控制器能够控制相机捕获照片。例如,图25是图示响应于通过平板装置接收到的用户输入开始眼镜装置的拍摄的一个示例的图。参考图25,如果接收到在查看区域2510中触摸特定对象的用户输入,则眼镜装置的控制器能够通过相机拍照。例如,参考图25(a),如果通过平板装置接收到在查看区域2510内触摸海鸥2520的用户输入,则眼镜装置的控制器能够通过相机拍照。
此外,眼镜装置能够在指定的时间间隔执行连拍(即,连续地拍照)直到通过平板装置选择的对象2520变得远离查看区域2510以消失。例如,参考图25(b),如果在经过指定时间之后对象2520始终保持在查看区域2510内,则眼镜装置的控制器能够控制通过相机拍摄照片。
参考图25(c),在经过指定时间之后,如果对象2520变得远离查看区域2510,则眼镜装置的控制器能够控制连拍被停止。在对象已经变得远离查看区域之后,如果对象重新进入查看区域,则眼镜装置的控制器能够通过相机再次拍照。
例如,图26是图示如果对象重新进入查看区域重启拍摄的一个示例的图。参考图26(a),如果通过平板装置接收到在查看区域2610中选择特定对象2620的用户输入,则眼镜装置的控制器能够通过相机拍照。
其后,参考图26(b),如果对象2620变得远离查看区域2610,则眼镜装置的控制器能够控制通过相机的拍摄被暂停。片刻之后,如果对象2610重新进入查看区域2610,参考图26(c),则眼镜装置的控制器能够控制通过相机的拍摄被恢复。眼镜装置能够将拍摄的照片发送到平板装置。然后平板装置能够显示接收到的照片。
根据参考图25和图26描述的示例,如果平板装置接收选择位于查看区域内的对象的用户输入,则眼镜装置能够拍照。不同于在附图中示出的示例,眼镜装置也可以响应于通过眼镜装置施加的用户输入拍照。
如果通过平板装置接收到选择位于查看区域外的对象的用户输入,则眼镜装置可以仅在所选择的对象已经进入查看区域之后拍照。眼镜装置能够将通过麦克风输入的音频数据与拍摄的图像一起发送到平板装置。此外,平板装置的控制器在拍摄的图像中放大从查看区域产生的声音但是在拍摄的图像中抑制从剩下的区域中产生的声音,从而强调地输出从查看区域产生的声音。
例如,图27是图示执行声音缩放的一个示例的图。为了下面的描述的清楚起见,假定平板装置从眼镜装置接收包括船号角和海鸥声的音频数据和拍摄的图像。参考图27,平板装置的控制器能够输出从眼镜装置接收到的拍摄的图像和音频数据。此外,如果接收到触摸查看区域2710的内部的用户输入,则眼镜装置的控制器能够通过放大从查看区域2710产生的声音但是抑制从查看区域2710的外部产生的声音输出音频数据。如在图27中的示例中所示,如果通过平板装置接收到包括海鸥的查看区域2710的内部的触摸输入,则平板装置的控制器能够通过抑制船号角但是扩大海鸥声控制要被输出的音频数据。
因此,本发明的实施例提供各种效果和/或特征。首先,根据本发明的实施例中的至少一个,本发明提供一种移动终端及其控制方法,通过其能够增强用户便利。特别地,本发明提供一种移动终端及其控制方法,通过其能够与其它的终端共享拍摄的图像。另外,本发明提供一种移动终端及其控制方法,通过其如果通过另一终端选择对拍摄的图像的指定部分,则所选择的点能够被指示。
另外,上述方法能够作为处理器可读代码在程序记录介质中实现。处理器可读介质包括在其中存储处理器可读数据的所有种类的记录设备。处理器可读介质例如可以包括ROM、RAM、CD-ROM、磁带、软盘、光数据存储设备等,并且也包括载波类型的实现(例如,经由互联网的传输)。
对于本领域内的技术人员来说应理解,在不偏离本发明的精神或范围的情况下,能够在本发明中进行各种修改和变化。因此,旨在本发明涵盖本发明的修改和变化,只要它们落在所附权利要求和其等同物的范围内。

Claims (20)

1.一种眼镜式移动终端,包括:
输出单元,所述输出单元被配置成输出信息;
相机;
无线通信单元,所述无线通信单元被配置成与外部终端无线地通信;以及
控制器,所述控制器被配置成:
经由所述无线通信单元将通过所述相机接收到的第一图像发送到所述外部终端,
从所述外部终端接收触摸信息,所述触摸信息指示被显示在所述外部终端上的所述第一图像的触摸输入是在所述眼镜式移动终端的相对应的查看范围的外部,以及
经由所述输出单元显示指示符,所述指示符指示被显示在所述外部终端上的所述第一图像的所述触摸输入是在所述眼镜式移动终端的所述查看区域的外部。
2.根据权利要求1所述的眼镜式移动终端,其中,所述控制器进一步被配置成:取决于在所述查看区域和所述触摸输入的触摸位置之间的距离调节被显示的指示符的大小。
3.根据权利要求1所述的眼镜式移动终端,其中,所述控制器进一步被配置成:
调节所述查看区域以跟随所述用户的注视,并且
当被调节的查看区域包括与所述触摸输入相对应的位置时停止显示所述指示符。
4.根据权利要求1所述的眼镜式移动终端,其中,所述控制器进一步被配置成:在所述输出单元上在所述第一图像中显示包括所述触摸输入的位置的所述第一图像的指定区域的图像。
5.根据权利要求1所述的眼镜式移动终端,其中,所述控制器进一步被配置成在所述输出单元上显示从所述外部终端接收到的第二图像。
6.根据权利要求1所述的眼镜式移动终端,其中,所述控制器进一步被配置成:
设置用于显示通过所述外部终端接收到的第二图像的所述眼镜式移动终端的坐标,并且
当所述眼镜式移动终端在所设置的坐标内时在所述输出单元上显示所述第二图像的至少部分。
7.根据权利要求1所述的眼镜式移动终端,其中,如果所述触摸信息指示所述触摸输入触摸位于在所述第一图像中的所述查看区域的外部的对象,则所述控制器进一步被配置成:当所述查看区域被改变并且包括与被触摸的对象相对应的位置时,捕获所述对象的图像。
8.根据权利要求1所述的眼镜式移动终端,其中,所述控制器进一步被配置成:响应于指示所述触摸输入触摸位于所述第一图像中的相对应的查看区域的内部的对象的所述触摸信息,控制所述相机拍摄照片。
9.根据权利要求8所述的眼镜式移动终端,其中,所述控制器进一步被配置成:响应于指示所述触摸输入触摸位于所述第一图像中的所述相对应的查看区域的内部的所述对象的所述触摸信息,控制所述相机在指定的时间间隔中连续地拍摄多个照片。
10.根据权利要求8所述的眼镜式移动终端,其中,所述控制器进一步被配置成:响应于所述对象不再位于所述相对应的查看区域内,控制所述相机停止拍摄照片。
11.根据权利要求10所述的眼镜式移动终端,其中,所述控制器进一步被配置成:响应于所述对象在所述相对应的查看区域内重新出现,控制所述相机恢复拍摄照片。
12.根据权利要求1所述的眼镜式移动终端,其中,所述指示符包括从所述查看区域朝着所述触摸输入的位置指向的箭头形状、具有面向所述触摸输入的位置的眼睛的眼球图像、或者面向所述触摸输入的位置的面部图像中的至少一个。
13.根据权利要求1所述的眼镜式移动终端,其中,所述控制器进一步被配置成与所述指示符一起输出第一类型的反馈。
14.根据权利要求13所述的眼镜式移动终端,其中,如果通过所述触摸输入引起的触摸位置进入到所述查看区域的内部,则所述控制器进一步被配置成:响应于指示所述触摸输入触摸所述第一图像中的所述相对应的查看区域内部的所述触摸信息,输出第二类型的反馈。
15.根据权利要求1所述的眼镜式移动终端,其中,所述输出单元包括头戴式显示器。
16.根据权利要求1所述的眼镜式移动终端,其中,所述输出单元包括投射单元,所述投射单元被配置成在用户的眼睛的方向中投射图形图像。
17.一种移动终端,包括:
无线通信单元,所述无线通信单元被配置成从眼镜式移动终端接收图像;
显示单元,所述显示单元被配置成显示从所述眼镜式移动终端接收到的图像;以及
控制器,所述控制器被配置成:
与不在所述眼镜式移动终端的查看范围内的所述图像的另一部分区别地显示与所述眼镜式移动终端的查看范围相对应的所述图像的部分。
18.根据权利要求17所述的移动终端,其中,所述控制器进一步被配置成:
接收所述图像的触摸输入,以及
将指示所述图像的触摸输入的位置的触摸信息发送到所述眼镜式移动终端,并且
其中,所述触摸信息指示所述触摸输入的位置在所述眼镜式移动终端的相对应的查看范围的外部。
19.一种控制眼镜式移动终端的方法,所述方法包括:
经由无线通信单元,将通过所述眼镜式移动终端的相机接收到的第一图像发送到外部终端;
经由所述眼镜式移动终端的控制器从所述外部终端接收触摸信息,所述触摸信息指示被显示在所述外部终端上的第一图像的触摸输入在所述眼镜式移动终端的相对应的查看范围的外部;以及
经由所述眼镜式移动终端的输出单元显示指示符,所述指示符指示被显示在所述外部终端上的所述第一图像的触摸输入在所述眼镜式移动终端的所述查看区域的外部。
20.根据权利要求19所述的方法,进一步包括:
取决于在所述查看区域和所述触摸输入的触摸位置之间的距离调节被显示的指示符的大小。
CN201610011663.2A 2015-04-22 2016-01-08 移动终端及其控制方法 Expired - Fee Related CN106067833B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020150056398A KR20160125674A (ko) 2015-04-22 2015-04-22 이동 단말기 및 그 제어 방법
KR10-2015-0056398 2015-04-22

Publications (2)

Publication Number Publication Date
CN106067833A true CN106067833A (zh) 2016-11-02
CN106067833B CN106067833B (zh) 2020-06-05

Family

ID=54541956

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610011663.2A Expired - Fee Related CN106067833B (zh) 2015-04-22 2016-01-08 移动终端及其控制方法

Country Status (4)

Country Link
US (1) US10424268B2 (zh)
EP (1) EP3086216B1 (zh)
KR (1) KR20160125674A (zh)
CN (1) CN106067833B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109814719A (zh) * 2018-07-26 2019-05-28 亮风台(上海)信息科技有限公司 一种基于穿戴眼镜的显示信息的方法与设备
CN110673727A (zh) * 2019-09-23 2020-01-10 浙江赛伯乐众智网络科技有限公司 Ar远程协助方法及***

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102413074B1 (ko) * 2015-09-21 2022-06-24 삼성전자주식회사 사용자 단말, 전자 장치 및 이들의 제어 방법
US10843068B2 (en) * 2017-01-18 2020-11-24 Xvisio Technology Corp. 6DoF inside-out tracking game controller
JP2018124721A (ja) * 2017-01-31 2018-08-09 セイコーエプソン株式会社 頭部装着型表示装置、及び頭部装着型表示装置の制御方法
US11336963B2 (en) * 2018-01-15 2022-05-17 Samsung Electronics Co., Ltd. Method and apparatus for playing a 360-degree video
KR20210073603A (ko) 2018-11-09 2021-06-18 베크만 컬터, 인코포레이티드 선택적 데이터 제공을 갖는 서비스 안경
US11983959B2 (en) 2019-04-18 2024-05-14 Beckman Coulter, Inc. Securing data of objects in a laboratory environment

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110032200A1 (en) * 2009-08-06 2011-02-10 Samsung Electronics Co., Ltd. Method and apparatus for inputting a character in a portable terminal having a touch screen
US20120302289A1 (en) * 2011-05-27 2012-11-29 Kang Heejoon Mobile terminal and method of controlling operation thereof
US20130129254A1 (en) * 2011-11-17 2013-05-23 Thermoteknix Systems Limited Apparatus for projecting secondary information into an optical system
US20130335573A1 (en) * 2012-06-15 2013-12-19 Qualcomm Incorporated Input method designed for augmented reality goggles
US20140152531A1 (en) * 2011-12-01 2014-06-05 John T. Murray Head Mounted Display With Remote Control
CN103998970A (zh) * 2011-12-16 2014-08-20 索尼公司 头戴式显示器和信息显示设备
WO2014162825A1 (ja) * 2013-04-04 2014-10-09 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
WO2015043620A1 (en) * 2013-09-24 2015-04-02 Metaio Gmbh Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3028767B1 (fr) * 2014-11-26 2017-02-10 Parrot Systeme video pour le pilotage d'un drone en mode immersif
KR102274743B1 (ko) * 2015-01-30 2021-07-08 삼성전자주식회사 전자 장치 및 전자 장치의 화면 영역 처리 방법

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110032200A1 (en) * 2009-08-06 2011-02-10 Samsung Electronics Co., Ltd. Method and apparatus for inputting a character in a portable terminal having a touch screen
US20120302289A1 (en) * 2011-05-27 2012-11-29 Kang Heejoon Mobile terminal and method of controlling operation thereof
US20130129254A1 (en) * 2011-11-17 2013-05-23 Thermoteknix Systems Limited Apparatus for projecting secondary information into an optical system
US20140152531A1 (en) * 2011-12-01 2014-06-05 John T. Murray Head Mounted Display With Remote Control
CN103998970A (zh) * 2011-12-16 2014-08-20 索尼公司 头戴式显示器和信息显示设备
US20130335573A1 (en) * 2012-06-15 2013-12-19 Qualcomm Incorporated Input method designed for augmented reality goggles
WO2014162825A1 (ja) * 2013-04-04 2014-10-09 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
WO2015043620A1 (en) * 2013-09-24 2015-04-02 Metaio Gmbh Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
NICK STATT: "Microsoft"s HoloLens explained: How it works and why it"s different", 《WWW.CNET.COM》 *
STEFFEN GAUGLITZ: "Integrating the Physical Environment into Mobile Remote Collaboration", 《PROCEEDINGS OF THE 14TH INTERNATIONAL CONFERENCE ON HUMAN-COMPUTER INTERACTION WITH MOBILE DEVICES AND SERVICES》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109814719A (zh) * 2018-07-26 2019-05-28 亮风台(上海)信息科技有限公司 一种基于穿戴眼镜的显示信息的方法与设备
CN109814719B (zh) * 2018-07-26 2024-04-26 亮风台(上海)信息科技有限公司 一种基于穿戴眼镜的显示信息的方法与设备
CN110673727A (zh) * 2019-09-23 2020-01-10 浙江赛伯乐众智网络科技有限公司 Ar远程协助方法及***
CN110673727B (zh) * 2019-09-23 2023-07-21 浙江赛弘众智网络科技有限公司 Ar远程协助方法及***

Also Published As

Publication number Publication date
US10424268B2 (en) 2019-09-24
KR20160125674A (ko) 2016-11-01
EP3086216A1 (en) 2016-10-26
CN106067833B (zh) 2020-06-05
US20160314759A1 (en) 2016-10-27
EP3086216B1 (en) 2020-01-01

Similar Documents

Publication Publication Date Title
US10356398B2 (en) Method for capturing virtual space and electronic device using the same
EP3168730B1 (en) Mobile terminal
CN105259654B (zh) 眼镜式终端及其控制方法
US10021297B2 (en) Mobile terminal and control method thereof
US9602954B2 (en) Mobile terminal and method for controlling the same
CN106067833A (zh) 移动终端及其控制方法
KR20170067058A (ko) 이동 단말기 및 그 제어방법
CN106850938A (zh) 移动终端及其控制方法
US20180349690A1 (en) Mobile terminal and control method therefor
KR20160128119A (ko) 이동 단말기 및 이의 제어방법
CN105721668A (zh) 移动终端及其控制方法
CN106375546A (zh) 移动终端及其控制方法
CN105549870A (zh) 移动终端及其控制方法
CN106303406A (zh) 移动终端
CN105892472A (zh) 移动终端及其控制方法
EP3247170B1 (en) Mobile terminal
KR20150142516A (ko) 글래스 타입 단말기 및 그것의 제어 방법
CN106664334A (zh) 移动终端及其控制方法
KR20180028211A (ko) 헤드 마운티드 디스플레이 및 그 제어 방법
CN106612371A (zh) 移动终端
CN106201299A (zh) 移动终端及其控制方法
EP3173848B1 (en) Head mounted display and control method thereof
KR20180103866A (ko) 이동 단말기 및 그 제어 방법
CN107924284A (zh) 移动终端及其控制方法
KR102039948B1 (ko) 증강현실이나 가상현실에 기초하여 가상의 인체 장기를 렌더링하는 이동 단말기 및 이를 이용하는 시스템

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200605

Termination date: 20220108