CN105278670A - 眼佩戴型终端及控制眼佩戴型终端的方法 - Google Patents

眼佩戴型终端及控制眼佩戴型终端的方法 Download PDF

Info

Publication number
CN105278670A
CN105278670A CN201510035876.4A CN201510035876A CN105278670A CN 105278670 A CN105278670 A CN 105278670A CN 201510035876 A CN201510035876 A CN 201510035876A CN 105278670 A CN105278670 A CN 105278670A
Authority
CN
China
Prior art keywords
constructed
user
guidance information
mount type
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510035876.4A
Other languages
English (en)
Other versions
CN105278670B (zh
Inventor
李晶允
金泰星
李泰庚
张裕准
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of CN105278670A publication Critical patent/CN105278670A/zh
Application granted granted Critical
Publication of CN105278670B publication Critical patent/CN105278670B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3644Landmark guidance, e.g. using POIs or conspicuous other objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

眼佩戴型终端及控制眼佩戴型终端的方法。一种眼佩戴型移动终端,所述眼佩戴型移动终端包括:摄像头;输出单元,所述输出单元被构造为输出道路引导信息;以及控制器,所述控制器被构造为:获取与当前位置有关的信息;使得所述输出单元输出用于从当前位置到目的地的路线的所述道路引导信息;在输出道路引导信息时使得所述摄像头实时地获取视觉信息;以及基于获取的视觉信息实时地更新所述道路引导信息。

Description

眼佩戴型终端及控制眼佩戴型终端的方法
技术领域
本发明涉及被构造为可佩戴在用户的头部上的终端。
背景技术
终端可以通常根据其移动性被分类为移动/便携式终端或静止终端。移动终端也可以根据用户是否能够直接携带该终端而分类为手持终端或车载终端。
移动终端已经变得越来越多功能性。这样的功能包括数据和语音通信、经由摄像头捕获图像和视频、记录音频、经由扬声器***播放音乐文件以及在显示器上显示图像和视频。一些移动终端包括支持玩游戏的附加功能,而另外的终端被构造为多媒体播放器。近来,移动终端已经被构造为接收广播和多播信号,其允许观看诸如视频和电视节目的内容。
近来的移动终端被构造为可穿戴装置,其可穿戴在人体上,超越了用户使用他或她的手抓握移动终端的传统技术。这样的可穿戴装置的示例是眼佩戴型(eyewear-type)终端。眼佩戴型终端可以是眼镜型(eyeglasses-type)或隐形眼镜型,并且眼镜型终端可以包括框架。此外,眼佩戴型终端可以设置有摄像头并且可以通过摄像头捕获各种图像。
发明内容
为了实现本发明的目的,提供了一种眼佩戴型终端,其包括输出单元,其被构造为输出对应于从当前位置到目的地的路线的道路引导信息;以及控制单元,其被构造为在输出道路引导信息时,通过摄像头获取视觉信息,并且基于视觉信息引导朝向目的地的方向。
在实施方式中,控制单元可以被构造为识别视觉信息中包括的对象并且基于识别出的对象引导朝向目的地的方向。
在实施方式中,控制单元可以被构造为识别视觉信息中包括的多个对象当中具有已经预置的特征点的对象,并且基于识别出的对象引导朝向目的地的方向。
在实施方式中,具有预置特征点的对象可以包括具有最高色度的对象、具有最大面积或尺寸的对象、具有最大尺寸的文本的对象或者多个对象中离当前位置最近的对象或这些对象的组合。
在实施方式中,控制单元可以被构造为检测识别出的对象的特征点,并且将检测到的特征点反映到引导信息。
在实施方式中,对象的识别出的特征点可以是识别出的对象的颜色、形状、文本中的一种或它们的组合。
在实施方式中,控制单元可以被构造为:当在输出道路引导信息时检测到与朝向目的地的方向有关的用户的非识别信息的情况下,基于用户的非识别信息获取视觉信息。
在实施方式中,控制单元可以被构造为当在输出道路引导信息时用户的头部移动等于或类似于预置移动方式的情况下,获取视觉信息。
在实施方式中,控制单元可以被构造为当在输出道路引导信息时眼佩戴型终端预置时间内在路线的多个区段中的特定区段上反复移动超过预置次数的情况下,获取视觉信息。
在实施方式中,控制单元可以被构造为当在输出道路引导信息时眼佩戴型终端的移动速度等于或类似于预置速度方式,获取视觉信息。
在实施方式中,控制单元可以被构造为当在输出道路引导信息时眼佩戴型终端的移动方向在预置时间改变了预置次数的情况下,获取视觉信息。
在实施方式中,控制单元可以被构造为当在输出道路引导信息时用户的心率处于参考值之外的情况下,获取视觉信息。
在实施方式中,控制单元可以被构造为,当在输出道路引导信息时输入了指向特定方向和/或经过点的用户的姿势的情况下,搜索位于特定方向的经过点并且引导从当前位置到搜索到的经过点的路线。
在实施方式中,控制单元可以被构造为,当当前时间对应于移动的时间时,提出向移动时间上的想要的地方的道路引导。
在实施方式中,控制单元可以被构造为,当在输出道路引导信息时用户的生物信号处于参考值之外的情况下,提出向绕过该路线的新路线的道路引导。
在实施方式中,控制单元可以被构造为,当在输出道路引导信息时眼佩戴型终端的移动速度处于参考值之外的情况下,提出向绕过该路线的新路线的道路引导。
在实施方式中,控制单元可以被构造为在输出道路引导信息时检测通过摄像头捕获的图像内的人数,并且当检测到的人数处于参考值之外时,提出向绕过该路线的新路线的道路引导。
在实施方式中,控制单元可以被构造为,当在输出道路引导信息时方向改变在预置时间内反复了预置次数的情况下,提出向绕过该路线的新路线的道路引导。
在实施方式中,控制单元可以被构造为,当在输出道路引导信息时当前位置变得更加靠近预置的习惯路线偏离点的情况下,对于预置的习惯路线偏离点输出高亮效果。
附图说明
图1是示出根据本发明的实施方式的眼佩戴型终端的框图;
图2是示意性地示出根据本发明的实施方式的眼佩戴型终端的视图;
图3是示出根据本发明的实施方式的控制方法的流程图;
图4A和图4B是示出基于视觉信息内的对象引导道路的方法的示例性视图;
图5是示出基于视觉信息内的对象引导道路的另一方法的示例性视图;
图6A和图6B是示出在基于视觉信息内的对象引导道路的同时选择经过点的方法的示例性视图;
图7A、图7B和图7C是示出根据本发明的实施方式的建议目的地的方法的示例性视图;
图8A和图8B是示出根据本发明的实施方式的建议目的地的另一方法的示例性视图;
图9A和图9B是示出根据本发明的实施方式的建议目的地的又一方法的示例性视图;
图10是示出根据本发明的实施方式的建议目的地的同时引导绕过路线的方法的示例性视图;以及
图11A和图11B是示出根据本发明的实施方式的在输出道路引导信息的同时通知习惯路线偏离点的方法的示例性视图。
具体实施方式
下面将参照附图根据这里公开的示例性实施方式进行详细描述。为了参考附图的简要描述起见,可以为相同或等效的组件提供相同或类似的附图标记,并且省略其描述。一般来说,诸如“模块”和“单元”的后置用语可以用于表示元件或组件。这里使用这样的后置用语仅意在方便本申请的描述,并且后置用语本身不意在提供任何特殊的含义或功能。在本公开中,为了简要起见,通常省略了对于本领域技术人员来说已知的内容。附图旨在用于帮助容易理解各种技术特征,并且应该被理解为,这里示出的实施方式不受到附图的限制。因此,本公开应该被理解为除了在附图中具体示出的内容之外,还扩展到任何替选、等效和替代。
将理解的是,虽然这里可以使用术语第一、第二等等来描述各种元件,但是这些元件不应该受到这些术语的限制。这些术语通常仅用于将一个元件与另一个元件区分。
将理解的是,当元件被称为与另一元件“连接”时,该元件可以与另一元件连接或者也可以存在中间元件。相反地,当元件被称为与另一元件“直接连接”时,不存在任何中间元件。
单数形式可以包括复数形式,除非其表示与上下文明确不同的含义。
这里使用了诸如“包括”或“具有”的术语,并且这些术语应该被理解为,它们意在表示本申请中公开的若干组件、功能或步骤的存在,并且还理解的是,可以同样利用更多或更少的组件、功能或步骤。
图1是示出根据本发明的实施方式的眼佩戴型终端100的构造的框图。
参考图1,眼佩戴型移动终端100被示出为具有多个组件,例如,无线通信单元110、输入单元120、感测单元140、输出单元150、接口单元160、存储器170、控制器180和电源单元190。理解的是,不要求实施所有示出的组件,并且可以替选地实施更多或更少的组件。
现在参考图1,无线通信单元110通常包括一个或更多个模块,其允许诸如眼佩戴型移动终端100与无线通信***之间的无线通信、眼佩戴型移动终端100与另一移动终端之间的通信、眼佩戴型移动终端100与外部服务器之间的通信的通信。此外,无线通信单元110通常包括将眼佩戴型移动终端100连接到一个或更多个网络的一个或更多个模块。
为了方便这样的通信,无线通信单元110包括广播接收模块111、移动通信模块112、无线因特网模块113、短程通信模块114和位置信息模块115中的一个或更多个。
输入单元120包括用于获得图像或视频的摄像头121、作为用于输入音频信号的一种音频输入装置的麦克风122以及用于允许用户输入信息的用户输入单元123(例如,触摸键、推动键、机械键、软键等)。通过输入单元120获得数据(例如,音频、视频、图像等),并且可以根据装置参数、用户命令以及它们的组合通过控制器180分析和处理该数据。
摄像头121通常包括摄像头传感器(CCD、CMOS等等)、光电传感器(或图像传感器)以及激光传感器中的至少一个。利用激光传感器实施摄像头121可以允许物理对象对于3D立体图像的触摸的检测。
通常利用被构造成感测移动终端的内部信息、移动终端的周围环境、用户信息等的一个或更多个传感器来实现感测单元140。例如,在图1中,感测单元140被示出成具有接近传感器141和照度传感器142。根据需要,感测单元140可以替选地或额外包括其它类型的传感器或装置,例如触摸传感器、加速度传感器、磁性传感器、G传感器、回转仪传感器、运动传感器、RGB传感器、红外(IR)传感器、手指扫描传感器、超声传感器、光学传感器(例如,摄像头121)、麦克风122、电池量计、环境传感器(例如,气压计、湿度计、温度计、辐射检测传感器、热传感器和气体传感器)和化学传感器(例如,电子鼻、健康传感器、生物识别传感器等)、心率检测传感器、用于感测脑波的传感器。眼佩戴型移动终端100可以被构造成利用从感测单元140获得的信息,具体地说,从感测单元140的一个或更多个传感器以及它们的组合获得的信息。
输出单元150通常被构造成输出诸如音频、视频、触觉输出等的多种信息。输出单元150被示出成具有显示单元151、音频输出模块152、触觉模块153和光学输出模块154中的至少一个。
显示单元151可以具有带触摸传感器的层间结构或集成结构,以便于方便触摸屏。触摸屏可以在眼佩戴型移动终端100与用户之间提供输出接口,以及用作在眼佩戴型移动终端100与用户之间提供输入接口的用户输入单元123的功能。
接口单元160用作能够耦接至眼佩戴型移动终端100的各种外部装置的接口。例如,接口单元160可以包括有线或无线端口、外部电源端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等中的任何一种。在一些情况下,眼佩戴型移动终端100可以响应于连接至接口单元160的外部装置,执行与连接的外部装置关联的各种控制功能。
存储器170通常实现为存储用于支持眼佩戴型移动终端100的各种功能或特征的数据。例如,存储器170可以被构造成存储在眼佩戴型移动终端100中执行的应用程序、用于眼佩戴型移动终端100的操作的数据或指令等。这些应用程序中的一些可经无线通信从外部服务器下载。其它应用程序可以在制造或装运时安装在眼佩戴型移动终端100中,通常是用于眼佩戴型移动终端100的基本功能(例如,接收电话、打电话,接收消息、发送消息等)的情况。应用程序通常被存储在存储器170中、安装在眼佩戴型移动终端100中和通过控制器180执行,以针对眼佩戴型移动终端100执行操作(或功能)。
控制器180通常用作控制除与应用程序关联的操作以外的眼佩戴型移动终端100的整体操作。控制器180可以通过处理通过图1中所示的各种组件输入或输出的信号、数据、信息等或激活存储在存储器170中的应用程序来提供或处理适于用户的信息或功能。作为示例,控制器180根据存储在存储器170中的应用程序的执行控制图1中示出的组件的一些或全部。
电源单元190可以被构造成接收外部电力或提供内部电力,以供应操作包括在眼佩戴型移动终端100中的元件和组件所需的合适的电力。电源单元190可以包括电池,并且电池可以被构造成嵌入在终端机身中,或被构造成可以从终端机身拆卸。
上述组件中的至少一部分可以彼此协作,以控制根据将在下面解释的各种实施方式的眼佩戴型移动终端的操作。可以通过驱动在存储器170中存储的至少一个应用程序来在移动终端上实施控制眼佩戴型移动终端的方法。
图2是示意性地示出根据示例性实施方式的眼佩戴型终端200的一个示例的透视图。
移动终端200能够可佩戴在人体的头部上,并且设置有用于其的框架201(壳体、外壳等等)。框架可以由容易佩戴的柔性材料制成。眼佩戴型移动终端200的框架被示出为具有第一框架201和第二框架202,其能够由相同或不同的材料制成。
框架201可以被支撑在头部上并且限定用于安装各种组件的空间。如所示的,诸如控制器280、电源单元290和音频输出模块(未示出)的电气组件可以安装到框架201。而且,用于覆盖左眼和右眼中的一个或两者的镜片203可以可拆卸地耦接到框架。
控制器280控制布置在眼佩戴型移动终端200中的各种电气组件。控制模块280可以被理解为对应于上述控制器180的组件。图2示出了控制器280在头的一侧安装在框架部分中,但是其它位置也是可能的。
显示单元251可以实施为头戴显示器(HMD)。HMD表示下述显示技术,利用该显示技术,显示器安装到头以在用户的眼睛正前方显示图像。为了在用户佩戴眼佩戴型移动终端200时在用户的眼睛正前方提供图像,显示单元251可以被定位为对应于左眼和右眼中的一个或两者。图2示出了显示单元251位于对应于右眼的部分以输出可由用户的右眼看到的图像。
显示单元251可以使用棱镜将图像投射到用户的眼睛。而且,棱镜可以由光学透明材料形成,从而用户能够在用户的前方看到投射的图像和一般的视野(用户通过眼睛观看的范围)。
以这样的方式,在与一般的视野交叠的状态下,可以观看到通过显示单元251输出的图像。眼佩戴型移动终端200可以使用显示器通过将视觉图像交叠在真实图像或背景上来提供增强现实(AR)。
摄像头221可以与左眼和右眼中的一个或两者相邻以捕获图像。由于摄像头221与眼睛相邻,因此摄像头221能够获取用户当前观看的场景。
眼佩戴型移动终端200可以被构造为进一步包括布置为靠近左眼和右眼中的一个以检测用户的眼线(左眼或右眼)和用户的面部表情的摄像头(未示出)。
在附图中,摄像头221设置在控制器280处。然而,本发明不限于此。摄像头221可以位于框架处,或者可以利用多个摄像头。可以使用这样的多个摄像头来获取立体图像。
眼佩戴型移动终端200可以包括均能够由用户操作来提供输入的用户输入单元223。用户输入单元223可以采用允许经由触觉输入的输入的技术。典型的触觉输入包括触摸、推动等等。用户输入单元223被示出为可以如同位于框架上一样来以触摸方式来操作。
根据需要,眼佩戴型移动终端200可以包括将输入的声音处理为电气音频数据的麦克风。
眼佩戴型移动终端200可以包括用于输出音频的音频输出模块。音频输出模块可以被构造为以通常的音频输出方式或骨传导方式产生音频。当以骨传导方式实施音频输出模块时,音频输出模块可以在用户佩戴眼佩戴型移动终端200时紧密地贴附头部并且振动用户的头骨以传输声音。在该情况下,音频输出模块可以设置在与麦克风相同的相同部分处。
下面,将描述眼佩戴型移动终端及其控制方法。该方法包括在输出对应于从当前位置到目的地的路线的道路引导信息时通过摄像头121获取视觉信息,以及基于视觉信息引导朝向目的地的方向,从而用户可以在他迷路时基于视觉信息迅速且方便地确认(识别)目的地的方向。
图3是示出根据本发明的实施方式的控制方法的流程图。
首先,控制单元180被构造为根据用户的请求生成对应于从当前位置到目的地的路线的道路引导信息,并且通过输出单元输出生成的道路引导信息(S31)。例如,控制单元180被构造为生成引导从由位置信息模块115实时检测的当前位置到用户输入的目的地的路线的道路引导信息(例如,路线规划信息、从当前位置到目的地的剩余距离、路线上的兴趣点信息等等),并且通过显示单元151和/或音频输出单元152输出生成的道路引导信息。从当前位置到目的地的路线可以包括步行路线、行车路线或自行车行进路线。
控制单元180被构造为,当在输出道路引导信息时检测到指示用户没有识别出朝向目的地的方向的用户的非识别信息时,基于用户的非识别信息通过摄像头121获取对应于用户的眼线的视觉信息(S32)。
控制单元180被构造为检测获取的视觉信息的方向与朝向目的地的方向之间的差异,生成引导信息(其通知基于生成的引导信息的朝向目的地的方向)以及通过显示单元151和/或音频输出单元152输出生成的引导信息(S33)。例如,控制单元180被构造为识别视觉信息中包括的特定对象,并且基于识别出的对象的方向与朝向目的地的方向之间的差异引导朝向目的地的方向。
控制单元180可以被构造为识别视觉信息中包括的多个对象中具有预置的特征点的对象,并且基于识别出的对象(对象的位置和方向)引导朝向目的地的方向。具有预置的特征点的对象可以包括具有最高色度的对象、具有最大面积或尺寸的对象、具有最大尺寸的文本的对象或者多个对象中离当前位置最近的对象。
控制单元180可以被构造为检测识别出的对象的视觉信息(例如,识别出的对象的颜色、文本、形状(结构)等等),并且在显示单元151上显示检测到的视觉信息或者通过音频输出152输出为语音。
控制单元180可以被构造为当在输出道路引导信息时,用户的头部移动等于或类似于在眼佩戴型终端200的移动停止(用户的移动停止)的状态下的预置的头部移动方式时,识别出检测到用户的非识别信息,并且基于用户的非识别信息通过摄像头121获取视觉信息。例如,控制单元180被构造为,当检测到等于或类似于在用户在无运动状态下四处张望时实施的头部移动(预置移动方式)的头部移动时,识别出检测到用户的非识别信息,并且基于用户的非识别信息通过摄像头121获取视觉信息。
控制单元180可以被构造为,当在输出道路引导信息时,眼佩戴型移动终端200在路线的多个区段中的特定区段处反复移动超过预置次数(例如,两次)时,识别出检测到用户的非识别信息,并且基于用户的非识别信息通过摄像头121获取视觉信息。例如,控制单元180被构造为,当佩戴眼佩戴型移动终端的用户在特定区段处反复移动时,识别出检测到用户的非识别信息,并且基于用户的非识别信息通过摄像头121获取视觉信息。
控制单元180可以被构造为,当在输出道路引导信息时,眼佩戴型终端200在预置时间(例如,20-30秒)内反复移动超过预置次数(例如,两次)时,识别出检测到用户的非识别信息,并且基于用户的非识别信息通过摄像头121获取视觉信息。例如,控制单元180被构造为,当佩戴眼佩戴型移动终端的用户在预置时间(例如,20-30秒)内在特定区段处反复移动时,识别出检测到用户的非识别信息,并且基于用户的非识别信息通过摄像头121获取视觉信息。预置时间(例如,20-30秒)以及预置次数(例如,两次)可以根据用户或设计者的意图来改变。
控制单元180可以被构造为,当在输出道路引导信息时,眼佩戴型移动终端200的移动速度方式(用户的移动方式)等于或类似于预置速度方式时,识别出检测到用户的非识别信息,并且基于用户的非识别信息通过摄像头121获取视觉信息。
控制单元180可以被构造为,当在输出道路引导信息时,眼佩戴型移动终端200的移动方向(用户的移动方向)在预置时间(20-30秒)内不规则地改变时,识别出检测到用户的非识别信息,并且基于用户的非识别信息通过摄像头121获取视觉信息。例如,控制单元180可以被构造为,当眼佩戴型移动终端200的移动方向(用户的移动方向)由于用户的徘徊而不规则地改变时,识别出检测到用户的非识别信息,并且基于用户的非识别信息通过摄像头121获取视觉信息。
控制单元180可以被构造为,当在输出道路引导信息时,眼佩戴型移动终端200的移动方向(用户的移动方向)在预置时间(例如,20-30秒)内改变了预置次数时,识别出检测到用户的非识别信息,并且基于用户的非识别信息通过摄像头121获取视觉信息。
控制单元180可以被构造为,当在输出道路引导信息时,用户的心率处于参考值之外时,识别出检测到用户的非识别信息,并且基于用户的非识别信息通过摄像头121获取视觉信息。例如,控制单元180可以被构造为在输出道路引导信息时,通过用于感测心率的传感器检测用户的心率,当检测到的心率处于预置参考值(例如,120mmHg/80mmHg)之外时识别出检测到用户的非识别信息,并且基于用户的非识别信息通过摄像头121获取视觉信息。预置的参考值(例如,120mmHg/80mmHg)可以根据用户或设计者的意图而改变。
图4A和图4B是示出基于视觉信息内的对象引导道路的方法的示例性视图。
如图4A中所示,控制单元180可以被构造为,当在输出道路引导信息时检测到用户的非识别信息的情况下,通过摄像头121获取对应于用户的眼线方向的视觉信息(4-1),识别出获取的视觉信息(4-1)内具有预置的特征点的对象(4-1a),并且基于获取的对象(4-1a)(基于对象(4-1a)的位置和方向)生成通知朝向目的地的方向的引导信息(例如,直行并使对象处于右侧)。
如图4B中所示,控制单元180被构造为在与对象(4-1a)相邻的位置显示生成的引导信息(4-2)。引导信息(4-2)可以进一步包括路线规划信息(4-3)。例如,控制单元180被构造为识别获取的视觉信息(4-1)内的多个对象(4-1a、4-1b和4-1c)中具有预置的特征点的对象(4-1a),并且基于识别出的对象(4-1a)向用户提供通知朝向目的地的方向的引导信息。控制单元180可以被构造为通过音频输出单元152将引导信息(4-2和4-4)输出为语音。对象可以包括建筑物、标识牌(例如,具有绿色标识牌的咖啡店)、结构(蓝色弧形状的天桥)、汽车(例如,车牌号为34Gu1234的白色中型汽车)等等。
控制单元180可以被构造为识别获取的视觉信息内的特征点,例如色度、面积(或尺寸)、文本和多个对象(4-1a、4-1b和4-1c)的距离,并且基于上述特征点中的一个或多于两个的组合来识别具有预置特征点的对象(4-1a)。例如,控制单元180可以被构造为将获取的视觉信息内的多个对象(4-1a、4-1b和4-1c)中具有上述特征点(即,最大色度、最大面积(或最大尺寸)、最大尺寸的文本和最大距离)中的一个或多于两个的特征点的对象识别为具有预置特征点的对象(4-1a)。
控制单元180可以被构造为对于获取的视觉信息内的多个对象中具有预置特征点的对象输出高亮效果。例如,控制单元180可以被构造为指示利用预置的粗线指示具有预置特征点的对象的边界,或者以预置颜色指示具有预置特征点的对象的边界,以高亮具有预置特征点的对象。此外,控制单元180可以被构造为对于剩余的对象施加阴影以高亮具有预置特征点的对象,该剩余的对象不包括获取的视觉信息内的多个对象中具有预置特征点的对象。
控制单元180可以被构造为在具有预置特征点的对象的周边指示诸如手指或指示器的指示符。控制单元180可以被构造为控制指示符根据用户的眼线移动而跟随具有该特征点的对象。
控制单元180可以被构造为将获取的视觉信息内的对象中具有标识牌的形状的第一对象识别为标识牌。此外,控制单元180可以被构造为当获取的视觉信息内的对象中具有标识牌的形状的第一对象包括文本和/或电话号码等等时,将第一对象识别为标识牌。
图5是示出基于视觉信息内的对象引导道路的另一方法的示例性视图。
如图5中所示,控制单元180被构造为,当在输出道路引导信息时检测到用户的非识别信息时,通过摄像头121获取对应于用户的眼线方向的视觉信息(4-1),检测获取的视觉信息(4-1)内的多个对象(4-1a、4-1b和4-1c)中具有预置特征点的对象(4-1a)(例如,具有最大面积(或最大尺寸)的对象(4-1a)),以及检测对象(4-1a)的特征点。例如,对象(4-1a)的特征点可以是对象(4-1a)的颜色(例如,白色)、对象(4-1a)的形状(例如,标识牌的形状、建筑物等等的形状)以及对象(4-1a)内的文本(例如,咖啡店、商业中心等等)。
控制单元180可以被构造为,当基于识别出的对象(4-1a)输出通知朝向目的地的方向的引导信息时,通过反映检测到的特征点来生成最终的引导信息(例如,直行并且使具有白色标识牌的咖啡店处于右侧)(5-1),并且在靠近对象(4-1a)的位置显示引导信息(5-1)。控制单元180可以被构造为通过音频输出单元152将引导信息(5-1和4-3)输出为语音。
控制单元180可以被构造为对于识别出的对象(4-1a)输出高亮效果。例如,控制单元180可以被构造为利用预置的粗线指示识别出的对象(4-1a)的边界,或者以预置颜色指示对象(4-1a)的边界,以高亮对象(4-1a)。此外,控制单元180可以被构造为使得对于剩余的对象(4-1b和4-1c)施加阴影以高亮获取的对象(4-1),该剩余的对象不包括获取的视觉信息内的多个对象中的对象(4-1a)。控制单元180可以被构造为在获取的对象(4-1a)的周边指示诸如手指或指示器的指示符。控制单元180可以被构造为控制指示符以跟随获取的对象。
图6A和图6B是示出在基于视觉信息内的对象引导道路的同时选择经过点的方法的示例性视图。
如图6A中所示,控制单元180被构造为,当在基于视觉信息(4-1)内的对象(4-1a)输出引导信息时输入了用户的输入(例如,用户的手势、头倾斜的方向、用户的眼线的方向等等)(6-1)以及经过点(例如,商业中心)时,搜索位于特定方向上的经过点,并且通过输出单元输出对应于从当前位置到搜索到的经过点的路线的道路引导信息。
如图6B中所示,控制单元180被构造为,当在基于视觉信息(4-1)内的对象(4-1a)输出引导信息时输入了对应于经过点(例如,商业中心)的用户的语音以及指示直线方向的用户的姿势(例如,用户的手势)(6-1)时,搜索直线方向上的商业中心,并且通过输出单元输出对应于从当前位置到搜索到的商业中心的路线的道路引导信息(6-2、6-3、6-4和6-5)。这里,控制单元180可以被构造为,当在引导经过点时检测到用户的非识别信息时,通过摄像头121获取对应于用户的眼线的方向的视觉信息,识别获取的视觉信息内具有预置的特征点的对象,基于识别出的对象生成通知朝向经过点的方向的引导信息,并且在靠近对象的位置处显示引导信息。
图7A、图7B和图7C是示出根据本发明的实施方式的建议目的地的方法的示例性视图,其中,基于之前目的地的历史(之前目的地的信息)建议目的地。
如图7A中所示,控制单元180被构造为,当在用户设置的目的地不存在的状态下检测到用户的非识别信息时,从存储器170中读出可以可从当前位置移动的之前的目的地(办公室、家等等)。控制单元180可以被构造为,当在用户设置的目的地不存在的状态下检测到用户的非识别信息时,经由无线通信网络从服务器或终端(例如,诸如智能电话的移动通信终端)接收可从当前位置移动的之前的目的地(例如,办公室、家等等)。此外,控制单元180可以被构造为从在终端或眼佩戴型终端中存储的对话列表、任务(character)、与代理的对话、日程表等等搜索目的地候选,并且向用户推荐检测到的候选。
如图7B中所示,控制单元180被构造为在显示单元51上显示从当前位置到之前的目的地中的每一个的路线方向(7-1)。控制单元180可以被构造为不仅显示路线方向(7-1),而且显示每条路线的所需时间和所需距离。控制单元180可以被构造为,当在存储器170或服务器上不存在可从当前位置移动的之前的目的地时,在显示单元151上显示可从当前位置移动的新的路线。
控制单元180被构造为,当接收到选择路线方向(7-1)中的第一路线方向(例如,去往家的方向)(7-2)的用户输入(例如,用户的手势、头部移动、用户的凝视、触摸输入等等)时,自动地将对应于第一路线方向的之前的目的地设置为当前目的地。
如图7C中所示,控制单元180被构造为,当头部在路线方向(7-1)中的第一路线方向(7-2)上移动或者用户凝视第一路线方向(7-2)时,将对应于第一路线方向(7-2)的之前的目的地(例如,家)设置为当前目的地,并且在显示单元151上显示询问是否引导从当前位置到当前设置的目的地(例如,家)的路线的询问窗口(7-3)。询问窗口(7-3)可以包括从当前位置到当前设置的目的地的所需时间和距离以及与朝向当前设置的目的地的方向有关的信息(例如,家位于商业中心的右侧)等等。
控制单元180可以被构造为,当响应于询问窗口(7-2)接收到请求引导从当前位置到当前设置的目的地(例如,家)的路线的用户输入(例如,用户的手势、头部移动、用户的眼线、用户的语音、眼佩戴型终端的按钮操作等等)时,生成对应于从当前位置到当前设置的目的地(例如,家)的路线的道路引导信息,并且通过输出单元输出道路引导信息。这里,控制单元180可以被构造为,当在输出道路引导信息时检测到用户的非识别信息时,通过摄像头121获取对应于用户的眼线方向的视觉信息,识别获取的视觉信息内具有预置特征点的对象,基于识别出的对象生成用于引导朝向当前设置的目的地的方向的引导信息,并且在与对象相邻的位置显示引导信息。
图8A和图8B是示出根据本发明的实施方式的建议目的地的另一方法的示例性视图。
如图8A中所示,控制单元180被构造为,当在用户设置的目的地不存在的状态下检测到用户的非识别信息时,在显示单元151上显示可从当前位置移动的之前的目的地的路线方向以及可从当前位置移动的新路线(8-1)。控制单元180被构造为,当当接收到选择可从当前位置移动的新路线(8-1)的用户输入(例如,用户的手势、头部移动、用户的眼线、用户的语音、眼佩戴型终端的按钮操作等等)时,在显示单元151上显示推荐的目的地候选。
如图8B中所示,控制单元180被构造为,当接收到用于选择可从当前位置移动的新路线(8-1)的用户输入(例如,用户的手势、头部移动、用户的眼线、用户的语音、眼佩戴型终端的按钮操作等等)时,在显示单元151上显示在新路线(8-1)上存在的用户的兴趣点作为推荐目的地(例如,咖啡店、商业中心等等)。
控制单元180可以被构造为,当在显示单元151上显示在新路线(8-1)上存在的推荐目的地时,进一步显示推荐目的地中的每一个的图像和标题、从当前位置到推荐目的地中的每一个所需的时间和距离。
控制单元180被构造为,当接收到用于选择可从当前位置移动的新路线(8-1)的用户输入时,按照距离当前位置的最短距离起的顺序以阵列形式在显示单元151上列出在新路线(8-1)上存在的推荐目的地。
控制单元180被构造为,当接收到用于选择推荐目的地(8-2和8-3)中的特定推荐目的地(8-3)的用户输入(例如,用户的手势、头部移动、用户的眼线、触摸输入等等)时,选择特定的目的地(8-3),并且通过输出单元输出对应于从当前位置到所选择的特定推荐目的地(8-3)的路线的道路引导信息。例如,控制单元180被构造为,当用户凝视推荐目的地中的特定推荐目的地(8-3)时,通过输出单元输出对应于从当前位置到所选择的推荐目的地的路线的道路引导信息。控制单元180可以被构造为,当用户凝视推荐目的地中的特定推荐目的地(8-3)时,对于该特定推荐目的地(8-3)输出高亮效果。
控制单元180可以被构造为,当输入了用于选择推荐目的地中的特定推荐目的地(例如,“商业中心”)(8-3)的用户语音(例如,“商业中心”)时,通过输出单元输出对应于从当前位置到所选择的特定推荐目的地的路线的道路引导信息。
图9A和图9B是示出根据本发明的实施方式的建议目的地的又一方法的示例性视图。
如图9A中所示,控制单元被构造为,当在用户设置的目的地不存在的状态下,当前时间对应于移动时间(例如,关闭时间、计划时间等等)时,在显示单元151上显示建议在移动时到想要的地方(例如,家、计划位置等等)的道路引导的建议信息(例如,是关闭时间。我可以引导你回家吗?等等)。
控制单元180可以被构造为基于用户的个人信息(例如,生活周期等等)检测用户的移动方式,并且使用与移动方式相关的地方作为用于建议道路引导的建议信息。
此外,服务器可以被构造为基于从终端或眼佩戴型终端输入的用户的个人信息(例如,生活周期等等)或者发送到服务器的用户的个人信息(例如,生活周期等等)来检测用户的移动方式,并且使用与用户的移动方式相关的地方作为用于建议道路引导的建议信息。
控制单元180可以被构造为,当响应于建议信息接收到请求道路引导的用户输入(例如,用户的手势、头部移动、用户的眼线、触摸输入等等)时,通过摄像头121获取对应于用户的眼线方向的视觉信息,识别获取的视觉信息内具有预置特征点的对象,基于识别出的对象生成用于引导朝向移动地点(例如,家、计划地点等等)的方向的引导信息(例如,当看到咖啡店时向右直行)(9-1和9-2),并且在与对象相邻的位置显示引导信息。
如图9B中所示,控制单元180被构造为,当接收到请求道路引导的用户输入(例如,用户的手势、头部移动、用户的眼线、触摸输入等等)时,从存储器170读出可从当前位置移动的之前的目的地(例如,咖啡店、商业中心等等),并且在显示单元151上显示从当前位置到之前的目的地中的每一个的路线方向(9-3)。控制单元180可以被构造为不仅显示路线方向(9-3),而且在显示单元151上显示每条路线的所需时间和距离。控制单元180可以被构造为在不存在可从当前位置移动的之前的目的地时,在显示单元151上显示可从当前位置移动的新路线。
图10是示出根据本发明的实施方式的建议目的地的同时引导绕过路线的方法的示例性视图。
如图10中所示,控制单元180被构造为,当在输出道路引导信息时,用户的生理信息处于参考值之外时,在显示单元151上显示建议绕过对应于道路引导信息的路线的新路线的建议信息(例如,可否引导到安全路线?等等)。例如,控制单元180被构造为在输出道路引导信息时,通过用于感测心率的传感器感测用户的心率,并且当检测到的心率处于参考值(例如,20mmHg/80mmHg)之外时,在显示单元151上显示将道路引导建议为绕过对应于道路引导信息的路线的新路线的建议信息。
控制单元180被构造为,当响应于建议信息输入了请求道路引导的用户输入(例如,用户的手势、头部移动、用户的眼线、触摸输入等等)时,通过摄像头121获取对应于用户的眼线方向的视觉信息,识别获取的视觉信息内具有预置特征点的对象,基于识别出的对象生成通知朝向新路线的方向的引导信息(例如,当看到咖啡店时向右执行)(10-1和10-2),并且在与对象相邻的位置显示引导信息。
控制单元180可以被构造为当在输出道路引导信息时周边亮度小于参考值时将道路引导建议为绕过对应于道路引导信息的路线的新路线的道路引导。例如,控制单元180被构造为在输出道路引导信息时通过照度传感器检测周边照度(周边亮度),并且当检测到的照度小于参考值(例如,10lux)时将道路引导建议为绕过对应于道路引导信息的路线的新路线。可以由用户或设计者的意图来改变参考值(例如,10lux)。
控制单元180可以被构造为当在输出道路引导信息时,眼佩戴型终端的移动速度处于参考值之外时,将道路引导建议为绕过对应于道路引导信息的路线的新路线。例如,控制单元180被构造为,当在输出道路引导信息时,眼佩戴型终端的移动速度逐渐地增加时,将当前区域识别为危险区域并且将道路引导建议为绕过对应于道路引导信息的路线的新路线。
控制单元180可以被构造为在输出道路引导信息时检测通过摄像头捕获的图像内的人数(例如,检测人的数目或面部的数目),并且当检测到的人数小于参考值(例如,一个或两个人)时,将道路引导建议为绕过对应于道路引导信息的路线的新路线。例如,控制单元180被构造为在输出道路引导信息时检测通过摄像头121实时捕获的视觉信息内的人数,当检测到的人数小于参考值(例如,一个或两个人)时,将当前区域识别为危险区域,并且将道路引导建议为绕过对应于道路引导信息的路线的新路线。
控制单元180可以被构造为当在输出道路引导信息时,在预置时间(例如,10-20秒)内,方向改变(例如,用户的头的方向改变)反复了预置次数(例如,三次至四次)时,将道路引导建议为绕过对应于道路引导信息的路线的新路线。例如,控制单元180被构造为,当在输出道路引导信息时检测到往后看若干次的用户的头部移动,则将当前区域识别为危险区域并且将道路引导建议为绕过对应于道路引导信息的路线的新路线。
图11A和图11B是示出根据本发明的实施方式的在输出道路引导信息的同时通知习惯路线偏离点的方法的示例性视图。
如图11A中所示,控制单元180被构造为,当在输出道路引导信息时,用户在对应于道路引导信息的路线上反复地偏离特定点时,将该特定点设置为习惯路线偏离点。控制单元180被构造为当在输出道路引导信息时当前位置变得离习惯路线偏离点更近时,通过向该特定点(习惯路线偏离点)输出高亮效果(11-1)来向用户通知该特定点是习惯路线偏离点。例如,控制单元180被构造为当在输出道路引导信息时当前位置变得离习惯路线偏离点更近时,通过与指示路线的方向的路线规划箭头的颜色不同地显示指示特定点的方向的路线规划箭头的颜色来向用户通知该特定点是习惯路线偏离点。
如图11B中所示,控制单元180可以进一步包括指示对于引导朝向特定点的方向的路线规划箭头“没有入口”的符号(11-2)。
控制单元180可以被构造为在输出道路引导信息时存储每个结合部的视觉信息(移动图像),并且基于检测到用户的非识别信息的时间点或者检测到用户的非识别信息或者发生路线偏离时的路线偏离点来再现对应于之前的部分的视觉信息(移动图像),从而用户可以容易且迅速地确认(识别)路线偏离的原因。
如上所述,本发明能够在其中记录程序的介质中实施为计算机可读代码。计算机可读介质包括其中存储可由计算机***读取的数据的所有种类的记录装置。计算机可读介质的示例是硬盘驱动器(HDD)、固态盘(SSD)、硅盘驱动器(SSD)、ROM、RAM、CD-ROM、磁带、软盘、光学数据存储装置,并且包括载波(例如,经由互联网传输)的形式的类型。此外,可以包括计算机终端的控制器180。
前述实施方式和优点仅仅是示例性的并且不应被认为限制本发明。本教导可以容易地应用于其它类型的装置。本说明书旨在进行例示,并且不限制权利要求的范围。对于本领域技术人员而言,许多另选例、修改例和变型例将是显而易见的。可以以各种方式组合在本文中描述的本发明的实施方式的特征、结构、方法和其它特性,以获得本发明的额外和/或另选的实施方式。
由于在不偏离本发明的特征的情况下,示例性实施方式可以实现为多种形式,所以也应该理解的是,除非另外指出,否则上述实施方式不被以上描述的任何细节所限制,而是应该在如所附权利要求中所限定的范围内进行宽泛的解释,并且因此,所附权利要求因此旨在包括落入该权利要求的边界和范围或者这些边界和范围的等同物内的所有变化和修改。

Claims (20)

1.一种眼佩戴型移动终端,所述眼佩戴型移动终端包括:
摄像头;
输出单元;以及
控制器,所述控制器被构造为:
获取与当前位置有关的信息;
获取用于从所述当前位置到目的地的路线的道路引导信息;
使得所述摄像头实时地获取视觉信息;以及
使得所述输出单元使用所获取的视觉信息实时地输出所获取的道路引导信息。
2.根据权利要求1所述的眼佩戴型移动终端,其中,所述控制器还被构造为:
识别所获取的视觉信息中包括的对象;以及
基于识别出的对象实时地更新所输出的道路引导信息。
3.根据权利要求1所述的眼佩戴型移动终端,其中,所述控制器还被构造为:
识别所获取的视觉信息中包括的多个对象当中具有预置特征点的对象;以及
基于识别出的对象实时地更新所输出的道路引导信息。
4.根据权利要求3所述的眼佩戴型移动终端,其中,所述对象是具有最高色度的对象、具有最大面积或尺寸的对象、具有最大尺寸的文本的对象、离所述当前位置最近的对象或这些对象的组合。
5.根据权利要求3所述的眼佩戴型移动终端,其中,所述控制器还被构造为:
检测识别出的对象的预置特征点;以及
基于检测到的预置特征点更新所输出的道路引导信息。
6.根据权利要求5所述的眼佩戴型移动终端,其中,检测到的预置特征点是识别出的对象的颜色、形状或文本中的一种或它们的组合。
7.根据权利要求1所述的眼佩戴型移动终端,其中,所述控制器还被构造为:
在输出所述道路引导信息时,检测用户的非识别信息;以及
使得所述摄像头基于检测到的用户的非识别信息获取所述视觉信息。
8.根据权利要求7所述的眼佩戴型移动终端,其中,所述控制器还被构造为当在输出所述道路引导信息之后用户的头部移动被识别为等于或类似于预置移动方式时,检测用户的非识别信息。
9.根据权利要求1所述的眼佩戴型移动终端,其中,所述控制器还被构造为当所述移动终端在预置时间段内在所述道路引导信息中包括的多个区段当中的特定区段处反复移动超过预置次数时,使得所述摄像头获取所述视觉信息。
10.根据权利要求1所述的眼佩戴型移动终端,其中,所述控制器还被构造为当在输出所述道路引导信息时所述移动终端的移动速度等于或类似于预置速度的情况下,使得所述摄像头获取所述视觉信息。
11.根据权利要求1所述的眼佩戴型移动终端,其中,所述控制器还被构造为当在输出道路引导信息时所述移动终端的移动方向在预置时间段内改变了预置次数的情况下,使得所述摄像头获取所述视觉信息。
12.根据权利要求1所述的眼佩戴型移动终端,其中,所述控制器还被构造为当在输出所述道路引导信息时用户的心率处于参考范围之外的情况下,使得所述摄像头获取所述视觉信息。
13.根据权利要求1所述的眼佩戴型移动终端,其中,所述控制器还被构造为:
响应于指示特定方向和经过点的用户的姿势,搜索位于所述特定方向的所述经过点;以及
更新从所述当前位置到搜索到的经过点的路线。
14.根据权利要求1所述的眼佩戴型移动终端,其中,所述控制器还被构造为基于当前时间以及到第二目的地的移动时间来使得所述输出单元输出到所述第二目的地的建议引导信息。
15.根据权利要求1所述的眼佩戴型移动终端,其中,所述控制器还被构造为:
在输出所述道路引导信息时,确定用户的生物信号处于参考范围之外;以及
基于确定的用户的生物信号使得所述输出单元输出用于绕路的建议引导信息。
16.根据权利要求1所述的眼佩戴型移动终端,其中,所述控制器还被构造为:
在输出所述道路引导信息时,确定周边亮度小于参考值;以及
基于所述确定使得所述输出单元输出用于绕过所述路线的新路线的建议引导信息。
17.根据权利要求1所述的眼佩戴型移动终端,其中,所述控制器还被构造为:
在输出所述道路引导信息时,确定所述移动终端的移动速度小于参考速度;以及
基于所述确定使得所述输出单元输出用于绕过所述路线的新路线的建议引导信息。
18.根据权利要求1所述的眼佩戴型移动终端,其中,所述控制器还被构造为:
在输出所述道路引导信息时,检测所获取的视觉信息中包括的人数;以及
当所检测到的数目小于参考值时,使得所述输出单元输出用于绕过所述路线的新路线的建议引导信息。
19.根据权利要求1所述的眼佩戴型移动终端,其中,所述控制器被构造为当所述移动终端的方向在预置时间段内改变了预置次数时,使得所述输出单元输出用于绕过所述路线的新路线的建议引导信息。
20.根据权利要求1所述的眼佩戴型移动终端,其中,所述控制器还被构造为当在输出所述道路引导信息时所述当前位置靠近预置习惯路线偏离点的情况下,使得所述输出单元输出针对该预置习惯路线偏离点的高亮效果。
CN201510035876.4A 2014-06-26 2015-01-23 眼佩戴型终端及控制眼佩戴型终端的方法 Active CN105278670B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2014-0079136 2014-06-26
KR1020140079136A KR20160001178A (ko) 2014-06-26 2014-06-26 글래스 타입 단말기 및 이의 제어방법

Publications (2)

Publication Number Publication Date
CN105278670A true CN105278670A (zh) 2016-01-27
CN105278670B CN105278670B (zh) 2020-06-05

Family

ID=52349989

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510035876.4A Active CN105278670B (zh) 2014-06-26 2015-01-23 眼佩戴型终端及控制眼佩戴型终端的方法

Country Status (4)

Country Link
US (1) US9921073B2 (zh)
EP (1) EP2960630B1 (zh)
KR (1) KR20160001178A (zh)
CN (1) CN105278670B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107816992A (zh) * 2017-08-28 2018-03-20 深圳市赛亿科技开发有限公司 一种基于ar眼镜的室内定位方法及***
CN108922086A (zh) * 2018-06-29 2018-11-30 贵州省仁怀市西科电脑科技有限公司 安防报警与引导方法
CN108961628A (zh) * 2018-06-29 2018-12-07 贵州省仁怀市西科电脑科技有限公司 安防报警与引导***
CN111026276A (zh) * 2019-12-12 2020-04-17 Oppo(重庆)智能科技有限公司 视觉辅助方法及相关产品
CN111325849A (zh) * 2018-12-14 2020-06-23 广东虚拟现实科技有限公司 虚拟内容显示方法、装置、终端设备及存储介质
CN113196377A (zh) * 2018-12-20 2021-07-30 Ns西日本株式会社 显示光射出装置、平视显示装置、图像显示***及头盔

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9990028B2 (en) * 2014-10-03 2018-06-05 Verizon Patent And Licensing Inc. System and method for providing live augmented reality content
DE102014224810B4 (de) * 2014-12-03 2019-05-23 Elektrobit Automotive Gmbh Navigationssystem
KR102500299B1 (ko) * 2015-12-03 2023-02-16 삼성전자주식회사 사용자 단말 및 그 제어 방법
US20170193705A1 (en) * 2015-12-31 2017-07-06 Daqri, Llc Path visualization for motion planning
US10140770B2 (en) * 2016-03-24 2018-11-27 Toyota Jidosha Kabushiki Kaisha Three dimensional heads-up display unit including visual context for voice commands
KR102330829B1 (ko) * 2017-03-27 2021-11-24 삼성전자주식회사 전자 장치에서 증강현실 기능 제공 방법 및 장치
CN108509593A (zh) * 2018-03-30 2018-09-07 联想(北京)有限公司 一种显示方法及电子设备、存储介质
DE102018208700A1 (de) 2018-06-01 2019-12-05 Volkswagen Aktiengesellschaft Konzept für die Steuerung einer Anzeige eines mobilen Augmented-Reality-Gerätes
JP6957426B2 (ja) * 2018-09-10 2021-11-02 株式会社東芝 再生装置、再生方法、及びプログラム
DE102018219812A1 (de) 2018-11-19 2020-05-20 Volkswagen Aktiengesellschaft Konzept für die Steuerung einer Anzeige eines mobilen Augmented-Reality-Gerätes
US11899448B2 (en) * 2019-02-21 2024-02-13 GM Global Technology Operations LLC Autonomous vehicle that is configured to identify a travel characteristic based upon a gesture
AT522549B1 (de) 2019-04-18 2022-09-15 Dreamwaves Gmbh Verfahren zum Leiten von Verkehrsteilnehmern

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6339746B1 (en) * 1999-09-30 2002-01-15 Kabushiki Kaisha Toshiba Route guidance system and method for a pedestrian
US20060055525A1 (en) * 2004-09-03 2006-03-16 Aisin Aw Co., Ltd. Driving support system and driving support module
US20070156336A1 (en) * 2006-01-04 2007-07-05 Mitac International Corp. Method for automatically prompting detour
US20090083627A1 (en) * 2007-04-06 2009-03-26 Ntt Docomo, Inc. Method and System for Providing Information in Virtual Space
DE102008042397A1 (de) * 2008-09-26 2010-04-01 Robert Bosch Gmbh Navigationssystem mit kontaktanaloger Anzeige
US20100253540A1 (en) * 2009-04-02 2010-10-07 Gm Global Technology Operations, Inc. Enhanced road vision on full windshield head-up display
US20100253494A1 (en) * 2007-12-05 2010-10-07 Hidefumi Inoue Vehicle information display system
CN102200881A (zh) * 2010-03-24 2011-09-28 索尼公司 图像处理装置、图像处理方法以及程序
US20110238290A1 (en) * 2010-03-24 2011-09-29 Telenav, Inc. Navigation system with image assisted navigation mechanism and method of operation thereof
US20120050144A1 (en) * 2010-08-26 2012-03-01 Clayton Richard Morlock Wearable augmented reality computing apparatus
DE102012013503A1 (de) * 2012-07-06 2014-01-09 Audi Ag Verfahren und Steuerungssystem zum Betreiben eines Kraftwagens
WO2014044173A1 (zh) * 2012-09-20 2014-03-27 华为终端有限公司 导航终端、导航方法及远程导航服务***

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4424961B2 (ja) * 2003-04-15 2010-03-03 アルパイン株式会社 ナビゲーション装置およびナビゲーション方法
DE602006018338D1 (de) * 2005-09-07 2010-12-30 Pioneer Corp Anordnung und verfahren zur berechnung der monotonie einer szene
US7590490B2 (en) * 2006-01-09 2009-09-15 Mitac International Corporation Smart detour
DE102006057428A1 (de) * 2006-12-06 2008-06-12 Robert Bosch Gmbh Zielführungsverfahren und Anordnung zur Durchführung eines solchen sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium
US7869941B2 (en) * 2006-12-29 2011-01-11 Aol Inc. Meeting notification and modification service
EP1944578A3 (en) * 2007-01-11 2011-11-30 Harman Becker Automotive Systems GmbH Method for calculating a route to a destination for a navigation system
DE102008051757A1 (de) * 2007-11-12 2009-05-14 Volkswagen Ag Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen
JP2009163504A (ja) * 2008-01-07 2009-07-23 Panasonic Corp 画像変形方法等
JP4886044B2 (ja) * 2008-01-29 2012-02-29 パイオニア株式会社 ナビゲーション装置、ナビゲーション方法、ナビゲーションプログラム、および記録媒体
US8670592B2 (en) * 2008-04-24 2014-03-11 GM Global Technology Operations LLC Clear path detection using segmentation-based method
WO2010045976A1 (en) * 2008-10-22 2010-04-29 Tomtom International B.V. Navigation apparatus and method for planning a route
US8977489B2 (en) * 2009-05-18 2015-03-10 GM Global Technology Operations LLC Turn by turn graphical navigation on full windshield head-up display
DE102009042986B3 (de) * 2009-09-25 2011-03-03 Precitec Kg Schweißkopf und Verfahren zum Fügen eines Werkstücks
US8340894B2 (en) * 2009-10-08 2012-12-25 Honda Motor Co., Ltd. Method of dynamic intersection mapping
JP5407764B2 (ja) * 2009-10-30 2014-02-05 トヨタ自動車株式会社 運転支援装置
US8791996B2 (en) * 2010-03-31 2014-07-29 Aisin Aw Co., Ltd. Image processing system and position measurement system
US9233659B2 (en) * 2011-04-27 2016-01-12 Mobileye Vision Technologies Ltd. Pedestrian collision warning system
US20140052370A1 (en) * 2011-05-27 2014-02-20 Mitsubishi Electric Corporation Mobile-body navigation device and mobile-body navigation system
JP5447488B2 (ja) * 2011-10-13 2014-03-19 株式会社デンソー カーナビゲーションシステム
JP5669767B2 (ja) * 2011-12-13 2015-02-18 トヨタ自動車株式会社 情報提供装置
DE102012017114A1 (de) * 2012-08-29 2014-03-06 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Informationssystem
JP5737306B2 (ja) * 2013-01-23 2015-06-17 株式会社デンソー 露出制御装置
US20140362195A1 (en) * 2013-03-15 2014-12-11 Honda Motor, Co., Ltd. Enhanced 3-dimensional (3-d) navigation
BR112015024910A2 (pt) * 2013-03-26 2017-07-18 Seiko Epson Corp dispositivo de exibição montado na cabeça, método de controle de dispositivo de exibição montado na cabeça e sistema de exibição
JP6484228B2 (ja) * 2013-06-13 2019-03-13 モービルアイ ビジョン テクノロジーズ リミテッド 視覚強化ナビゲーション
EP3012587A4 (en) * 2013-06-17 2017-03-08 Sony Corporation Image processing device, image processing method, and program
KR102157313B1 (ko) * 2013-09-03 2020-10-23 삼성전자주식회사 촬영된 영상을 이용하여 객체를 인식하는 방법 및 컴퓨터 판독 가능한 기록 매체
US9826297B2 (en) * 2014-10-29 2017-11-21 At&T Intellectual Property I, L.P. Accessory device that provides sensor input to a media device
KR20160066605A (ko) * 2014-12-02 2016-06-13 삼성디스플레이 주식회사 착용형 디스플레이 장치

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6339746B1 (en) * 1999-09-30 2002-01-15 Kabushiki Kaisha Toshiba Route guidance system and method for a pedestrian
US20060055525A1 (en) * 2004-09-03 2006-03-16 Aisin Aw Co., Ltd. Driving support system and driving support module
US20070156336A1 (en) * 2006-01-04 2007-07-05 Mitac International Corp. Method for automatically prompting detour
US20090083627A1 (en) * 2007-04-06 2009-03-26 Ntt Docomo, Inc. Method and System for Providing Information in Virtual Space
US20100253494A1 (en) * 2007-12-05 2010-10-07 Hidefumi Inoue Vehicle information display system
DE102008042397A1 (de) * 2008-09-26 2010-04-01 Robert Bosch Gmbh Navigationssystem mit kontaktanaloger Anzeige
US20100253540A1 (en) * 2009-04-02 2010-10-07 Gm Global Technology Operations, Inc. Enhanced road vision on full windshield head-up display
CN102200881A (zh) * 2010-03-24 2011-09-28 索尼公司 图像处理装置、图像处理方法以及程序
US20110238290A1 (en) * 2010-03-24 2011-09-29 Telenav, Inc. Navigation system with image assisted navigation mechanism and method of operation thereof
US20120050144A1 (en) * 2010-08-26 2012-03-01 Clayton Richard Morlock Wearable augmented reality computing apparatus
DE102012013503A1 (de) * 2012-07-06 2014-01-09 Audi Ag Verfahren und Steuerungssystem zum Betreiben eines Kraftwagens
WO2014044173A1 (zh) * 2012-09-20 2014-03-27 华为终端有限公司 导航终端、导航方法及远程导航服务***

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JONGBAE KIM 等: ""Vision-based location positioning using augmented reality for indoor navigation"", 《IEEE TRANSACTIONS ON CONSUMER ELECTRONICS》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107816992A (zh) * 2017-08-28 2018-03-20 深圳市赛亿科技开发有限公司 一种基于ar眼镜的室内定位方法及***
CN108922086A (zh) * 2018-06-29 2018-11-30 贵州省仁怀市西科电脑科技有限公司 安防报警与引导方法
CN108961628A (zh) * 2018-06-29 2018-12-07 贵州省仁怀市西科电脑科技有限公司 安防报警与引导***
CN108961628B (zh) * 2018-06-29 2020-01-17 贵州省仁怀市西科电脑科技有限公司 安防报警与引导***
CN108922086B (zh) * 2018-06-29 2020-01-17 贵州省仁怀市西科电脑科技有限公司 安防报警与引导方法
CN111325849A (zh) * 2018-12-14 2020-06-23 广东虚拟现实科技有限公司 虚拟内容显示方法、装置、终端设备及存储介质
CN111325849B (zh) * 2018-12-14 2024-03-12 广东虚拟现实科技有限公司 虚拟内容显示方法、装置、终端设备及存储介质
CN113196377A (zh) * 2018-12-20 2021-07-30 Ns西日本株式会社 显示光射出装置、平视显示装置、图像显示***及头盔
US20210312842A1 (en) * 2018-12-20 2021-10-07 Ns West Inc. Display light emission device, head-up display device, image display system, and helmet
US11651714B2 (en) * 2018-12-20 2023-05-16 Ns West Inc. Display light emission device, head-up display device, image display system, and helmet
CN113196377B (zh) * 2018-12-20 2024-04-12 Ns西日本株式会社 显示光射出装置、平视显示装置、图像显示***及头盔
CN111026276A (zh) * 2019-12-12 2020-04-17 Oppo(重庆)智能科技有限公司 视觉辅助方法及相关产品

Also Published As

Publication number Publication date
US20150379360A1 (en) 2015-12-31
EP2960630A2 (en) 2015-12-30
EP2960630A3 (en) 2016-03-23
KR20160001178A (ko) 2016-01-06
EP2960630B1 (en) 2019-05-22
CN105278670B (zh) 2020-06-05
US9921073B2 (en) 2018-03-20

Similar Documents

Publication Publication Date Title
CN105278670A (zh) 眼佩戴型终端及控制眼佩戴型终端的方法
US9900498B2 (en) Glass-type terminal and method for controlling the same
KR102212030B1 (ko) 글래스 타입 단말기 및 이의 제어방법
US9602954B2 (en) Mobile terminal and method for controlling the same
KR20160136013A (ko) 이동 단말기 및 그 제어 방법
US10409324B2 (en) Glass-type terminal and method of controlling the same
CN104182051B (zh) 头戴式智能设备和具有该头戴式智能设备的交互***
KR20170005650A (ko) 무인 항공기, 이동 단말기 및 그것들의 제어방법
CN105323372A (zh) 移动终端及其控制方法
CN106067833A (zh) 移动终端及其控制方法
KR20160097655A (ko) 이동 단말기 및 그 제어 방법
US10356468B2 (en) Intelligent agent system comprising terminal devices, and control method
KR102668752B1 (ko) 이동 단말기 및 이동 단말기 제어 방법
KR20160001229A (ko) 이동단말기 및 그 제어방법
KR20180106731A (ko) 인공지능 에이전트를 구비하는 이동 단말기
KR20170096499A (ko) 이동단말기 및 그 제어방법
KR20160019741A (ko) 미러 디스플레이 장치 및 그의 동작 방법
KR20170035755A (ko) 이동 단말기 및 그 제어 방법
KR20170023491A (ko) 카메라 및 이를 포함하는 가상 현실 시스템
KR20170023648A (ko) 이동 단말기 및 이의 제어방법
KR101846129B1 (ko) 가상 레이싱 컨텐츠를 재생하기 위한 이동 단말기
US20210216768A1 (en) Mobile terminal and method for controlling the same
WO2024058439A1 (ko) 가상 공간에 배치되는 아바타 오브젝트의 페르소나를 결정하는 방법 및 장치
KR20180010438A (ko) 이동 단말기 및 이동 단말기와 통신하는 무인 항공기
KR20160027813A (ko) 글래스형 단말기

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant