CN113614676B - 用于提供多模式界面的基于移动设备的雷达***及其方法 - Google Patents
用于提供多模式界面的基于移动设备的雷达***及其方法 Download PDFInfo
- Publication number
- CN113614676B CN113614676B CN201980094670.5A CN201980094670A CN113614676B CN 113614676 B CN113614676 B CN 113614676B CN 201980094670 A CN201980094670 A CN 201980094670A CN 113614676 B CN113614676 B CN 113614676B
- Authority
- CN
- China
- Prior art keywords
- mode
- user
- display
- radar
- interface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 87
- 230000003993 interaction Effects 0.000 claims abstract description 127
- 230000033001 locomotion Effects 0.000 claims abstract description 99
- 230000004044 response Effects 0.000 claims abstract description 78
- 230000000007 visual effect Effects 0.000 claims abstract description 51
- 230000007958 sleep Effects 0.000 claims description 54
- 230000008859 change Effects 0.000 claims description 24
- 230000000694 effects Effects 0.000 claims description 16
- 238000004458 analytical method Methods 0.000 claims description 11
- 230000007704 transition Effects 0.000 claims description 9
- 230000003247 decreasing effect Effects 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 17
- 238000001228 spectrum Methods 0.000 description 14
- 230000007423 decrease Effects 0.000 description 12
- 230000008569 process Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 230000015654 memory Effects 0.000 description 8
- 238000003860 storage Methods 0.000 description 7
- 238000013459 approach Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 229920001621 AMOLED Polymers 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000002085 persistent effect Effects 0.000 description 3
- 239000004033 plastic Substances 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 239000004744 fabric Substances 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000003760 hair shine Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000002023 wood Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 235000019646 color tone Nutrition 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 230000003750 conditioning effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000001066 destructive effect Effects 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000005562 fading Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 239000011368 organic material Substances 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
- G01S13/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3206—Monitoring of events, devices or parameters that trigger a change in power modality
- G06F1/3231—Monitoring the presence, absence or movement of users
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- User Interface Of Digital Computer (AREA)
- Radar Systems Or Details Thereof (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
本文档描述了使基于移动设备的雷达***(104)能够提供多模式界面(114)的技术和***。雷达场(110)用于使用户设备(102,702)能够准确地确定用户在用户设备附近的存在或阈值移动。用户设备提供至少具有第一模式和第二模式的多模式界面,并且在第一模式中提供黑屏显示或低亮度显示。用户设备基于雷达数据并且在第一模式期间检测用户相对于用户设备的存在或阈值移动,并且响应地将多模式界面从第一模式改变为第二模式。响应于改变为第二模式,用户设备通过调整黑屏显示或低亮度显示的一个或多个显示参数来提供与隐式交互相对应的视觉反馈。
Description
背景技术
移动设备几乎已经成为商业和个人生活的必需品。移动设备和其他电子设备上的应用提供了不断增加的各种生产力、娱乐和用户定期与之交互的通信功能。这些设备是许多人在工作、玩耍和家庭中不变的伴侣。用户经由语音和触摸与它们通信,并且像虚拟助手一样对待它们,以调度会议和活动、消费数字媒体以及共享演示文稿和文档。然而,在日常生活中,通信不仅仅是人们使用的词汇。人们如何通信和表达他们的通信意图很大一部分是基于他们如何感知和管理他们的人际空间。人们经常把空间关系的变化(诸如人际距离或方位)用作通信的隐式形式。例如,人们取决于熟悉程度而与他人保持一定距离,在称呼他人时面向他人,靠近他们感兴趣的对象,并且取决于手头的任务而相对于他人站立或坐着。
在机器学习技术的帮助下,移动设备应用和移动设备本身变得更加熟悉用户的习惯和偏好,并且可以提供餐馆推荐、建议电影以及以其他方式独立地交流。然而,就所有这些计算能力和人工智能而言,移动设备是反应的(reactive)通信方。也就是说,无论智能手机有多“智能”,以及无论用户有多像人一样和他们说话,移动设备仍然依赖于被激活。为了激活移动设备,用户通常必须首先占用移动设备,以使其意识到用户使用移动设备的意图。这样做之后,移动设备使应用和功能可供用户使用。因此,移动设备所提供的用户体验在用户显式地占用移动设备之前是枯燥的、有些空白的并且缺乏丰富性。
发明内容
本文档描述了使得基于移动设备的雷达***能够提供多模式界面的技术和***。该技术和***使用雷达场来使得移动设备能够准确地确定用户的存在或缺席(absence),并且进一步确定用户的移动以隐式地与移动设备交互或通信。使用这些技术,移动设备可以考虑用户的非语言通信提示,以确定和保持用户在其环境中的意识,并且响应用户的间接交互以教育(educate)用户移动设备意识到用户和用户相对于移动设备的移动。可以基于用户相对于用户设备的移动或位置,使用经由多模式界面显示的视觉反馈来提供响应。多模式界面被描述为“情境化的(ambient)”,因为它作为移动设备的数字环境的一部分而与移动设备执行的应用程序分开且独立地操作和提供(例如,多模式界面可以被认为是用于移动设备的操作***的“画布”)。
下面描述的方面包括一种用户设备,该用户设备包括雷达***、一个或多个计算机处理器以及一个或多个计算机可读介质。雷达***至少部分以硬件实施,并且提供雷达场。雷达***还感测来自来自雷达场中的用户的反射,分析来自雷达场中的用户的反射,以及基于对反射的分析提供雷达数据。一个或多个计算机可读介质包括可由一个或多个计算机处理器执行以实施基于雷达的交互管理器的存储指令。基于雷达的交互管理器提供至少具有第一模式和第二模式的多模式界面。多模式界面在第一模式期间提供黑屏显示或低亮度显示。基于雷达的交互管理器还基于雷达数据并且在第一模式期间检测用户的存在或用户相对于用户设备的阈值移动。响应于检测到用户的存在或用户的阈值移动,基于雷达的交互管理器将多模式界面从第一模式改变为第二模式。响应于改变为第二模式,基于雷达的交互管理器通过更改黑屏显示或低亮度显示的低亮度版本的一个或多个显示参数,使得多模式界面提供与用户的存在或用户的阈值移动相对应的视觉反馈。
下面描述的方面还包括一种在用户设备中实施的方法。该方法包括提供至少具有第一模式和第二模式的多模式界面,多模式界面在第一模式期间提供黑屏显示或低亮度显示。该方法还包括当用户设备处于锁定状态时从雷达***获得雷达数据,该雷达数据表示来自由雷达***生成的雷达场中的用户的反射。该方法还包括基于雷达数据并且在第一模式期间检测用户的存在或用户相对于用户设备的阈值移动。此外,该方法包括响应于检测到用户的存在或用户的阈值移动,使得多模式界面从第一模式改变为第二模式。此外,该方法包括,响应于改变为第二模式,通过更改黑屏显示或低亮度显示的一个或多个显示参数,使得多模式界面提供与用户的存在或用户的阈值移动相对应的视觉反馈。
下面描述的方面还包括一种在包括雷达***的用户设备中实施的方法。该方法包括:雷达***提供雷达场,发送来自雷达场中的用户的反射,分析来自雷达场中的用户的反射,以及基于对反射的分析提供雷达数据。该方法还包括由基于雷达的交互管理器提供具有至少第一模式和第二模式的多模式界面。在一些方面,多模式界面在第一模式期间提供黑屏显示、低亮度显示、单色显示或高亮度和色彩饱和度显示。该方法还包括由基于雷达的交互管理器基于雷达数据并且在第一模式期间检测用户的存在或者用户相对于用户设备的阈值移动。该方法还包括:响应于检测到用户的存在或用户的阈值移动,由基于雷达的交互管理器将多模式界面从第一模式改变为第二模式。此外,该方法包括:响应于将多模式界面改变为第二模式,通过更改黑屏显示、低亮度显示、单色显示或高亮度和色彩饱和度显示的一个或多个显示参数来提供与隐式交互相对应的视觉反馈。
提供本发明内容是为了介绍关于用于提供多模式界面的基于移动设备的雷达***的简化概念,这将在下面的具体实施方式和附图中进一步描述。本发明内容不旨在标识所要求保护的主题的基本特征,也不旨在用于确定所要求保护的主题的范围。
附图说明
参考以下附图,在本文档中描述了用于提供多模式界面的基于移动设备的雷达***的一个或多个方面的细节。在所有附图中,相同的数字用于指代相同的特征和组件:
图1示出了可以实施使得基于移动设备的雷达***能够提供多模式界面的技术的示例环境。
图2示出了包括雷达***并且可以实施多模式界面的图1的移动设备的示例实施方式。
图3示出了图2的雷达***的示例实施方式。
图4示出了图3的雷达***的接收天线元件的示例布置。
图5示出了图2的雷达***的示例实施方式的附加细节。
图6示出了可以由图2的雷达***实施的示例方案。
图7和图8示出了基于指示用户与移动设备的隐式交互的雷达数据来改变模式的多模式界面的示例实施方式。
图9A示出了基于指示用户与移动设备的隐式交互的雷达数据来改变模式的多模式界面的另一示例实施方式。
图9B示出了基于指示用户与移动设备的隐式交互的雷达数据来改变模式的多模式界面的另一示例实施方式。
图10和图11描绘了用于使基于移动设备的雷达***提供多模式界面的方法。
图12-图14描绘了用于使用户设备提供基于用户与用户设备的隐式交互来改变模式的多模式界面的方法。
图15示出了示例计算***,其可以被实施为参考图1-图14描述的要实施的,或其中可以实施使得基于移动设备的雷达***能够提供多模式界面的技术的任何类型的客户端、服务器和/或电子设备。
具体实施方式
本文档描述了使得基于移动设备的雷达***能够提供多模式界面的技术和***。具体地,基于移动设备的雷达***响应于用户与移动设备的隐式交互,使用多模式界面来提供视觉反馈。隐式的交互或通信包括用户在移动设备周围的存在、空间关系和手的移动。特别地,用户与移动设备的隐式交互是不旨在启动或执行设备上的功能的、用户在移动设备附近的移动。相应地,隐式交互不被认为是显式或直接的用户输入,而是用户间接向移动设备提供输入的动作。换句话说,隐式交互包括不旨在提供直接输入但移动设备可以用来确定或解释为隐含或间接输入的、移动设备附近的用户动作。示例隐式交互包括用户进入移动设备周围具有指定半径的区域(例如,雷达场)、用户的手在指定阈值距离内伸向(或远离)移动设备、用户看向移动设备、用户在指定距离内朝向移动设备移动他的头(诸如更近地看移动设备)、用户在面对移动设备的同时点头或摇头、用户退出雷达场,等等。与隐式交互相反,显式用户输入可以包括对移动设备的触摸屏的触摸输入,对移动设备上的按钮的激励,或者以用户想要启动特定功能的方式与移动设备或移动设备的应用程序或用户界面(UI)元素直接交互的手势(诸如在移动设备上的滑动、轻击、双击、挥手等)。
所描述的技术和***采用雷达***来提供丰富的情境多模式界面体验,其基于用户与移动设备的隐式交互来改变模式而不是仅对显式用户输入做出反应,以向用户提供反馈来指示设备意识到且正在检测用户的移动并且能够以感兴趣的方式做出反应。可以通过确定未经认证的用户相对于设备的移动(例如,当设备处于锁定状态时)来辨别用户的隐式交互。
多模式界面包括几种模式,包括例如休眠模式、情境模式、警报模式和活动模式。基于当前正在执行多模式界面的哪种模式,向移动设备的显示设备提供不同水平的功率。
在示例中,当雷达***处于低功率模式时,移动设备也可以通过关闭或以其他方式降低各种功能(诸如显示设备、触摸屏、麦克风、语音助手等)的功耗而处于低功率状态。同时,多模式界面可以处于休眠模式,使得界面处于休眠状态并且提供断电显示,例如黑屏显示。在一些情况下,当多模式界面处于休眠模式时,显示设备被认为处于“OFF”状态,使得显示设备被关闭,并且没有电力被提供给显示设备来照亮像素。当用户不在移动设备附近(例如,在移动设备的指定距离内没有检测到用户)时,或者当移动设备被放在用户的口袋、钱包或包中时(其中设备检测到它在黑暗的位置内并且用户没有与移动设备交互(隐式地或显式地)),休眠模式可以被应用于多模式界面。
当雷达***在该区域中检测到用户时,交互管理器自动将多模式界面从休眠模式转换到情境模式。在情境模式中,移动设备在设备的指定距离内(例如,在雷达***的雷达场内)检测用户的存在。这里,设备在较低功率状态中进行操作,并且显示屏被设置为低亮度以最小化功耗。如本文所述,亮度是指人类对对象的感知亮度。修改亮度(luminosity)可以包括修改照度(luminance)(例如,辉度(brightness))、对比度和/或不透明度。低亮度可以指低于相对于最大亮度(例如,100%亮度)定义的预定义阈值水平的亮度水平。低亮度的示例预定义阈值水平可以包括最大亮度的大约50%、40%、25%、15%等。这个预定义阈值可以由制造商设置,或者由用户选择的设置来定义。高亮度可以指大于或等于相对于最大亮度定义的预定义阈值水平的亮度水平。高亮度的预定义阈值水平的示例可以包括最大亮度的大约50%、60%、75%、85%、95%或100%。可以实施任何合适数量的亮度水平,诸如三个(例如,低、中、高)、四个、五个或更多,以与多模式界面的模式数量相关联。
在一些情况下,一个或多个用户界面元素(例如,时钟、电池电量指示器、主页按钮、锁定按钮等)以低亮度(例如,低辉度)显示在显示屏上。显示屏还可以以低亮度和色彩饱和度显示图像,诸如图像的褪色和/或暗淡的单色(例如,灰度)版本。然而,低色彩饱和度不限于单色。相反,低色彩饱和度可以包括具有暗色调或阴影的一种或多种色彩,使得显示的感知色彩被减弱。
在一个方面,当从休眠模式转换到情境模式时,显示屏以高亮度点亮,以通过针对指定持续时间展现(例如,淡入)图像向用户打招呼来提供视觉反馈。以这种方式,显示通知用户,设备已经检测到用户的存在并且准备响应用户的移动。在持续时间期满之后,亮度可能降低,使得图像淡入到不太突出的状态中。例如,显示屏可以变暗以隐藏图像或提供图像的低亮度、低色彩饱和度(或去饱和)版本,以便降低功耗。在一些实施方式中,一个或多个用户界面元素也可以变暗和/或去饱和以降低功耗。当多模式界面处于情境模式时,雷达***可以使用低采样率来检测用户的移动,使得多模式界面间歇地响应用户的移动。低采样速率允许移动设备保持低功耗。
雷达***可以在设备的指定距离内(例如,大约1.0米、0.75米、0.5米、0.3米等)检测对象的阈值移动,诸如用户的手伸向设备。当雷达***检测到这种阈值移动时,交互管理器可以自动将多模式界面从情境模式转换到警报模式。在警报模式中,当用户朝向设备伸展(reach)时,设备增加显示(或至少图像)的亮度。可以与用户的手和设备之间的距离的减少量和/或减少率成比例地调整亮度,使得至少图像随着用户的手接近设备而逐渐变得更可见。在一些情况下,一个或多个形状或对象可以随着用户的手接近设备而淡入以进行查看和/或移动(例如,二维和/或三维地移位、旋转、拉伸、重塑、重新定位)。另一示例包括形状或对象从显示设备的侧面移入,其尺寸随着用户的手接近设备而逐渐增大和/或变得更加可见。在各方面,形状或对象可以随着用户的手朝向设备移动(诸如朝向或远离用户的手,或者朝向或远离指定的屏幕位置)而在屏幕上移动。另一示例包括显示从黑屏显示或低亮度显示(其中一个或多个UI元素以浅色显示(例如,白色、黄色、橙色等))转换到高亮度显示(其中一个或多个UI元素以深色显示(例如,黑色、棕色、深蓝色等))。
当移动设备的认证***(例如,基于雷达的认证、面部识别认证、指纹识别认证、语音识别认证等)将用户识别为经授权的用户时,交互管理器将多模式界面转换到活动模式。活动模式是设备的完全操作状态,并且为经认证的用户提供完全权限。这与休眠模式、情境模式和警报模式形成对比,休眠模式、情境模式和警报模式各自向用户提供不完全(less-than-full)权限并且在移动设备的锁定状态期间执行。在活动模式中,设备在用户可以完全访问设备的高功率状态下进行操作。此外,活动模式提供高亮度和色彩饱和度显示。当转换到活动模式时(例如,当设备基于用户识别和认证而解锁时),设备增加显示的色彩饱和度。以这种方式,色彩流入图像,以向用户提供视觉反馈,从而指示用户被识别和认证并且设备被解锁。在一些方面,亮度可以随着色彩饱和度的增加而进一步增加,直到达到适当的亮度水平,诸如与设备在解锁状态下的操作相关联的预设亮度水平。
一些传统的移动设备可以使用相机或接近度传感器(例如,电容传感器)来确定用户的位置,并且基于用户的接近度来调整移动设备的各种功能。例如,移动设备可以通过关闭显示来提供附加的隐私或美学价值,除非用户在预定距离内。然而,传统的移动设备通常不能向用户提供丰富的情境体验,情境体验能够教育用户该设备能够检测用户的移动并且能够以感兴趣的方式做出反应,特别是当用户设备处于锁定状态时。
此外,雷达***和移动设备本身(或至少移动设备的显示设备)的功耗可以显著小于一些可能使用常亮相机(或其他传感器或传感器组合)来控制一些显示特征的传统技术,至少因为显示器和雷达***的功耗在用户不在移动设备附近时降低,并且基于用户与移动设备的交互水平而逐渐增加。这些只是可以如何使用所描述的技术和设备来使得基于移动设备的雷达***能够提供多模式界面的几个示例。本文档通篇描述了其其他示例和实施方式。本文档现在转向示例操作环境,在此之后描述示例设备、方法和***。
操作环境
图1示出了示例环境100,其中可以实施使得基于移动设备的雷达***提供多模式界面的技术。示例环境100包括用户设备102(例如,电子设备),用户设备102包括雷达***104、持久的基于雷达的交互管理器106(交互管理器106)以及可选的一个或多个非雷达传感器108(非雷达传感器108),或者与它们相关联。非雷达传感器108可以是各种设备中的任何一个,诸如音频传感器(例如,麦克风)、触摸输入传感器(例如,触摸屏)或图像捕获设备(例如,相机或摄像机)。
在示例环境100中,雷达***104通过发送一个或多个雷达信号或波形来提供雷达场110,如下文参考图3-图6所述。雷达场110是雷达***104可以从中检测雷达信号和波形的反射(例如,从空间体积中的对象反射的雷达信号和波形)的空间体积。雷达***104还使得用户设备102或另一电子设备能够感测和分析来自雷达场110中的对象(例如,用户112)的反射。雷达***104的一些实施方式在智能手机(诸如用户设备102)的上下文中应用时特别有利,对于智能手机的上下文来说存在一系列问题,诸如对于低功率的需要、对于处理效率的需要、天线元件的间距和布局的限制以及其他问题,并且在智能手机的特定上下文中更有利,对于智能手机的特定上下文来说期望精细手势的雷达检测。尽管这些实施例在所描述的需要精细雷达检测手势的智能手机的上下文中特别有利,但是应当理解,本发明的特征和优点的适用性不必如此受限,并且涉及其他类型电子设备的其他实施例也可以在本教导的范围内。
对象可以是雷达***104可以从中感测和分析雷达反射的各种对象中的任何一个,诸如木头、塑料、金属、织物、人体或人体部位(例如,用户设备102的用户的脚、手或手指)。如图1所示,对象是用户设备102的用户(例如,用户112)。基于对反射的分析,雷达***104可以提供雷达数据,该雷达数据包括与雷达场110和来自用户112的反射相关联的各种类型的信息,如参考图3-图6所述(例如,雷达***104可以将雷达数据传递给其他实体,诸如交互管理器106)。
应当注意,基于感测和分析的来自雷达场110中的用户112的反射,雷达数据可以随着时间连续或周期性地提供。用户112的位置可以随时间变化(例如,用户112可以在雷达场110内移动),并且因此雷达数据可以对应于变化的位置、反射和分析而随时间变化。因为雷达数据可以随时间变化,所以雷达***104可以提供包括与不同时间段相对应的一个或多个雷达数据子集的雷达数据。例如,雷达***104可以提供与第一时间段相对应的第一雷达数据子集、与第二时间段相对应的第二雷达数据子集等。
交互管理器106可以用于与用户设备102的各种组件(例如,模块、管理器、***或接口)进行交互或控制它们。例如,交互管理器106可以与多模式界面114进行交互或实施多模式界面114。交互管理器106可以基于从雷达***104获得的雷达数据,将多模式界面114保持在特定模式或者使得多模式界面114改变模式。下面参考图7-图9B进一步详细描述这些模式。
用户设备102还可以包括显示设备,诸如显示器116。显示器116可以包括任何合适的显示设备,诸如触摸屏、液晶显示器(LCD)、薄膜晶体管(TFT)LCD、原位(in-place)开关(IPS)LCD、电容式触摸屏显示器、有机发光二极管(OLED)显示器、有源矩阵有机发光二极管(AMOLED)显示器、超级AMOLED显示器等。显示器116用于以多模式界面114的各种模式来显示多模式界面114。
基于雷达的交互管理器106可以基于由雷达***104提供的雷达数据来确定由用户或用户的手做出的移动。交互管理器106然后以使得用户能够经由移动与用户设备102隐式交互的方式来处理移动。例如,如参考图3-图6所述,雷达***可以以实现高分辨率和精度的用户移动识别的方式,使用雷达场来感测和分析来自雷达场中的对象的反射。
更详细地,考虑示出了用户设备102(包括雷达***104、交互管理器106和非雷达传感器108)的示例实施方式200的图2,用户设备102可以实施用于提供多模式界面的基于移动设备的雷达***。图2的用户设备102用各种示例设备示出,包括智能手机102-1、平板电脑102-2、膝上型电脑102-3、台式计算机102-4、计算手表102-5、计算眼镜102-6、游戏***102-7、家庭自动化和控制***102-8、以及微波炉102-9。用户设备102还可以包括其他设备,诸如电视、娱乐***、音频***、汽车、无人机、跟踪板、画板、上网本、电子阅读器、家庭安全***和其他家用电器。注意,用户设备102可以是可穿戴的、不可穿戴但移动的、或者相对不移动的(例如,台式机和电器)。
应当注意,用户设备102的示例性整体横向尺寸可以是例如大约8厘米乘大约15厘米。雷达***104的示例性覆盖区甚至可以更受限,诸如在包括天线的情况下大约为4毫米乘6毫米。对于雷达***104的这种受限覆盖区的要求(其需要在这种结合功率和处理限制的空间受限的封装中容纳用户设备102的许多其他期望特征(例如,指纹传感器、非雷达传感器108等))可能导致在雷达手势检测的精度和功效上的折衷,至少其中一些可以根据本文的教导来克服。
用户设备102还包括一个或多个计算机处理器202和一个或多个计算机可读介质204,计算机可读介质204包括存储器介质和存储介质。作为计算机可读介质204上的计算机可读指令实施的应用和/或操作***(未示出)可以由计算机处理器202执行,以提供本文描述的一些或所有功能。用户设备102还可以包括网络接口206。用户设备102可以使用网络接口206通过有线、无线或光学网络传送数据。作为示例而非限制,网络接口206可以通过局域网(LAN)、无线局域网(WLAN)、个人区域网(PAN)、广域网(WAN)、内联网、互联网、对等网络、点对点网络或网状网络来传送数据。
雷达***104的各种实施方式可以包括片上***(SoC)、一个或多个集成电路(IC)、具有嵌入式处理器指令或被配置为访问存储在存储器中的处理器指令的处理器、具有嵌入式固件的硬件、具有各种硬件组件的印刷电路板、或其任何组合。雷达***104通过发送和接收它自己的雷达信号而作为单基地雷达进行操作。在一些实施方式中,雷达***104还可以与外部环境内的其他雷达***104协作,以实施双基地雷达、多基地雷达或网络雷达。然而,用户设备102的约束或限制可能影响雷达***104的设计。例如,用户设备102可能具有受限的可用于操作雷达的功率、受限的计算能力、尺寸约束、布局约束、使雷达信号衰减或扭曲的外壳等。雷达***104包括几个特征,这些特征使得在存在这些约束时使得先进的雷达功能和高性能得以实现,如下面参考图3进一步描述的。注意,在图2中,雷达***104和交互管理器106被示为用户设备102的一部分。在其他实施方式中,雷达***104和交互管理器106之一或两者可以与用户设备102分开或远离。
这些和其他的能力和配置以及图1的实体行动和交互的方式将在下面更详细地阐述。这些实体可以进一步进行划分、组合等。图1的环境100以及图2至图15的详细图示示出了能够采用所述技术的许多可能的环境和设备中的一些。图3-图6描述了雷达***104的附加细节和特征。在图3-图6中,在用户设备102的上下文中描述了雷达***104,但是如上所述,所描述的***和技术的特征和优点的适用性不必如此受限,并且涉及其他类型电子设备的其他实施例也可以在本教导的范围内。
图3示出了可以用于使得基于移动设备的雷达***能够提供多模式界面的雷达***104的示例实施方式300。在示例300中,雷达***104包括以下组件中的每一种的至少一个:通信接口302、天线阵列304、收发器306、处理器308和***介质310(例如,一个或多个计算机可读存储介质)。处理器308可以被实施为数字信号处理器、控制器、应用处理器、另一处理器(例如,用户设备102的计算机处理器202)、或它们的某种组合。***介质310可以被包括在用户设备102的计算机可读介质204内,或者与用户设备102的计算机可读介质204分开,***介质310包括以下模块中的一个或多个:衰减缓和器314、数字波束形成器316、角度估计器318或者功率管理器320。这些模块可以补偿或缓和将雷达***104集成在用户设备102内的影响,从而使得雷达***104能够识别小的或复杂的手势、区分用户的不同朝向、连续监控外部环境、或实现目标虚警率(false-alarm rate)。利用这些特征,雷达***104可以在各种不同的设备(诸如图2所示的设备)中实施。
使用通信接口302,雷达***104可以向交互管理器106提供雷达数据。通信接口302可以是基于雷达***104的无线或有线接口,该雷达***104被实施为与用户设备102分开或集成在用户设备102内。取决于应用,雷达数据可以包括原始或最小处理的数据、同相和正交(I/Q)数据、距离多普勒数据、包括目标位置信息(例如,距离、方位角、仰角(elevation))的处理数据、杂波图数据等。通常,雷达数据包含交互管理器106可用来使基于移动设备的雷达***提供多模式界面的信息。
天线阵列304包括至少一个发送天线元件(未示出)和至少两个接收天线元件(如图4所示)。在一些情况下,天线阵列304可以包括多个发送天线元件,以实施能够一次发送多个不同波形(例如,每个发送天线元件波形不同)的多输入多输出(MIMO)雷达。使用多个波形可以提高雷达***104的测量精度。对于包括三个或更多个接收天线元件的实施方式,接收天线元件可以以一维形状(例如,线)或二维形状定位。一维形状使得雷达***104能够测量一个角度维度(例如,方位角或仰角),而二维形状使得能够测量两个角度维度(例如,方位角和仰角两者)。参考图4进一步描述接收天线元件的示例二维布置。
图4示出了接收天线元件402的示例布置400。例如,如果天线阵列304包括至少四个接收天线元件402,则接收天线元件402可以以如图4中间所示的矩形布置404-1来布置。替代地,如果天线阵列304包括至少三个接收天线元件402,则可以使用三角形布置404-2或L形布置404-3。
由于用户设备102的尺寸或布局约束,接收天线元件402之间的元件间距或接收天线元件402的数量对于雷达***104要监控的所处角度可能不是理想的。特别地,元件间距可能导致存在角度模糊(ambiguity),这使得传统雷达难以估计目标的角度位置。因此,传统雷达可以限制视场(例如,要监控的角度),以避免具有角度模糊性的模糊区域,从而减少错误检测。例如,传统雷达可以将视场限制在大约-45度到45度之间的角度,以避免使用5毫米(mm)的波长和3.5mm的元件间距(例如,元件间距是波长的70%)时出现的角度模糊。因此,传统的雷达可能无法检测到视场的45度限制以外的目标。相比之下,雷达***104包括数字波束形成器316和角度估计器318,它们解决了角度模糊并且使得雷达***104能够监控45度限制以外的角度,诸如大约-90度到90度之间的角度或者高达大约-180度到180度之间的角度。这些角度范围可以跨一个或多个方向(例如,方位角和/或仰角)来应用。相应地,雷达***104可以为各种不同的天线阵列设计实现低虚警率,包括小于、大于或等于雷达信号中心波长的一半的元件间距。
使用天线阵列304,雷达***104可以形成导向(steered)或非导向的(un-steered)、宽或窄的、或者成形(例如,成形为半球、立方体、扇形、锥形或圆柱形)的波束。作为示例,一个或多个发送天线元件(未示出)可以具有未导向的全向辐射图案,或者能够产生诸如宽发送波束406之类的宽波束。这些技术中的任何一个使得雷达***104能够照亮大体积的空间。然而,为了实现目标角度精度和角度分辨率,接收天线元件402和数字波束形成器316可以用于生成数千个窄的且导向的波束(例如,2000个波束、4000个波束或6000个波束),诸如窄接收波束408。以这种方式,雷达***104可以有效地监控外部环境,并且精确地确定外部环境内反射的到达角度。
回到图3,收发器306包括用于经由天线阵列304发送和接收雷达信号的电路和逻辑。收发器306的组件可以包括放大器、混频器、开关、模数转换器、滤波器等,以用于调节雷达信号。收发器306还可以包括执行同相/正交(I/Q)操作(诸如调制或解调)的逻辑。收发器306可以被配置用于连续波雷达操作或脉冲雷达操作。各种调制可以用于产生雷达信号,包括线性频率调制、三角频率调制、步进频率调制或相位调制。
收发器306可以生成一频率范围(例如,频谱)内的雷达信号,诸如在1千兆赫兹(GHz)与400GHz之间、在4GHz与100GHz之间或者在57GHz与63GHz之间。频谱可以被划分成具有相似带宽或不同带宽的多个子频谱。带宽可以在500兆赫兹(MHz)、1GHz、2GHz等数量级上。作为示例,不同的频率子频谱可以包括大约57GHz与59GHz之间、59GHz与61GHz之间或者61GHz与63GHz之间的频率。具有相同带宽并且可以是连续或非连续的多个频率子频谱也可以被选择用于相干。可以使用单个雷达信号或多个雷达信号同时发送多个频率子频谱或在时间上分离多个频率子频谱。连续的频率子频谱使得雷达信号能够具有更宽的带宽,而非连续的频率子频谱能够进一步强调使得角度估计器318能够解决角度模糊的幅度差和相位差。衰减缓和器314或角度估计器318可以使得收发器306利用一个或多个频率子频谱来改善雷达***104的性能,如参考图5和图6进一步描述的。
功率管理器320使得雷达***104能够在用户设备102内部或外部节省功率。在一些实施方式中,功率管理器320与交互管理器106进行通信,以节省雷达***104或用户设备102中任一个或两者内的功率。例如,在内部,功率管理器320可以使得雷达***104使用预定义的功率模式或特定的占空比来收集数据。在这种情况下,功率管理器320动态地在不同的功率模式之间切换,使得基于环境内的活动一起管理响应延迟和功耗。总的说来,功率管理器320确定可以何时以及如何节省功率,并且递增地调整功耗以使得雷达***104能够在用户设备102的功率限制内进行操作。在一些情况下,功率管理器320可以监控剩余的可用电量,并且相应地调整雷达***104的操作。例如,如果剩余电量低,功率管理器320可以继续在低功率模式中操作,而不是切换到较高功率模式。
例如,低功率模式可以使用几赫兹数量级的较低占空比(例如,大约1Hz或小于5Hz),这将功耗降低到几毫瓦(mW)(例如,在大约2mW与8mW之间)。另一方面,较高功率模式可以使用几十赫兹(Hz)数量级的较高占空比(例如,大约20Hz或大于10Hz),这使得雷达***104消耗几毫瓦数量级的功率(例如,在大约6mW与20mW之间)。虽然低功率模式可以用于监控外部环境或检测接近的用户,但是如果雷达***104确定用户正开始执行手势,则功率管理器320可以切换到较高功率模式。不同的触发可以使得功率管理器320在不同的功率模式之间切换。示例触发包括运动或无运动、用户的出现或消失、用户移入或移出指定区域(例如,由距离、方位角或仰角定义的区域)、与用户相关联的运动速度的变化、或反射信号强度的变化(例如,由于雷达截面的变化所致)。总的说来,指示用户与用户设备102交互的较低概率或者使用较长响应延迟收集数据的偏好的触发可以使得低功率模式被激活以节省功率。
功率管理器320还可以通过在非活动时间段期间关闭收发器306内的一个或多个组件(例如,压控振荡器、多路复用器、模数转换器、锁相环或晶体振荡器)来节省功率。如果雷达***104没有主动发送或接收雷达信号,则这些非活动时间段就会出现,其数量级可以是微秒(μs)、毫秒(ms)或秒(s)。此外,功率管理器320可以通过调整信号放大器所提供的放大量来修改雷达信号的发送功率。另外,功率管理器320可以控制雷达***104内不同硬件组件的使用,以节省功率。例如,如果处理器308包括较低功率处理器和较高功率处理器(例如,具有不同量的存储器和计算能力的处理器),则功率管理器320可以在将较低功率处理器用于低级分析(例如,实施空闲模式、检测运动、确定用户位置、或监控环境)和将较高功率处理器用于交互管理器106请求高保真或精确雷达数据的情形(例如,用于实施注意力模式或交互模式、手势识别、或用户定向)之间切换。
此外,功率管理器320可以确定用户设备102周围的环境的上下文。根据该上下文,功率管理器320可以确定哪些功率状态是可用的,以及它们是如何配置的。例如,如果用户设备102在用户的口袋中,则尽管用户112被检测为接近用户设备102,但是对于雷达***104来说不需要在具有高占空比的较高功率模式中进行操作。相应地,功率管理器320可以使得雷达***104保持在较低功率模式中,即使用户被检测为接近用户设备102,并且显示器116保持在关闭状态。用户设备102可以使用任何合适的非雷达传感器108(例如,陀螺仪、加速度计、光传感器、接近度传感器、电容传感器等)结合雷达***104来确定其环境的上下文。上下文可以包括一天中的时间、日历日、明度(lightness)/暗度、用户112附近的用户数量、周围噪声水平、周围对象(包括用户112)相对于用户设备102的移动速度等。
图5示出了用户设备102内的雷达***104的示例实施方式500的附加细节。在示例500中,天线阵列304位于用户设备102的外壳(例如,玻璃罩或外壳体)下方。取决于其材料属性,外壳可以充当衰减器502,其使得由雷达***104发送和接收的雷达信号衰减或扭曲。衰减器502可以包括不同类型的玻璃或塑料,其中一些可以在显示屏、外壳或用户设备102的其他组件中找到,并且具有大约4与10之间的介电常数(例如,相对电容率)。相应地,衰减器502对于雷达信号506是不透明的或半透明的,并且可以使得所发送或接收的雷达信号506的一部分被反射(如反射部分504所示)。对于传统雷达,衰减器502可以减小可被监控的有效距离,防止小目标被检测到,或者降低整体精度。
假设雷达***104的发送功率受到限制,并且不希望重新设计外壳,则调整雷达信号506的一个或多个衰减相关属性(例如,频率子频谱508或导向角510)或衰减器502的衰减相关特性(例如,衰减器502与雷达***104之间的距离512或衰减器502的厚度514)以缓和衰减器502的影响。这些特性中的一些可以在制造期间设置,或者在雷达***104的操作期间由衰减缓和器314调整。衰减缓和器314例如可以使得收发器306使用所选择的频率子频谱508或导向角510来发送雷达信号506,使得平台将雷达***104移动得离衰减器502更近或更远以改变距离512,或者提示用户应用另一衰减器来增加衰减器502的厚度514。
可以由衰减缓和器314基于衰减器502的预定特性(例如,存储在用户设备102的计算机可读介质204中或***介质310内的特性)或通过处理雷达信号506的回波而测量衰减器502的一个或多个特性,来进行适当的调整。即使某些衰减相关特性是固定的或受约束的,衰减缓和器314也可以考虑这些限制,以平衡每个参数并实现目标雷达性能。结果,衰减缓和器314使得雷达***104能够实现增强的精度和更大的有效范围,以用于检测和跟踪位于衰减器502相对侧的用户。这些技术提供了增加发送功率(这增加了雷达***104的功耗)或改变衰减器502的材料属性(一旦设备投入生产,这可能是困难且昂贵的)的替代方案。
图6示出了由雷达***104实施的示例方案600。方案600的部分可以由处理器308、计算机处理器202或其他硬件电路来执行。方案600可以被定制为支持不同类型的电子设备和基于雷达的应用(例如,交互管理器106),并且还使得雷达***104能够实现目标角度精度,而不管设计约束。
收发器306基于接收天线元件402对接收的雷达信号的单独响应产生原始数据602。接收的雷达信号可以与角度估计器318所选择的一个或多个频率子频谱604相关联,以便于角度模糊的解决。例如,可以选择频率子频谱604来降低旁瓣的数量或降低旁瓣的幅度(例如,将幅度降低0.5dB、1dB或更多)。频率子频谱的数量可以基于雷达***104的目标角度精度或计算限制来确定。
原始数据602包含一段时间的数字信息(例如,同相和正交数据)、不同的波数、以及分别与接收天线元件402相关联的多个信道。对原始数据602执行快速傅立叶变换(FFT)606,以生成预处理数据608。预处理数据608包括该段时间内针对不同距离(例如,距离仓(bin))和针对多个信道的数字信息。对预处理数据608执行多普勒滤波过程610,以生成距离多普勒数据612。多普勒滤波过程610可以包括针对多个距离仓、多个多普勒频率和针对多个信道生成幅度和相位信息的另一FFT。数字波束形成器316基于距离多普勒数据612产生波束形成数据614。波束形成数据614包含一组方位角和/或仰角的数字信息,这组方位角和/或仰角表示由数字波束形成器316形成不同导向角或波束的视场。尽管未示出,但是数字波束形成器316可以替代地基于预处理数据608生成波束形成数据614,并且多普勒滤波过程610可以基于波束形成数据614生成距离多普勒数据612。为了减少计算量,数字波束形成器316可以基于感兴趣的距离、时间或多普勒频率间隔来处理距离多普勒数据612或预处理数据608的一部分。
数字波束形成器316可以使用单视(single-look)波束形成器616、多视(multi-look)干涉仪618或多视波束形成器620来实施。总的说来,单视波束形成器616可以用于确定性的对象(例如,具有单一相位中心的点源目标)。对于非确定性目标(例如,具有多个相位中心的目标),多视干涉仪618或多视波束形成器620用于提高相对于单视波束形成器616的精度。人类是非确定性目标的示例,并且具有多个相位中心622,这些相位中心可以基于不同的视线角而改变,如624-1和624-2所示。由多个相位中心622生成的相长干涉或相消干涉的变化会使传统雷达难以精确确定角度位置。然而,多视干涉仪618或多视波束形成器620执行相干平均以增加波束形成数据614的精度。多视干涉仪618对两个信道进行相干平均,以生成可用于精确确定角度信息的相位信息。另一方面,多视波束形成器620可以使用线性或非线性波束形成器(诸如傅立叶、卡邦、多信号分类(MUSIC)或最小方差无失真响应(MVDR))对两个或更多个信道进行相干平均。经由多视波束形成器620或多视干涉仪618提供的增加的精度使得雷达***104能够识别小手势或区分用户的多个部分。
角度估计器318分析波束形成数据614以估计一个或多个角度位置。角度估计器318可以利用信号处理技术、图案匹配技术或机器学习。角度估计器318还解决了可能由雷达***104的设计或雷达***104监控的视场引起的角度模糊。幅度曲线图626内示出了示例角度模糊(例如,幅度响应)。
幅度曲线图626描绘了对于目标的不同角度位置和对于不同导向角510可能出现的幅度差。示出了位于第一角度位置630-1的目标的第一幅度响应628-1(用实线示出)。同样,示出了位于第二角度位置630-2的目标的第二幅度响应628-2(用虚线示出)。在该示例中,在-180度和180度之间的角度上考虑差异。
如幅度曲线图626所示,对于两个角度位置630-1和630-2存在模糊区域。第一幅度响应628-1在第一角度位置630-1处具有最高峰值,并且在第二角度位置630-2处具有较小峰值。虽然最高峰值对应于目标的实际位置,但是较小的峰值使得第一角度位置630-1模糊,因为它在传统雷达可能无法确信地确定目标是在第一角度位置630-1还是在第二角度位置630-2的某个阈值内。相比之下,第二幅度响应628-2在第二角度位置630-2处具有较小峰值,并且在第一角度位置630-1处具有较高峰值。在这种情况下,较小峰值对应于目标的位置。
虽然传统雷达可能受限于使用最高峰值幅度确定角度位置,但是角度估计器318反而分析幅度响应628-1和628-2的形状的细微差异。形状的特性可以包括例如滚降(roll-off)、峰值或空值宽度、峰值或空值的角度位置、峰值和空值的高度或深度、旁瓣的形状、幅度响应628-1或628-2内的对称性、或者幅度响应628-1或628-2内的对称性的缺失。可以在相位响应中分析相似的形状特性,这可以为解决角度模糊提供附加的信息。因此,角度估计器318将唯一的角度特征或图案映射到角度位置。
角度估计器318可以包括一套算法或工具,这套算法或工具可以根据用户设备102的类型(例如,计算能力或功率限制)或交互管理器106的目标角度分辨率来选择。在一些实施方式中,角度估计器318可以包括神经网络632、卷积神经网络(CNN)634或长短期记忆(LSTM)网络636。神经网络632可以具有各种深度或数量的隐藏层(例如,三个隐藏层、五个隐藏层或十个隐藏层),并且还可以包括不同数量的连接(例如,神经网络632可以包括完全连接的神经网络或部分连接的神经网络)。在一些情况下,CNN 634可以用于提高角度估计器318的计算速度。LSTM网络636可以用于使得角度估计器318能够跟踪目标。使用机器学习技术,角度估计器318采用非线性函数来分析幅度响应628-1或628-2的形状,并且生成指示用户或用户的一部分在角度仓内的可能性的角度概率数据638。角度估计器318可以为几个角度仓(诸如两个角度仓)提供角度概率数据638以提供目标在用户设备102的左侧或右侧的概率,或者为数千个角度仓提供角度概率数据638(例如,以便为连续角度测量提供角度概率数据638)。
基于角度概率数据638,***模块640产生标识目标的角度位置的角度位置数据642。***模块640可以基于角度概率数据638中具有最高概率的角度仓或者基于预测信息(例如,先前测量的角度位置信息)来确定目标的角度位置。***模块640还可以跟踪一个或多个移动目标,以使得雷达***104能够确信地区分或标识目标。其他数据也可以用于确定角度位置,包括距离、多普勒、速度或加速度。在一些情况下,***模块640可以包括α-β***、卡尔曼滤波器、多假设***(MHT)等。
量化器模块644获得角度位置数据642,并且量化该数据以产生经量化的角度位置数据646。可以基于交互管理器106的目标角度分辨率来执行量化。在一些情形下,可以使用更少的量化级别,使得经量化的角度位置数据646指示目标是在用户设备102的右侧还是左侧,或者标识目标所在的90度象限。这对于一些基于雷达的应用(诸如用户接近度检测)来说可能足够了。在其他情形下,可以使用更大数量的量化级别,使得经量化的角度位置数据646指示在几分之一度、一度、五度等精度内的目标的角度位置。该分辨率可以用于更高分辨率的基于雷达的应用(诸如手势识别),或者用于如本文所述的注意力模式或交互模式的实施方式中。在一些实施方式中,数字波束形成器316、角度估计器318、***模块640和量化器模块644一起在单个机器学习模块中实施。
这些和其他的能力和配置以及图1-图6的实体行动和交互的方式,在下面阐述。所描述的实体可以被进一步划分、组合、与其他传感器或组件一起使用等等。以这种方式,具有雷达***104和非雷达传感器的不同配置的用户设备102的不同实施方式可以用于实施用于提供多模式界面的、基于移动设备的雷达***。图1的示例操作环境100和图2-图6的详细图示仅示出了能够采用所述技术的许多可能环境和设备中的一些。
示例设备
如上所述,本文描述的技术和***还可以使得用户设备102能够基于用户与设备的隐式交互来提供功能。图7和图8示出了基于指示用户与移动设备的隐式交互的雷达数据来改变模式的多模式界面的示例实施方式700和800。示例实施方式700和800示出了不同实例702-1、702-2、702-3、702-4、702-5和702-6中的用户设备702(例如,用户设备102)。当在雷达场110内没有检测到用户112时,多模式界面114在休眠模式704中进行操作。在休眠模式704中,多模式界面114休眠并且提供黑屏显示,使得没有图像或对象经由用户设备702-1的显示器116显示。此外,显示器116可以处于关闭状态或低功率状态,并且图1的雷达***104可以处于空闲模式。这些模式和状态是低功率的操作模式和状态。
当用户112进入雷达场110时,雷达***104基于从用户112反射的雷达信号来检测用户112。交互管理器106使用该雷达数据来确定用户112在雷达场110内的存在。响应于检测到用户112的存在,交互管理器106使得多模式界面114改变模式。在这种情况下,多模式界面114退出休眠模式704并且进入情境模式706。当多模式界面114进入情境模式706时,默认或预定义的显示参数(例如,亮度、色彩饱和度)可以被应用一小段持续时间(例如,0.5秒、1.0秒、1.25秒、1.5秒、2.0秒等)以“问候”用户。在图7中,一个或多个对象和/或图像(包括三维星的图像708和锁定图标710)对于该持续时间以高亮度呈现。多模式界面114的背景也可以以默认或预定义的亮度和色彩饱和度来提供。也可以包括其他元素,诸如时钟元素712(示出时间和/或日历日期)或其他项目(未示出)(包括通知项目(例如,图标、徽章、横幅等))、对特定应用(例如,相机应用)的访问工具等。尽管多模式界面114是关于图像708描述的并且具有背景,但是多模式界面114提供显示,并且显示可以包括图像708和背景。相应地,关于图像708描述的参数调整也可以或替代地应用于多模式界面114所提供的显示。如下文将更详细描述的,多模式界面114可以提供黑屏显示、低亮度显示(具有或不具有低色彩饱和度)、单色显示(具有低或高亮度)、或者高亮度和色彩饱和度显示。
响应于持续时间的期满,交互管理器106更改一个或多个显示参数(例如,亮度、色彩饱和度)以使多模式界面114(在用户设备702-3中示出)变暗,这降低了功耗。这是基于用户设备702没有检测到用户112与用户设备702的显式交互。在多模式界面114的情境模式的这种变暗状态下,所显示的对象和图像可以保持在低亮度以及低色彩饱和度(例如,黑白、灰度、昏暗、具有柔和色彩、“不太多彩”等)。例如,如用户设备702-3所示,在锁定图标710被移除的同时,时钟元素712保持显示。替代地,锁定图标710(或任何其他元素)可以保持显示。作为亮度降低的一部分,多模式界面114的背景变暗。此外,星星的图像708褪色为低亮度版本(包括低亮度、低饱和度、高或低对比度、或其任何组合)。可选地,图像708可以变得足够暗,从而不会被用户112看到。多模式界面114可以保持在情境模式706中,同时用户112出现在雷达场110内并且不与用户设备702显式交互,诸如通过触摸用户设备702、执行手势(例如,轻击、双击、滑动、挥手等)来激活用户设备702的应用的特定功能、按压用户设备702上的按钮等。相反,用户的存在被认为是隐式交互,因为用户没有主动地和显式地与用户设备702进行交互。
继续图8,当用户112朝向用户设备702伸展时,交互管理器106使得多模式界面退出情境模式706并且进入警报模式802。随着用户的手804朝向用户设备702移动,交互管理器106动态调整多模式界面114的一个或多个显示参数,诸如亮度。这些参数的调整速率可以基于与用户的手804及其移动相关联的各种因素,包括用户的手804与用户设备702之间的距离、该距离减小(或者在用户的手804从用户设备702移开的情况下该距离增大)的速度和/或用户的手804相对于用户设备702的位置。以这种方式,多模式界面114提供与用户的手804朝向(或远离)用户设备702的移动相对应的动态视觉反馈。
在所示出的示例中,当用户的手804开始朝向用户设备702-4伸展时,在多模式界面114中仅图像708的高亮度部分可见。锁定图标710的暗淡版本也保持在多模式界面114上。随着用户的手804移动得更靠近用户设备702(例如,702-5),图像708基于亮度和/或其他显示参数逐渐展现。图像708的各个部分(以及诸如锁定图标710之类的其他对象)变得越来越可见和发亮。这种情况发生的速率可以与用户的手804与用户设备702之间的距离的减小速率(例如,用户的手804朝向用户设备702移动得多快)成正比。在一些方面,随着用户的手804移动得更靠近用户设备702-5,图像708保持在去饱和状态(例如,灰度)并且更多色调(例如,灰色阴影)被应用于图像708。可选地,还可以调整一个或多个显示参数来使多模式界面114的背景变亮。然而,多模式界面114的警报模式802与用户设备702的低功率操作状态相关联,因此当增加多模式界面114(或图像708)的亮度和/或其他显示参数时,保持暗背景可以帮助最小化功耗。
如果此时用户112将他的手804从用户设备702-5移开,则交互管理器106反向应用上述效果,使得图像708逐渐变暗(例如,亮度逐渐减小)以将多模式界面114返回到警报模式802的变暗状态(在用户设备702-4处示出)。如果用户的手804与用户设备702之间的距离变得大于阈值距离,则交互管理器106可以使得多模式界面114退出警报模式802并且重新进入情境模式706。
以这种方式,随着用户112朝向(或远离)用户设备702伸展,多模式界面114提供对用户的手804的移动的动态视觉响应。以视觉反馈的形式呈现的这种动态响应允许用户112知道用户设备702“意识到”并且当前正在检测用户的移动,这用于在低功率或锁定状态下教育用户112关于用户设备的意识和能力。
为了进一步增强关于用户设备对用户相对于用户设备702的移动的响应的用户体验,交互管理器106可以响应于用户112被认证到用户设备702,使得多模式界面114进入活动模式806。当从警报模式802转换到活动模式806时,多模式界面114的色彩饱和度增加,使得图像708逐渐被色彩填充,变得更丰富和更有活力。相应地,用户设备702-6通过使用色彩来提供视觉反馈,以指示用户112已经被认证并且被提供了对用户设备702的完全访问权限。多模式界面114还可以基于用户112的认证在其他方面进行调整,诸如通过改变一个或多个显示元素的位置或替换一个或多个显示元素(例如,用解锁图标808替换锁定图标710)。这些修改可以在呈现用户设备702的主屏幕之前,或者作为主屏幕的呈现的一部分发生。主屏幕和附加页面可以在活动模式806中经由多模式界面114呈现。图像708和/或其他对象或元素可以与显示在主屏幕和附加页面上的用户界面元素同时保持在多模式界面114上。
参考图7和图8描述的图像708可以是作为用户设备702的操作***的主题包的一部分而选择的静止图像。替代地,图像708可以是存储在计算机可读介质204中的用户选择的静止图像,诸如数字照片或数字绘图。以这种方式,用户112可以定制经由用户设备702的多模式界面114显示的图像。每个图像在它如何基于亮度变化而逐渐展现的方面可以是唯一的。此外,当用户112被认证到用户设备702时,每个图像在如何基于饱和度变化用色彩对其进行填充的方面可以是唯一的。
与雷达检测到的用户112相对于用户设备702的移动相对应的多模式界面114的其他视觉效果也是预期的。例如,图像708可以包括精选图像集合、相关图像家族或图像序列(例如,视频),而不是静止图像。图像集合可以用于产生响应于用户与用户设备702的隐式交互(诸如通过与用户的手804相对于用户设备702的移动和位置相关联地、以细微的方式进行移动)的一个或多个对象或图像。这方面的一些示例如图9A和图9B所示。
图9A示出了基于指示用户与移动设备的隐式交互的雷达数据来改变模式的多模式界面的示例实施方式900。这里,基于在雷达场110(未示出)内检测到用户112的存在,用户设备702-3被示出为具有处于情境模式706(例如,暗状态)的多模式界面114。在该示例中,没有对象经由多模式界面114显示。当用户112开始朝向用户设备702-4伸展时,交互管理器106使得多模式界面114退出情境模式706并且进入警报模式802。在警报模式802中,一个或多个对象(诸如小气泡902)开始从多模式界面114的侧面进入视野。随着用户的手804变得更靠近用户设备702-5,气泡902逐渐朝向显示器116上的指定位置或区域移动。气泡移动的速率可以直接对应于用户的手804和用户设备702之间的距离减小的速率。在一些方面,随着用户的手804变得更靠近用户设备702,气泡902彼此结合并且尺寸增大(显示为组合气泡904),直到在指定位置处只有一个大气泡906。在朝向指定位置的该移动期间,气泡902、904可以变得更亮,特别是当它们彼此结合时。如果用户的手804从用户设备702-5移开,则气泡904开始彼此拉开,并且朝向多模式界面114的侧面往回移动。气泡902、904的亮度也可以随着它们彼此远离而降低。
在某个时刻,用户112可以通过用户识别***(例如,基于密码、通行码、指纹等)被认证到用户设备702。响应于用户112被认证,多模式界面114进入活动模式806。在进入活动模式806时,交互管理器106调整多模式界面114的显示参数,诸如色彩饱和度。这里,一个大气泡906逐渐从灰度(去饱和或低饱和度)进展到彩色(高饱和度),以提供用户112已经被认证到完全权限的指示。可以基于用户的手804相对于用户设备702的位置来应用附加的照明效果。这里,用户的手804位于用户设备702的右下侧(当处于纵向模式方位时),并且基于该定位,照明效果被应用于气泡906,就好像用户的手804是将光照射到气泡906上的光源。替代地,用户的手804的定位可以用于在相反的方向上应用照明效果,以产生光源朝向用户的手804照射的视觉效果。当然,可以使用任何合适的方向来应用照明效果。
作为指示用户112已经被认证的所应用的视觉效果的一部分,气泡906可以移动到不同的位置。例如,气泡906可以朝向或远离用户的手804快速移动。气泡906可以朝向锁定图标710移动并且与之碰撞,使得锁定图标710被解锁图标808替换。这可能产生锁被气泡906打破的戏剧性效果。在一些方面,气泡906可以改变形状、尺寸或颜色。相应地,响应于多模式界面114进入活动模式806,可以发生各种变化,其中一些变化可以包括所显示的对象看起来与显示器116上的其他显示项目进行交互。
在另一示例中,精选图像集合可以包括抽象形状,在多模式界面114的警报模式802期间,这些抽象形状基于用户的手804的移动和相对定位来移动、弯曲和/或重塑。这可能是上述亮度变化的补充。每个图像可以与对应于用户的手804相对于用户设备702的位置的唯一定位信息(例如,用户设备702与用户的手804之间的距离同用户的手804相对于用户设备702的方位的位置相结合)相关联。这允许基于用户的手804相对于用户设备702的所在位置(接近度和方向)呈现不同的图像。以这种方式,在用户设备702处于锁定状态的同时,抽象形状或其他显示对象可以看起来以细微和感兴趣的方式对用户设备702周围的用户的手的移动做出反应。下面关于图9B描述了这方面的示例。
图9B示出了基于指示用户与移动设备的隐式交互的雷达数据来改变模式的多模式界面的另一示例实施方式950。这里,基于在雷达场110(未示出)内检测到的用户的存在,用户设备702-3被示出为具有处于情境模式706的多模式界面114。在该示例中,对象952由多模式界面114以低亮度显示提供。对象经由显示器116渲染。对象952可以是任何对象、形状或图像。对象952在多模式界面114的情境模式706期间具有初始位置,其示例在用户设备702-3的显示器116上示出。
当用户112开始朝向用户设备702-4伸展时,交互管理器106使得多模式界面114退出情境模式706并且进入警报模式802。在警报模式802中,一个或多个对象952移动。随着用户的手804变得更靠近用户设备702-5,对象952继续移动。对象952移动的速率和/或距离可以直接对应于用户的手804与用户设备702之间的距离减小的速率。对象952可以在任何方向上移动,并且可以基于用户的手804离用户设备702有多近来改变方向。除了在某个方向上移位之外,或者作为其替代,对象952的移动可以包括在任何方向上的3D旋转。此外,每个对象952可以独立于其他对象952移动。随着用户的手804接近用户设备702,一个或多个对象952也可以改变其形状或尺寸。
类似于上述实施方式,多模式界面114可以在情境模式706期间以及最初在警报模式802期间提供低亮度显示。警报模式802期间的亮度可基于用户设备702与用户的手804之间的变化的距离来调整。在一些方面,多模式界面114在情境模式706和警报模式802期间提供单色显示。替代地,多模式界面114可以在这些模式期间提供低色彩饱和度显示。
响应于用户被认证到用户设备702,多模式界面114进入活动模式806。在进入活动模式806时,交互管理器106调整多模式界面114的显示参数,诸如色彩饱和度。这里,对象952从灰度进展到彩色,以提供用户112已经被认证到完全权限的视觉指示。例如,如用户设备702-6上所示,多模式界面114提供高亮度和高饱和度的显示。如在其他描述的实施方式中,附加的照明效果可以以任何合适的方式应用于对象952。对象952还可以响应于认证而进一步移动。这里,对象952在情境模式706中朝向它们的原始位置移动回来。然而,对象952可能到达或可能不到达那些原始位置。
示例方法
图10-图14描绘了使得基于移动设备的雷达***能够提供多模式界面的示例方法1000和1200,该多模式界面基于用户与用户设备的隐式交互来改变模式。方法1000和1200可以用使用雷达***提供雷达场的电子设备来执行。雷达场用于确定用户与用户设备的隐式交互,诸如在雷达场中用户的存在以及用户相对于用户设备的移动。基于对用户的存在和移动的确定,电子设备可以使得多模式界面进入和退出不同的功能模式,并且基于这些模式提供不同的显示。
方法1000被示出为一组指定所执行的操作的框,但不一定限于所示出的由各个框执行操作的次序或组合。此外,一个或多个操作中的任何一个可以被重复、组合、重组或链接,以提供广泛的附加和/或替代方法。在以下讨论的部分中,可以参考图1的示例操作环境100或图2-图6中详细描述的实体或过程,这些参考仅作为示例。这些技术不限于在一个设备上进行操作的一个实体或多个实体的执行(performance)。
在1002,提供雷达场。该雷达场可以由包括雷达***(例如,雷达***104)和交互管理器(例如,交互管理器106,其也可以包括多模式界面114)或与它们相关联的各种电子设备(例如,上述用户设备102、702)中的任何一个来提供。此外,雷达场可以是各种类型的雷达场中的任何一个,诸如上述雷达场110。
在1004,雷达***感测来自雷达场中的对象的反射。对象可以是各种对象中的任何一个,诸如木头、塑料、金属、织物或有机材料(例如,人(诸如上述的用户112)或者人的身体部位(例如上述的用户的手804))。为了清楚起见,在描述方法1000时,对象被称为“用户”。
在1006,分析来自雷达场中的对象的反射。分析可以由各种实体(例如,雷达***104、交互管理器106或另一实体)中的任何一个来执行,并且可以包括各种操作或确定,诸如参考图3-图6描述的那些。
在1008,基于对反射的分析,提供雷达数据(例如,参考图1-图6描述的雷达数据)。雷达数据可以由各种实体中的任何一个提供,诸如雷达***104、交互管理器106或另一实体。在一些实施方式中,雷达***可以提供雷达数据并且将雷达数据传递给其他实体(例如,所描述的基于雷达的应用、交互管理器或模块中的任何一个)。方法1000的描述在图11中继续,如图10的框1008之后的数字“11”所示,其对应于图11的框1010之前的数字“10”。
在1010,提供至少具有第一模式和第二模式的多模式界面。该多模式界面(例如,多模式界面114)可以由用户设备102的交互管理器106提供。第一模式和第二模式可以包括上述休眠模式、情境模式、伸展模式或活动模式中的任何一个。这些模式为多模式界面实现了不同的功能,其示例在上面参考图7-图9B进行了描述。
在1012,从雷达***获得雷达数据。例如,基于雷达的交互管理器106从雷达***104获得雷达数据。雷达数据可以以任何合适的方式获得。
在1014,基于雷达数据并且在第一模式期间,检测到用户与用户设备的隐式交互。可以由用户设备102的交互管理器106检测隐式交互。在各方面,隐式交互可以包括用户112相对于用户设备102的移动,诸如进入雷达场110、将手伸向(或远离)用户设备102等。
在1016,响应于检测到用户的隐式交互,多模式界面从第一模式改变为第二模式。取决于隐式交互包括什么,多模式界面114可以退出休眠模式、情境模式、伸展模式和活动模式中的任何一个,并且进入这些模式中的任何其他模式。例如,当用户进入雷达场110时,交互管理器106可以使得多模式界面114退出休眠模式并且进入情境模式。替代地,如果用户设备102位于用户的口袋或包中,并且用户把手伸入口袋或包中以抓住用户设备102(并且多模式界面114处于休眠模式),则多模式界面114可以退出休眠模式并且进入警报模式。在其他方面,当用户开始朝向用户设备102伸展时,交互管理器106可以使得多模式界面114退出情境模式并且进入警报模式。当用户被认证为使用用户设备时,交互管理器106可以使得多模式界面114退出当前模式(休眠模式、情境模式或警报模式)并且进入活动模式。在另一示例中,当用户112在认证之前将他的手从用户设备102拉开大于指定距离阈值的距离时,多模式界面114可以退出警报模式并且进入情境模式。距离阈值可以用作用户112不打算与用户设备102交互的指示。替代地,多模式界面114可以在附近有用户112的情境模式中,并且在不朝向设备102伸展的情况下,用户112可以被认证(例如,基于生物识别技术),并且多模式界面114可以退出情境模式并且进入活动模式。
在1018,响应于改变为第二模式,调整与多模式界面相关联的图像的一个或多个参数。当多模式界面114退出一个模式并且进入另一模式时,可以调整各种参数,诸如亮度或色彩饱和度。例如,当从情境模式或休眠模式进入警报模式时,亮度可以增加,并且随着用户112朝向用户设备102伸手,亮度可以进一步增加。如果用户112将他的手从用户设备102拉开,则亮度可以减小。当多模式界面114进入活动模式时,色彩饱和度可以增加。当进入情境模式时,亮度可以针对指定持续时间被调整到高亮度(例如,大于指定阈值水平亮度的水平)以提供图像的较高亮度版本,并且在持续时间期满后,亮度可以被调整到低亮度(例如,低于指定阈值水平亮度的水平)以提供图像的较低亮度版本。相应地,可以响应于多模式界面114的操作模式的变化来调整各种参数。
方法1200被示出为一组指定所执行的操作的框,但不一定限于所示出的由各个框执行操作的次序或组合。此外,一个或多个操作中的任何一个可以被重复、组合、重组或链接,以提供广泛的附加和/或替代方法。在以下讨论的部分中,可以参考图1的示例操作环境100或图2-图11中详细描述的实体或过程,这些参考仅作为示例。这些技术不限于在一个设备上进行操作的一个实体或多个实体的性能。
在1202,用户设备提供多模式界面,以用于在用户设备的锁定状态期间显示。用户设备可以是各种电子设备中的任何一个(例如,参考图1-图9B描述的用户设备102、702)。多模式界面包括多个操作模式,至少包括第一模式和第二模式。多模式界面的示例模式可以包括休眠模式、情境模式、警报模式和活动模式。以上参考图7-图9B进一步详细描述了这些示例模式。
在1204,当用户设备处于锁定状态时,用户设备从雷达***获得雷达数据。该雷达数据可以表示来自由雷达***产生的雷达场中的对象的反射。对象可以是用户或用户携带的某种雷达可检测对象。
在1206,用户设备基于雷达数据检测到对象在距用户设备的阈值距离内,并且正在朝向用户设备移动。如上所述,对象可以是用户的手或雷达***可检测的另一对象。
在1208,用户设备响应于检测到对象在距用户设备的阈值距离内并且正在朝向用户设备移动,使得多模式界面退出第一模式并且进入第二模式。多模式界面可以通过交互管理器106或由另一实体进入第二模式。在各方面,第一模式可以是情境模式,在情境模式中,多模式界面周期性地响应对象的移动。第二模式可以是警报模式,在警报模式中,多模式界面动态地可视地响应对象的移动,并且向用户提供不完全权限。
可选地,方法1200可以前进到图13,如图12的框1208之后的数字“13”所示,其对应于图13的框1210之前的数字“12”。在1210,用户设备基于检测到对象在阈值距离内来确定用户设备与对象之间的第一距离。
在1212,用户设备基于用户设备与对象之间的第一距离从相关图像集合中选择图像以供显示。图像可以由交互管理器106或者由用户设备102的另一实体来选择。
在1214,响应于用户设备与对象之间的第一距离改变为第二距离,用户设备基于第二距离用从相关图像集合中选择的另一图像替换该图像。然后,该过程返回到1218以重复距离确定(在1218)、图像选择(在1220)和图像替换(在1222)以在所显示的图像中产生与对象移动相对应的移动视觉效果。参考图9A和图9B描述了该图像替换过程的示例视觉效果,其中所显示的对象看起来相对于用户手的移动而移动。可以通过基于用户的手与用户设备之间的距离的变化而重复改变图像来应用这种视觉效果,其中图像来自相关图像集合,每个相关图像对应于用户的手相对于用户设备的唯一位置。此外,变化平滑地发生,以提供所显示的对象移动的视觉效果。接下来,方法1200可以前进到图12,如图13的框1214之后的数字“12”所示,其对应于图12的框1216之前的数字“13”。
在1216,响应于多模式界面进入第二模式,用户设备以第一速率调整多模式界面(或由多模式界面114提供的显示)的一个或多个显示参数以在用户设备处于锁定状态时提供与对象移动相对应的动态视觉反馈,该第一速率至少基于用户设备与对象之间的距离减小的第二速率。在一些方面,调整图像的一个或多个参数的第一速率与对象接近用户设备的第二速率成正比。方法1200的描述在图14中继续,如图12的框1216之后的数字“14”所示,其对应于图14的框1218之前的数字“12”。
在1218,用户设备接收用户被认证到完全权限的指示。可以使用任何合适的用户识别***来认证用户,其示例在上面描述。
在1220,响应于用户的认证,用户设备使得多模式界面退出第二模式并且进入第三模式。在一些方面,该第三模式可以是活动模式,在活动模式中,用户被提供对用户设备102的完全权限。
在1222,响应于多模式界面进入第三模式,用户设备将色彩饱和度和/或照明效果应用于图像,以提供与用户的认证相对应的附加视觉反馈。这方面的示例参考图7-图9B进行了描述。色彩饱和度和/或照明效果向用户提供视觉反馈,以指示已经向用户授予了完全权限(例如,用户已经被成功认证为使用用户设备,并且用户设备现在被解锁)。
示例计算***
图15示出了示例计算***1500的各种组件,示例计算***1500可以被实施为参考前面的图1-图14描述的任何类型的客户端、服务器和/或电子设备,以实施用于提供多模式界面的基于移动设备的雷达***。
计算***1500包括实现设备数据1504(例如,雷达数据、认证数据、参考数据、接收数据、正在接收的数据、被调度用于广播的数据、以及数据的数据包)的有线和/或无线通信的通信设备1502。设备数据1504或其他设备内容可以包括设备的配置设置、存储在设备上的媒体内容和/或与设备用户相关联的信息(例如,雷达场内的人的身份或定制的手势数据)。存储在计算***1500上的媒体内容可以包括任何类型的雷达、生物、音频、视频和/或图像数据。计算***1500包括一个或多个数据输入1506,经由该数据输入可以接收任何类型的数据、媒体内容和/或输入,诸如人类话语、与雷达场的交互、触摸输入、用户可选输入或交互(显式或隐式)、消息、音乐、电视媒体内容、记录的视频内容,以及从任何内容和/或数据源接收的任何其他类型的音频、视频和/或图像数据。
计算***1500还包括通信接口1508,通信接口1508可以被实施为串行和/或并行接口、无线接口、任何类型的网络接口、调制解调器、以及任何其他类型的通信接口中的任何一个或多个。通信接口1508提供计算***1500与通信网络之间的连接和/或通信链路,其他电子设备、计算设备和通信设备通过该连接和/或通信链路与计算***1500传送数据。
计算***1500包括一个或多个处理器1510(例如,微处理器、控制器或其他控制器中的任何一个),处理器1510可以处理各种计算机可执行指令来控制计算***1500的操作,并且实现用于或其中可以实施用于提供多模式界面的基于移动设备的雷达***的技术。替代地或附加地,计算***1500可以用硬件、固件或固定逻辑电路中的任何一个或组合来实施,该硬件、固件或固定逻辑电路结合通常在1512处标识的处理和控制电路来实施。尽管未示出,计算***1500可以包括耦合设备内各种组件的***总线或数据传输***。***总线可以包括不同总线结构中的任何一个或组合,诸如存储器总线或存储器控制器、***总线、通用串行总线、和/或利用各种总线架构中的任何一个的处理器或本地总线。
计算***1500还包括计算机可读介质1514,诸如一个或多个能够实现持久和/或非易失性数据存储(例如,与单纯的信号传输相反)的存储器设备,其示例包括随机存取存储器(RAM)、非易失性存储器(例如,只读存储器(ROM)、闪存、EPROM、EEPROM等中的任何一个或多个)和盘存储设备。盘存储设备可以被实施为任何类型的磁或光存储设备,诸如硬盘驱动器、可记录和/或可重写光盘(CD)、任何类型的数字多功能盘(DVD)等。计算***1500还可以包括大容量存储介质设备(存储介质)1516。
计算机可读介质1514提供数据存储机制来存储设备数据1504以及各种设备应用1518和与计算***1500的操作方面相关的任何其他类型的信息和/或数据。例如,操作***1520可以用计算机可读介质1514作为计算机应用来保持,并且在处理器1510上执行。设备应用1518可以包括设备管理器,诸如任何形式的控制应用、软件应用、信号处理和控制模块、特定设备的本地代码、抽象模块、手势识别模块、以及其他模块。设备应用1518还可以包括***组件、引擎、模块或管理器,以实施用于提供多模式界面的基于移动设备的雷达***,诸如雷达***104或交互管理器106。计算***1500还可以包括或能够访问一个或多个机器学习***。
下面介绍几个示例。
示例1。一种用户设备,包括:
至少部分以硬件实施的雷达***,被配置为:
提供雷达场;
感测来自雷达场中的用户的反射;
分析来自雷达场中的用户的反射;以及
基于对反射的分析提供雷达数据;
一个或多个计算机处理器;以及
其上存储有指令的一个或多个计算机可读介质,指令响应于一个或多个计算机处理器的执行而实施基于雷达的交互管理器,基于雷达的交互管理器被配置为:
提供至少具有第一模式和第二模式的多模式界面,多模式界面在第一模式期间提供黑屏显示或低亮度显示;
基于雷达数据并且在第一模式期间检测用户的存在或者用户相对于用户设备的阈值移动;
响应于检测到用户的存在或阈值移动,将多模式界面从第一模式改变为第二模式;以及
响应于改变为第二模式,通过更改黑屏显示或低亮度显示的一个或多个显示参数,使得多模式界面提供与用户的存在或阈值移动相对应的视觉反馈。
示例2。根据示例1所述的用户设备,其中:
第一模式包括休眠模式,在休眠模式中,多模式界面处于休眠状态并且提供黑屏显示;
第二模式包括情境模式,在情境模式中,用户设备检测用户在雷达场内的存在并且多模式界面提供低亮度显示;并且
基于雷达的交互管理器被配置为:通过至少增加黑屏显示的亮度来更改一个或多个显示参数以提供低亮度显示。
示例3。根据示例1所述的用户设备,其中:
第一模式包括休眠模式,在休眠模式中,多模式界面处于休眠状态并且提供黑屏显示;并且
第二模式包括警报模式,在警报模式中,雷达数据指示用户正在朝向用户设备靠近并且多模式界面提供低亮度显示,警报模式向用户提供不完全权限;并且
基于雷达的交互管理器被配置为:当多模式界面处于警报模式时,基于用户的手朝向或远离用户设备的移动来至少动态调整低亮度显示的亮度,以有效地使得多模式界面提供与用户的手的移动相对应的动态响应视觉反馈。
示例4。根据示例1所述的用户设备,其中:
第一模式包括休眠模式,在休眠模式中,多模式界面处于休眠状态并且提供黑屏显示;
第一模式向用户设备的用户提供不完全权限;
第二模式包括活动模式,活动模式向经认证的用户提供完全权限以及高亮度和色彩饱和度显示;并且
黑屏显示的一个或多个显示参数被更改以提供高亮度和色彩饱和度显示。
示例5。根据示例1所述的用户设备,其中:
第一模式包括情境模式,在情境模式中,用户设备检测用户在雷达场内的存在,多模式界面在第一模式期间提供低亮度显示;并且
第二模式包括警报模式,在警报模式中,雷达数据指示用户正在朝向用户设备靠近,多模式界面最初在警报模式期间提供低亮度显示,警报模式使得基于雷达的交互管理器能够基于用户的手朝向或远离用户设备的移动来至少调整低亮度显示的亮度,以有效地使得多模式界面提供与用户的手的移动相对应的动态响应视觉反馈。
示例6。根据示例1所述的用户设备,其中:
第一模式包括情境模式,在情境模式中,用户设备检测用户在雷达场内的存在,第一模式向用户提供不完全权限和低亮度显示,低亮度显示具有低色彩饱和度;
第二模式包括活动模式,活动模式向经认证的用户提供完全权限以及高亮度和色彩饱和度显示;并且
基于雷达的交互管理器通过增加亮度和色彩饱和度来更改低亮度显示的一个或多个参数,以从低亮度显示转换到高亮度和色彩饱和度显示。
示例7。根据示例1所述的用户设备,其中:
第一模式包括警报模式,在警报模式中,雷达数据指示用户正在朝向用户设备靠近,警报模式向用户提供不完全权限和低亮度显示,低亮度显示具有低色彩饱和度;
警报模式使得基于雷达的交互管理器能够至少调整低亮度显示的亮度,并且使得多模式界面基于至少调整低亮度显示的亮度来提供与用户的手朝向或远离用户设备的移动相对应的动态响应视觉反馈;
第二模式包括活动模式,活动模式向经认证的用户提供完全权限以及高亮度和色彩饱和度显示;并且
基于雷达的交互管理器被配置为:通过增加低亮度显示的亮度和色彩饱和度来更改一个或多个参数,以转换到高亮度和色彩饱和度显示。
示例8。根据示例1所述的用户设备,其中:
第一模式包括休眠模式,在休眠模式中,多模式界面处于休眠状态并且提供黑屏显示;
第二模式包括情境模式,在情境模式中,用户设备检测用户在雷达场内的存在,多模式界面在情境模式期间提供低亮度显示;
多模式界面包括第三模式,第三模式包括警报模式,在警报模式中,多模式界面基于至少调整与用户的移动相对应的低亮度显示的亮度来提供响应于用户朝向或远离用户设备的移动的动态视觉反馈;并且
基于雷达的交互管理器还被配置为:
响应于检测到用户与用户设备的第二隐式交互,使得多模式界面退出情境模式并且进入警报模式;以及
响应于多模式界面进入警报模式,调整低亮度显示的一个或多个附加参数。
示例9。根据示例1所述的用户设备,其中:
第一模式包括休眠模式,在休眠模式中,多模式界面处于休眠状态并且提供黑屏显示;
第二模式包括情境模式,在情境模式中,用户设备检测用户在雷达场内的存在,并且多模式界面提供低亮度显示,低亮度显示具有低色彩饱和度;
第一模式和第二模式各自向用户提供不完全权限;
多模式界面包括第三模式,第三模式包括活动模式,活动模式向经认证的用户提供完全权限以及高亮度和色彩饱和度显示;并且
基于雷达的交互管理器还被配置为:
响应于用户使用用户设备的认证,使得多模式界面退出情境模式并且进入活动模式;以及
响应于多模式界面进入活动模式,通过更改低亮度显示的亮度和色彩饱和度转换到高亮度和色彩饱和度显示,以使得多模式界面提供与用户的认证相对应的视觉反馈。
示例10。根据示例1所述的用户设备,其中:
第一模式包括情境模式,在情境模式中,用户设备检测用户在雷达场内的存在,并且多模式界面提供低亮度显示,低亮度显示在情境模式期间具有低色彩饱和度;
第二模式包括警报模式,在警报模式中,雷达数据指示用户正在朝向用户设备靠近,基于雷达的交互管理器基于用户相对于用户设备的移动来至少调整图像的亮度,并且多模式界面提供响应于用户相对于用户设备的移动的动态视觉反馈;
情境模式和警报模式都向用户提供不完全权限;
多模式界面包括第三模式,第三模式包括活动模式,活动模式向经认证的用户提供完全权限以及高亮度和色彩饱和度显示;并且
持久的基于雷达的交互管理器还被配置为:
响应于用户与用户设备的认证,使得多模式界面退出警报模式并且进入活动模式;以及
响应于多模式界面进入活动模式,增加低亮度显示的亮度和色彩饱和度,以提供高亮度和色彩饱和度显示。
示例11。根据示例1所述的用户设备,其中,低亮度由小于预定义阈值水平的亮度水平定义,预定义阈值水平对应于最大亮度的大约50%、40%、25%或15%。
示例12。一种在用户设备中实施的方法,该方法包括:
提供至少具有第一模式和第二模式的多模式界面,多模式界面在第一模式期间提供黑屏显示或低亮度显示;
当用户设备处于锁定状态时,从雷达***获得雷达数据,雷达数据表示来自由雷达***生成的雷达场中的用户的反射;
基于雷达数据并且在第一模式期间检测用户相对于用户设备的存在或阈值移动;
响应于检测到用户的存在或阈值移动,使得多模式界面从第一模式改变为第二模式;以及
响应于改变为第二模式,通过更改黑屏显示或低亮度显示的一个或多个显示参数,使得多模式界面提供与用户的存在或阈值移动相对应的视觉反馈。
示例13。根据示例12所述的方法,其中:
使得多模式界面从第一模式改变为第二模式包括使得多模式界面退出休眠模式并且进入情境模式;
在休眠模式中,多模式界面处于休眠状态并且提供黑屏显示;并且
在情境模式中,用户设备在距用户设备的指定距离内检测用户的存在并且提供低亮度显示。
示例14。根据示例13所述的方法,还包括:
响应于多模式界面改变为情境模式,针对指定持续时间增加黑屏显示的亮度以提供高亮度显示;以及
响应于指定持续时间的期满,减小高亮度显示的亮度以提供低亮度显示。
示例15。根据示例12所述的方法,其中:
使得多模式界面从第一模式改变为第二模式包括使得多模式界面退出情境模式并且进入警报模式;
在情境模式中,用户设备检测在距用户设备的预定义距离内的用户的存在,并且多模式界面提供黑屏显示;并且
在警报模式中,基于雷达的交互管理器被配置为:使得多模式界面基于至少调整与来自雷达***的雷达数据相对应的低亮度显示的亮度,来提供响应于用户的手朝向或远离用户设备的移动的动态视觉反馈。
示例16。根据示例15所述的方法还包括,响应于多模式界面进入警报模式,以第一速率至少调整低亮度显示的亮度以有效地提供与用户的手的移动相对应的动态视觉反馈,第一速率至少基于减小用户设备与用户的手之间的距离的第二速率。
示例17。根据示例12所述的方法,其中:
使得多模式界面从第一模式改变为第二模式包括使得多模式界面退出警报模式并且进入活动模式;
在警报模式中,多模式界面向低亮度显示提供低色彩饱和度,基于雷达的交互管理器基于用户的手朝向或远离用户设备的移动来至少调整低亮度显示的亮度,并且多模式界面基于至少调整低亮度显示的亮度来提供与用户的手的移动相对应的动态响应视觉反馈,警报模式向用户提供不完全权限;
活动模式基于用户对用户设备的认证向用户提供完全权限;并且
多模式界面在活动模式期间提供高亮度和色彩饱和度显示。
示例18。根据示例17所述的方法还包括,响应于多模式界面进入活动模式,将色彩饱和度或照明效果应用于低亮度显示以转换到高亮度和色彩饱和度显示,以有效地提供与用户认证相对应的附加视觉反馈。
示例19。一种在包括雷达***的用户设备中实施的方法,该方法包括:
由雷达***提供雷达场;
由雷达***感测来自雷达场中的用户的反射;
由雷达***分析来自雷达场中的用户的反射;
由雷达***并且基于对反射的分析提供雷达数据;
由基于雷达的交互管理器提供至少具有第一模式和第二模式的多模式界面,多模式界面在第一模式期间提供黑屏显示、低亮度显示、单色显示或高亮度和色彩饱和度显示;
由基于雷达的交互管理器基于雷达数据并且在第一模式期间检测用户相对于用户设备的存在或阈值移动;
响应于检测到用户的存在或阈值移动,由基于雷达的交互管理器将多模式界面从第一模式改变为第二模式;以及
响应于将多模式界面改变为第二模式,通过更改黑屏显示、低亮度显示、单色显示或高亮度和色彩饱和度显示的一个或多个显示参数来提供与隐式交互相对应的视觉反馈。
示例20。根据示例19所述的方法,其中:
第一模式包括以下各项中的一个:
休眠模式,在休眠模式中,多模式界面处于休眠状态并且提供黑屏显示;
情境模式,在情境模式中,用户设备检测用户在雷达场内的存在,多模式界面在情境模式期间提供低亮度显示;
警报模式,在警报模式中,雷达数据指示用户正在朝向用户设备靠近,警报模式提供与用户相对于用户设备的移动相对应的动态响应视觉反馈,多模式界面在警报模式期间提供低亮度显示或单色显示;以及
活动模式,其向经认证的用户提供完全权限,多模式界面在活动模式期间提供高亮度和色彩饱和度显示;
休眠模式、情境模式和警报模式各自向用户提供不完全权限;并且
第二模式包括休眠模式、情境模式、警报模式或活动模式中与第一模式不同的另一个模式。
结论
尽管已经用特定于特征和/或方法的语言描述了用于提供多模式界面的基于移动设备的雷达***的技术和实现该基于移动设备的雷达***的装置的实施方式,但是应当理解,所附权利要求的主题不必限于所描述的特定特征或方法。相反,特定的特征和方法被公开为使得基于移动设备的雷达***能够提供多模式界面的示例实施方式。
Claims (20)
1.一种用户设备,包括:
至少部分以硬件实施的雷达***,被配置为:
提供雷达场;
感测来自雷达场中的用户的反射;
分析来自雷达场中的用户的反射;以及
基于对反射的分析提供雷达数据;
一个或多个计算机处理器;以及
其上存储有指令的一个或多个计算机可读介质,所述指令响应于所述一个或多个计算机处理器的执行而实施基于雷达的交互管理器,所述基于雷达的交互管理器被配置为:
提供至少具有第一模式和第二模式的多模式界面,所述多模式界面在第一模式期间提供黑屏显示或低亮度显示;
基于雷达数据并且在第一模式期间检测用户的存在或者用户相对于用户设备的阈值移动;
响应于检测到用户的存在或阈值移动,将多模式界面从第一模式改变为第二模式;以及
响应于改变为第二模式,通过更改黑屏显示或低亮度显示的一个或多个显示参数,使得多模式界面提供与用户的存在或阈值移动相对应的视觉反馈。
2.根据权利要求1所述的用户设备,其中:
所述第一模式包括休眠模式,在所述休眠模式中,所述多模式界面处于休眠状态并且提供黑屏显示;
所述第二模式包括情境模式,在所述情境模式中,所述用户设备检测用户在雷达场内的存在并且所述多模式界面提供低亮度显示;并且
所述基于雷达的交互管理器被配置为:通过至少增加黑屏显示的亮度来更改一个或多个显示参数以提供低亮度显示。
3.根据权利要求1所述的用户设备,其中:
所述第一模式包括休眠模式,在所述休眠模式中,所述多模式界面处于休眠状态并且提供黑屏显示;并且
所述第二模式包括警报模式,在所述警报模式中,所述雷达数据指示用户正在朝向用户设备伸展并且所述多模式界面提供低亮度显示,所述警报模式向用户提供不完全权限;并且
所述基于雷达的交互管理器被配置为:当多模式界面处于警报模式时,基于用户的手朝向或远离用户设备的移动来至少动态调整低亮度显示的亮度,以有效地使得多模式界面提供与用户的手的移动相对应的动态响应视觉反馈。
4.根据权利要求1所述的用户设备,其中:
所述第一模式包括休眠模式,在所述休眠模式中,所述多模式界面处于休眠状态并且提供黑屏显示;
所述第一模式向用户设备的用户提供不完全权限;
所述第二模式包括活动模式,所述活动模式向经认证的用户提供完全权限以及高亮度和色彩饱和度显示;并且
所述黑屏显示的一个或多个显示参数被更改以提供高亮度和色彩饱和度显示。
5.根据权利要求1所述的用户设备,其中:
所述第一模式包括情境模式,在所述情境模式中,所述用户设备检测用户在雷达场内的存在,所述多模式界面在第一模式期间提供低亮度显示;并且
所述第二模式包括警报模式,在所述警报模式中,所述雷达数据指示用户正在朝向用户设备伸展,所述多模式界面最初在警报模式期间提供低亮度显示,所述警报模式使基于雷达的交互管理器能够基于用户的手朝向或远离用户设备的移动来至少调整低亮度显示的亮度,以有效地使得多模式界面提供与用户的手的移动相对应的动态响应视觉反馈。
6.根据权利要求1所述的用户设备,其中:
所述第一模式包括情境模式,在所述情境模式中,所述用户设备检测用户在雷达场内的存在,所述第一模式向用户提供不完全权限和低亮度显示,所述低亮度显示具有低色彩饱和度;
所述第二模式包括活动模式,所述活动模式向经认证的用户提供完全权限以及高亮度和色彩饱和度显示;并且
所述基于雷达的交互管理器通过增加亮度和色彩饱和度来更改低亮度显示的一个或多个参数,以从低亮度显示转换到高亮度和色彩饱和度显示。
7.根据权利要求1所述的用户设备,其中:
所述第一模式包括警报模式,在所述警报模式中,所述雷达数据指示用户正在朝向用户设备伸展,所述警报模式向用户提供不完全权限和低亮度显示,所述低亮度显示具有低色彩饱和度;
所述警报模式使基于雷达的交互管理器能够至少调整低亮度显示的亮度,并且使得多模式界面基于至少调整低亮度显示的亮度来提供与用户的手朝向或远离用户设备的移动相对应的动态响应视觉反馈;
所述第二模式包括活动模式,所述活动模式向经认证的用户提供完全权限以及高亮度和色彩饱和度显示;并且
所述基于雷达的交互管理器被配置为:通过增加低亮度显示的亮度和色彩饱和度来更改一个或多个参数,以转换到高亮度和色彩饱和度显示。
8.根据权利要求1所述的用户设备,其中:
所述第一模式包括休眠模式,在所述休眠模式中,所述多模式界面处于休眠状态并且提供黑屏显示;
所述第二模式包括情境模式,在所述情境模式中,所述用户设备检测用户在雷达场内的存在,所述多模式界面在所述情境模式期间提供低亮度显示;
所述多模式界面包括第三模式,所述第三模式包括警报模式,在所述警报模式中,所述多模式界面基于至少调整与用户的移动相对应的低亮度显示的亮度来提供响应于用户朝向或远离用户设备的移动的动态视觉反馈;并且
所述基于雷达的交互管理器还被配置为:
响应于检测到用户与用户设备的第二隐式交互,使得多模式界面退出情境模式并且进入警报模式;以及
响应于多模式界面进入警报模式,调整低亮度显示的一个或多个附加参数。
9.根据权利要求1所述的用户设备,其中:
所述第一模式包括休眠模式,在所述休眠模式中,所述多模式界面处于休眠状态并且提供黑屏显示;
所述第二模式包括情境模式,在所述情境模式中,所述用户设备检测用户在雷达场内的存在,并且所述多模式界面提供低亮度显示,所述低亮度显示具有低色彩饱和度;
所述第一模式和所述第二模式各自向用户提供不完全权限;
所述多模式界面包括第三模式,所述第三模式包括活动模式,所述活动模式向经认证的用户提供完全权限以及高亮度和色彩饱和度显示;并且
所述基于雷达的交互管理器还被配置为:
响应于用户与用户设备的认证,使得多模式界面退出情境模式并且进入活动模式;以及
响应于多模式界面进入活动模式,通过更改低亮度显示的亮度和色彩饱和度转换到高亮度和色彩饱和度显示,以使得多模式界面提供与用户的认证相对应的视觉反馈。
10.根据权利要求1所述的用户设备,其中:
所述第一模式包括情境模式,在所述情境模式中,所述用户设备检测用户在雷达场内的存在,并且所述多模式界面提供低亮度显示,所述低亮度显示在情境模式期间具有低色彩饱和度;
所述第二模式包括警报模式,在所述警报模式中,所述雷达数据指示用户正在朝向用户设备伸展,所述基于雷达的交互管理器基于用户相对于用户设备的移动来至少调整图像的亮度,并且所述多模式界面提供响应于用户相对于用户设备的移动的动态视觉反馈;
所述情境模式和所述警报模式都向用户提供不完全权限;
所述多模式界面包括第三模式,所述第三模式包括活动模式,所述活动模式向经认证的用户提供完全权限以及高亮度和色彩饱和度显示;并且
基于雷达的交互管理器还被配置为:
响应于用户与用户设备的认证,使得多模式界面退出警报模式并且进入活动模式;以及
响应于多模式界面进入活动模式,增加低亮度显示的亮度和色彩饱和度,以提供高亮度和色彩饱和度显示。
11.根据权利要求1所述的用户设备,其中,所述低亮度由小于预定义阈值水平的亮度水平定义,所述预定义阈值水平对应于最大亮度的50%、40%、25%或15%。
12.一种在用户设备中实施的方法,所述方法包括:
提供至少具有第一模式和第二模式的多模式界面,所述多模式界面在第一模式期间提供黑屏显示或低亮度显示;
当用户设备处于锁定状态时,从雷达***获得雷达数据,所述雷达数据表示来自由雷达***生成的雷达场中的用户的反射;
基于雷达数据并且在第一模式期间检测用户相对于用户设备的存在或阈值移动;
响应于检测到用户的存在或阈值移动,使得多模式界面从第一模式改变为第二模式;以及
响应于改变为第二模式,通过更改黑屏显示或低亮度显示的一个或多个显示参数,使得多模式界面提供与用户的存在或阈值移动相对应的视觉反馈。
13.根据权利要求12所述的方法,其中:
使得多模式界面从第一模式改变为第二模式包括使得多模式界面退出休眠模式并且进入情境模式;
在所述休眠模式中,所述多模式界面处于休眠状态并且提供黑屏显示;并且
在所述情境模式中,所述用户设备在距用户设备的指定距离内检测用户的存在并且提供低亮度显示。
14.根据权利要求13所述的方法,还包括:
响应于多模式界面改变为情境模式,针对指定持续时间增加黑屏显示的亮度以提供高亮度显示;以及
响应于指定持续时间的期满,减小高亮度显示的亮度以提供低亮度显示。
15.根据权利要求12所述的方法,其中:
使得多模式界面从第一模式改变为第二模式包括使得多模式界面退出情境模式并且进入警报模式;
在所述情境模式中,所述用户设备检测在距用户设备的预定义距离内的用户的存在,并且所述多模式界面提供黑屏显示;并且
在所述警报模式中,基于雷达的交互管理器被配置为:使得多模式界面基于至少调整与来自雷达***的雷达数据相对应的低亮度显示的亮度,来提供响应于用户的手朝向或远离用户设备的移动的动态视觉反馈。
16.根据权利要求15所述的方法,还包括,响应于多模式界面进入警报模式,以第一速率至少调整低亮度显示的亮度以有效地提供与用户的手的移动相对应的动态视觉反馈,所述第一速率至少基于减小用户设备与用户的手之间的距离的第二速率。
17.根据权利要求12所述的方法,其中:
使得多模式界面从第一模式改变为第二模式包括使得多模式界面退出警报模式并且进入活动模式;
在所述警报模式中,所述多模式界面向低亮度显示提供低色彩饱和度,基于雷达的交互管理器基于用户的手朝向或远离用户设备的移动来至少调整低亮度显示的亮度,并且所述多模式界面基于至少调整低亮度显示的亮度来提供与用户的手的移动相对应的动态响应视觉反馈,所述警报模式向用户提供不完全权限;
所述活动模式基于用户对用户设备的认证向用户提供完全权限;并且
所述多模式界面在活动模式期间提供高亮度和色彩饱和度显示。
18.根据权利要求17所述的方法,还包括,响应于多模式界面进入活动模式,将色彩饱和度或照明效果应用于低亮度显示以转换到高亮度和色彩饱和度显示,以有效地提供与用户的认证相对应的附加视觉反馈。
19.一种在包括雷达***的用户设备中实施的方法,所述方法包括:
由雷达***提供雷达场;
由雷达***感测来自雷达场中的用户的反射;
由雷达***分析来自雷达场中的用户的反射;
由雷达***并且基于对反射的分析提供雷达数据;
由基于雷达的交互管理器提供至少具有第一模式和第二模式的多模式界面,所述多模式界面在第一模式期间提供黑屏显示、低亮度显示、单色显示或高亮度和色彩饱和度显示;
由基于雷达的交互管理器基于雷达数据并且在第一模式期间检测用户相对于用户设备的存在或阈值移动;
响应于检测到用户的存在或阈值移动,由基于雷达的交互管理器将多模式界面从第一模式改变为第二模式;以及
响应于将多模式界面改变为第二模式,通过更改黑屏显示、低亮度显示、单色显示或高亮度和色彩饱和度显示的一个或多个显示参数来提供与隐式交互相对应的视觉反馈。
20.根据权利要求19所述的方法,其中:
第一模式包括以下各项中的一个:
休眠模式,在所述休眠模式中,所述多模式界面处于休眠状态并且提供黑屏显示;
情境模式,在所述情境模式中,所述用户设备检测用户在雷达场内的存在,所述多模式界面在情境模式期间提供低亮度显示;
警报模式,在所述警报模式中,所述雷达数据指示用户正在朝向用户设备伸展,所述警报模式提供与用户相对于用户设备的移动相对应的动态响应视觉反馈,所述多模式界面在警报模式期间提供低亮度显示或单色显示;以及
活动模式,其向经认证的用户提供完全权限,所述多模式界面在活动模式期间提供高亮度和色彩饱和度显示;
所述休眠模式、所述情境模式和所述警报模式各自向用户提供不完全权限;并且
第二模式包括休眠模式、情境模式、警报模式或活动模式中与第一模式不同的另一个模式。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2019/033116 WO2020236148A1 (en) | 2019-05-20 | 2019-05-20 | Mobile device-based radar system for providing a multi-mode interface and method therefor |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113614676A CN113614676A (zh) | 2021-11-05 |
CN113614676B true CN113614676B (zh) | 2024-03-26 |
Family
ID=66794108
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980094670.5A Active CN113614676B (zh) | 2019-05-20 | 2019-05-20 | 用于提供多模式界面的基于移动设备的雷达***及其方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11550048B2 (zh) |
EP (1) | EP3928182A1 (zh) |
JP (1) | JP7407200B2 (zh) |
KR (1) | KR20210125577A (zh) |
CN (1) | CN113614676B (zh) |
BR (1) | BR112021019115A2 (zh) |
WO (1) | WO2020236148A1 (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10914834B2 (en) | 2017-05-10 | 2021-02-09 | Google Llc | Low-power radar |
DK179555B1 (en) | 2017-05-16 | 2019-02-13 | Apple Inc. | USER INTERFACE FOR A FLASHLIGHT MODE ON AN ELECTRONIC DEVICE |
CN113614676B (zh) | 2019-05-20 | 2024-03-26 | 谷歌有限责任公司 | 用于提供多模式界面的基于移动设备的雷达***及其方法 |
KR20210132132A (ko) | 2019-06-17 | 2021-11-03 | 구글 엘엘씨 | 멀티 모드 인터페이스에 상이한 전력 모드를 적용하기 위한 모바일 디바이스 기반 레이더 시스템 |
US11487363B2 (en) * | 2019-07-29 | 2022-11-01 | Qualcomm Incorporated | Gesture detection in interspersed radar and network traffic signals |
KR20210020632A (ko) * | 2019-08-16 | 2021-02-24 | 삼성전자주식회사 | 밀리미터 웨이브를 이용하여 객체의 속성을 식별하는 전자 장치 및 그 제어 방법 |
US11875659B2 (en) | 2019-12-12 | 2024-01-16 | Google Llc | Privacy-preserving radar-based fall monitoring |
US11832961B2 (en) | 2020-08-11 | 2023-12-05 | Google Llc | Contactless sleep detection and disturbance attribution |
US11808839B2 (en) | 2020-08-11 | 2023-11-07 | Google Llc | Initializing sleep tracking on a contactless health tracking device |
US11754676B2 (en) | 2020-08-11 | 2023-09-12 | Google Llc | Precision sleep tracking using a contactless sleep tracking device |
US11406281B2 (en) | 2020-08-11 | 2022-08-09 | Google Llc | Contactless cough detection and attribution |
WO2023132376A1 (ko) * | 2022-01-04 | 2023-07-13 | 엘지전자 주식회사 | Tv 및 그 제어 방법 |
WO2023219974A2 (en) * | 2022-05-10 | 2023-11-16 | Apple Inc. | Low power display state |
KR102507499B1 (ko) * | 2022-05-17 | 2023-03-07 | 세종대학교산학협력단 | 양방향 채널을 이용하는 에어갭 환경에서의 공격 방법 |
US20240201779A1 (en) * | 2022-12-15 | 2024-06-20 | Amazon Technologies, Inc. | Presence detection with dynamic radar operating modes |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103797440A (zh) * | 2011-09-15 | 2014-05-14 | 皇家飞利浦有限公司 | 具有用户反馈的基于姿势的用户界面 |
Family Cites Families (75)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4843351A (en) | 1987-08-28 | 1989-06-27 | Hewlett-Packard Company | Vector modulation signal generator |
US4912477A (en) | 1988-11-18 | 1990-03-27 | Grumman Aerospace Corporation | Radar system for determining angular position utilizing a linear phased array antenna |
JPH06337401A (ja) * | 1993-05-28 | 1994-12-06 | Matsushita Electric Ind Co Ltd | 液晶ディスプレイ |
FI956060A (fi) | 1995-12-15 | 1997-06-16 | Nokia Telecommunications Oy | Sektoroitu tukiasema |
JP4232879B2 (ja) | 1999-09-02 | 2009-03-04 | パナソニック株式会社 | 通信装置 |
IL134518A0 (en) | 2000-02-13 | 2001-04-30 | Hexagon System Engineering Ltd | Integrated radar and communication system |
US6636574B2 (en) | 2001-05-31 | 2003-10-21 | Motorola, Inc. | Doppler spread/velocity estimation in mobile wireless communication devices and methods therefor |
US7092690B2 (en) | 2002-03-13 | 2006-08-15 | Gregory Zancewicz | Genetic algorithm-based adaptive antenna array processing method and system |
US6816116B2 (en) | 2002-03-22 | 2004-11-09 | Quanta Computer, Inc. | Smart antenna for portable devices |
US6633254B1 (en) | 2002-08-15 | 2003-10-14 | Bae Systems Information And Electronics Systems Integration Inc. | Self-modulating remote moving target detector |
GB0325622D0 (en) | 2003-11-03 | 2003-12-10 | Cambridge Consultants | System for determining positional information |
US7120439B2 (en) | 2003-11-13 | 2006-10-10 | Motorola, Inc. | Method and apparatus for mobile radio velocity estimation |
JP2005181193A (ja) | 2003-12-22 | 2005-07-07 | Tdk Corp | パルス波レーダー装置 |
KR100592767B1 (ko) | 2003-12-26 | 2006-06-26 | 한국전자통신연구원 | 개선된 전력증폭기 효율을 가진 듀얼 안테나 다이버시티송신기 및 시스템 |
JPWO2006013615A1 (ja) | 2004-08-02 | 2008-05-01 | 三菱電機株式会社 | レーダ装置 |
JP2007180597A (ja) | 2004-09-01 | 2007-07-12 | Nokia Corp | 中継器及び中継方法 |
JP2007232498A (ja) | 2006-02-28 | 2007-09-13 | Hitachi Ltd | 障害物検知システム |
US8254865B2 (en) | 2006-04-07 | 2012-08-28 | Belair Networks | System and method for frequency offsetting of information communicated in MIMO-based wireless networks |
US8169358B1 (en) | 2007-06-25 | 2012-05-01 | Bbn Technologies | Coherent multi-band radar and communications transceiver |
JP4575409B2 (ja) | 2007-08-22 | 2010-11-04 | 株式会社東芝 | 無線通信装置 |
US7782251B2 (en) | 2007-10-06 | 2010-08-24 | Trex Enterprises Corp. | Mobile millimeter wave imaging radar system |
US8254433B2 (en) | 2008-01-08 | 2012-08-28 | Raytheon Company | Non-federated multi-function Ka-band exciter system and method |
DE102008038365A1 (de) | 2008-07-02 | 2010-01-07 | Adc Automotive Distance Control Systems Gmbh | Fahrzeug-Radarsystem und Verfahren zur Bestimmung einer Position zumindest eines Objekts relativ zu einem Fahrzeug |
CN101354438B (zh) | 2008-08-28 | 2011-12-28 | 阮树成 | 毫米波时分线性调频多目标检测汽车防撞雷达 |
US8588805B2 (en) | 2008-12-13 | 2013-11-19 | Broadcom Corporation | Receiver utilizing multiple radiation patterns to determine angular position |
JP2010191288A (ja) | 2009-02-19 | 2010-09-02 | Autonetworks Technologies Ltd | 表示制御装置 |
US8994536B2 (en) | 2009-02-25 | 2015-03-31 | Xanthia Global Limited | Wireless physiology monitor |
CA2789521A1 (en) | 2009-02-25 | 2010-09-02 | Xanthia Global Limited | Wireless physiology monitor |
US9086476B1 (en) | 2009-03-25 | 2015-07-21 | Raytheon Company | Method and apparatus for rejecting intermodulation products |
US9041806B2 (en) | 2009-09-01 | 2015-05-26 | Magna Electronics Inc. | Imaging and display system for vehicle |
CN102087362B (zh) | 2009-12-08 | 2014-04-16 | 北京邮电大学 | 信号跟踪的方法和装置 |
US20110140949A1 (en) | 2009-12-16 | 2011-06-16 | Electronics And Telecommunications Research Institute | Mimo radar apparatus and wireless communication method using the same |
US9113190B2 (en) | 2010-06-04 | 2015-08-18 | Microsoft Technology Licensing, Llc | Controlling power levels of electronic devices through user interaction |
US8519885B2 (en) | 2011-09-21 | 2013-08-27 | Mobile Joose, Inc. | Combination hand-held phone and radar system |
JP5648844B2 (ja) | 2010-12-21 | 2015-01-07 | ソニー株式会社 | 画像表示制御装置および画像表示制御方法 |
US8775836B2 (en) | 2010-12-23 | 2014-07-08 | Intel Corporation | Method, apparatus and system to save processor state for efficient transition between processor power states |
EP2688262A4 (en) | 2011-03-14 | 2014-08-20 | Furukawa Electric Co Ltd | quadrature |
KR20140002034A (ko) | 2011-05-12 | 2014-01-07 | 애플 인크. | 존재 감지 |
KR20130001420A (ko) | 2011-06-27 | 2013-01-04 | 엘지전자 주식회사 | 사용자의 위치를 표시하는 장치 및 방법 |
JP5083447B1 (ja) | 2011-06-27 | 2012-11-28 | 富士ゼロックス株式会社 | 画像形成装置、画像形成装置用の人検知装置および画像形成装置用の制御装置 |
JP2013044881A (ja) | 2011-08-23 | 2013-03-04 | Panasonic Corp | 電子看板装置 |
US8798695B1 (en) | 2012-09-17 | 2014-08-05 | Amazon Technologies, Inc. | Proximity sensor using antennas of a user device |
WO2014094928A1 (en) | 2012-12-19 | 2014-06-26 | Sony Corporation | A method for operating a handheld screening device and a handheld screening device |
WO2014190074A1 (en) | 2013-05-22 | 2014-11-27 | New York University | System and method for estimating direction of arrival of a signal incident on an antenna array |
JP2015052982A (ja) | 2013-09-09 | 2015-03-19 | パイオニア株式会社 | 表示制御装置 |
KR102454196B1 (ko) | 2014-05-27 | 2022-10-14 | 삼성전자 주식회사 | 디스플레이 제어 방법 및 이를 제공하는 전자 장치 |
US10436888B2 (en) | 2014-05-30 | 2019-10-08 | Texas Tech University System | Hybrid FMCW-interferometry radar for positioning and monitoring and methods of using same |
US9746901B2 (en) | 2014-07-31 | 2017-08-29 | Google Technology Holdings LLC | User interface adaptation based on detected user location |
KR102214194B1 (ko) | 2014-08-19 | 2021-02-09 | 삼성전자 주식회사 | Rf센서를 가진 디스플레이장치 및 디스플레이장치의 사용자 감지방법 |
US9813222B2 (en) | 2014-08-28 | 2017-11-07 | Toyota Jidosha Kabushiki Kaisha | Single channel full-duplex joint radar and communication |
US9618611B2 (en) | 2014-09-24 | 2017-04-11 | Nxp B.V. | Personal radar assistance |
US9983300B2 (en) | 2014-10-17 | 2018-05-29 | Qualcomm Incorporated | Systems, methods, and apparatus for living object protection in wireless power transfer applications |
JP6463135B2 (ja) | 2015-01-07 | 2019-01-30 | キヤノン株式会社 | 電子機器及び表示制御方法 |
US9817109B2 (en) | 2015-02-27 | 2017-11-14 | Texas Instruments Incorporated | Gesture recognition using frequency modulated continuous wave (FMCW) radar with low angle resolution |
US9977122B2 (en) | 2015-03-27 | 2018-05-22 | The Boeing Company | Multi-function shared aperture array |
US9277418B1 (en) | 2015-07-21 | 2016-03-01 | RadComm, Inc. | Methods, devices and systems for separating overlappingly transmitted signals and enabling joint spectrum access |
CN108139474B (zh) | 2015-07-29 | 2022-07-22 | 高通股份有限公司 | 使用天线阵列的角速度感测 |
US10263646B2 (en) | 2015-09-08 | 2019-04-16 | Beammwave Ab | Analog processing system for massive-MIMO |
US20170086202A1 (en) | 2015-09-21 | 2017-03-23 | Qualcomm Incorporated | Wi-fi indoor radar |
US10324166B2 (en) | 2015-09-28 | 2019-06-18 | Rockwell Collins, Inc. | Affordable combined pulsed/FMCW radar AESA |
US10817065B1 (en) | 2015-10-06 | 2020-10-27 | Google Llc | Gesture recognition using multiple antenna |
US20170289766A1 (en) * | 2016-03-29 | 2017-10-05 | Microsoft Technology Licensing, Llc | Digital Assistant Experience based on Presence Detection |
WO2017175190A1 (en) | 2016-04-07 | 2017-10-12 | Uhnder, Inc. | Adaptive transmission and interference cancellation for mimo radar |
US9945935B2 (en) | 2016-04-25 | 2018-04-17 | Uhnder, Inc. | Digital frequency modulated continuous wave radar using handcrafted constant envelope modulation |
US10141993B2 (en) | 2016-06-16 | 2018-11-27 | Intel Corporation | Modular antenna array beam forming |
US10598763B2 (en) | 2016-07-27 | 2020-03-24 | Raytheon Company | System and method for concurrent communication of different signal types by a radar |
KR101809371B1 (ko) | 2016-07-29 | 2017-12-14 | 전자부품연구원 | 고속 첩 신호를 이용한 차량용 RadCom 시스템 및 방법 |
JP6091693B1 (ja) | 2016-09-21 | 2017-03-08 | 京セラ株式会社 | 電子機器 |
US10914834B2 (en) | 2017-05-10 | 2021-02-09 | Google Llc | Low-power radar |
US10795009B2 (en) | 2017-05-31 | 2020-10-06 | Google Llc | Digital beamforming for radar sensing using wireless communication chipset |
US10782390B2 (en) | 2017-05-31 | 2020-09-22 | Google Llc | Full-duplex operation for radar sensing using wireless communication chipset |
US10754005B2 (en) | 2017-05-31 | 2020-08-25 | Google Llc | Radar modulation for radar sensing using a wireless communication chipset |
US11126258B2 (en) | 2017-10-14 | 2021-09-21 | Qualcomm Incorporated | Managing and mapping multi-sided touch |
CN113614676B (zh) | 2019-05-20 | 2024-03-26 | 谷歌有限责任公司 | 用于提供多模式界面的基于移动设备的雷达***及其方法 |
KR20210132132A (ko) | 2019-06-17 | 2021-11-03 | 구글 엘엘씨 | 멀티 모드 인터페이스에 상이한 전력 모드를 적용하기 위한 모바일 디바이스 기반 레이더 시스템 |
-
2019
- 2019-05-20 CN CN201980094670.5A patent/CN113614676B/zh active Active
- 2019-05-20 BR BR112021019115A patent/BR112021019115A2/pt unknown
- 2019-05-20 JP JP2021557063A patent/JP7407200B2/ja active Active
- 2019-05-20 KR KR1020217029824A patent/KR20210125577A/ko not_active Application Discontinuation
- 2019-05-20 WO PCT/US2019/033116 patent/WO2020236148A1/en unknown
- 2019-05-20 US US16/771,647 patent/US11550048B2/en active Active
- 2019-05-20 EP EP19729423.4A patent/EP3928182A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103797440A (zh) * | 2011-09-15 | 2014-05-14 | 皇家飞利浦有限公司 | 具有用户反馈的基于姿势的用户界面 |
Also Published As
Publication number | Publication date |
---|---|
CN113614676A (zh) | 2021-11-05 |
BR112021019115A2 (pt) | 2021-11-30 |
JP2022533515A (ja) | 2022-07-25 |
US11550048B2 (en) | 2023-01-10 |
JP7407200B2 (ja) | 2023-12-28 |
EP3928182A1 (en) | 2021-12-29 |
WO2020236148A1 (en) | 2020-11-26 |
US20210088643A1 (en) | 2021-03-25 |
KR20210125577A (ko) | 2021-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113614676B (zh) | 用于提供多模式界面的基于移动设备的雷达***及其方法 | |
US11281303B2 (en) | Visual indicator for paused radar gestures | |
JP7163513B2 (ja) | 異なる電力モードをマルチモードインターフェイスに適用するためのモバイルデバイスベースのレーダーシステム | |
CN112753005B (zh) | 移动设备的输入方法 | |
US20210064145A1 (en) | Detecting and Processing Unsuccessfully Recognized or Unsuccessfully Utilized Non-Contact Gestures for a Computing System | |
US11169615B2 (en) | Notification of availability of radar-based input for electronic devices | |
WO2021040747A1 (en) | Methods for reliable acceptance of user non-contact gesture inputs for a mobile device | |
BR112021019157B1 (pt) | Dispositivo de usuário compreendo um sistema de radar e método implementado em um dispositivo de usuário para gerenciar modos de energia de bateria |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |