CN107450531A - 动态地将用户引导至自主驾驶交通工具的搭载位置的*** - Google Patents
动态地将用户引导至自主驾驶交通工具的搭载位置的*** Download PDFInfo
- Publication number
- CN107450531A CN107450531A CN201710399507.2A CN201710399507A CN107450531A CN 107450531 A CN107450531 A CN 107450531A CN 201710399507 A CN201710399507 A CN 201710399507A CN 107450531 A CN107450531 A CN 107450531A
- Authority
- CN
- China
- Prior art keywords
- vehicles
- user
- travel
- augmented reality
- pseudomorphism
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003190 augmentative effect Effects 0.000 claims abstract description 79
- 238000012545 processing Methods 0.000 claims description 71
- 238000000034 method Methods 0.000 claims description 38
- 230000008569 process Effects 0.000 claims description 30
- 238000003860 storage Methods 0.000 claims description 22
- 230000008859 change Effects 0.000 claims description 9
- 238000004891 communication Methods 0.000 description 38
- 238000005516 engineering process Methods 0.000 description 35
- 230000006870 function Effects 0.000 description 26
- 238000013500 data storage Methods 0.000 description 12
- 230000008901 benefit Effects 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 7
- 101001093748 Homo sapiens Phosphatidylinositol N-acetylglucosaminyltransferase subunit P Proteins 0.000 description 4
- 238000010276 construction Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000010295 mobile communication Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000002708 enhancing effect Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000032258 transport Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000004040 coloring Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 210000001525 retina Anatomy 0.000 description 2
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 1
- 206010040914 Skin reaction Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000003331 infrared imaging Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 238000001556 precipitation Methods 0.000 description 1
- 230000001235 sensitizing effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 210000000162 simple eye Anatomy 0.000 description 1
- 230000035483 skin reaction Effects 0.000 description 1
- 231100000430 skin reaction Toxicity 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3647—Guidance involving output of stored or live camera images or video streams
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3407—Route searching; Route guidance specially adapted for specific applications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/40—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Electromagnetism (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Acoustics & Sound (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明涉及动态地将用户引导至自主驾驶交通工具的搭载位置的***,更具体地涉及实施在可移动或便携式用户设备中的***,设备具有显示器,用以呈现从当前用户位置通向搭载位置的增强现实行走方向。***包括增强现实行走方向模块,模块动态生成或获得行走方向伪像,用于使用实时照相机图像来呈现,以示出从当前用户位置朝向搭载位置的推荐行走路径,以产生实时的增强现实行走方向,其随着用户与用户设备一起运动而发生变化。***包括增强现实方向呈现模块,模块开始显示从当前用户位置朝向搭载位置的实时的增强现实行走方向。***包括交通工具服务应用或者与应用连通,从而使用户预设交通工具的驾乘服务,其在搭载位置处遇上用户。
Description
技术领域
本公开一般地涉及自主交通工具(autonomous vehicle),并且更具体地涉及用于将自主共享式交通工具或出租车与使用增强现实的用户配对的***和方法,从而提供用户方向。
背景技术
本部分提供与本公开相关的背景信息,该背景信息不一定是现有技术。
制造商越来越多地生产具有更高的自动驾驶水平的交通工具。例如自适应巡航控制和测向定位的特征变得流行起来,并且这是更多地使用那些能够完全适用自主驾驶的交通工具的前兆。
随着高度自动化的交通工具在不远的将来将会变得普遍,完全自主的出租车服务和共享交通工具的市场正在发展起来。
尽管能够适用自主驾驶的交通工具的实用性增加,但是用户对自主驾驶的功能的熟悉程度、和他们在寻找那些用于相遇以便搭载的自主共享式的或出租车交通工具时的舒适度和效率却不一定能与实用性的增加齐头并进。用户对自动化的舒适度和相遇路线在整体的技术应用和用户体验上是重要的方面。
发明内容
在一个方面,本发明的技术涉及一种实施在可移动或便携式用户设备中的***,所述便携式用户设备具有显示器,用以呈现从当前的用户位置通向自主交通工具搭载位置(pickup location)的增强现实行走方向。该***包括基于硬件的处理单元和非暂时的计算机可读存储部件。
在各个实施例中,存储部件包括增强现实行走方向模块,当所述基于硬件的处理单元执行所述模块时,所述模块动态地生成或获得行走方向伪像(artifact),用于通过便携式用户设备显示器使用实时的照相机图像来呈现,以示出从当前的用户位置朝向所述自主交通工具搭载位置的推荐行走路径,以产生实时的增强现实行走方向,所述实时的增强现实行走方向随着用户与所述便携式用户设备一起运动而发生变化。
在各个实施例中,存储部件还包括增强现实方向呈现模块,当由所述基于硬件的处理单元执行所述模块时,所述模块开始显示从当前的用户位置朝向所述自主交通工具搭载位置的实时的增强现实行走方向。
在各个实施例中,所述非暂时的计算机可读存储部件包括自主交通工具服务应用,所述自主交通工具服务应用被构造成使得所述用户能够预设自主交通工具驾乘服务,其能够在所述自主交通工具搭载位置处遇上所述用户。并且,所述增强现实行走方向模块和所述增强现实方向显示模块是所述自主交通工具服务应用的部分。
在各个实施例中,所述***包括与所述基于硬件的处理单元连通的所述显示器,其用以在所述***的操作中呈现从当前的用户位置朝向所述自主交通工具搭载位置的所述实时的增强现实行走方向。
在各个实施例中,所述***包括与所述基于硬件的处理单元连通的所述照相机,其用以在所述***的操作中生成所述实时的照相机图像。
自主交通工具搭载位置可与当前的自主交通工具的位置不一样,并且,在各个实施例中,所述行走方向伪像包括(i)第一交通工具指示伪像,该第一交通工具指示伪像随着照相机图像动态地定位,从而示出当前的自主交通工具的位置,和(ii)第二交通工具指示伪像,该第二交通工具指示伪像随着照相机图像动态地定位,从而示出自主交通工具搭载位置。
在各个实施例中,所述第一指示交通工具的伪像或所述第二指示交通工具的伪像中的至少一者被构造成并布置成具有所述实时的照相机图像,从而指示当前的自主交通工具搭载位置或所述自主交通工具搭载位置位于在所述照相机图像中可见的结构或物体的后方。
在各个实施例中,所述行走方向伪像包括指示交通工具的伪像,所述指示交通工具的伪像随着所述照相机图像动态地定位,从而示出所述自主交通工具搭载位置。
在各个实施例中,所述伪像包括指示交通工具的伪像,所述指示交通工具的伪像随着所述照相机图像动态地定位,从而示出所述自主交通工具搭载位置;并且所述指示交通工具的伪像被构造和布置成具有所述实时的照相机图像,从而指示所述自主交通工具搭载位置位于在所述照相机图像中可见的结构或物体的后方。
在另一个方面,本发明的技术涉及一种用于在用户移动通信设备中实施的便携式***,用以提供通向自主交通工具搭载位置的修改现实行走方向。***包括基于硬件的处理单元和非暂时的计算机可读存储部件,其包括用于在移动通信设备中执行本发明的技术的功能的各个模块。
在各个实施例中,模块是便携式设备中的应用的部分,例如增强现实行走方向(ARWD)应用、自主交通工具预设应用或这样的预设应用的ARWD延伸。
模块包括移动设备定位模块,当基于硬件的处理单元执行该模块时,该模块确定移动设备地理位置。
模块还包括环境成像模块,当由基于硬件的处理单元执行该模块时,该模块从移动设备照相机接收与移动通信设备所处的环境相对应的实时的图像数据。
模块还包括增强实现行走方向模块,该模块当被基于硬件的处理单元执行时,借助于移动设备显示部件一起呈现图像数据的实时图像描绘图,其示出了用于指示从移动设备地理位置到自主交通工具搭载位置的行走方向的虚拟伪像和环境。
在各个实施例中,***包括所述的移动设备照相机和/或移动设备显示部件。
搭载位置可以与当前的自主交通工具的位置不一样,并且在那样的情况下,伪像还可以包括按照与当前的自主交通工具的位置相对应的方式定位的虚拟交通工具。虚拟搭载位置和虚拟交通工具两者都可以通过交通工具来示出,它们看起来可能类似,但是以不同的方式示出,用以指示一个是自主搭载位置,一个是当前的自主交通工具的位置。
在各个实施例中,增强现实行走方向模块当被基于硬件的处理单元执行时基于移动设备地理位置和指示自主交通工具搭载位置的数据生成行走方向。
在实施例中,虚拟的伪像包括虚拟的交通工具,按照与自主交通工具搭载位置相对应的方式将其动态地定位在实时图像描绘图中。
增强现实行走方向模块呈现图像数据的实时图像描绘图,其示出了用于指示从移动设备地理位置到自主交通工具搭载位置的行走方向的虚拟伪像和环境,该增强现实行走方向模块可将虚拟的交通工具呈现为在环境中的物体后方。
虚拟的伪像包括将移动设备位置连接至自主交通工具搭载位置的路径,例如用于为用户显示到达自主交通工具搭载位置的行走的方向的虚拟线或虚拟足印。
在另一个方面,本发明的技术涉及上文引用的非暂时的计算机可读存储部件。
在又一个方面,本发明的技术涉及用于执行功能或过程的算法,包括由本文所描述的结构所执行的功能。
在再一个方面,本发明的技术涉及相应装置的相应***、算法或过程或者由相应装置执行的相应***、算法或过程,例如用于自主交通工具,该自主交通工具可将交通工具位置(以及有可能还将ARWD指令或更新)发送到移动通信设备或者能够将同样的内容发送到便携式设备的远程服务器。
本发明还公开了以下技术方案。
方案1. 一种实施在便携式用户设备中的***,所述便携式用户设备具有显示器,用以呈现从当前的用户位置通向自主交通工具搭载位置的增强现实行走方向,所述***包括:
基于硬件的处理单元;和
非暂时的计算机可读存储部件,其包括:
增强现实行走方向模块,当由所述基于硬件的处理单元执行所述模块时,所述模块动态地生成或获得行走方向伪像,用于通过便携式用户设备显示器使用实时的照相机图像来呈现,以示出从当前的用户位置朝向所述自主交通工具搭载位置的推荐行走路径,以产生实时的增强现实行走方向,所述实时的增强现实行走方向随着用户与所述便携式用户设备一起运动而发生变化;和
增强现实方向呈现模块,当由所述基于硬件的处理单元执行所述模块时,所述模块开始显示从当前的用户位置朝向所述自主交通工具搭载位置的实时的增强现实行走方向。
方案2. 如方案1所述的***,其中:
所述非暂时的计算机可读存储部件包括自主交通工具服务应用,所述自主交通工具服务应用被构造成使得所述用户能够预设自主交通工具驾乘服务,其能够在所述自主交通工具搭载位置处遇上所述用户;并且
所述增强现实行走方向模块和所述增强现实方向显示模块是所述自主交通工具服务应用的部分。
方案3. 如方案1所述的***,还包括:
与所述基于硬件的处理单元连通的所述显示器,其用以在所述***的操作中呈现从当前的用户位置朝向所述自主交通工具搭载位置的所述实时的增强现实行走方向;和
与所述基于硬件的处理单元连通的所述照相机,其用以在所述***的操作中生成所述实时的照相机图像。
方案4. 如方案1所述的***,其中,所述自主交通工具搭载位置与当前的自主交通工具的位置不同。
方案5. 如方案4所述的***,其中所述行走方向伪像包括:
第一指示交通工具的伪像,所述第一指示交通工具的伪像随着所述照相机图像动态地定位,从而示出当前的自主交通工具的位置;和
第二指示交通工具的伪像,所述第二指示交通工具的伪像随着所述照相机图像动态地定位,从而示出所述自主交通工具搭载位置。
方案6. 如方案5所述的***,其中,所述第一指示交通工具的伪像或所述第二指示交通工具的伪像的至少一者被构造成并布置成具有所述实时的照相机图像,从而指示当前的自主交通工具搭载位置或所述自主交通工具搭载位置位于在所述照相机图像中可见的结构或物体的后方。
方案7. 如方案1所述的***,其中,所述行走方向伪像包括指示交通工具的伪像,所述指示交通工具的伪像随着所述照相机图像动态地定位,从而示出所述自主交通工具搭载位置。
方案8. 如方案1所述的***,其中:
所述伪像包括指示交通工具的伪像,所述指示交通工具的伪像随着所述照相机图像动态地定位,从而示出所述自主交通工具搭载位置;并且
所述指示交通工具的伪像被构造和布置成具有所述实时的照相机图像,从而指示所述自主交通工具搭载位置位于在所述照相机图像中可见的结构或物体的后方。
方案9. 如方案8所述的***,其中,所述行走方向伪像通过足印来指示路径。
方案10. 一种非暂时的计算机可读存储器,用于借助于便携式用户设备来呈现从当前的用户位置通向自主交通工具搭载位置的增强现实的行走方向,所述存储器包括:
增强现实行走方向模块,当由所述基于硬件的处理单元执行所述模块时,所述模块动态地生成或获得行走方向伪像,用于通过便携式用户设备显示器使用实时照相机图像来呈现,以示出从当前的用户位置朝向所述自主交通工具搭载位置的推荐行走路径,以产生实时的增强现实行走方向,所述实时的增强现实行走方向随着用户与所述便携式用户设备一起运动而发生变化;和
增强现实方向呈现模块,当由所述基于硬件的处理单元执行所述模块时,所述模块开始显示从当前的用户位置朝向所述自主交通工具搭载位置的实时的增强现实行走方向。
方案11. 如方案10所述的***,其中,所述自主交通工具搭载位置与当前的自主交通工具的位置不同。
方案12. 如方案11所述的***,其中所述行走方向伪像包括:
第一指示交通工具的伪像,所述第一指示交通工具的伪像随着所述照相机图像动态地定位,从而示出当前的自主交通工具的位置;和
第二指示交通工具的伪像,所述第二指示交通工具的伪像随着所述照相机图像动态地定位,从而示出所述自主交通工具搭载位置。
方案13. 如方案12所述的***,其中,所述第一指示交通工具的伪像或所述第二指示交通工具的伪像的至少一者被构造成并布置成具有所述实时的照相机图像,从而指示当前的自主交通工具搭载位置或所述自主交通工具搭载位置位于在所述照相机图像中可见的结构或物体的后方。
方案14. 如方案10所述的***,其中,所述行走方向伪像包括指示交通工具的伪像,所述指示交通工具的伪像随着所述照相机图像动态地定位,从而示出所述自主交通工具搭载位置。
方案15. 如方案10所述的***,其中:
所述伪像包括指示交通工具的伪像,所述指示交通工具的伪像随着所述照相机图像动态地定位,从而示出所述自主交通工具搭载位置;并且
所述指示交通工具的伪像被构造和布置成具有所述实时的照相机图像,从而指示所述自主交通工具搭载位置位于在所述照相机图像中可见的结构或物体的后方。
方案16. 如方案10所述的***,其中,所述行走方向伪像通过足印来指示路径。
方案17. 一种过程,用于借助于便携式用户设备来呈现从当前的用户位置通向自主交通工具搭载位置的增强现实行走方向,所述过程包括:
通过基于硬件的处理单元而动态地生成或获得行走方向伪像,用于通过便携式用户设备显示器使用实时照相机图像来呈现,以示出从当前的用户位置朝向所述自主交通工具搭载位置的推荐行走路径,以产生实时的增强现实行走方向,所述实时的增强现实行走方向随着用户与所述便携式用户设备一起运动而发生变化,所述基于硬件的处理单元执行存储在非暂时的计算机可读存储器中的增强现实行走方向模块;和
通过所述基于硬件的处理单元借助于便携式用户设备开始显示从当前的用户位置朝向所述自主交通工具搭载位置的实时的增强现实行走方向,所述基于硬件的处理单元执行存储在所述非暂时的计算机可读存储器中的增强现实方向呈现模块。
方案18. 如方案17所述的过程,其中,所述自主交通工具搭载位置与当前的自主交通工具的位置不同。
方案19. 如方案17所述的过程,其中所述行走方向伪像包括:
第一指示交通工具的伪像,所述第一指示交通工具的伪像随着所述照相机图像动态地定位,从而示出当前的自主交通工具的位置;和
第二指示交通工具的伪像,所述第二指示交通工具的伪像随着所述照相机图像动态地定位,从而示出所述自主交通工具搭载位置。
方案20. 如方案17所述的过程,其中,所述行走方向伪像包括指示交通工具的伪像,所述指示交通工具的伪像随着所述照相机图像动态地定位,从而示出所述自主交通工具搭载位置。
本发明的技术的其它方面一部分是清楚的,一部分将在下文中指出。
附图说明
图1示意性地示出了根据本发明的技术的实施例的一种具有本地和远程计算设备的示例性运输交通工具。
图2示意性地示出了与本地和远程计算设备通信的图1的示例***通工具计算器的更多细节。
图3示意性地示出了示例性个人或附加(add-on)计算设备的部件,其例如是手机、采用智能眼镜的驾驶员可穿戴设备、和平板电脑。
图4示出了用于执行本发明的技术的各种功能的示例性算法和过程。
图5示出了显示在便携式用户设备的显示器上的示例性增强现实行走方向的显示。
这些附图不一定成比例,并且一些特征可能被放大或最小化,例如用以显示特定部件的细节。
具体实施方式
根据需要,本文中公开了本公开的具体实施例。所公开的实施例仅仅是可以实施在各种形式、可替代形式及其组合中的示例。如本文所使用的例如、示例性的及类似术语扩大性地表示用作说明、样本、模型或模式的实施例。
在一些实例中,为了避免使本公开意思不清,没有详细地描述熟知的部件、***、材料或方法。因此,本文所公开的具体的结构性和功能性的细节不被解释为是限制性的,而是仅仅用作权利要求的基础及用作用于教导本领域技术人员使用本公开的代表性基础。
I. 技术引言
本公开通过各个实施例描述了用于将自主共享式的或出租车交通工具与顾客配对、并引导用户或顾客使用增强现实到达搭载区域或位置的***和方法。
增强现实的方向可以基于任何各种因素动态地确定,所述因素包括用户位置、交通工具位置、交通情况、估计到达时间或计划搭载时间、计划路线、其他用户的位置和行程。
尽管本发明的技术所选择的示例描述了运输交通工具或者旅程的模式并且具体地表示汽车,但是该技术不限于这些范围。该理念可拓展至各种各样的***和设备,例如包括航空器、船舶、卡车、公共汽车、火车、手推车等或其它的运输或移动交通工具。
尽管本发明的技术所选择的示例描述了自主交通工具,该技术不限于在自主交通工具中使用,或者不限于自主驾驶能够适用自主技术的车辆的时候。例如,尽管本文中聚焦的是自主驾驶的交通工具,所预期的是该技术能够被用于与人类驾驶的交通工具相关联。
II. 主交通工具-图1
现在转转附图并且更具体地转到第一张图,图1示出了形式为交通工具的示例性的主结构或者设备10。
在大多数实施例中,交通工具10是能够适用自主驾驶的交通工具,并且可以在交通工具搭载位置接上用户并且驾驶带着用户离开,在用户进入之前在交通工具中没有人员或者说至少没有驾驶员。
交通工具10包括基于硬件的控制器或者控制器***20。基于硬件的控制器***20包括用于与移动或便携式用户设备34和/或外部网络40通信的通信子***30。
尽管在图1中为了清楚说明而在交通工具10内示出了便携式用户设备34,然而根据本发明的技术,如果交通工具10是目标交通工具,那么在便携式用户设备的操作中,便携式用户设备34将不在交通工具10中,因为便携式用户设备34将要通过增强现实行走方向将交通工具10的用户引导至自主交通工具10的搭载位置。
通过诸如互联网、本地区网络、蜂窝网络或卫星网络的外部网络40,交通工具与交通工具、行人与交通工具或者其它基础性通信等,交通工具10可以连上移动或本地***34或者远程***50,例如远程服务器。
示例性便携式用户设备包括用于智能手机31、采用智能眼镜形式的第一示例性用户可穿戴设备32和平板电脑。其它示例性可穿戴设备32、33包括智能手表、诸如衬衫或皮带的智能服装、诸如手臂带的配件、或诸如耳环、项链和系索的智能饰品。
交通工具10具有包括中央控制台、仪表板和仪表盘的各种安装结构35。安装结构35包括诸如USB端口的插件端口36和诸如触摸敏感输入/输出、人机界面(HMI)的视觉显示器37。
交通工具10还具有传感器子***60,包括用于将信息提供至控制器***20的传感器。在图2的交通工具罩下方的右侧示意性地示出了控制器20的传感器输入。还示出了具有基础的附图标记60(601、602等)的示例性传感器。
传感器数据涉及以下特征:例如交通工具操作、交通工具位置和交通工具姿态、例如生物特征或生理测量的用户特征、和与交通工具10的内部或外侧的交通工具有关的环境特性。
示例性传感器包括位于交通工具10的后视镜的照相机601、位于交通工具10的顶部的顶端或顶侧照相机602、全景照相机603(背向交通工具10)和全景范围传感器604。诸如照相机和麦克风的聚焦交通工具内的传感器601、602被构造为感测人员存在与否、人员的活动或者其它客舱的活动或特性。传感器还可在注册或重新注册程序中被用于认证目的。传感器的这种子集在下文中更详细地加以描述。
全景传感器603、604感测环境11周围的特性,例如包括广告牌、建筑物、其他交通工具、交通标志、交通信号灯、行人等。
所述的OBD可以认为是载各个实施例中的本地装置、子***60的传感器或者两者。
例如在交通工具10使用基于(一个或多个)本地设备传感器的输出由本地设备提供的数据的实施例中,例如用户手机、用户可穿戴设备或用户插件设备也可以被认为是传感器60。交通工具***可以使用来自用户智能手机的数据,例如用于表征由手机的生物特征传感器所感测的用户生理数据。
交通工具10还包括客舱输出部件70,例如音频扬声器701以及仪表盘或显示器702。输出部件还可以包括仪表板或中心堆叠显示屏幕703、后视镜屏幕704(用于显示来自交通工具的尾部/备用的照相机的成像),和任何交通工具视觉显示设备37。
III. 车载计算架构-图2
图2更详细地示出了图1的自主交通工具的基于硬件的计算或控制器***20。控制器***20可以用其它术语来表示,例如计算装置、控制器、控制器装置或者类似的描述性术语,并且可以是或者包括一个或多个微控制器,如前所述。
在各个实施例中,控制器***20是上述的更大***20(例如自主交通工具)的一部分。
控制器***20包括基于硬件的计算机可读存储介质或者数据存储设备104和基于硬件的处理单元106。处理单元106借助于诸如计算机总线或者无线部件的通信链路108被连接至或者可连接至计算机可读存储介质104。
处理单元106可以用其它名字来引用,例如处理器、处理硬件单元等等,或者其它名字。
处理单元106可以包括或者是多个处理器,这些处理器可以包括在单一机器或多个机器中的分布式处理器或者并行处理器。处理单元106可用以支持虚拟处理环境。
处理单元106可包括状态机器、专用集成电路(ASIC)或者包括例如场PGA(可编程门阵列)的可编程门阵列。在本文中对执行用以完成操作、动作、任务、功能、步骤等的代码或指令的处理单元的引用可包括直接地完成操作的处理单元、和/或有助于另一个设备或者部件完成操作的处理单元、引导另一个设备或者部件完成操作的处理单元或者与另一个设备或者部件配合以完成操作的处理单元。
在各个实施例中,数据存储设备104是易失型介质、非易失型介质、可拆卸介质或不可拆卸介质中的任一种。
本文的说明书和权利要求中所使用的术语“计算机可读介质”及其变形表示有形存储介质。图2中的介质更详细地示出了图1的基于硬件的计算或控制器***20。控制器***20可以用其它术语来表示,例如计算装置、控制器、控制器装置或者类似的描述性术语,并且可以是或者包括一个或多个微控制器,如前所述。
在各个实施例中,控制器***20是上述的更大***20(例如交通工具)的一部分。
控制器***20包括基于硬件的计算机可读存储介质或者数据存储设备104和基于硬件的处理单元106。处理单元106借助于诸如计算机总线或者无线部件的通信链路108被连接至或者可连接至计算机可读存储介质104。
处理单元106可以用其它名字来引用,例如处理器、处理硬件单元等等,或者其它名字。
处理单元106可以包括或者是多个处理器,这些处理器可以包括在单一机器或多个机器中的分布式处理器或者并行处理器。处理单元106可用以支持虚拟处理环境。
处理单元106可包括状态机器、专用集成电路(ASIC)或者包括例如场PGA(可编程门阵列)的可编程门阵列。在本文中对执行用以完成操作、动作、任务、功能、步骤等的代码或指令的处理单元的引用可包括直接地完成操作的处理单元、和/或有助于另一个设备或者部件完成操作的处理单元、引导另一个设备或者部件完成操作的处理单元或者与另一个设备或者部件配合以完成操作的处理单元。
在各个实施例中,数据存储设备104是易失型介质、非易失型介质、可拆卸介质或不可拆卸介质中的任一种。
本文的说明书和权利要求中所使用的术语“计算机可读介质”及其变形表示有形存储介质。介质可以是一种设备或者可以是非瞬时性的。
在一些实施例中,存储介质包括易失型和/或非易失型、可拆卸和/或不可拆卸的介质,例如随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、固态存储器或其他存储器技术、CD ROM、DVD、BLU-RAY或其他光盘存储器、磁带、磁盘存储装置或其他磁存储设备。
数据存储设备104包括一个或多个存储模块110,用于存储可由处理单元106执行的用以完成本文所述的控制器***20的功能的计算机可读代码或指令。
模块可包括用以在交通工具中完成本文所述或者所暗示的任何功能的任何合适的模块。例如,交通工具模块可包括自主交通工具服务应用,它的实例也在将被引导至交通工具搭载位置的用户的便携式设备上。
交通工具模块还可包括交通工具定位模块,其可以被考虑为也由附图标记10所示出。交通工具定位模块被用以确定交通工具的位置,其可以被供给到服务应用中。在各个实施例中,***20通过直接无线连接经由基础网络或者例如经由远程服务器与便携式设备的服务应用共享交通工具位置数据。
在一些实施例中,数据存储设备104还包括辅助或支撑部件112,例如支撑本公开的过程的性能的附加软件和/或数据,例如一个或多个用户概况或一组默认的和/或用户设定的偏好。
如所提供的,控制器***20还包括用于与本地和外部设备和网络34、40、50通信的通信子***30。在各个实施例中,通信子***30包括基于线路的输入/输出(i/o)116、至少一个远程无线收发器118和一个或多个短程和/或中程无线收发器120。部件122通过示例的方式被示出为强调***可被构造成容纳一个或多个其它类型的有线或无线通信。
在一些实施例中,远程收发器118被构造成有利于控制器***20和卫星和/或蜂窝电信网络之间的通信,这也可以被认为由附图标记40示意性地表示。
短程或中程收发器120被构造成有利于短程或中程通信,例如与其他交通工具的通信、交通工具与交通工具的通信(V2V)、和与运输***基础设施的通信(V2I)。更宽泛地,交通工具与实体(V2X)可以表示与任何类型的外部实体(例如,与行人或骑手等相关的设备)的短程通信。
对于V2V、V2I的通信或者与其它外部交通工具设备的通信,例如本地通信路由器等,短程或中程通信收发器120可被构造成借助于一个或多个短程或中程通信协议进行通信。示例性的协议包括专用短程通信技术(DSRC)、WI-FI®、BLUETOOTH®、红外协议、红外数据组织(infrared data association,IRDA)、近场通信(NFC)等,或者其改进(WI-FI是德克萨斯州奥斯汀的WI-FI联盟的注册商标;BLUETOOTH是华盛顿州贝尔维尤的Bluetooth SIG公司的注册商标)。
通过短程、中程和/或远程无线通信,控制器***20可以通过处理器106的操作向(一个或多个)通信网络40发送和该通信网络40接收例如形式为消息或打包数据的信息。
在各个实施例中,子***30与之通信的远程设备50靠近交通工具10、与交通工具相距遥远,或者两者兼有。
远程设备50可以被构造成具有任何合适的结构,用于完成本文中所描述的操作。示例性的结构包括关于交通工具的计算设备20所描述的那些结构中的一些或所有结构。远程设备50包括例如处理单元、存储介质,其包括模块、通信总线和输入/输出通信结构。这些特征被认为是通过图1针对远程设备50所示出,并且在本段落中以交叉引用的方式加以提供。
尽管在图1和图2中便携式用户设备34被示出为在交通工具10内,它们中的任何一者可以在交通工具的外部或者与交通工具通信。
示例性远程***50包括远程服务器(例如应用服务器)或者远程数据、客服和/或控制中心。诸如智能手机的便携式用户设备34还可以与交通工具10相距遥远,并且例如借助于互联网或其他通信网络40与子***30通信。
示例性控制中心是OnStar®控制中心,其具有用于与交通工具和用户交互的设施,无论是借助于交通工具或者其他方式(例如手机)、借助于远程通信,例如卫星或蜂窝通信。ONSTAR是Onstar公司的注册商标,其是通用汽车公司的子公司。
如所示,交通工具10还包括传感器子***60,传感器子***包括传感器,该传感器用于将关于例如以下项目的信息提供至控制器***20:交通工具操作、交通工具位置、交通工具姿态、例如生物特征或生理测量的用户特征和/或关于交通工具10的环境。该布置结构可以被构造成使得控制器***20经由有线或短程无线通信链路116、120与传感器子***60的传感器通信,或者至少从该传感器接收信号。
在各个实施例中,传感器子***60包括指向远离例如用于支持自主驾驶的交通工具的至少一个照相机和至少一个距离传感器604,例如雷达或声呐。
指向远离交通工具10的可见光照相机(Visual-light camera)603可包括单眼前视照相机(monocular forward-looking camera),例如在车道偏离警告(LDW)***中使用的那些。实施例可包括其他照相机技术,例如立体照相机或三焦照相机。
在不偏离本公开的范围的情况下,被构造成感测外部状况的传感器可被布置在或定向在任意多个方向中。例如,照相机603和距离传感器604可被定向在下列每个位置中或者下列的选定位置中:(i)从交通工具10的前中心点面朝前方;(ii)从交通工具的后中心点面朝后方;(iii)从交通工具的一侧位置面朝交通工具的侧方;和/或(iv)在这些方向之间,并且例如每个都处在任意高度或朝向任意高度。
距离传感器604可以例如包括诸如在自主或自适应巡航控制(ACC)***中使用的那些短程雷达(SRR)、超声波传感器、远程雷达,声纳或光检测和测距(LiDAR)传感器。
其它示例性传感器子***60包括所述的客舱传感器(601、602等),其被构造或布置(例如定位和配备在交通工具中)为感测与交通工具的内部相关的活动、人员、客舱环境状况或者其它特征。示例性的客舱传感器(601、602等)包括麦克风、交通工具内的可见光照相机、座椅重量传感器、用户盐度、视网膜或其他用户特征、生物特征或生理测量值和/或关于交通工具10的环境。
交通工具传感器60的客舱传感器(601、602等)可包括一个或多个温度敏感照相机(例如基于可见光(3D、RGB、RGB-D)的红外或热成像的)或传感器。在各个实施例中,照相机优选地位于交通工具10的高的位置处。示例性的位置包括在后视镜上和在顶侧舱室中。
较高的定位减少了来自侧方障碍的干扰,例如前排座椅向后运动将阻挡第二或第三排乘客或者将阻挡这些乘客中的大多数。定位更高的照相机(基于光的(例如RGB、RGB-D、3D或热的或红外的))或者其它传感器将有可能可以感测每个乘客身体的更多部分的温度,例如躯干、腿、脚。
用于(一个或多个)照相机的两个示例性的位置在图1中由附图标记601、602等所表示——一个在后视镜处、一个在交通工具顶部处。
其它示例性的传感器子***60包括具有一个或多个加速度计的动态交通工具传感器134(例如惯性动量单元,IMU)、车轮传感器或者与交通工具10的转向***(例如方向盘)有关的传感器。
传感器60可包括用于测量交通工具的姿态或例如位置、速度、加速度或高度的其他动态特性的任何传感器,例如交通工具高度传感器。
传感器60可包括用于测量交通工具的环境的任何已知的传感器,包括上述的那些传感器和其他传感器,例如用于感测是否有降雨或降雪及其降雨和降雪量的降水传感器、温度传感器和任何其它传感器。
用于感测用户特征的传感器包括任何生物特征或生理传感器,例如用于视网膜或其他眼睛特征识别、面部识别或指纹识别的照相机;热传感器;用于语音或其他用户识别的麦克风;其他类型的用户识别的基于照相机的***;重量传感器;呼吸质量传感器(例如酒精测定器);用户温度传感器;心电图(ECG)传感器;电吸皮活动(EDA)或电流皮肤反应(GSR)传感器;血液体积脉搏(BVP)传感器;心率(HR)传感器;脑电图(EEG)传感器;肌电图(EMG)和用户温度;测量盐度水平的传感器,等等,或者其它传感器。
例如触敏显示器37、按钮、旋钮等或者其它的用户和交通工具的接口也可被认为是传感器子***60的部分。
图2还示出了上述的客舱输出部件70。在各个实施例中,输出部件包括用于与交通工具的乘员通信的机构。部件包括但不限于音频扬声器140、诸如仪表盘、中心叠层显示屏和后视镜屏的视觉显示器142以及诸如方向盘或座椅振动致动器的触觉输出144。在这一部分70中提供第四元件146,以强调交通工具可包括各种各样的其它的输出部件中的任一种,例如用于提供气味或光进入客舱内的部件。
IV. 示例性的便携式用户设备34-图3
图3示意性地示出了图1和图2的示例性便携式用户设备34,例如智能眼镜、手机或平板电脑。便携式用户设备34可以用其它术语来表示,例如本地设备、个人设备、辅助设备、***、装置等。
便携式用户设备34被构造成具有任何合适的结构,用于完成针对它们所描述的操作。示例性的结构包括关于交通工具控制器***20所描述的结构中的任何结构。未在图3中示出的或者在图3中可见但是通过与交通工具控制器***20的这种关系加以描述的任何便携式用户部件被认为是也在图1和2中通过示出***20的部件所示出。
便携式用户设备34例如可包括例如屏和扬声器的输出部件。
并且,设备34包括借助于通信链路(类似链路108,例如计算机总线或无线结构)连接到或者可连接到计算机可读存储设备的基于硬件的计算机可读存储介质,或者数据存储设备(类似图2中的存储设备104)和基于硬件的处理单元(类似图2中的处理单元106)。
便携式用户设备34的数据存储设备可以以任何方式类似于上述关于图2描述的设备104。——例如,便携式用户设备34的数据存储设备可包括存储计算机可读代码或指令的一个或多个存储装置或代码模块,这些代码或指令可由附加的设备的处理单元执行,用以完成基于硬件的控制本文所述的装置的功能或者本文所述的其它功能。在各个实施例中,附加设备的数据存储设备还包括辅助或支撑部件,例如图2中的那些部件112,例如用于支撑本公开的过程的性能的附加软件和/或数据,例如一个或多个驾驶员概况或一组默认的和/或驾驶员设定的偏好。在各个实施例中,代码模块支撑部件是一个或多个附加设备程序(例如下文描述的应用302)的部件或者可访问这些程序的部件。
例如参考图3,除了与图1中所示的那些用于交通工具计算***20的特征相类似的任何特征,便携式用户设备34被示出为包括:
-应用3021、3022、……、302N;
-出于简化由附图标记304共同表示的操作***、处理单元和设备驱动器;
-输入/输出部件306,其用于与本地传感器、***设备和除了计算***320的装置和外部设备通信,例如通过将一个或多个短程、中程或远程收发器包括在内,该收发器被构造成借助于任何通信协议进行通信,示例性的协议包括专用短程通信技术(DSRC)、WI-FI®、BLUETOOTH®、红外协议、红外数据组织(IRDA)、近场通信(NFC)等,或者其改进;和
-设备定位部件308,其例如下列部件中的一种或多种:GPS接收器、使用多边测量、三边测量或三角测量的部件、或者适合用于确定设备位置的形式(坐标、接近程度或其它)或者用于提供或支撑基于位置的服务的任何部件。
便携式用户设备34可包括相应的传感器子***360。示例性传感器由328、330、332、334来表示。
在各个实施例中,传感器子***360包括面向用户的照相机,并且在一些实施例中还包括全景照相机,两者都示意性地由附图标记328所表示,传感器子***360还包括麦克风330。
在一些实施例中,传感器包括惯性动量单元(IMU)332,例如具有一个或多个加速度计的惯性动量单元。通过使用IMU,用户便携式设备34可以确定其方位。通过使用位置数据、方位数据、地图、导航或其他关于手机所定位的环境的数据库信息,用户便携式设备34可以确定设备34面对的对象,例如具体的道路、建筑物、湖泊等。这些特征对于增强现实的应用是重要的,例如在增强现实中,由设备照相机所捕获的现实通过基于设备的位置和方位的数据库信息(来自设备、交通工具、远程服务器或其他来源)得到增强。
通过使用方位数据,设备34还可以确定用户如何握持设备以及用户如何移动设备,例如用以确定手势或者期望的设备调整,例如旋转显示在设备屏幕上的视角。
在传感器组360中提供第四符号334,用以明确地表示组360可以包括用于完成本文所描述功能的各种各样的传感器中的一种或多种。
任何传感器可包括支撑程序或者与支撑程序相连通,该支撑程序可以认为由传感器图标或者由例如应用302N中的一个的数据结构所示出。用户便携式设备34可包括任何可用的子***,用于处理来自传感器的输入。例如关于照相机328和麦克风330,用户便携式设备34可处理照相机和麦克风数据,从而执行以下功能:如语音或面部识别、用于鉴别的视网膜扫描技术、语音对文本处理,等等,或者其它功能。在传感器和支撑程序、部件或结构之间的类似关系可以存在(关于本文所描述的传感器或程序),包括关于其它***,例如交通工具10和例如其它用户设备34的其它设备。
V. 算法和过程-图4和图5
V.A. 过程的引言
图4示出了用于用户便携式设备34的作为过程流的示例性算法,其示意性地由流400所表示。在本文中,处于简化的目的,流400时常被表示为过程或方法。
尽管出于简化目的示出单个过程400,然而方法或操作中的任一者可通过一个或多个设备或***在一个或多个算法的一个或多个过程、程序或子程序中执行。
应当理解到,过程的步骤、操作或功能不必以任何特定的次序来呈现,并且以可替代的次序完成一些或全部操作是可能并且是可以预料的。过程还可被组合或重复,例如一个过程的一个或多个操作可以在其他过程中完成。
处于描述和说明的简易性,已经按照所展示的次序呈现这些操作。在不偏离所附权利要求的范围的前提下,可以增加、省略和/或同时执行操作。还应该理解的是,所说明的过程可以在任何时候结束。
在一些实施例中,由计算机处理器完成过程的一些或全部操作和/或大体上等价的操作,例如执行存储在相应设备的非暂时的计算机可读存储设备(例如用户便携式设备34的数据存储设备)上的计算机可执行指令的用户便携式设备34的基于硬件的处理单元304。
如所提到的,便携式设备34的数据存储设备包括用于完成便携式用户设备34的过程的一个或多个模块,并且可包括辅助部件,例如附加软件和/或支撑本公开的过程的性能的数据。辅助部件112可例如包括用于支撑本公开的过程的性能的附加软件和/或数据,例如一个或多个用户概况或一组默认的和/或用户设定的偏好。
所描述的任何代码或指令可以是多于一个模块的部分。并且,本文描述的任何功能可以通过在一个或多个模块中执行指令来完成,尽管可以主要借助于基本示例关于一个模块描述这些功能。模块中的每个可以通过各种名字中的任何名字来表示,例如通过表征其功能的术语或短语。
子模块可以导致基于硬件的处理单元106完成模块功能的特定操作或程序。子模块中的每个也可以通过各种名字中的任何名字来表示,例如通过表征其功能的术语或短语。
V.B. ***部件和功能-图4和图5
过程开始于401并且继续流到方框402,基于硬件的处理单元在方框402执行自主交通工具预设应用,用以预设或固定自主交通工具10中的用户的将来的进程。关于本发明的技术的大多数功能,这个功能可以在任何合适的执行***中完成,例如在便携式用户设备34中(4021)、在例如笔记本电脑或台式电脑的另一个用户设备中(4022)和/或在远程服务器50中(4023)。
在各个实施例中,上述的“固定”包括例如经由便携式设备接口(例如,触摸屏)与用户交互。上述的“预设”还可以由用户在另一个设备中实现,例如用户的笔记本电脑或台式电脑。
在方框404,由相应的处理单元所执行的自主交通工具预设应用以任何各种方式确定自主交通工具搭载位置,在该位置用户将进入自主交通工具10。作为示例,该应用可被构造成使得用户能够选择搭载位置,例如街道、载客区、停车场等的任何位置,或者能够从预先识别的搭载位置中选择。在各个实施例中,自主交通工具预设应用至少部分地基于便携式用户设备34的位置来确定搭载位置。再者,功能可以在任何合适的执行***中完成,例如在便携式用户设备34中(4041)、在交通工具10中(4042)和/或在远程服务器50中和/或用户笔记本电脑或台式电脑中(4043)。
搭载位置的确定可以再次基于任何合适的信息,例如当前的交通工具位置、便携式用户设备/用户位置、邻近用户或者邻近用户在搭载时间前后的期望位置的地面街道、停车场、载客区等。
在方框406处,便携式用户设备34(4061)、交通工具10(4062)、服务器50(4063)或其它***的增强现实行走方向模块由相应的基于硬件的处理单元执行,并且动态地生成或获得行走方向伪像,用于通过便携式用户设备显示器使用实时照相机图像呈现给用户,从而示出从当前的用户位置朝向自主交通工具搭载位置的推荐的行走路径,以得到随着用户携带便携式用户设备运动时发生改变的实时的增强现实行走方向。
在方框408,由相应的基于硬件的处理单元所执行的便携式用户设备34(4081)、交通工具10(4082)和/或服务器50和/或其它***(4083)的增强现实方向呈现模块借助于便携式用户设备34的显示部件开始显示从当前的用户位置朝向自主交通工具搭载位置的实时的增强现实行走方向。
在一些实施方式中,自主交通工具搭载位置与当前的自主交通工具的位置不一样。
AR伪像可以采用任何合适的格式,用于将用户引导至搭载位置。示例性的伪像包括并不限于虚拟的足迹、虚拟的线、虚拟的箭头和虚拟路径指示物中的任何各种类型。虚拟路径指示物在视觉上为用户示出了通往搭载位置的路径。
伪像包括自主共享式的或出租车交通工具10的虚拟的指示物。当例如建筑物的物体、其它交通工具、例如人群的多个人员处于用户便携式设备34和主题的交通工具10之间,可以在实景图像中在准确的位置处显示虚拟的交通工具伪像,这与显示器中的实际位置相对应。并且,在本示例中,虚拟的交通工具伪像可以以例如通过画虚线或鬼线、着色或加阴影等的方式显示在图像中的物体上或物体处,从而显示实际的交通工具10位于物体后方。虚拟路径(例如足迹)可以用相同的方式或不同的方式显示在可见和不可见的位置处,或者在不可见的位置中,例如在物体的后方(交通工具在该物体后方)可以由指示出路径在物体后方的画虚线、画鬼线或其他画线、着色或加阴影的方式来示出。
图5示出了示例性的增强现实行走方向的显示器500,其示出了虚拟的交通工具搭载位置伪像510和通向虚拟的交通工具搭载位置的虚拟足迹路径520。如所提到的,路径可以用不同方式示出,例如当路径在物体后面时用虚线示出,在图5中,对于是建筑物(在图5的视场中的右侧)的物体后面的脚印530,足印路径指示物改变颜色。
在可预期的实施例中,基于用户便携式设备和自主共享式的或出租车交通工具10的位置,虚拟的交通工具伪像以实际的大小显示。由此,当如果设备34远离交通工具10,则虚拟的交通工具伪像将会显得较小,并且当设备34靠近交通工具10则显得较大,当用户到达交通工具10时达到完全的真实的大小。
行走方向伪像可包括第一指示交通工具的伪像和第二指示交通工具的伪像,该第一指示交通工具的伪像随着照相机图像动态地定位,从而示出当前的自主交通工具的位置,该第二指示交通工具的伪像随着照相机图像动态地定位,从而示出自主交通工具搭载位置。
在各个实施例中,作用***(例如,便携式用户设备、交通工具、或服务器的处理单元)确定了(从用户/用户设备的视角来看)搭载位置和/或当前的交通工具位置处于结构或物体的后方。作用***可以构造或者布置具有实时照相机图像的(一个或多个)指示交通工具的伪像,从而指示当前的自主交通工具搭载位置或自主交通工具搭载位置位于在照相机图像中可见的结构或物体后方。
过程400可在413处结束,或者过程中的一个或多个操作可以再次执行。
下文中将描述本发明的技术的***和过程的其他方面。
VI. 本发明的技术的选择性综述和方面
在许多场合中,实施自主共享式的或出租车交通工具或无人驾驶交通工具将包括在物理上使得用户(例如顾客)与交通工具在一起,用于随后自主地驾乘到用户目的地。
本发明的技术将自主共享式的或出租车交通工具10与用户配对,例如通过用户便携式设备34和交通工具10的通信,例如用以共享相应的识别或验证信息(例如预设代码)、用以共享相应的位置信息、用以共享方向或基于增强现实的指令,等等。
本发明的技术将自主共享式的或出租车交通工具10与用户配对,例如通过用户便携式设备34和交通工具10的通信,例如用以验证用户是主题的驾乘服务中的合适的乘客或实际上是计划中的乘客。
用户便携式设备34接收表示搭载区域或位置的搭载位置数据,用户应在该区域或位置处遇上自主共享式的或出租车交通工具10以便搭载。搭载位置数据例如通过地理坐标表示了交通工具10的位置。搭载位置数据可以是从用户位置到搭载位置的基于增强现实的行走(ARW)方向的一部分,或者该搭载位置数据可以用在用户便携式设备34中从而生成从用户位置到搭载位置的基于增强现实行走方向。由此,ARW方向可以由用户便携式设备34所接收,或者基于所接收的支撑信息(包括自主共享式的或出租车交通工具10的位置)在设备34中生成该ARW方向。
无论是在用户便携式设备34中生成或者在另一个装置中生成并被用户便携式设备34所接收,ARW方向通过视觉显示器呈现给用户,例如用户手机的显示屏、智能手表或智能眼镜。
本发明的技术的各种功能实时执行或动态执行。例如,ARW方向可以随着基础因素改变而实时更新。示例性的基础因素包括但不限于:
1.用户的位置(基于用户便携式设备34的位置所确定);
2.自主共享式的或出租车交通工具10的位置;
3.交通情况;
4.人群;
5.道路状况;
6.天气;
7.其它乘客的请求或其他需要;
8.搭载后的路线限制,例如到达路径点所需要的时间,例如在主体用户的目的地之前的另一个乘客的目的地;和
9.时间考虑,例如所需要的搭载时间,随后下车所需要的时间。
在一些实施例中,ARW方向或至少计划的搭载位置从交通工具10中接受在便携式设备34处,并且为用户指示交通工具10将要在哪里等待用户。
用户便携式设备34、交通工具10和例如服务器的任何远程装置50可具有根据本发明的技术所构造的增强现实行走方向(ARWD)的应用的相应实例。
ARWD应用可包括自主交通工具预设(AVR)应用,或者例如通过成为这种AVR应用的增强现实的延伸而成为该应用的一部分。
当经由便携式设备34呈现给用户时,增强现实行走方向示出了从设备34的当前位置通向计划的搭载位置的路径。交通工具10可能已经抵达该位置,或者在用户将到达该位置之前预计抵达该位置。
ARW方向的呈现是通过便携式设备的视觉显示器实现的,或者由便携式设备创造,例如是设备屏幕或者由设备34生成的全息图。该呈现包括从便携式设备34的全景照相机接收的实景图像。该呈现还包括使用实景图像而显示的虚拟AR伪像,用以为用户示出如何到达搭载位置。
在各个实施例中,自主交通工具搭载位置与当前的自主交通工具的位置不同,并且所呈现的伪像包括位于与实际的当前自主交通工具的位置相对应的实景图像中的虚拟的交通工具伪像、和虚拟地指示搭载位置的伪像。
在各个实施例中,以各种方式中的任何方式显示虚拟的交通工具伪像,使其看起来像实际的交通工具10,例如通过相同的构造、模型、颜色、几何形状等。
用户可能会意识到交通工具中是否有人以及他们是否是被允许的乘客。在可预期的实施例中,虚拟的交通工具伪像是虚拟的伪像,其表示与交通工具相关联的任何人员,例如在交通工具中或附近的任何其他乘客(和驾驶员,如果有的话)。支撑关于人员的位置和(在一些情况中)他们的长相的数据可能在交通工具10的一个或多个传感器中产生,例如交通工具10的内部和/或外部照相机。或者,通常可以通过图标或者头像在交通工具中或交通工具处显示已知的乘客,或者已知的乘客可以被准确地定位在虚拟的交通工具伪像内,与乘客在实际交通工具10中的位置相对应。
虚拟的显示可以指示出现在交通工具中的每个人员是合适的,例如通过将其安排成为当前处于驾乘状态、及与他们各自到达或进入自主共享式的或出租车交通工具10相关地将其预先识别或授权。显示器可为每个乘客提供照片并有可能提供例如人员统计(年龄、性别等)的其它识别信息。
类似地,在已经处于交通工具中的每个乘客的用户便携式设备中的应用可以通过虚拟现实或其他方式指示另外的经允许的乘客正在靠近,例如通过由(正在靠近的便携式用户设备34的)交通工具的照相机或其他照相机或传感器(例如附近的基础照相机)所记录的人员的头像或者实际运动的图像。
在各个实施例中,用户设备34的应用从交通工具10或另一个装置(例如服务器50)接收或产生指令,用以指示用户将要停在当前的用户位置处、运动到交通工具10尚未到达的位置处。可以基于任何相关的因素(例如交通情况、靠近交通工具或用户的人群、其它乘客的请求或其他需要、估计的搭载时间、到达随后的用户目的地或路径点的估计时间)来建议各种位置。交通工具10可以提供消息或指令给便携式用户设备,例如用于建议或提议用户在预先计划的搭载区域之外的几个街区处等待,以避免拥堵,等等。指令可以为指示针对该指令的合理理由,例如通过解释交通情况是一个问题或者可能通过解释交通问题。相应的VRW方向将用户引导至建议位置。
本发明的技术使得用户能够轻易地到达出租车,并且也有助于使出租车在ETA、交通情况等的前提下的最方便位置等待用户。例如,出租车不需要在用户视线内的位置处等待。它仅需要在拐角附近等待;如果这有助于避免拥堵或者大体上减少行程时间的话。
在可预期的实施例中,用户可以经由在交通工具或远程装置50处加以处理的便携式设备34而提供反馈,用以确定例如搭载位置和时间的因素。用户可以提供输入,来例如表明他们迟到了、或者出于他们可能具有的任何个人原因而更倾向于沿着另一条路线行走,例如沿不同的方向绕着街区行走。交通工具10或远程装置50相应地调整见面计划(搭载位置、时机等)。
在各个实施例中,***根据需要基于所确定的变化的环境动态地调整计划,例如,如果用户不是沿着当前计划的路线而在街区附近行走,或者如果交通工具10由于交通情况或其他环境而保持原计划。进行这种改变可以例如改进搭载的预计时间或者改进到达后续路径点或目的地的预计时间。
增强现实的应用可以用这样的方式在自主共享式的或出租车交通工具10和用户的便携式设备34之间实现配对。
在各个实施例中,自主共享式的或出租车交通工具10具有关于本地交通情况的信息或者影响搭载乘客的指定路线的信息,该路线还从搭载点到达下一个路径点或用户目的地。
在各个实施例中,本发明的技术包括经由便携式设备34通知用户新的或更新的搭载区域的自主共享式的或出租车交通工具10,用户经由便携式设备上的基于增强现实的应用找到自主出租车等待的地方。
在各个实施例中,本发明的技术提供了经由用户的设备34的在用户和自主交通工具10之间的高效通信方式,通过该方式,自主共享式的或出租车交通工具10可以通知用户它在哪里、或者它将停在何处等待用户、以及它将在何时停下并等待用户。如上所述,搭载位置不限于是在用户的视线内的区域中。
在各个实施例中,解决方案包括以下三个阶段。以下三个阶段[(A)-(C)]可以具体实施为一个或超过三个阶段,并且可以组合或分开这些步骤中的任何步骤,并且可以将其它步骤设置为上述的或从这三个阶段[(A)-(C)]中分离的这三个阶段[(A)-(C)]的一部分:
A.通过自主共享式的或出租车交通工具10对用户的实时识别、认证或验证(一般地称为‘识别’):
I. 例如使用移动设备传感器(例如生物识别传感器的设备)或输入接口(例如用户可以键入密码);
ii. 或者使用其他传感器或接口,例如,用于如通过从便携式设备34处接受的编码信号确认便携式设备34与计划搭载相对应的交通工具传感器或接口。
iii. 可以在提供ARW方向之前执行该识别,例如通过提供该方向之前需要满足的阈值或触发。本功能的益处包括节约在一个或多个参与装置中或其间的带宽和处理要求(例如网络使用、手机34或交通工具10的处理,等)。另一个益处是安全性或保障性,例如交通工具10的其他乘客的或者交通工具的安全性或保障性,因为未授权的人员不会被引导到交通工具10。
B.最佳搭载位置、范围或区域及可能的最佳搭载时间的识别,如上所述,这两者都可以基于各种各样的因素中的任何因素来设定,还可以基于各种各样的因素中的任何因素来修改和更新;
i.搭载位置可以被生成为最接近交通工具10和握有移动设备的或具有穿戴设备的用户的位置;
ii. 在一些实施方式中,搭载位置不是最接近的位置,而是被认为是在任何情况下(例如人群、交通情况、例如施工的道路状况,等等或其他情况)对于用户或交通工具来说更高效或方便的另一个位置。
iii. 通过确定搭载位置或者与确定搭载位置分开,无论是在交通工具10、便携式设备34和/或其它装置(例如远程服务器)处,这些装置中的一个或多个装置生成VRW方向,以经由移动设备给用户提供虚拟现实的显示。
C.经由所生成的虚拟增强路径,为用户通知关于当前用户位置的搭载位置,以使得用户从其位置通往自主共享式的或出租车交通工具10。
VII. 选择的优点
上文中描述了本发明的技术的许多益处和优点。本部分再次陈述了这些益处和优点中的某些,并参考了一些其它的益处和优点。所描述的益处并不是本发明的技术的所有益处。
在自主共享式的或出租车交通工具的情形中,为用户通知自主共享式的或出租车交通工具10的位置和搭载的时机对于用户而言是非常有帮助的,并且虚拟现实方向接口有助于交互,并且可以节省用户的努力和时间,并且以那样或其它的方式为用户提供更多的安全性。
在操作中,本发明的技术通过使用自主共享式的或出租车交通工具增加了用户满意度,包括增加舒适性和增加安全感,增加舒适性是使用预设***和共享的或出租车驾乘服务而实现的,例如在于能够高效地到达交通工具,而增加安全感在于他们在到达交通工具之前就知道他们将到达合适的交通工具并且任何其他乘客是计划中的且经过授权的。
(一个或多个)用户和主题的交通工具之间的‘关系’可以被改善,用户将会把交通工具视为不止是值得信赖的工具、助手或朋友。
本发明的技术还可以影响能够适用自主驾驶的交通工具的使用程度,并且相关地影响能够适用自主驾驶的交通工具的市场和销量。随着用户对自主驾驶***的信赖度增加,他们更有可能使用这样的***(如自主共享式的或出租车交通工具)、购买能够适用自主驾驶的交通工具、购买另一个这种交通工具或者推荐别人使用这种交通工具、或向别人展示使用这种交通工具。
VIII. 结论
本文中公开了本公开的各种实施例。所公开的实施例仅仅是可以实施在各种形式、可替代形式及其组合中的示例。
上述的实施例仅仅是用于清楚地理解本公开的原理所陈述的实施方式的示例性说明。
本文中关于如何布置特征的引用可以表示但不局限于如何将该特征关于其它特征加以定位。本文中关于如何构造特征的引用可以表示但不局限于如何确定该特征的大小、如何确定该特征的形状和/或该特征的材料。出于简化的目的,在本段落中,术语“构造”可以用于表示上述的构造和布置方式。
在本文中所提供的对于方向的引用大多是出于描述的方便和出于对示例性附图的简化性描述,并且所描述的***可以用各种各样的方位中的任何方位具体实施。本文中对于表示方向的引用不具有限制性的意义。例如,对于上、下、顶、底或者侧的引用不是设置用于限制具体实施本公开的技术所采用的方式。例如,在设计、制造或操作所引用的框架中,虽然可以引用上表面,所引用的表面可以是(但不必是)竖直向上的或者位于顶端的。在各个实施例中,相反地,表面可以例如是在***的其他部件的一侧或者下方。
附图中以单个项目所描述或示出的任何部件可以用被构造成执行所描述的该单个项目的功能的多个这样的项目来替代。同样地,任何多个项目可以用被构造成执行所述多个项目的功能的单个项目来替代。
在不偏离权利要求的范围的前提下,可以对上述实施例进行改变、修改和组合。所有的这些改变、修改和组合在本文中被包括在本公开和所附权利要求的范围内。
Claims (10)
1. 一种实施在便携式用户设备中的***,所述便携式用户设备具有显示器,用以呈现从当前的用户位置通向自主交通工具搭载位置的增强现实行走方向,所述***包括:
基于硬件的处理单元;和
非暂时的计算机可读存储部件,其包括:
增强现实行走方向模块,当由所述基于硬件的处理单元执行所述模块时,所述模块动态地生成或获得行走方向伪像,用于通过便携式用户设备显示器使用实时的照相机图像来呈现,以示出从当前的用户位置朝向所述自主交通工具搭载位置的推荐行走路径,以产生实时的增强现实行走方向,所述实时的增强现实行走方向随着用户与所述便携式用户设备一起运动而发生变化;和
增强现实方向呈现模块,当由所述基于硬件的处理单元执行所述模块时,所述模块开始显示从当前的用户位置朝向所述自主交通工具搭载位置的实时的增强现实行走方向。
2. 如权利要求1所述的***,其中:
所述非暂时的计算机可读存储部件包括自主交通工具服务应用,所述自主交通工具服务应用被构造成使得所述用户能够预设自主交通工具驾乘服务,其能够在所述自主交通工具搭载位置处遇上所述用户;并且
所述增强现实行走方向模块和所述增强现实方向显示模块是所述自主交通工具服务应用的部分。
3. 如权利要求1所述的***,还包括:
与所述基于硬件的处理单元连通的所述显示器,其用以在所述***的操作中呈现从当前的用户位置朝向所述自主交通工具搭载位置的所述实时的增强现实行走方向;和
与所述基于硬件的处理单元连通的所述照相机,其用以在所述***的操作中生成所述实时的照相机图像。
4.如权利要求1所述的***,其中,所述自主交通工具搭载位置与当前的自主交通工具的位置不同。
5. 如权利要求4所述的***,其中所述行走方向伪像包括:
第一指示交通工具的伪像,所述第一指示交通工具的伪像随着所述照相机图像动态地定位,从而示出当前的自主交通工具的位置;和
第二指示交通工具的伪像,所述第二指示交通工具的伪像随着所述照相机图像动态地定位,从而示出所述自主交通工具搭载位置。
6.如权利要求5所述的***,其中,所述第一指示交通工具的伪像或所述第二指示交通工具的伪像的至少一者被构造成并布置成具有所述实时的照相机图像,从而指示当前的自主交通工具搭载位置或所述自主交通工具搭载位置位于在所述照相机图像中可见的结构或物体的后方。
7.如权利要求1所述的***,其中,所述行走方向伪像包括指示交通工具的伪像,所述指示交通工具的伪像随着所述照相机图像动态地定位,从而示出所述自主交通工具搭载位置。
8. 如权利要求1所述的***,其中:
所述伪像包括指示交通工具的伪像,所述指示交通工具的伪像随着所述照相机图像动态地定位,从而示出所述自主交通工具搭载位置;并且
所述指示交通工具的伪像被构造和布置成具有所述实时的照相机图像,从而指示所述自主交通工具搭载位置位于在所述照相机图像中可见的结构或物体的后方。
9. 一种非暂时的计算机可读存储器,用于借助于便携式用户设备来呈现从当前的用户位置通向自主交通工具搭载位置的增强现实的行走方向,所述存储器包括:
增强现实行走方向模块,当由所述基于硬件的处理单元执行所述模块时,所述模块动态地生成或获得行走方向伪像,用于通过便携式用户设备显示器使用实时照相机图像来呈现,以示出从当前的用户位置朝向所述自主交通工具搭载位置的推荐行走路径,以产生实时的增强现实行走方向,所述实时的增强现实行走方向随着用户与所述便携式用户设备一起运动而发生变化;和
增强现实方向呈现模块,当由所述基于硬件的处理单元执行所述模块时,所述模块开始显示从当前的用户位置朝向所述自主交通工具搭载位置的实时的增强现实行走方向。
10. 一种过程,用于借助于便携式用户设备来呈现从当前的用户位置通向自主交通工具搭载位置的增强现实行走方向,所述过程包括:
通过基于硬件的处理单元而动态地生成或获得行走方向伪像,用于通过便携式用户设备显示器使用实时照相机图像来呈现,以示出从当前的用户位置朝向所述自主交通工具搭载位置的推荐行走路径,以产生实时的增强现实行走方向,所述实时的增强现实行走方向随着用户与所述便携式用户设备一起运动而发生变化,所述基于硬件的处理单元执行存储在非暂时的计算机可读存储器中的增强现实行走方向模块;和
通过所述基于硬件的处理单元借助于便携式用户设备开始显示从当前的用户位置朝向所述自主交通工具搭载位置的实时的增强现实行走方向,所述基于硬件的处理单元执行存储在所述非暂时的计算机可读存储器中的增强现实方向呈现模块。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662343376P | 2016-05-31 | 2016-05-31 | |
US62/343376 | 2016-05-31 | ||
US15/606410 | 2017-05-26 | ||
US15/606,410 US20170343375A1 (en) | 2016-05-31 | 2017-05-26 | Systems to dynamically guide a user to an autonomous-driving vehicle pick-up location by augmented-reality walking directions |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107450531A true CN107450531A (zh) | 2017-12-08 |
Family
ID=60269295
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710399507.2A Pending CN107450531A (zh) | 2016-05-31 | 2017-05-31 | 动态地将用户引导至自主驾驶交通工具的搭载位置的*** |
Country Status (3)
Country | Link |
---|---|
US (1) | US20170343375A1 (zh) |
CN (1) | CN107450531A (zh) |
DE (1) | DE102017111843A1 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108320496A (zh) * | 2018-03-20 | 2018-07-24 | 段宏伟 | 一种出租车精准载客与乘客快速搭车*** |
CN109448155A (zh) * | 2018-10-15 | 2019-03-08 | 国网河南省电力公司济源供电公司 | 基于ar技术的设备巡视方法 |
CN110007752A (zh) * | 2018-01-04 | 2019-07-12 | 优特诺股份有限公司 | 增强现实车辆界面连接 |
CN110297486A (zh) * | 2018-03-22 | 2019-10-01 | 通用汽车有限责任公司 | 用于将用户引导至车辆的***和方法 |
CN111161008A (zh) * | 2018-11-08 | 2020-05-15 | 丰田自动车株式会社 | Ar/vr/mr乘车共享助理 |
US11676346B2 (en) | 2018-01-04 | 2023-06-13 | Motional Ad Llc | Augmented reality vehicle interfacing |
Families Citing this family (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10679511B2 (en) | 2016-09-30 | 2020-06-09 | Sony Interactive Entertainment Inc. | Collision detection and avoidance |
US10357709B2 (en) | 2016-09-30 | 2019-07-23 | Sony Interactive Entertainment Inc. | Unmanned aerial vehicle movement via environmental airflow |
US10410320B2 (en) | 2016-09-30 | 2019-09-10 | Sony Interactive Entertainment Inc. | Course profiling and sharing |
US10416669B2 (en) | 2016-09-30 | 2019-09-17 | Sony Interactive Entertainment Inc. | Mechanical effects by way of software or real world engagement |
US10377484B2 (en) | 2016-09-30 | 2019-08-13 | Sony Interactive Entertainment Inc. | UAV positional anchors |
US10850838B2 (en) | 2016-09-30 | 2020-12-01 | Sony Interactive Entertainment Inc. | UAV battery form factor and insertion/ejection methodologies |
CN109983487B (zh) * | 2016-11-21 | 2024-05-14 | 福特全球技术公司 | 到无人看管车辆的物品递送 |
US10247567B2 (en) * | 2017-03-20 | 2019-04-02 | International Business Machines Corporation | Short-distance navigation provision |
US10347046B2 (en) * | 2017-06-16 | 2019-07-09 | Daqri, Llc | Augmented reality transportation notification system |
EP3649586A1 (en) * | 2017-07-06 | 2020-05-13 | Cubic Corporation | Passenger classification-based autonomous vehicle routing |
US11118930B2 (en) * | 2017-07-14 | 2021-09-14 | Lyft, Inc. | Providing information to users of a transportation system using augmented reality elements |
US10423834B2 (en) | 2017-08-31 | 2019-09-24 | Uber Technologies, Inc. | Augmented reality assisted pickup |
US11067410B2 (en) | 2017-09-07 | 2021-07-20 | Uber Technologies, Inc. | First-person perspective view |
US10134286B1 (en) * | 2017-09-26 | 2018-11-20 | GM Global Technology Operations LLC | Selecting vehicle pickup location |
JP6852638B2 (ja) * | 2017-10-10 | 2021-03-31 | トヨタ自動車株式会社 | 自動運転車両の配車システム、自動運転車両、及び配車方法 |
DE102017221488A1 (de) * | 2017-11-30 | 2019-06-06 | Volkswagen Aktiengesellschaft | Verfahren zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm |
US11022452B2 (en) * | 2018-05-21 | 2021-06-01 | Waymo Llc | Inconvenience for passenger pickups and drop offs for autonomous vehicles |
DE102018208700A1 (de) | 2018-06-01 | 2019-12-05 | Volkswagen Aktiengesellschaft | Konzept für die Steuerung einer Anzeige eines mobilen Augmented-Reality-Gerätes |
DE102018212869A1 (de) | 2018-08-01 | 2020-02-06 | Volkswagen Aktiengesellschaft | Konzept zum Vermitteln einer Richtungsangabe an einen Nutzer |
DE102018006824A1 (de) | 2018-08-28 | 2019-02-21 | Daimler Ag | Verfahren zur Unterstützung eines Fahrgastes und Fahrzeug mit einer Vorrichtung zur Durchführung des Verfahrens |
US10652693B2 (en) * | 2018-09-10 | 2020-05-12 | International Business Machines Corporation | Cognitive location and navigation services for custom applications |
CN109284402B (zh) * | 2018-09-20 | 2021-06-29 | 咪咕互动娱乐有限公司 | 一种信息推荐方法、装置及存储介质 |
DE102018219812A1 (de) | 2018-11-19 | 2020-05-20 | Volkswagen Aktiengesellschaft | Konzept für die Steuerung einer Anzeige eines mobilen Augmented-Reality-Gerätes |
JP2021192000A (ja) * | 2018-12-28 | 2021-12-16 | フォルシアクラリオン・エレクトロニクス株式会社 | 経路案内方法、端末装置、経路案内システム及びプログラム |
ES2770200A1 (es) * | 2018-12-31 | 2020-06-30 | Seat Sa | Sistema de gestion de un servicio de transporte para un pasajero y vehiculo para realizar el servicio de transporte para un pasajero |
DE102019000404A1 (de) | 2019-01-22 | 2019-06-13 | Daimler Ag | Verfahren zur Überprüfung eines Einstiegs eines zugangsberechtigten Fahrgasts in ein Fahrzeug |
US11308322B2 (en) | 2019-01-23 | 2022-04-19 | Uber Technologies, Inc. | Locating a client device using ground truth image rendering |
US11092456B2 (en) * | 2019-03-08 | 2021-08-17 | Aptiv Technologies Limited | Object location indicator system and method |
US11011055B2 (en) * | 2019-03-21 | 2021-05-18 | Verizon Patent And Licensing Inc. | Collecting movement analytics using augmented reality |
US11604069B2 (en) | 2019-05-14 | 2023-03-14 | Lyft, Inc. | Localizing transportation requests utilizing an image based transportation request interface |
US11543258B2 (en) * | 2019-05-15 | 2023-01-03 | Toyota Research Institute, Inc. | Personalized notification system for mobility as a service |
US10591576B1 (en) | 2019-06-07 | 2020-03-17 | Capital One Services, Llc | Automated system for vehicle tracking |
US10682980B1 (en) | 2019-06-07 | 2020-06-16 | Capital One Services, Llc | Systems and methods for test driving cars with limited human interaction |
US10900801B2 (en) * | 2019-06-07 | 2021-01-26 | Capital One Services, Llc | Augmented reality directions utilizing physical reference markers |
US10589720B1 (en) | 2019-06-07 | 2020-03-17 | Capital One Services, Llc | Automated system for car access in retail environment |
US11462019B2 (en) * | 2019-09-20 | 2022-10-04 | Gm Cruise Holdings Llc | Predicting rider entry time for pick-up and drop-off locations |
US11783441B2 (en) * | 2019-09-24 | 2023-10-10 | Ford Global Technologies, Llc | Systems and methods for dynamically connecting one or more transportation vehicles to customers |
US11900815B2 (en) * | 2019-09-30 | 2024-02-13 | Gm Cruise Holdings Llc | Augmented reality wayfinding in rideshare applications |
DE102019215524A1 (de) * | 2019-10-10 | 2021-04-15 | Ford Global Technologies, Llc | Verfahren und Anordnung zum Visualisieren eines Fahrwegs, Computerprogrammprodukt und computerlesbares Speichermedium |
US11030818B1 (en) * | 2019-11-19 | 2021-06-08 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for presenting virtual-reality information in a vehicular environment |
US11427140B2 (en) * | 2020-04-20 | 2022-08-30 | Geotab Inc. | Shared vehicle I/O expander |
WO2021221561A1 (en) | 2020-04-28 | 2021-11-04 | Grabtaxi Holdings Pte. Ltd. | Communications server apparatus and methods of operation thereof |
US11462016B2 (en) * | 2020-10-14 | 2022-10-04 | Meta Platforms Technologies, Llc | Optimal assistance for object-rearrangement tasks in augmented reality |
US11906317B2 (en) * | 2020-10-17 | 2024-02-20 | Chian Chiu Li | Presenting location related information and implementing a task based on gaze, gesture, and voice detection |
US11624627B2 (en) * | 2020-11-17 | 2023-04-11 | Ford Global Technologies, Llc | Augmented reality displays for locating vehicles |
GB2621134A (en) * | 2022-08-01 | 2024-02-07 | Strolll Ltd | Systems and methods for presenting visual, audible, and tactile cues within an augmented reality, virtual reality, or mixed reality game environment |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110199479A1 (en) * | 2010-02-12 | 2011-08-18 | Apple Inc. | Augmented reality maps |
CN102214000A (zh) * | 2011-06-15 | 2011-10-12 | 浙江大学 | 用于移动增强现实***的目标物体混合注册方法及*** |
CN103210434A (zh) * | 2010-09-15 | 2013-07-17 | 大陆-特韦斯贸易合伙股份公司及两合公司 | 用于机动车驾驶员的视觉驾驶员信息和警告*** |
CN103513951A (zh) * | 2012-06-06 | 2014-01-15 | 三星电子株式会社 | 使用三维地图提供增强现实信息的设备和方法 |
US20150323331A1 (en) * | 2014-05-06 | 2015-11-12 | Elwha Llc | System and methods for providing at least a portion of a travel plan that calls for at least one transportation vehicle unit |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9181293B2 (en) * | 2009-11-24 | 2015-11-10 | South African Medical Research Council | Method for the synthesis of aspalathin and analogues thereof |
CN104596523B (zh) * | 2014-06-05 | 2019-05-07 | 腾讯科技(深圳)有限公司 | 一种街景目的地引导方法和设备 |
US9927246B2 (en) * | 2015-05-27 | 2018-03-27 | Here Global B.V. | Method, apparatus and computer program product for providing navigation information in relation to augmented reality guidance |
US20170294130A1 (en) * | 2016-04-08 | 2017-10-12 | Uber Technologies, Inc. | Rider-vehicle handshake |
JP6817337B2 (ja) * | 2016-05-27 | 2021-01-20 | ユーエーティーシー, エルエルシー | 自動運転車のための乗客の乗車の円滑化 |
-
2017
- 2017-05-26 US US15/606,410 patent/US20170343375A1/en not_active Abandoned
- 2017-05-30 DE DE102017111843.8A patent/DE102017111843A1/de not_active Withdrawn
- 2017-05-31 CN CN201710399507.2A patent/CN107450531A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110199479A1 (en) * | 2010-02-12 | 2011-08-18 | Apple Inc. | Augmented reality maps |
CN103210434A (zh) * | 2010-09-15 | 2013-07-17 | 大陆-特韦斯贸易合伙股份公司及两合公司 | 用于机动车驾驶员的视觉驾驶员信息和警告*** |
CN102214000A (zh) * | 2011-06-15 | 2011-10-12 | 浙江大学 | 用于移动增强现实***的目标物体混合注册方法及*** |
CN103513951A (zh) * | 2012-06-06 | 2014-01-15 | 三星电子株式会社 | 使用三维地图提供增强现实信息的设备和方法 |
US20150323331A1 (en) * | 2014-05-06 | 2015-11-12 | Elwha Llc | System and methods for providing at least a portion of a travel plan that calls for at least one transportation vehicle unit |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110007752A (zh) * | 2018-01-04 | 2019-07-12 | 优特诺股份有限公司 | 增强现实车辆界面连接 |
US11676346B2 (en) | 2018-01-04 | 2023-06-13 | Motional Ad Llc | Augmented reality vehicle interfacing |
CN108320496A (zh) * | 2018-03-20 | 2018-07-24 | 段宏伟 | 一种出租车精准载客与乘客快速搭车*** |
CN110297486A (zh) * | 2018-03-22 | 2019-10-01 | 通用汽车有限责任公司 | 用于将用户引导至车辆的***和方法 |
CN109448155A (zh) * | 2018-10-15 | 2019-03-08 | 国网河南省电力公司济源供电公司 | 基于ar技术的设备巡视方法 |
CN111161008A (zh) * | 2018-11-08 | 2020-05-15 | 丰田自动车株式会社 | Ar/vr/mr乘车共享助理 |
CN111161008B (zh) * | 2018-11-08 | 2022-10-18 | 丰田自动车株式会社 | Ar/vr/mr乘车共享助理 |
Also Published As
Publication number | Publication date |
---|---|
US20170343375A1 (en) | 2017-11-30 |
DE102017111843A1 (de) | 2017-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107450531A (zh) | 动态地将用户引导至自主驾驶交通工具的搭载位置的*** | |
CN107415938B (zh) | 基于乘员位置和注意力控制自主车辆功能和输出 | |
CN110750769B (zh) | 标识和认证自主运载工具以及乘员 | |
US11511598B2 (en) | Apparatus and method for controlling air conditioning of vehicle | |
US20170349184A1 (en) | Speech-based group interactions in autonomous vehicles | |
US20170351990A1 (en) | Systems and methods for implementing relative tags in connection with use of autonomous vehicles | |
US10509407B2 (en) | Apparatus and method for a vehicle platform | |
CN108205830B (zh) | 识别对于无人驾驶车辆的个人驾驶偏好的方法和*** | |
US11281211B2 (en) | Driving control apparatus, driving control method, and program | |
US20170352267A1 (en) | Systems for providing proactive infotainment at autonomous-driving vehicles | |
US11221741B2 (en) | Display control of interactive content based on direction-of-view of occupant in vehicle | |
US20180284774A1 (en) | Driving control apparatus, driving control method, and program | |
EP3028914B1 (en) | Method and apparatus for providing an operational configuration for an autonomous vehicle | |
CN107458172A (zh) | 用于社交地控制自主交通工具的交通工具气候的*** | |
US10460186B2 (en) | Arrangement for creating an image of a scene | |
WO2018100619A1 (ja) | 車両制御システム、車両制御方法、および車両制御プログラム | |
JP2018105774A (ja) | 自動運転システム | |
CN108234590A (zh) | 车辆、服务器以及包括车辆和服务器的*** | |
WO2018087877A1 (ja) | 車両制御システム、車両制御方法、および車両制御プログラム | |
WO2018123041A1 (ja) | 情報処理システム、及び情報処理装置 | |
CN108885152A (zh) | 解决自动驾驶车辆的转向不足的自动转向控制参考自适应 | |
JPWO2018020884A1 (ja) | 端末機器、および機器システム | |
US20190242715A1 (en) | Mobile shop system and control method of mobile shop system | |
JP7183864B2 (ja) | 情報処理システム、プログラム、及び制御方法 | |
KR20160064762A (ko) | 차량용 디스플레이 장치 및 이를 구비한 차량 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20171208 |