CN113465611B - 导航方法、装置、电子设备及可读存储介质 - Google Patents

导航方法、装置、电子设备及可读存储介质 Download PDF

Info

Publication number
CN113465611B
CN113465611B CN202110731632.5A CN202110731632A CN113465611B CN 113465611 B CN113465611 B CN 113465611B CN 202110731632 A CN202110731632 A CN 202110731632A CN 113465611 B CN113465611 B CN 113465611B
Authority
CN
China
Prior art keywords
image
live
navigation
vehicle
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110731632.5A
Other languages
English (en)
Other versions
CN113465611A (zh
Inventor
邓苏南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apollo Intelligent Connectivity Beijing Technology Co Ltd
Original Assignee
Apollo Intelligent Connectivity Beijing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apollo Intelligent Connectivity Beijing Technology Co Ltd filed Critical Apollo Intelligent Connectivity Beijing Technology Co Ltd
Priority to CN202110731632.5A priority Critical patent/CN113465611B/zh
Publication of CN113465611A publication Critical patent/CN113465611A/zh
Priority to KR1020220078507A priority patent/KR20220099932A/ko
Priority to JP2022103647A priority patent/JP7390436B2/ja
Priority to US17/853,495 priority patent/US20220412761A1/en
Priority to EP22181994.9A priority patent/EP4086102B1/en
Application granted granted Critical
Publication of CN113465611B publication Critical patent/CN113465611B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/166Navigation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/176Camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/347Optical elements for superposition of display information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/741Instruments adapted for user detection
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Navigation (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公开提供了导航方法、装置、电子设备及可读存储介质,涉及车联网技术领域,尤其涉及导航技术领域。具体实现方案为:获取实景图像和导航信息;对实景图像进行转换得到投射图像,投射图像与至少一个车载眼镜的视窗相匹配;将投射图像与导航信息进行融合,得到导航图像;将导航图像发送至车载眼镜,以使车载眼镜显示导航图像。本方案中,基于车载眼镜实现AR导航,并且能够避免因用户头部位置发生变化造成的对AR导航的效果的影响,保证AR导航的效果,保证用户的使用体验。

Description

导航方法、装置、电子设备及可读存储介质
技术领域
本公开涉及车联网技术领域,尤其涉及导航技术领域,具体而言,本公开涉及一种导航方法、装置、电子设备及可读存储介质。
背景技术
随着AR(Augmented Reality,增强现实)技术的应用越来越广泛,用户对AR应用的接受程度也越来越高。AR技术的重要应用场景之一在于实现AR导航。
在将AR导航的内容的投射至车载眼镜上时,由于用户的头部可能会发生晃动,使得投射的AR导航信息与用户所看到的图像存在一定的位置偏移,这会影响AR导航的效果,影响用户的使用体验。
发明内容
本公开为了解决上述缺陷中的至少一项,提供了一种导航方法、装置、电子设备及可读存储介质。
根据本公开的第一方面,提供了一种导航方法,该方法包括:
获取实景图像和导航信息;
对实景图像进行转换得到投射图像,投射图像与至少一个的车载眼镜的视窗相匹配;
将投射图像与导航信息进行融合,得到导航图像;
将导航图像发送至车载眼镜,以使车载眼镜显示导航图像。
根据本公开的第二方面,提供了另一种导航方法,该方法包括:
接收车机发送的导航图像,其中,导航图像是由实景图像与导航信息进行融合得到的,投射图像与是由实景图像进行转换得到的,且投射图像与至少一个车载眼镜的视窗相匹配;
显示导航图像。
根据本公开的第三方面,提供了一种导航装置,该装置包括:
数据获取模块,用于获取实景图像和导航信息;
图像转换模块,用于对实景图像进行转换得到投射图像,投射图像与至少一个车载眼镜的视窗相匹配;
图像融合模块,用于将投射图像与导航信息进行融合,得到导航图像;
导航图像发送模块,用于将导航图像发送至车载眼镜,以使车载眼镜显示导航图像。
根据本公开的第四方面,提供了另一种导航装置,该装置包括:
导航图像接收模块,用于接收车机发送的导航图像,其中,导航图像是由实景图像与导航信息进行融合得到的,投射图像与是由实景图像进行转换得到的,且投射图像与至少一个车载眼镜的视窗相匹配;
导航模块,用于显示导航图像。
根据本公开的第五方面,提供了一种电子设备,该电子设备包括:
至少一个处理器;以及
与上述至少一个处理器通信连接的存储器;其中,
存储器存储有可被上述至少一个处理器执行的指令,指令被上述至少一个处理器执行,以使上述至少一个处理器能够执行上述导航方法。
根据本公开的第六方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,该计算机指令用于使计算机执行上述导航方法。
根据本公开的第七方面,提供了一种计算机程序产品,包括计算机程序,该计算机程序在被处理器执行时实现上述导航方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
本公开提供的技术方案带来的有益效果是:
本公开实施例提供的方案,通过获取实景图像与导航信息,对实景图像进行转换得到投射图像,投射图像与至少一个车载眼镜的视窗相匹配,将投射图像与导航信息进行融合,得到导航图像,将导航图像发送至车载眼镜,车载眼镜显示导航图像。本方案中,基于车载眼镜实现AR导航,并且能够避免因用户头部位置发生变化造成的对AR导航的效果的影响,保证AR导航的效果,保证用户的使用体验。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是本公开实施例提供的一种导航方法的流程示意图;
图2是本公开实施例提供的另一种导航方法的流程示意图;
图3是本公开实施例提供的一种导航***的结构示意图;
图4是根据本公开提供的一种导航装置的结构示意图;
图5是根据本公开提供的另一种导航装置的结构示意图;
图6是用来实现本公开实施例的导航方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
现有的AR导航一般投射在车机屏幕或者抬头显示器(Augmented Reality HeadUp Display,AR HUD)上,现有方式中存在一定的缺陷,影响用户的使用体验。
对于投射车机屏幕上的AR导航:导航信息并没有与实景融合,而是与视频做融合,本质上不算真正的实景叠加,且驾驶人员需要低头看屏幕获取导航信息。
对于显示在AR HUD上的AR导航:AR HUD能够实现的视场角(FOV)较小,强光下画面的对比度严重下降,且HUD投射的视窗(eyebox)相对固定,脱离一定的视窗,就看不到完整的画面。
如果能够将AR导航信息投射在MR眼镜上,就能够克服上述将AR导航投射在车机屏幕或者抬头显示器时的缺陷。
在普通的介导现实(Mediated Reality,MR)眼镜上,定位的芯片和图像产生单元都是独立耦合在眼镜。但在车载领域,如果希望显示相关导航信息,把(GlobalPositioning System,GPS)、惯性测量单元(Inertial Measurement Unit,IMU)等定位芯片叠加在眼镜上,会增加眼镜重量,也会让设备显得臃肿。
现有的AR导航中,一般由车机的摄像头采集实景图像,而后根据实景图像生成导航信息,如将AR导航的内容的投射至车载眼镜上,由于用户的头部可能会发生晃动,使得投射的AR导航信息与用户所看到的图像存在一定的位置偏移,这会影响AR导航的效果,影响用户的使用体验。
本申请实施例提供的导航方法、装置、电子设备和计算机可读存储介质,旨在解决现有技术的如上技术问题中的至少一个。
图1示出了本公开实施例提供的一种导航方法的流程示意图,如图1中所示,该方法主要可以包括:
步骤S110:获取实景图像和导航信息;
步骤S120:对实景图像进行转换得到投射图像,投射图像与至少一个的车载眼镜的视窗相匹配;
步骤S130:将投射图像与导航信息进行融合,得到导航图像;
步骤S140:将导航图像发送至车载眼镜,以使车载眼镜显示导航图像。
其中,实景图像为对车辆周围环境的图像。导航信息可以用于与实景图像融合,得到导航图像。导航信息可以为显示在导航图像中用于对用户进行导航或提示的信息,可以包括高级驾驶辅助***(Advanced Driving Assistance System,ADAS)信息,以及高精地图信息等。
作为一个示例,导航信息可以为用于指示车辆转向的转向箭头,也可以为信息点(Point of Information,POI)中建筑物的信息(建筑物名称等)。
车载眼镜可以包括但是不限于MR眼镜等智能眼镜,用户可以在驾驶车辆时佩戴车载眼镜,并借助车载眼镜实现导航。
本公开实施例中提供的导航***中,可以在车辆内配备多个车载眼镜,以满足用户较多时的使用需求。
用户在佩戴车载眼镜时,用户眼睛的可视区域与车载眼镜的视窗(eyebox)相对应,因此,可以对实景图像进行转换,得到与车载眼镜的视窗相匹配的投射图像,该投射图像与用户的眼睛的可视区域相匹配,基于该投射图像与导航信息进行融合,进行AR导航,能够保证AR导航效果,给用户以增强现实的感觉,避免因用户的头部发生移动影响AR导航效果。
在实际使用中,由于用户的头部位置可能随时会发生变化,因此可以设定调整周期,周期性的对实景图像进行转换以保证AR导航效果,作为一个示例,调整周期可以为2秒。
本公开实施例中,在生成导航图像后,可以将导航图像发送给车载眼镜,通过车载眼镜显示导航图像,实现对AR导航。将AR导航投射在车载眼镜上,能够克服现有技术中将AR导航投射在车机屏幕或者AR HUD时的缺陷,提升用户的使用体验。
本公开实施例提供的方法,通过获取实景图像与导航信息,对实景图像进行转换得到投射图像,投射图像与至少一个车载眼镜的视窗相匹配,将投射图像与导航信息进行融合,得到导航图像,将导航图像发送至车载眼镜,车载眼镜显示导航图像。本方案中,基于车载眼镜实现AR导航,并且能够避免因用户头部位置发生变化造成的对AR导航的效果的影响,保证AR导航的效果,保证用户的使用体验。
本公开的一种可选方式中,若实景图像为车机的第一图像采集设备所采集的第一实景图像,则对实景图像进行转换得到投射图像,包括:
获取车载眼镜的第二图像采集设备所采集的第二实景图像与车载眼镜的视窗的第一位置关系;
确定第一实景图像与第二实景图像的第二位置关系;
基于第一位置关系以及第二位置关系对第一实景图像进行转换得到投射图像。
本公开实施例中,实景图像可以由车机的第一图像采集设备所采集,也可以为由车载眼镜的第二图像采集设备所采集。
图像采集设备可以包括但是不限于摄像头。
在实景图像为车机的第一图像采集设备所采集的第一实景图像时,由于车载眼镜的第二图像采集设备与车载眼镜中视窗的位置是固定的,因此可以根据第二图像采集设备与车载眼镜中视窗的实际位置关系,确定出第二实景图像与车载眼镜的视窗的第一位置关系。
由于用户的头部的位置可能会实时变化,因此第一实景图像与第二实景图像的第二位置关系也是实时变化的,因此可以依照调整周期来周期性的获取第二位置关系。
在确定第一位置关系以及第二位置关系后,可以根据第一位置关系与第二位置关系对第一实景图像进行转换得到投射图像。
作为一个示例,第一位置关系可以通过[R1 T1]表示,其中,R为旋转矩阵,T为平移矩阵),则有P(eyebox)=[R1 T1]P(camera2)。此处[R1T1]为确定的量,其中P(eyebox)表示投射图像,P(camera2)表示第二实景图像。
第二位置关系可以通过[R2 T2]表示,则有P(camera2)=[R2 T2]P(camera1),其中P(camera1)表示第一实景图像,P(camera2)表示第二实景图像。
由此可以推导出,P(eyebox)=[R1 T1]P(camera2)=[R1 T1][R2 T2]P(camera1)
本公开的一种可选方式中,确定第一实景图像与第二实景图像的第二位置关系,包括以下任一项:
将第一实景图像与第二实景图像进行特征点追踪,基于特征点追踪的第一结果确定第一实景图像与第二实景图像的第二位置关系;
将车载眼镜处于指定位置时采集的第三实景图像与第一实景图像进行特征点追踪,基于特征点追踪的第二结果确定第一实景图像与第三实景图像的第三位置关系;基于车载眼镜所处的当前位置与指定位置,并基于第三位置关系,确定第一实景图像与第二实景图像的第二位置关系。
本公开实施例中,可以通过PNP求解等特征点追踪等方式来获得第二位置关系。具体地,就是第一实景图像的特征点,不断的与第二实景图像的特征点做对比追踪求解,求解的结果可以记做:P(camera2)=[R2 T2]P(camera1)。
为了处理的实时性,需要控制此求解过程的时间延迟,可以将第一实景图像与第二实景图像传输至车机的微控制单元(Microcontroller Unit,MCU)中做处理。
本公开实施例中,导航图像的生成可以在车机完成,而将导航图像发送给车载眼镜,使得车载眼镜无需配置过多的传感器,避免了车载眼镜的臃肿。
本公开实施例中,也可以设定用户在车中的指定位置,将该指定位置作为基准,计算车载眼镜处于指定位置时采集的第三实景图像与第一实景图像的第三位置关系,而后实时对车载眼镜进行定位,并计算将车载眼镜位置相较于指定位置的位置变化,根据该位置变化以及第三位置关系能够确定出第二位置关系。
在实际使用中,第三位置关系可以通过图像特征点追踪的方式获取。
作为一示例,可以将司机端坐并佩戴车载眼镜时车载眼镜的位置作为指定位置。利用图片特征点追踪获取关系初始值P(camera2)=[R20 T20]P(camera1)。在动态过程中,利用定位***获得的相对位姿态变化[Rx Tx],则有P(camera2)=[Rx Tx][R20 T20]P(camera1)
本公开实施例的一种可选实施方式中,车载眼镜所处的当前位置是基于车载眼镜的定位***得到的。
本公开实施例中,车载眼镜的定位***可以包括GPS/IMU等定位芯片。
本公开实施例的一种可选实施方式中,若实景图像为车载眼镜的第二图像采集设备所采集的第二实景图像,则对实景图像进行转换得到投射图像,包括:
获取车载眼镜的第二图像采集设备所采集的第二实景图像与车载眼镜的视窗的第一位置关系;
基于第一位置关系对第一实景图像进行转换得到投射图像。
本公开实施例中,在实景图像为车载眼镜的第二图像采集设备所采集的第二实景图像时,由于车载眼镜的第二图像采集设备与车载眼镜中视窗的位置是固定的,因此可以根据第二图像采集设备与车载眼镜中视窗的实际位置关系,确定出第二实景图像与车载眼镜的视窗的第一位置关系。基于第一位置关系即能够将第二实景图像转换为投射图像。
作为一示例,P(eyebox)=[R1 T1]P(camera2),其中,P(eyebox)表示投射图像,P(camera2)表示第二实景图像。第一位置关系可以通过[R1T1]表示。
本公开实施例的一种可选实施方式中,将导航图像发送至车载眼镜,包括:
通过无线通信的方式将导航图像发送至车载眼镜
其中,无线通讯方式可以为无线保真(Wireless Fidelity,wifi),也可以通过有线方式进行导航图像的发送如通过通用串行总线(Universal Serial Bus,USB)接口或低电压差分信号接口(Low-Voltage Differential Signaling,lvdss)等方式。
图2示出了本公开实施例提供的另一种导航方法的流程示意图,如图2中所示,该方法主要可以包括:
步骤S210:接收车机发送的导航图像,其中,导航图像是由实景图像与导航信息进行融合得到的,投射图像与是由实景图像进行转换得到的,且投射图像与至少一个的车载眼镜的视窗相匹配;
步骤S220:显示导航图像。
其中,实景图像为对车辆周围环境的图像。导航信息可以用于与实景图像融合,得到导航图像。导航信息可以为显示在导航图像中用于对用户进行导航或提示的信息,导航信息可以包括高级驾驶辅助***(Advanced Driving Assistance System,ADAS)信息,以及高精地图信息等。
作为一个示例,导航信息可以为用于指示车辆转向的转向箭头,也可以为信息点(Point of Information,POI)中建筑物的信息(建筑物名称等)。
车载眼镜可以包括但是不限于MR眼镜等智能眼镜,用户可以在驾驶车辆时佩戴车载眼镜,并借助车载眼镜实现导航。
本公开实施例中提供的导航***中,可以在车辆内配备多个车载眼镜,以满足用户较多时的使用需求。
用户在佩戴车载眼镜时,用户眼睛的可视区域与车载眼镜的视窗(eyebox)相对应,因此,对实景图像进行转换,得到与车载眼镜的视窗相匹配的投射图像,该投射图像与用户的眼睛的可视区域相匹配,基于该投射图像与导航信息进行融合,进行AR导航,能够保证AR导航效果,给用户以增强现实的感觉,避免因用户的头部发生移动影响AR导航效果。
在实际使用中,由于用户的头部位置可能随时会发生变化,因此设定调整周期,周期性的对实景图像进行转换以保证AR导航效果,作为一个示例,调整周期可以为2秒。
本公开实施例中,在生成导航图像后,可以将导航图像发送给车载眼镜,通过车载眼镜显示导航图像,实现对AR导航。将AR导航投射在车载眼镜上,能够克服现有技术中将AR导航投射在车机屏幕或者AR HUD时的缺陷,提升用户的使用体验。
本公开实施例提供的方法,车机通过获取实景图像与导航信息,对实景图像进行转换得到投射图像,投射图像与至少一个的车载眼镜的视窗相匹配,将投射图像与导航信息进行融合,得到导航图像,将导航图像发送至车载眼镜,车载眼镜显示导航图像。本方案中,基于车载眼镜实现AR导航,并且能够避免因用户头部位置发生变化造成的对AR导航的效果的影响,保证AR导航的效果,保证用户的使用体验。
图3中示出了本公开实施提供的一种导航***的结构示意图。
如图3中所示,Camera1,即车机的第一图像采集设备。Camera2,即车载眼镜的第二图像采集设备。eyebox,即视窗。MCU即车机的MCU;ARcreator,即增强现实感软件套装,其中包括ADAS(即高级驾驶辅助***),SD/HD MAP,即街道目录地图或高精地图,ANP(ApolloNavigation Pilot)地图。
Camera1采集的第一实景图像与Camera2采集的第二实景图像可以传输至MCU中,MCU中在生成导航图像后,可以通过无线传输的方式(如wifi)等,将导航图像传至车载眼镜的PGU(即图像生成单元),PGU对导航图像的展示。
基于与图1中所示的方法相同的原理,图4示出了本公开实施例提供的一种导航装置的结构示意图,如图4所示,该导航装置40可以包括:
数据获取模块410,用于获取实景图像和导航信息;
图像转换模块420,用于对实景图像进行转换得到投射图像,投射图像与至少一个车载眼镜的视窗相匹配;
图像融合模块430,用于将投射图像与导航信息进行融合,得到导航图像;
导航图像发送模块440,用于将导航图像发送至车载眼镜,以使车载眼镜显示导航图像。
本公开实施例提供的装置,通过获取实景图像以及导航信息,对实景图像进行转换得到投射图像,投射图像与至少一个车载眼镜的视窗相匹配,将投射图像与导航信息进行融合,得到导航图像,将导航图像发送至车载眼镜,车载眼镜显示导航图像。本方案中,基于车载眼镜实现AR导航,并且能够避免因用户头部位置发生变化造成的对AR导航的效果的影响,保证AR导航的效果,保证用户的使用体验。
可选地,若实景图像为车机的第一图像采集设备所采集的第一实景图像,则图像转换模块在对实景图像进行转换得到投射图像时,具体用于:
获取车载眼镜的第二图像采集设备所采集的第二实景图像与车载眼镜的视窗的第一位置关系;
确定第一实景图像与第二实景图像的第二位置关系;
基于第一位置关系以及第二位置关系对第一实景图像进行转换得到投射图像。
可选地,图像转换模块在获取车载眼镜的第二图像采集设备所采集的第二实景图像与车载眼镜的视窗的第一位置关系时,具体用于:基于车载眼镜上第二图像采集设备的位置与视窗的位置,确定第一位置关系。
可选地,图像转换模块在确定第一实景图像与第二实景图像的第二位置关系时,具体用于以下任一项:
将第一实景图像与第二实景图像进行特征点追踪,基于特征点追踪的第一结果确定第一实景图像与第二实景图像的第二位置关系;
将车载眼镜处于指定位置时采集的第三实景图像与第一实景图像进行特征点追踪,基于特征点追踪的第二结果确定第一实景图像与第三实景图像的第三位置关系;基于车载眼镜所处的当前位置与指定位置,并基于第三位置关系,确定第一实景图像与第二实景图像的第二位置关系。
可选地,车载眼镜所处的当前位置是基于车载眼镜的定位***得到的。
可选地,若实景图像为车载眼镜的第二图像采集设备所采集的第二实景图像,则图像转换模块在对实景图像进行转换得到投射图像时,具体用于:
获取车载眼镜的第二图像采集设备所采集的第二实景图像与车载眼镜的视窗的第一位置关系;
基于第一位置关系对第一实景图像进行转换得到投射图像。
可选地,导航图像发送模块在将导航图像发送至车载眼镜时,具体用于:
通过无线通信的方式将导航图像发送至车载眼镜。
可以理解的是,本公开实施例中的导航装置的上述各模块具有实现图1中所示的实施例中的导航方法相应步骤的功能。该功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。该硬件或软件包括一个或多个与上述功能相对应的模块。上述模块可以是软件和/或硬件,上述各模块可以单独实现,也可以多个模块集成实现。对于上述导航装置的各模块的功能描述具体可以参见图1中所示实施例中的导航方法的对应描述,在此不再赘述。
基于与图2中所示的方法相同的原理,图5示出了本公开实施例提供的一种导航装置的结构示意图,如图5所示,该导航装置50可以包括:
导航图像接收模块510,用于接收车机发送的导航图像,其中,导航图像是由实景图像与导航信息进行融合得到的,投射图像与是由实景图像进行转换得到的,且投射图像与至少一个车载眼镜的视窗相匹配;
导航模块520,显示导航图像。
本公开实施例提供的方法,车机通过获取实景图像与导航信息,对实景图像进行转换得到投射图像,投射图像与至少一个车载眼镜的视窗相匹配,将投射图像与导航信息进行融合,得到导航图像,将导航图像发送至车载眼镜,车载眼镜显示导航图像。本方案中,基于车载眼镜实现AR导航,并且能够避免因用户头部位置发生变化造成的对AR导航的效果的影响,保证AR导航的效果,保证用户的使用体验。
可以理解的是,本公开实施例中的导航装置的上述各模块具有实现图2中所示的实施例中的导航方法相应步骤的功能。该功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。该硬件或软件包括一个或多个与上述功能相对应的模块。上述模块可以是软件和/或硬件,上述各模块可以单独实现,也可以多个模块集成实现。对于上述导航装置的各模块的功能描述具体可以参见图2中所示实施例中的导航方法的对应描述,在此不再赘述。
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
该电子设备包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如本公开实施例提供的导航方法。
该电子设备与现有技术相比,通过获取实景图像以及导航信息,对实景图像进行转换得到投射图像,投射图像与至少一个车载眼镜的视窗相匹配,将投射图像与导航信息进行融合,得到导航图像,将导航图像发送至车载眼镜,车载眼镜显示导航图像。本方案中,基于车载眼镜实现AR导航,并且能够避免因用户头部位置发生变化造成的对AR导航的效果的影响,保证AR导航的效果,保证用户的使用体验。
该可读存储介质为存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行如本公开实施例提供的导航方法。
该可读存储介质与现有技术相比,通过获取实景图像以及导航信息,对实景图像进行转换得到投射图像,投射图像与至少一个车载眼镜的视窗相匹配,将投射图像与导航信息进行融合,得到导航图像,将导航图像发送至车载眼镜,车载眼镜显示导航图像。本方案中,基于车载眼镜实现AR导航,并且能够避免因用户头部位置发生变化造成的对AR导航的效果的影响,保证AR导航的效果,保证用户的使用体验。
该计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现如本公开实施例提供的导航方法。
该计算机程序产品与现有技术相比,通过获取实景图像以及导航信息,对实景图像进行转换得到投射图像,投射图像与至少一个车载眼镜的视窗相匹配,将投射图像与导航信息进行融合,得到导航图像,将导航图像发送至车载眼镜,车载眼镜显示导航图像。本方案中,基于车载眼镜实现AR导航,并且能够避免因用户头部位置发生变化造成的对AR导航的效果的影响,保证AR导航的效果,保证用户的使用体验。
图6示出了可以用来实施本公开的实施例的示例电子设备2000的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图6所示,设备2000包括计算单元2010,其可以根据存储在只读存储器(ROM)2020中的计算机程序或者从存储单元2080加载到随机访问存储器(RAM)2030中的计算机程序,来执行各种适当的动作和处理。在RAM 2030中,还可存储设备2000操作所需的各种程序和数据。计算单元2010、ROM 2020以及RAM 2030通过总线2040彼此相连。输入/输出(I/O)接口2050也连接至总线2040。
设备2000中的多个部件连接至I/O接口2050,包括:输入单元2060,例如键盘、鼠标等;输出单元2070,例如各种类型的显示器、扬声器等;存储单元2080,例如磁盘、光盘等;以及通信单元2090,例如网卡、调制解调器、无线通信收发机等。通信单元2090允许设备2000通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元2010可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元2010的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元2010执行本公开实施例中所提供的导航方法。例如,在一些实施例中,行本公开实施例中所提供的导航方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元2080。在一些实施例中,计算机程序的部分或者全部可以经由ROM 2020和/或通信单元2090而被载入和/或安装到设备2000上。当计算机程序加载到RAM 2030并由计算单元2010执行时,可以执行本公开实施例中所提供的导航方法的一个或多个步骤。备选地,在其他实施例中,计算单元2010可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行本公开实施例中所导航方法。
本文中以上描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式***的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (12)

1.一种导航方法,包括:
获取实景图像和导航信息;
对所述实景图像进行转换得到投射图像,所述投射图像与至少一个车载眼镜的视窗相匹配,所述实景图像包括车机的第一图像采集设备所采集的第一实景图像;
将所述投射图像与所述导航信息进行融合,得到导航图像;
将所述导航图像发送至所述车载眼镜,以使所述车载眼镜显示所述导航图像;
所述对所述实景图像进行转换得到投射图像,包括:
获取所述车载眼镜的第二图像采集设备所采集的第二实景图像与所述车载眼镜的视窗的第一位置关系;
确定所述第一实景图像与所述第二实景图像的第二位置关系;
基于所述第一位置关系以及所述第二位置关系对所述第一实景图像进行转换得到投射图像。
2.根据权利要求1所述的方法,其中,所述获取所述车载眼镜的第二图像采集设备所采集的第二实景图像与所述车载眼镜的视窗的第一位置关系,包括:
基于所述车载眼镜上所述第二图像采集设备的位置与所述视窗的位置,确定第一位置关系。
3.根据权利要求1所述的方法,其中,所述确定所述第一实景图像与所述第二实景图像的第二位置关系,包括以下任一项:
将所述第一实景图像与所述第二实景图像进行特征点追踪,基于特征点追踪的第一结果确定所述第一实景图像与所述第二实景图像的第二位置关系;
将所述车载眼镜处于指定位置时采集的第三实景图像与所述第一实景图像进行特征点追踪,基于特征点追踪的第二结果确定所述第一实景图像与所述第三实景图像的第三位置关系;基于所述车载眼镜所处的当前位置与所述指定位置,并基于所述第三位置关系,确定所述第一实景图像与所述第二实景图像的第二位置关系。
4.根据权利要求3所述的方法,其中,所述车载眼镜所处的当前位置是基于所述车载眼镜的定位***得到的。
5.根据权利要求1-4中任一项所述的方法,其中,若所述实景图像为所述车载眼镜的第二图像采集设备所采集的第二实景图像,则所述对所述实景图像进行转换得到投射图像,包括:
获取所述车载眼镜的第二图像采集设备所采集的第二实景图像与所述车载眼镜的视窗的第一位置关系;
基于所述第一位置关系对所述第一实景图像进行转换得到投射图像。
6.根据权利要求1-4中任一项所述的方法,其中,所述将所述导航图像发送至所述车载眼镜,包括:
通过无线通信的方式将所述导航图像发送至所述车载眼镜。
7.一种导航方法,包括:
接收车机发送的导航图像,其中,所述导航图像是由投射图像与导航信息进行融合得到的,所述投射图像是由实景图像进行转换得到的,且所述投射图像与至少一个车载眼镜的视窗相匹配,所述实景图像包括车机的第一图像采集设备所采集的第一实景图像;
显示所述导航图像;
所述投射图像由所述实景图像通过如下方式转换得到:
获取所述车载眼镜的第二图像采集设备所采集的第二实景图像与所述车载眼镜的视窗的第一位置关系;
确定所述第一实景图像与所述第二实景图像的第二位置关系;
基于所述第一位置关系以及所述第二位置关系对所述第一实景图像进行转换得到投射图像。
8.一种导航装置,包括:
数据获取模块,用于获取实景图像和导航信息;
图像转换模块,用于对所述实景图像进行转换得到投射图像,所述投射图像与至少一个车载眼镜的视窗相匹配,所述实景图像包括车机的第一图像采集设备所采集的第一实景图像;
图像融合模块,用于将所述投射图像与所述导航信息进行融合,得到导航图像;
导航图像发送模块,用于将所述导航图像发送至所述车载眼镜,以使所述车载眼镜显示所述导航图像;
所述图像转换模块在对所述实景图像进行转换得到投射图像时,具体用于:
获取所述车载眼镜的第二图像采集设备所采集的第二实景图像与所述车载眼镜的视窗的第一位置关系;
确定所述第一实景图像与所述第二实景图像的第二位置关系;
基于所述第一位置关系以及所述第二位置关系对所述第一实景图像进行转换得到投射图像。
9.一种导航装置,包括:
导航图像接收模块,用于接收车机发送的导航图像,其中,所述导航图像是由投射图像与导航信息进行融合得到的,所述投射图像是由实景图像进行转换得到的,且所述投射图像与至少一个车载眼镜的视窗相匹配,所述实景图像包括车机的第一图像采集设备所采集的第一实景图像;
导航模块,用于显示所述导航图像;
所述投射图像由所述实景图像通过如下方式转换得到:
获取所述车载眼镜的第二图像采集设备所采集的第二实景图像与所述车载眼镜的视窗的第一位置关系;
确定所述第一实景图像与所述第二实景图像的第二位置关系;
基于所述第一位置关系以及所述第二位置关系对所述第一实景图像进行转换得到投射图像。
10.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
11.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使计算机执行根据权利要求1-7中任一项所述的方法。
12.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-7中任一项所述的方法。
CN202110731632.5A 2021-06-29 2021-06-29 导航方法、装置、电子设备及可读存储介质 Active CN113465611B (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202110731632.5A CN113465611B (zh) 2021-06-29 2021-06-29 导航方法、装置、电子设备及可读存储介质
KR1020220078507A KR20220099932A (ko) 2021-06-29 2022-06-27 네비게이션 방법, 네비게이션 장치, 전자장비, 컴퓨터 판독가능 저장매체 및 컴퓨터 프로그램
JP2022103647A JP7390436B2 (ja) 2021-06-29 2022-06-28 ナビゲーション方法、装置、電子機器、コンピュータ読取可能な記憶媒体及びコンピュータプログラム
US17/853,495 US20220412761A1 (en) 2021-06-29 2022-06-29 Navigation method, electronic device and readable storage medium
EP22181994.9A EP4086102B1 (en) 2021-06-29 2022-06-29 Navigation method and apparatus, electronic device, readable storage medium and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110731632.5A CN113465611B (zh) 2021-06-29 2021-06-29 导航方法、装置、电子设备及可读存储介质

Publications (2)

Publication Number Publication Date
CN113465611A CN113465611A (zh) 2021-10-01
CN113465611B true CN113465611B (zh) 2024-03-26

Family

ID=77874219

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110731632.5A Active CN113465611B (zh) 2021-06-29 2021-06-29 导航方法、装置、电子设备及可读存储介质

Country Status (5)

Country Link
US (1) US20220412761A1 (zh)
EP (1) EP4086102B1 (zh)
JP (1) JP7390436B2 (zh)
KR (1) KR20220099932A (zh)
CN (1) CN113465611B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013114617A1 (ja) * 2012-02-03 2013-08-08 パイオニア株式会社 画像表示装置、画像表示方法及び画像表示プログラム
JP2014024492A (ja) * 2012-07-27 2014-02-06 Pioneer Electronic Corp 画像投影装置、画像投影方法、画像投影プログラムおよび記録媒体
DE102016120425A1 (de) * 2015-10-26 2017-04-27 Active Knowledge Ltd. Zusammenfügen einer ein Fahrzeugfenster imitierenden Videodurchsicht mit einem anderen Video
CN207198469U (zh) * 2017-09-28 2018-04-06 深圳市盈鹏光电有限公司 新型便携式的ar头盔
CN108036796A (zh) * 2017-12-26 2018-05-15 上海闻泰电子科技有限公司 导航图像显示方法、装置及车载电子设备
CN109086726A (zh) * 2018-08-10 2018-12-25 陈涛 一种基于ar智能眼镜的局部图像识别方法及***
US10332292B1 (en) * 2017-01-17 2019-06-25 Zoox, Inc. Vision augmentation for supplementing a person's view
CN110076277A (zh) * 2019-05-07 2019-08-02 清华大学 基于增强现实技术的配钉方法
CN112507799A (zh) * 2020-11-13 2021-03-16 幻蝎科技(武汉)有限公司 基于眼动注视点引导的图像识别方法、mr眼镜及介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009278234A (ja) * 2008-05-13 2009-11-26 Konica Minolta Holdings Inc 表示システム
ITMI20121842A1 (it) * 2012-10-30 2014-05-01 Glassup S R L A Capitale Ridotto Occhiali per realta' aumentata
US9630631B2 (en) * 2013-10-03 2017-04-25 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
EP2933707B1 (en) * 2014-04-14 2017-12-06 iOnRoad Technologies Ltd. Head mounted display presentation adjustment
US9240069B1 (en) * 2015-06-30 2016-01-19 Ariadne's Thread (Usa), Inc. Low-latency virtual reality display system
JP6769444B2 (ja) * 2015-12-28 2020-10-14 日本電気株式会社 情報処理装置、制御方法、及びプログラム
US11880909B2 (en) * 2017-03-17 2024-01-23 Maxell, Ltd. AR display apparatus and AR display method
WO2019087513A1 (ja) * 2017-10-31 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
TWI657409B (zh) * 2017-12-27 2019-04-21 財團法人工業技術研究院 虛擬導引圖示與真實影像之疊合裝置及其相關疊合方法
US10762810B2 (en) * 2018-01-05 2020-09-01 North Inc. Augmented reality eyebox fitting optimization for individuals
EP3788431A1 (en) * 2018-05-04 2021-03-10 Harman International Industries, Incorporated Mirrorless heads up display
CN109714583B (zh) * 2019-01-22 2022-07-19 京东方科技集团股份有限公司 增强现实的显示方法及增强现实的显示***

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013114617A1 (ja) * 2012-02-03 2013-08-08 パイオニア株式会社 画像表示装置、画像表示方法及び画像表示プログラム
JP2014024492A (ja) * 2012-07-27 2014-02-06 Pioneer Electronic Corp 画像投影装置、画像投影方法、画像投影プログラムおよび記録媒体
DE102016120425A1 (de) * 2015-10-26 2017-04-27 Active Knowledge Ltd. Zusammenfügen einer ein Fahrzeugfenster imitierenden Videodurchsicht mit einem anderen Video
US10332292B1 (en) * 2017-01-17 2019-06-25 Zoox, Inc. Vision augmentation for supplementing a person's view
CN207198469U (zh) * 2017-09-28 2018-04-06 深圳市盈鹏光电有限公司 新型便携式的ar头盔
CN108036796A (zh) * 2017-12-26 2018-05-15 上海闻泰电子科技有限公司 导航图像显示方法、装置及车载电子设备
CN109086726A (zh) * 2018-08-10 2018-12-25 陈涛 一种基于ar智能眼镜的局部图像识别方法及***
CN110076277A (zh) * 2019-05-07 2019-08-02 清华大学 基于增强现实技术的配钉方法
CN112507799A (zh) * 2020-11-13 2021-03-16 幻蝎科技(武汉)有限公司 基于眼动注视点引导的图像识别方法、mr眼镜及介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Xiang Zhang ; Y. Genc ; N. Navab.Taking AR into large scale industrial environments: navigation and information access with mobile computers.Proceedings IEEE and ACM International Symposium on Augmented Reality.2002,全文. *
利用AR技术构建虚拟助航***的展望与思考;陈祎荻,程胜利,张卓义;中国水运;第19卷(第8期);全文 *
基于GPS的智能车载导航***的设计与实现;温凯峰;;自动化技术与应用;35(08);全文 *

Also Published As

Publication number Publication date
EP4086102A3 (en) 2022-12-28
EP4086102A2 (en) 2022-11-09
CN113465611A (zh) 2021-10-01
US20220412761A1 (en) 2022-12-29
JP7390436B2 (ja) 2023-12-01
JP2022133340A (ja) 2022-09-13
KR20220099932A (ko) 2022-07-14
EP4086102B1 (en) 2024-05-22

Similar Documents

Publication Publication Date Title
CN113483774B (zh) 导航方法、装置、电子设备及可读存储介质
EP3889908A2 (en) Image projection method, apparatus, device and storage medium
CN111649739B (zh) 定位方法和装置、自动驾驶车辆、电子设备和存储介质
KR20210040325A (ko) 차량-도로 협업 정보 처리 방법, 장치, 기기, 자율 주행 차량 및 컴퓨터 프로그램
CN112785715A (zh) 虚拟物体显示方法以及电子设备
CN113343128A (zh) 用于推送信息的方法、装置、设备以及存储介质
US11610287B2 (en) Motion trail update method, head-mounted display device and computer-readable medium
CN113903210A (zh) 虚拟现实模拟驾驶方法、装置、设备和存储介质
CN113465611B (zh) 导航方法、装置、电子设备及可读存储介质
CN112489224A (zh) 图像绘制方法、装置、可读介质及电子设备
KR20220056834A (ko) 표시 방법, 장치, 단말 기기, 컴퓨터 판독 가능한 저장 매체 및 컴퓨터 프로그램
CN114655240A (zh) 信息的显示方法、装置、电子设备及存储介质
CN114228735A (zh) 智能驾驶车辆的可视化方法、装置及***
CN114332224A (zh) 3d目标检测样本的生成方法、装置、设备及存储介质
CN113643440A (zh) 定位方法、装置、设备和存储介质
CN117170615B (zh) 跟车图标的显示方法、装置、电子设备、存储介质
CN115431764B (zh) 一种ar标尺展示方法、装置、电子设备及存储介质
CN115035239B (zh) 用于构建虚拟环境的方法、装置、计算机设备及车辆
JP7346638B2 (ja) 画像データの修正方法、修正装置、電子機器、記憶媒体、コンピュータプログラムおよび自動運転車両
KR102534449B1 (ko) 이미지 처리 방법, 장치, 전자 장치 및 컴퓨터 판독 가능 저장 매체
RU2802724C1 (ru) Способ и устройство обработки изображений, электронное устройство и машиночитаемый носитель информации
US20220341737A1 (en) Method and device for navigating
WO2015189974A1 (ja) 画像表示装置および画像表示プログラム
CN116164746A (zh) 基于vo的位姿解算方法、装置、设备及产品
CN116299544A (zh) 一种头戴显示设备及其定位方法、装置和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant