CN108460815B - 地图道路要素编辑方法和装置 - Google Patents

地图道路要素编辑方法和装置 Download PDF

Info

Publication number
CN108460815B
CN108460815B CN201710097659.7A CN201710097659A CN108460815B CN 108460815 B CN108460815 B CN 108460815B CN 201710097659 A CN201710097659 A CN 201710097659A CN 108460815 B CN108460815 B CN 108460815B
Authority
CN
China
Prior art keywords
image
map
angle
sight
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710097659.7A
Other languages
English (en)
Other versions
CN108460815A (zh
Inventor
李成军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201710097659.7A priority Critical patent/CN108460815B/zh
Priority to PCT/CN2018/073689 priority patent/WO2018153196A1/zh
Publication of CN108460815A publication Critical patent/CN108460815A/zh
Priority to US16/410,709 priority patent/US10964079B2/en
Application granted granted Critical
Publication of CN108460815B publication Critical patent/CN108460815B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/387Organisation of map data, e.g. version management or database structures
    • G01C21/3881Tile-based structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/06Topological mapping of higher dimensional structures onto lower dimensional surfaces
    • G06T3/067Reshaping or unfolding 3D tree structures onto 2D planes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明涉及一种地图道路要素编辑方法和装置,所述方法包括:获取全景图像和相应的采集位置;筛选出所述全景图像中包括道路要素的图像区域;将筛选出的图像区域俯视投影为包括所述道路要素的俯视图像;获取自动提取的与所述采集位置匹配的道路要素;按照所述采集位置,将提取的道路要素和所述俯视图像对照显示于地图中;获取针对所述地图中所显示的提取的道路要素的编辑指令并响应。通过将全景图像中包括道路要素的图像区域进行俯视投影得到的平面俯视图像做参照,提高了道路要素编辑的效率。

Description

地图道路要素编辑方法和装置
技术领域
本发明涉及计算机技术领域,特别是涉及一种地图道路要素编辑方法和装置。
背景技术
高精度地图,是指比现有导航地图精度更高、要素更丰富、用于辅助驾驶、半自动驾驶或自动驾驶的地图。
通常,高精度地图包含的车道线是从激光点云街景图中提取。其中,激光点云街景图,是指使用激光点云技术,在街景采集过程中通过激光扫描,收集道路及周边建筑的三维信息,并通过处理运算生成的三维的激光点云街景图。然而,从激光点云街景图中提取道路要素(比如,车道线)时,往往会由于遮挡或标线不清晰等原因造成提取的道路要素有误(比如,车道线过多、缺失或有偏差等),需要对提取的道路要素进行编辑,以生成高精度地图。
传统方法中,需要人工在激光点云街景图中选点描点来对道路要素进行编辑。然而,由于激光点云街景图是一个三维空间,而电脑屏幕是一个二维平面,在一个二维的电脑屏幕上对一个三维空间中的点进行选点操作非常的费时。因此,传统的在三维的激光点云街景图中选点描点对道路要素进行编辑的方法,效率比较低。
发明内容
基于此,有必要提供一种能够提高编辑效率的地图道路要素编辑方法和装置。
地图道路要素编辑方法,所述方法包括:
获取全景图像和相应的采集位置;
筛选出所述全景图像中包括道路要素的图像区域;
将筛选出的图像区域俯视投影为包括所述道路要素的俯视图像;
获取自动提取的与所述采集位置匹配的道路要素;
按照所述采集位置,将提取的道路要素和所述俯视图像对照显示于地图中;
获取针对所述地图中所显示的提取的道路要素的编辑指令并响应。
地图道路要素编辑装置,所述装置包括:
获取模块,用于获取全景图像和相应的采集位置;
图像区域筛选模块,用于筛选出所述全景图像中包括道路要素的图像区域;
投影模块,用于将筛选出的图像区域俯视投影为包括所述道路要素的俯视图像;
所述获取模块还用于获取自动提取的与所述采集位置匹配的道路要素;
对照显示模块,用于按照所述采集位置,将提取的道路要素和所述俯视图像对照显示于地图中;
编辑模块,用于获取针对所述地图中所显示的提取的道路要素的编辑指令并响应。
上述地图道路要素编辑方法和装置,通过筛选出全景图像中包括道路要素的图像区域,将筛选出的图像区域俯视投影为包括道路要素的俯视图像,可以实现将立体的全景图像投影为平面的俯视图像,且通过俯视投影能够保证投影成的平面俯视图像中所展示的道路要素信息准确。而且,获取自动提取的与采集位置匹配的道路要素,按照采集位置,将提取的道路要素和俯视图像对照显示于地图中,可以将展示准确的道路要素的平面俯视图像作为参照,对提取的道路要素进行相应编辑,相较于人工基于三维空间中的激光点云街景图为参照来对道路要素进行编辑而言,大大提高了对道路要素编辑的效率。
附图说明
图1为一个实施例中电子设备的内部结构示意图;
图2为一个实施例中地图道路要素编辑方法的流程示意图;
图3为一个实施例中俯视投影示意图;
图4为一个实施例中俯视图像示意图;
图5为一个实施例中地图道路要素编辑界面示意图;
图6为一个实施例中视线垂直角度和视线水平角度的示意图;
图7为一个实施例中的基于全景图像的视线角度坐标系对全景图像划分瓦片的示意图;
图8为一个实施例中筛选出全景图像中包括道路要素的图像区域的步骤的流程示意图;
图9为一个实施例中俯视图像尺寸调整步骤的流程示意图;
图10为一个实施例中连续俯视图像的示意图;
图11为一个实施例中将筛选出的图像区域俯视投影为包括道路要素的俯视图像的流程示意图;
图12为另一个实施例中地图道路要素编辑方法的流程示意图;
图13为一个实施例中地图道路要素编辑装置的结构示意图;
图14为另一个实施例中地图道路要素编辑装置的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,在一个实施例中,提供了一种电子设备,该电子设备包括通过***总线连接的处理器、非易失性存储介质、内存储器、网络接口、显示屏和输入装置。其中,电子设备的非易失性存储介质存储有操作***,还包括一种地图道路要素编辑装置,该地图道路要素编辑装置用于实现一种地图道路要素编辑方法。该处理器用于提供计算和控制能力,支撑整个电子设备的运行。电子设备中的内存储器为非易失性存储介质中的地图道路要素编辑装置的运行提供环境,该内存储器中可储存有计算机可执行指令,该计算机可执行指令被所述处理器执行时,可使得所述处理器执行一种地图道路要素编辑方法。网络接口用于连接网络用于通信,比如通过网络从服务器的数据库中获取全景图像和相应的采集位置等。电子设备的显示屏可以是液晶显示屏或者电子墨水显示屏等,显示屏可以用于输出显示各种界面,比如,将提取的道路要素和俯视图像在地图中对照显示。输入装置可以是显示屏上覆盖的触摸层,也可以是电子设备外壳上设置的按键、轨迹球或触控板,也可以是外接的键盘、触控板或鼠标等,用于接收输入的各种控制指令,比如对地图中所显示的提取的道路要素的编辑指令。该电子设备可以是个人计算机、移动终端、车载设备或可穿戴设备,移动终端如手机、平板电脑或个人数字助理。
本领域技术人员可以理解,图1中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的电子设备的限定,具体的电子设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
如图2所示,在一个实施例中,提供了一种地图道路要素编辑方法,本实施例以该方法应用于上述图1中的电子设备来举例说明。该方法具体包括如下步骤:
S202,获取全景图像和相应的采集位置。
其中,全景图像是将分别从沿水平面区分的不同方向拍摄的多个图像拼接所获得的图像。这里拼接是指按照这多个图像的内容连续性所进行的拼接,使得拼接获得的全景图像在内容上连续。全景图像可以是360度全景图像,此时全景图像包括从一个观察点水平旋转360度所观察到的景象,此时全景图像左边缘可与右边缘无缝连接。其中,全景图像中包括道路要素。
电子设备可获取预先拼接得到的全景图像,也可以获取多个方向拍摄的图像来实时合成全景图像。预先拼接得到的全景图像可从本地或通过网络获取,用于拼接全景图像的多个图像可以从本地获取、通过网络获取或者实时拍摄获得。
与全景图像相应的采集位置,是指采集用于拼接该全景图像的多个图像时所处的地理位置,具体可以取采集该多个图像的图像采集设备所处的地理位置。采集位置可以表示为采集用于拼接该全景图像的多个图像时的经度和纬度。图像采集设备可以与上述的电子设备为相同或不同的设备。
电子设备可以从本地存储中或通过网络获取与预先拼接得到的全景图像相应的采集位置。
S204,筛选出全景图像中包括道路要素的图像区域。
其中,道路要素是指能够体现道路特征的信息要素。道路特征可以包括道路的形态特征,以及位于道路中(即道路路面上)的道路交通标线。
道路的形态特征,包括道路的廓形、宽度和走向等信息中的一种或几种的组合。
道路交通标线,指在道路的路面上用线条、箭头、文字、立面标记、突起路标和轮廓标等向交通参与者传递引导、限制和警告等交通信息的标识。道路交通标线,包括车道信息、以及地面上的箭头和文字等地面图文标记等。车道信息包括车道数量、车道宽度、车道线的几何形状和车道线属性信息等中一种或几种的组合。其中,车道线属性信息包括车道线为实线或虚线、车道线颜色和车道线粗细等。
电子设备可以从完整的全景图像中筛选出包括道路要素的图像区域,也可以将全景图像划分成图像瓦片,从划分出的图像瓦片中筛选出包括道路要素的图像瓦片,以得到包括道路要素的图像区域。
在一个实施例中,电子设备可根据全景图像中道路要素所在位置的先验知识,从全景图像中筛选出包括道路要素的图像区域。比如当全景图像的立体模型为球形时,道路要素一般在整个全景图像沿宽度方向划分的二分之一以下的区域。在一个实施例中,电子设备可通过模式识别方式,从全景图像中筛选出包括道路要素的图像区域。
S206,将筛选出的图像区域俯视投影为包括道路要素的俯视图像。
其中,俯视投影,是指将从俯视观察点指向图像区域中的点的视线延伸到俯视投影平面上形成投影点,这些投影点形成俯视图像。具体地,电子设备可设定一个在垂直于俯视投影平面的方向上,且位置高于筛选出的图像区域在全景图像的立体模型中的位置的观察点,从该观察点看向筛选出的图像区域在全景图像的立体模型中的位置,以将筛选出的图像区域投影在俯视投影平面上形成投影点,将俯视投影平面上的投影点形成平行于该俯视投影平面的俯视图像。将投影点形成俯视图像时,可以将各个投影点扩展为图像块,使得相邻的图像块之间相接,以形成俯视图像。
在一个实施例中,俯视观察点位于全景图像的立体模型的垂直于俯视投影平面的中心轴线上。在一个实施例中,俯视观察点与全景图像的立体模型的观察点相同。
为了便于理解,现结合图3,对俯视投影进行举例说明。如图3所示,假设全景图像的球形立体模型的观察点为G,将G作为俯视观察点,对球形的全景图像中的点A和点B进行俯视投影,则从观察点G分别看向点A和点B,以将全景图像中的点A和点B分别投影至俯视投影平面α上,得到A'和B',这种投影方式即为俯视投影。依次类推,将全景图像中筛选出的图像区域的各点分别进行俯视投影,以在俯视投影平面上得到平面俯视图像。
在一个实施例中,将筛选出的图像区域投影在俯视投影平面上以后,可以从俯视投影平面中截取覆盖所有道路要素的图像区域作为俯视图像。
图4为一个实施例中包括道路要素的俯视图像。图4俯视图像中的圆形区域为经过俯视投影得到的包括道路要素的图像区域。
S208,获取自动提取的与采集位置匹配的道路要素。
与采集位置匹配的道路要素,是指,在该采集位置处所包含的道路中的道路要素。自动提取的道路要素,是指利用计算机技术提取的道路要素。电子设备可从第三方的道路图像中自动提取道路要素,也可以从激光点云中自动提取道路要素,也可以从步骤S206中生成的俯视图像中自动提取道路要素。电子设备可以从本地或网络获取预先从预设的图像或激光点云中自动提取的与采集位置匹配的道路要素。
其中,所获取的自动提取的与采集位置匹配的道路要素,可以是与地图尺寸相匹配的道路要素,也可以是与地图尺寸不匹配的道路要素。对此不做限定。
S210,按照采集位置,将提取的道路要素和俯视图像对照显示于地图中。
具体地,电子设备的显示界面上显示了地图,电子设备可以按照采集位置,分别确定提取的道路要素和所生成的俯视图像在该地图中所对应的位置,然后根据确定出的在地图中所对应的位置将俯视图像和提取的道路要素对照显示于该地图上。其中,对照显示于地图中,指将提取的道路要素与俯视图像中的相同位置的道路要素在地图中进行比对显示。
进一步地,可以是将提取的道路要素与俯视图像在编辑界面的不同的区域进行对照显示。比如,可以将提取的道路要素显示在地图中的对应道路上,将俯视图像显示于编辑界面的对照区,从而将显示于地图道路上的提取的道路要素,与位于对照区中的俯视图像中的相同位置的道路要素进行对照显示。也可以是,将提取的道路要素与俯视图像中的道路要素在同一区域中进行叠加显示。更进一步地,在叠加显示时,可以将俯视图像进行半透明显示。
在一个实施例中,步骤S210包括:将提取的道路要素的尺寸和俯视图像的尺寸调整为与地图尺寸相匹配的尺寸,按照采集位置,将调整尺寸后提取的道路要是和俯视图像对照显示于地图中。
S212,获取针对地图中所显示的提取的道路要素的编辑指令并响应。
地图道路要素编辑人员,可以参照所生成的包括道路要素的俯视图像,对地图中所显示的提取的道路要素进行编辑操作。电子设备对应获取针对地图中所显示的提取的道路要素的编辑指令,并响应该道路要素编辑指令,对提取的道路要素进行对应的编辑处理。其中,编辑指令包括对道路要素的增加、删除、移动和修改等指令中的一种或几种的组合。
图5为一个实施例中的地图道路要素编辑界面。其中,Ec即为提取的道路要素(见图5中的间隔的短线标识),i为生成的俯视图像,Es为俯视图像中的道路要素信息(见图5中的间隔的长条形标识),可以将俯视图像i中的道路要素信息Es作为参照,对提取的道路要素Ec进行编辑。
上述地图道路要素编辑方法,通过筛选出全景图像中包括道路要素的图像区域,将筛选出的图像区域俯视投影为包括道路要素的俯视图像,可以实现将立体的全景图像投影为平面的俯视图像,且通过俯视投影能够保证投影成的平面俯视图像中所展示的道路要素信息准确。而且,获取自动提取的与采集位置匹配的道路要素,按照采集位置,将提取的道路要素和俯视图像对照显示于地图中,可以将展示准确的道路要素信息的平面俯视图像作为参照,对提取的道路要素进行相应编辑,相较于人工基于三维空间中的激光点云街景图为参照来对道路要素进行编辑而言,大大提高了对道路要素编辑的效率。
在一个实施例中,步骤S204包括:沿全景图像的视线角度坐标系中视线水平角度轴向和视线垂直角度轴向,将全景图像划分图像瓦片,从划分出的图像瓦片中,筛选出包括道路要素的图像瓦片。步骤S206包括:将筛选出的图像瓦片分别俯视投影到俯视投影平面上,构成俯视图像。
其中,视线角度坐标系,指建立于全景图像中的二维坐标系。视线,指从观察点看向全景图像中的点在全景图像的立体模型中的位置形成的射线。视线角度坐标系包括视线水平角度轴和视线垂直角度轴。对于全景图像中的一个点在该全景图像中的位置,可以用看向该位置的视线在视线水平角度轴上的视线水平角度和在视线垂直角度轴上的视线垂直角度表示。
视线垂直角度,指全景图像中的点所对应的视线与垂直于且指向俯视投影平面的方向的夹角大小。
在定义视线水平角度之前,需要先引入视线水平角度参照平面的概念。
视线水平角度参照平面,指用于定义全景图像中的点所对应的视线水平角度的参照平面。在一个实施例中,视线水平角度参照平面,指经过全景图像的立体模型的中心点,且与俯视投影平面平行的平面。其中,视线水平角度参照平面上预先设定了起始参照方向。
视线水平角度,指全景图像中的点对应的视线在视线水平角度参照平面上对应的分方向与该视线水平角度参照平面中起始参照方向的夹角。其中,全景图像中的点对应的视线在视线水平角度参照平面上对应的分方向,是指全景图像中的点对应的视线所位于的垂直于俯视投影平面的平面,与视线水平角度参照平面之间的交线所形成的与视线方向一致的方向。
现结合图6的举例对视线垂直角度和视线水平角度进行解释说明。如图6所示,俯视投影平面为p1,将全景图像中的A点投影至俯视投影平面上的投影点A',则A点所对应的视线垂直角度则为视线S1与垂直于且指向平面p1方向d1的夹角α。平面p2为视线水平角度参照平面,平面p3为经过A点且垂直于俯视投影平面p1的平面,平面p2和平面p3之间的交线所形成的与视线S1的方向一致的方向为d3,则A点所对应的视线水平角度,则为方向d3与平面p2上的参考起始方向d2之间的夹角β。
在一个实施例中,全景图像的视线角度坐标系中,视线水平角度范围为0°~360°,视线垂直角度范围为0°~180°。
电子设备会沿全景图像的视线角度坐标系中的视线水平角度轴向和视线垂直角度轴向,将全景图像划分成图像瓦片。其中,可以沿着视线水平角度轴向和视线垂直角度轴向,将全景图像进行任意划分,各图像瓦片的大小可以不同。也可以分别沿着视线水平角度轴向和视线垂直角度轴向的预设划分数量M和N,即将全景图像在视线水平角度轴向划分为M份,在视线垂直角度轴向划分为N份,从而将全景图像划分成M×N块图像瓦片。其中,M×N的值可以根据实际需要进行设置,具体不做限定。在一个实施例中,M×N的值可以为8×4或16×8。
从划分出的图像瓦片中,筛选出包括道路要素的图像瓦片,可以是将包含道路要素的所有图像瓦片筛选出来,也可以是针对包含道路要素的图像瓦片进一步地进行图像内容分析,从包含道路要素的图像瓦片中剔除包含道路要素被全景图像采集设备或全景图像采集设备所位于的载体设备(比如承载采集设备的车辆)大面积遮挡的图像瓦片,以得到最终的筛选出的包括道路要素的图像瓦片。
现举例对步骤S204进行举例说明。如图7所示,为全景图像的视线角度坐标系,u轴为视线水平角度轴,v轴为实现垂直角度轴,假设将全景图像在视线水平角度轴向划分为8份,在视线垂直角度轴向划分为4份,则最终将全景图像划分成8×4块图像瓦片。划分成的8×4块图像瓦片中筛选出包括道路要素的图像瓦片,可以筛选出图3的全景图像中位于下部1/2部分的包括道路要素的16块图像瓦片。也可以从这16块图像瓦片中剔除最下部1/4部分的8片图像瓦片,因为这最下部1/4部分的8片图像瓦片的道路要素被车辆大面积遮挡,筛选出下部1/2至下部1/4处的包括道路要素的8片图像瓦片。
本实施例中,以图像瓦片为单位分别进行俯视投影,相比较以整体的包括道路要素的图像区域进行俯视投影而言,图像瓦片比较小,投影处理起来比较快,避免了需要进行投影的图像区域过大造成处理器较慢的情况,提高了俯视投影的速度,从而提高了生成俯视图像的速度。若筛选出的图像瓦片为多个,则可以通过多线程分别同时对筛选出的图像瓦片进行俯视投影,相比较以整体的包括道路要素的图像区域进行俯视投影而言,同样提高俯视投影的速度,从而提高了生成俯视图像的速度。
图8为一个实施例中步骤S204筛选出全景图像中包括道路要素的图像区域的步骤的流程示意图。如图8所示,步骤S204具体包括以下步骤:
S802,在全景图像的视线角度坐标系中,确定表示平视的视线垂直角度。
其中,在全景图像的视线角度坐标系中,视线垂直角度,指全景图像中的点所对应的视线与垂直于且指向俯视投影平面的方向的夹角大小,而平视的视线与垂直于且指向俯视投影平面的方向的夹角为90,因此表示平视的视线垂直角度为90°。
S804,将表示平视的视线垂直角度减去预设锐角,得到剩余视线垂直角度。
其中,预设锐角(记作“θ”)的大小可以根据实际需要进行设定。
剩余视线垂直角度,等于表示平视的视线垂直角度减去预设锐角,即等于90°-θ。
S806,根据剩余视线垂直角度,从全景图像中筛选出全景图像中包括道路要素的图像区域。
具体地,以剩余视线垂直角度为上限确定视线垂直角度范围,从而在全景图像中确定该视线垂直角度范围对应的图像区域,该图像区域包括道路要素。视线垂直角度范围的下限可以是表示正俯视的视线垂直角度,或者可以是表示斜俯视且小于剩余视线垂直角度的视线垂直角度。
比如,视线垂直角度范围的下限为表示正俯视的视线垂直角度,而正俯视的视线与垂直于且指向俯视投影平面的方向的夹角为0°,则视线垂直角度范围的下限为0°,视线垂直角度范围为0°~(90°-θ),则从全景图像中筛选出视线垂直角度范围0°~(90°-θ)所对应的图像区域,该图像区域包括道路要素。
又比如,视线垂直角度范围的下限为45°,视线垂直角度45°指视线与垂直于且指向俯视投影平面的方向的夹角为45°,表示斜俯视,且45°<(90°-θ),因此,视线垂直角度范围为45°~(90°-θ),则从全景图像中筛选出视线垂直角度范围45°~(90°-θ)所对应的图像区域,该图像区域包括道路要素。
在一个实施例中,当沿全景图像的视线角度坐标系中视线水平角度轴向和视线垂直角度轴向,将全景图像划分成图像瓦片,且包括道路要素的图像瓦片中包括表示平视的视线垂直角度所对应的图像区域时,则步骤S406包括:根据剩余视线垂直角度,对表示平视的视线垂直角度对应的图像区域所位于的图像瓦片进行裁剪,将裁剪后的图像瓦片和未裁剪的包括道路要素的图像瓦片一起作为筛选出的包括道路要素的图像瓦片。
具体地,以剩余视线垂直角度为下限,以该图像瓦片所对应的最大视线垂直角度为上限,确定该图像瓦片所对应的裁剪的视线垂直角度范围,根据该裁剪的视线垂直角度范围对应的图像区域从该图像瓦片中裁剪掉。
在一个实施例,预设锐角的大小可以根据需裁剪的图像瓦片对应的视线垂直角度范围设定。需裁剪的图像瓦片对应的视线垂直角度范围中的最大视线垂直角度大于表示平行的视线垂直角度越多,则预设锐角越大。
比如,对应于图像瓦片的视线垂直角度范围为45°~90°,预设锐角为45°的1/8,即为5.625°,则剩余视线垂直角度为90°-5.625°=84.375°,则裁剪的视线垂直角度范围为84.375°~90°,则将该图像瓦片中84.375°~90°所对应的图像区域裁剪掉。
如图9所示,在一个实施例中,在步骤S206之后,还包括俯视图像尺寸调整步骤,具体包括以下步骤:
S902,获取俯视图像所表示的真实世界中的尺寸。
其中,俯视图像所表示的真实世界中的尺寸,指可以表征俯视图像在真实世界中大小的值。
在一个实施例中,当全景图像的立体模型为球形时,俯视图像所表示的真实世界中的尺寸,可以是俯视图像在真实世界中的半径大小或直径大小。当全景图像的立体模型为圆柱形或立方体时,俯视图像所表示的真实世界中的尺寸,则可以是其他用于表征俯视图像大小的参数的值。
在一个实施例中,步骤S902包括:获取全景图像的采集高度,根据采集高度和表示平视的垂直视线角度所要减去的预设锐角得到筛选出的图像区域在俯视投影平面中的投影最远距离。
其中,采集高度,指采集该全景图像的采集设备距离地面的高度。在一个实施例中,采集高度,指采集该全景图像的主相机距离地面的高度。
投影最远距离,指筛选出的图像区域在俯视投影平面上的最远投影点,与正俯视该筛选出的图像区域时所看向的点在俯视投影平面上的位置之间的距离。在一个实施例中,投影最远距离可用于表征俯视图像所表示的真实世界的尺寸。
在一个实施例中,可以根据以下公式计算得到筛选出的图像区域在俯视投影平面中的投影最远距离:R=H*tan(90°-θ),其中,R为筛选出的图像区域在俯视投影平面中的投影最远距离,θ为表示平视的垂直视线角度所要减去的预设锐角,H为全景图像所对应的采集高度。
S904,按照地图在采集位置处的投影方式,将俯视图像所表示的真实世界中的尺寸换算为在地图投影平面上的尺寸。
地图投影,是指建立地球表面上的点与地图投影平面上点之间的一一对应关系的方法。即建立之间的数学转换公式,将作为一个不可展平的曲面即地球表面投影到一个平面的基本方法,保证了空间信息在区域上的联系与完整。
可以理解,将曲面的地球表面经过投影处理,投影到地图投影平面上的尺寸,跟地球表面上的点在投影前于真实世界中的尺寸之间可能存在差异。因此,电子设备可以按照地图在采集位置处的投影方式,将俯视图像所表示的真实世界中的尺寸换算为在地图投影平面上的尺寸。
具体地,可以根据比例因子将俯视图像所表示的真实世界中的尺寸换算为在地图投影平面上的尺寸。
在一个实施例中,当采用Web Mercator(Web墨卡托投影,Web墨卡托投影坐标系指以整个世界范围,赤道作为标准纬线,本初子午线作为中央经线,两者交点为坐标原点,向东向北为正,向西向南为负)进行投影时,可以根据以下公式计算出比例因子:
K=R/log(tan(45+lat/2));
其中,K为比例因子,R为投影最远距离,lat为采集位置中包括的纬度。
S906,按照地图的比例尺缩小换算后的尺寸至目标尺寸。
每个实际显示的地图的大小是由比例尺确定的,按照电子设备中显示的地图的比例尺缩小步骤S504中换算后的尺寸至目标尺寸。其中,目标尺寸与换算后的尺寸的比值等于该地图的比例尺。
本实施例中,步骤S210包括:按照采集位置,将提取的道路要素和目标尺寸的俯视图像对照显示于地图中。
针对与地图尺寸不匹配的提取的道路要素,则可以同样按照步骤S902~S906的方法,进行尺寸换算和缩放,使得缩放后提取的道路要素的尺寸与地图尺寸相匹配。然后根据采集位置,将尺寸缩放后的提取的道路要素和目标尺寸的俯视图像对照显示于地图中。若获取的提取的道路要素是与地图尺寸相匹配的道路要素,则可以按照采集位置,将提取的道路要素和目标尺寸的俯视图像对照显示于地图中。
本实施例中,将俯视图像所表示的真实世界的尺寸换算为在地图投影平面上的尺寸,进而根据地图比例尺将换算后的尺寸缩小至目标尺寸,将获取的道路要素与目标尺寸的俯视图像对照显示于地图中,使得目标尺寸的俯视图像与地图相匹配,可以提高俯视图像作为参照物的准确性。
在一个实施例中,全景图像为相邻采集的多个。步骤S210包括:将相邻采集的多个全景图像所对应的筛选出的图像区域分别俯视投影得到的俯视图像融合为连续俯视图像,将连续俯视图像,按照相应的采集位置,与提取的道路要素对照显示于地图中。图10为一个实施例中连续俯视图像的示意图。可以理解,可以将连续俯视图像中除圆形区域以外的其他区域去掉,以减少遮挡。
融合得到的连续的俯视图像可以展示出较长距离的道路信息,使得俯视图像所展示的道路要素更加的完整,将对照显示于地图上的融合后的俯视图像作为参照,对提取的道路要素进行编辑时,可以更加的直观、完整的展示道路要素信息。
在一个实施例中,可以通过微调相邻采集的多个全景图像的采集姿态角来将对应的多个俯视图像融合为连续的俯视图像。这样一来,融合得到的连续的俯视图像,则可以更加准确的展示道路要素。其中,采集姿态角,指采集设备采集全景图像时,所处的姿态角度。姿态角包括偏航角、俯仰角和横滚角。
图11为一个实施例中步骤S206将筛选出的图像区域俯视投影为包括道路要素的俯视图像的流程示意图。如图11所示,步骤S206包括:
S1102,将筛选出的图像区域划分网格,得到相应的网格节点。
其中,可以将筛选出的图像区域按照任意方式划分网格,得到相应的网格节点。
在一个实施例中,可以将筛选出的图像区域沿全景图像的视线角度坐标系中视线水平角度轴向和视线垂直角度轴向,进行网格划分。即分别在视线垂直轴向和视线水平轴向分别划分预设份数,其中,视线水平轴向和视线垂直轴向中的预设份数可以相同也可以不同,各个轴向中进行份数划分时可以等分也可以不等分。对此不作限定。
S1104,确定网格节点在全景图像的立体模型中的位置。
其中,全景图像的立体模型包括球形、圆柱形或立方体形。
其中,网格节点在全景图像的立体模型中的位置,可以用全景图像中的视线角度坐标系中的坐标进行表示,也可以用其他坐标系中的坐标进行表示,只要能够将网格节点在全景图像的立体模型中的位置表示出来即可。这里对网格节点在全景图像的立体模型中的位置的表示方式不作限定。
S1106,根据网格节点在立体模型中的位置,将网格节点投影至俯视投影平面,得到包括道路要素的俯视图像。
具体地,根据网格节点在立体模型中的位置,确定该网格节点投影至俯视投影平面的位置,根据网格节点投影至俯视投影平面的位置,得到包括道路要素的俯视图像。其中,网格节点在全景图像的立体模型中的位置,可以用全景图像的视线角度坐标系中的坐标进行表示,也可以用在其他坐标系中的坐标进行表示。只要能够表示网格节点在全景图像的立体模型中的位置即可,对网格节点在立体模型中的位置的表示方式不作限定。将筛选出的图像区域划分网格节点进行俯视投影,相较于将整个图像区域作为整体进行俯视投影而言,提高了投影速度。
在一个实施例中,全景图像的立体模型中的位置,包括网格节点在全景图像的视线角度坐标系中的视线水平角度和视线垂直角度。
本实施例中,步骤S1106包括:根据网格节点在全景图像的视线角度坐标系中的视线水平角度和视线垂直角度,计算网格节点投影至俯视投影平面的坐标,按照投影至俯视投影平面的坐标,得到包括道路要素的俯视图像。
其中,可以使用投影坐标计算公式,根据网格节点在全景图像的视线角度坐标系中的视线水平角度和视线垂直角度,计算网格节点投影至俯视投影平面的坐标。这里对投影坐标计算公式的具体形式不作限定,只要满足根据网格节点在全景图像的视线角度坐标系中的视线水平角度和视线垂直角度进行坐标计算,得到网格节点投影至俯视投影平面的坐标即可。
在一个实施例中,全景图像的立体模型为球形。根据网格节点在全景图像的视线角度坐标系中的视线水平角度和视线垂直角度,计算网格节点投影至俯视投影平面的坐标,包括:
可以按照以下公式计算网格节点投影至俯视投影平面的坐标;
X=R/tan(v-p)×cos(u+h);
Y=R/tan(v-p)×sin(u+h);
其中,R=H*tan(90°-θ)。
X为网格节点投影在俯视投影平面的横坐标,Y为网格节点投影在俯视投影平面的纵坐标,R为网格节点在俯视投影平面中的投影最远距离,H为全景图像所对应的采集高度,θ为将表示平视的垂直视线角度所要减去的预设锐角,v为网格节点在全景图像的视线角度坐标系中的视线垂直角度,u为网格节点在全景图像的视线角度坐标系中的视线水平角度,p为全景图像对应的俯仰角,h为全景图像对应的偏航角。
在一个实施例中,可以利用三维渲染引擎,根据投影最远距离设定正交投影矩阵和观察矩阵,根据正交投影矩阵和观察矩阵对网格节点俯视投影至俯视投影平面上,并得到对应的俯视图像。
在一个实施例中,当利用OpenGL时,则可以设定正交投影矩阵ortho(-R,R,-R,R),观察矩阵lookat(0,0,R,0,0,0,0,1,0)。
其中,正交投影矩阵ortho(-R,R,-R,R)表示,left:-R,right:R,bottom:-R,top:R。
观察矩阵lookat(0,0,R,0,0,0,0,1,0)中,第一组(0,0,R)分别依次对应参数eyex,eyey,eyez,表示相机在世界坐标的位置为(0,0,R),第二组(0,0,0)分别依次对应参数centerx,centery,centerz,表示相机镜头对准的物体在世界坐标的位置眼睛为(0,0,0,)处,第三组(0,1,0)分别依次对应参数upx,upy,upz,表示相机向上的方向在世界坐标中的方向,即相机顶部朝向为向上。可以理解,这里的相机是抽象出来的于观察点进行观察的执行主体,并非采集全景图像的采集设备。
进一步地,根据正交投影矩阵ortho(-R,R,-R,R)可以从俯视投影平面中截取覆盖所有道路要素的矩形图像区域作为俯视图像。
可以理解,上述公式中,全景图像对应的俯仰角和偏航角是对筛选出的包括道路要素的图像区域的视线水平角度和视线垂直角度进行校正。使得计算出的网格节点在俯视投影平面上的坐标更加的准确。
在一个实施例中,还可以根据全景图像对应的横滚角对筛选出的包括道路要素的图像区域的视线水平角度和视线垂直角度进行校正,然后根据上述公式对校正后的视线水平角度和视线垂直角度计算出网格节点在俯视投影平面上的坐标。
在一个实施例中,如图12所示,提供了另一种地图道路要素编辑方法,该方法包括以下步骤:
S1202,获取全景图像和相应的采集位置。
S1204,沿全景图像的视线角度坐标系中视线水平角度轴向和视线垂直角度轴向,将全景图像划分图像瓦片。
S1206,从划分出的图像瓦片中,筛选出包括道路要素的图像瓦片。
S1208,判断包括道路要素的图像瓦片中是否包括表示平视的视线垂直角度所对应的图像区域,若是,则进入步骤S1210,若否,则进入步骤S1216。
S1210,在全景图像的视线角度坐标系中,确定表示平视的视线垂直角度。
S1212,将表示平视的视线垂直角度减去预设锐角,得到剩余视线垂直角度。
S1214,根据剩余视线垂直角度,对表示平视的视线垂直角度对应的图像区域所位于的图像瓦片进行裁剪,得到包括道路要素的图像瓦片。
具体地,将裁剪后的图像瓦片和未裁剪的包括道路要素的图像瓦片一起作为筛选出的包括道路要素的图像瓦片。
S1216,将筛选出的图像瓦片划分网格,得到相应的网格节点。
S1218,确定网格节点在全景图像的立体模型中的位置。
S1220,根据网格节点在立体模型中的位置,将网格节点投影至俯视投影平面,得到包括道路要素的俯视图像。
在一个实施例中,可以按照以下公式计算网格节点投影至俯视投影平面的坐标:
X=R/tan(v-p)×cos(u+h);
Y=R/tan(v-p)×sin(u+h);
其中,R=H*tan(90°-θ);
X为网格节点投影在俯视投影平面的横坐标,Y为网格节点投影在俯视投影平面的纵坐标,R为网格节点在俯视投影平面中的投影最远距离,H为全景图像所对应的采集高度,θ为将表示平视的垂直视线角度所要减去的预设锐角,v为网格节点在全景图像的视线角度坐标系中的视线垂直角度,u为网格节点在全景图像的视线角度坐标系中的视线水平角度,p为全景图像对应的俯仰角,h为全景图像对应的偏航角。
进一步地,按照投影至俯视投影平面的坐标,得到包括道路要素的俯视图像。
S1222,获取全景图像的采集高度,根据采集高度和表示平视的垂直视线角度所要减去的预设锐角得到网格节点在俯视投影平面中的投影最远距离。
在一个实施例中,可以根据以下公式计算出网格节点在俯视投影平面中的投影最远距离:R=H*tan(90°-θ),其中,R为网格节点在俯视投影平面中的投影最远距离,θ为表示平视的垂直视线角度所要减去的预设锐角。
S1224,根据最远投影距离确定俯视图像所表示的真实世界中的尺寸。
S1226,按照地图在采集位置处的投影方式,将俯视图像所表示的真实世界中的尺寸换算为在地图投影平面上的尺寸。
其中,可以根据比例因子将俯视图像所表示的真实世界中的尺寸换算为在地图投影平面上的尺寸。
在一个实施例中,可以根据以下公式计算出比例因子:
K=R/log(tan(45+lat/2));
其中,K为比例因子,R为投影最远距离,lat为采集位置中包括的纬度。
S1228,按照地图的比例尺缩小换算后的尺寸至目标尺寸。
S1230,获取自动提取的与所述采集位置匹配的道路要素。
S1232,按照采集位置,将提取的道路要素和目标尺寸的俯视图像对照显示于地图中。
在一个实施例中,全景图像为相邻采集的多个。可以将相邻采集的多个全景图像所对应的筛选出的图像区域分别俯视投影得到的俯视图像融合为连续俯视图像,将连续俯视图像,按照相应的采集位置,与提取的道路要素对照显示于地图中。将对照显示于地图上的融合后的俯视图像作为参照,对提取的道路要素进行编辑时,可以更加的直观、完整的展示道路要素信息。
S1234,获取针对地图中所显示的提取的道路要素的编辑指令并响应。
上述地图道路要素编辑方法,通过将全景图像俯视投影得到包括准确的道路要素的平面俯视图像,将该平面俯视图像作为参照,对提取的道路要素进行相应编辑,相较于人工基于三维空间中的激光点云街景图为参照来对道路要素进行编辑而言,大大提高了对道路要素编辑的效率。
其次,将全景图像划分图像瓦片,筛选出包括道路要素的图像瓦片进行俯视投影得到俯视图像,由于图像瓦片比较小,投影处理起来比较快,避免了需要进行投影的图像区域过大造成处理器较慢的情况,提高了俯视投影的速度,从而提高了生成俯视图像的速度。
然后,将俯视图像所表示的真实世界的尺寸换算为在地图投影平面上的尺寸,进而根据地图比例尺将换算后的尺寸缩小至目标尺寸,将获取的道路要素与目标尺寸的俯视图像对照显示于地图中,使得目标尺寸的俯视图像与地图相匹配,可以提高俯视图像作为参照物的准确性。
另外,将筛选出的图像区域划分网格节点进行俯视投影,相较于将整个图像区域作为整体进行俯视投影而言,提高了投影速度。
在一个实施例中,如图13所示,提供了一种地图道路要素编辑装置,该装置包括获取模块1302、图像区域筛选模块1304、投影模块1306、对照显示模块1308以及编辑模块1310,其中:
获取模块1302,用于获取全景图像和相应的采集位置。
图像区域筛选模块1304,用于筛选出全景图像中包括道路要素的图像区域;
投影模块1306,用于将筛选出的图像区域俯视投影为包括道路要素的俯视图像。
获取模块1302还用于获取自动提取的与采集位置匹配的道路要素。
对照显示模块1308,用于按照采集位置,将提取的道路要素和俯视图像对照显示于地图中。
编辑模块1310,用于获取针对地图中所显示的提取的道路要素的编辑指令并响应。
在一个实施例中,图像区域筛选模块1304还用于沿全景图像的视线角度坐标系中视线水平角度轴向和视线垂直角度轴向,将全景图像划分图像瓦片;从划分出的图像瓦片中,筛选出包括道路要素的图像瓦片。
本实施例中,投影模块1306还用于将筛选出的图像瓦片分别俯视投影到俯视投影平面上,构成俯视图像。
在一个实施例中,图像区域筛选模块1304还用于在全景图像的视线角度坐标系中,确定表示平视的视线垂直角度;将表示平视的视线垂直角度减去预设锐角,得到剩余视线垂直角度;根据剩余视线垂直角度,从全景图像中筛选出全景图像中包括道路要素的图像区域。
在一个实施例中,获取模块1302还用于获取俯视图像所表示的真实世界中的尺寸。
本实施例中,如图14所示,该装置还包括:
尺寸调整模块1307,用于按照地图在采集位置处的投影方式,将俯视图像所表示的真实世界中的尺寸换算为在地图投影平面上的尺寸,按照地图的比例尺缩小换算后的尺寸至目标尺寸。
对照显示模块1308还用于按照采集位置,将提取的道路要素和目标尺寸的俯视图像对照显示于地图中。
在一个实施例中,全景图像为相邻采集的多个。对照显示模块1308还用于将相邻采集的多个全景图像所对应的筛选出的图像区域分别俯视投影得到的俯视图像融合为连续俯视图像;将连续俯视图像,按照相应的采集位置,与提取的道路要素对照显示于地图中。
在一个实施例中,投影模块1306还用于将筛选出的图像区域划分网格,得到相应的网格节点;确定网格节点在全景图像的立体模型中的位置;根据网格节点在立体模型中的位置,将网格节点投影至俯视投影平面,得到包括道路要素的俯视图像。
在一个实施例中,全景图像的立体模型为球形,全景图像的立体模型中的位置,包括网格节点在全景图像的视线角度坐标系中的视线水平角度和视线垂直角度。
本实施例中,投影模块1306还用于按照以下公式计算网格节点投影至俯视投影平面的坐标:
X=R/tan(v-p)×cos(u+h);
Y=R/tan(v-p)×sin(u+h);
其中,R=H*tan(90°-θ);
X为网格节点投影在俯视投影平面的横坐标,Y为网格节点投影在俯视投影平面的纵坐标,R为网格节点在俯视投影平面中的投影最远距离,H为全景图像所对应的采集高度,θ为将表示平视的垂直视线角度所要减去的预设锐角,v为网格节点在全景图像的视线角度坐标系中的视线垂直角度,u为网格节点在全景图像的视线角度坐标系中的视线水平角度,p为全景图像对应的俯仰角,h为全景图像对应的偏航角;
投影模块1306还用于按照投影至俯视投影平面的坐标,得到包括道路要素的俯视图像。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限定。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (12)

1.一种地图道路要素编辑方法,所述方法包括:
获取全景图像和相应的采集位置;
沿所述全景图像的视线角度坐标系中视线水平角度轴向和视线垂直角度轴向,将所述全景图像划分成图像瓦片,以从划分出的所述图像瓦片中筛选出包括道路要素的图像瓦片,得到包括道路要素的图像区域;所述视线角度坐标系,是指建立于全景图像中的、且包括视线水平角度轴和视线垂直角度轴的二维坐标系;
将所述图像区域俯视投影为包括所述道路要素的俯视图像;
获取自动提取的与所述采集位置匹配的道路要素,包括:从第三方的道路图像或激光点云或所述俯视图像中,自动提取在所述采集位置处所包含的道路中的道路要素;
显示地图;
将提取的道路要素的尺寸和俯视图像的尺寸调整为与地图尺寸相匹配的尺寸;
按照所述采集位置,分别确定调整尺寸后提取的道路要素和俯视图像在所述地图中所对应的位置,根据确定出的在所述地图中所对应的位置将调整尺寸后提取的道路要素和俯视图像对照显示于地图中;所述对照显示于地图中,是指将提取的道路要素与俯视图像中的相同位置的道路要素在地图中进行比对显示;所述俯视图像中的道路要素,用于在地图中对所提取的道路要素进行编辑处理时作为参照;
获取针对所述地图中所显示的提取的道路要素的编辑指令,响应所述编辑指令,对在地图中显示的所述提取的道路要素进行对应的编辑处理。
2.根据权利要求1所述的方法,其特征在于,所述将提取的道路要素的尺寸和俯视图像的尺寸调整为与地图尺寸相匹配的尺寸包括:
获取所述俯视图像所表示的真实世界中的尺寸;
按照地图在所述采集位置处的投影方式,将所述俯视图像所表示的真实世界中的尺寸换算为在地图投影平面上的尺寸;
按照所述地图的比例尺缩小换算后的尺寸至目标尺寸。
3.根据权利要求1所述的方法,其特征在于,所述全景图像为相邻采集的多个;所述按照所述采集位置,将提取的道路要素和所述俯视图像对照显示于地图中,包括:
将相邻采集的多个全景图像所对应的筛选出的图像区域分别俯视投影得到的俯视图像融合为连续俯视图像;
将所述连续俯视图像,按照相应的所述采集位置,与提取的道路要素对照显示于地图中。
4.根据权利要求1至3中任一项所述的方法,其特征在于,所述将所述图像区域俯视投影为包括所述道路要素的俯视图像,包括:
将筛选出的图像区域划分网格,得到相应的网格节点;
确定所述网格节点在所述全景图像的立体模型中的位置;
根据所述网格节点在所述立体模型中的位置,将所述网格节点投影至俯视投影平面,得到包括所述道路要素的俯视图像。
5.根据权利要求4所述的方法,其特征在于,所述全景图像的立体模型为球形,所述全景图像的立体模型中的位置,包括所述网格节点在所述全景图像的视线角度坐标系中的视线水平角度和视线垂直角度;
所述根据所述网格节点在所述立体模型中的位置,将所述网格节点投影至俯视投影平面,得到包括所述道路要素的俯视图像,包括:
按照以下公式计算所述网格节点投影至俯视投影平面的坐标:
X=R/tan(v-p)×cos(u+h);
Y=R/tan(v-p)×sin(u+h);
其中,R=H*tan(90°-θ);
X为所述网格节点投影在俯视投影平面的横坐标,Y为所述网格节点投影在俯视投影平面的纵坐标,R为所述网格节点在俯视投影平面中的投影最远距离,H为所述全景图像所对应的采集高度,θ为将表示平视的垂直视线角度所要减去的预设锐角,v为所述网格节点在所述全景图像的视线角度坐标系中的视线垂直角度,u为所述网格节点在所述全景图像的视线角度坐标系中的视线水平角度,p为所述全景图像对应的俯仰角,h为所述全景图像对应的偏航角;
按照投影至所述俯视投影平面的坐标,得到包括所述道路要素的俯视图像。
6.一种地图道路要素编辑装置,其特征在于,所述装置包括:
获取模块,用于获取全景图像和相应的采集位置;
图像区域筛选模块,用于沿所述全景图像的视线角度坐标系中视线水平角度轴向和视线垂直角度轴向,将所述全景图像划分成图像瓦片,以从划分出的所述图像瓦片中筛选出包括道路要素的图像瓦片,得到包括道路要素的图像区域;所述视线角度坐标系,是指建立于全景图像中的、且包括视线水平角度轴和视线垂直角度轴的二维坐标系;
投影模块,用于将所述图像区域俯视投影为包括所述道路要素的俯视图像;
所述获取模块还用于从第三方的道路图像或激光点云或所述俯视图像中,自动提取在所述采集位置处所包含的道路中的道路要素;
对照显示模块,用于显示地图;将提取的道路要素的尺寸和俯视图像的尺寸调整为与地图尺寸相匹配的尺寸;按照所述采集位置,分别确定调整尺寸后提取的道路要素和俯视图像在所述地图中所对应的位置,根据确定出的在所述地图中所对应的位置将调整尺寸后提取的道路要素和俯视图像对照显示于地图中;所述对照显示于地图中,是指将提取的道路要素与俯视图像中的相同位置的道路要素在地图中进行比对显示;所述俯视图像中的道路要素,用于在地图中对所提取的道路要素进行编辑处理时作为参照;
编辑模块,用于获取针对所述地图中所显示的提取的道路要素的编辑指令,响应所述编辑指令,对在地图中显示的所述提取的道路要素进行对应的编辑处理。
7.根据权利要求6所述的装置,其特征在于,所述获取模块还用于获取所述俯视图像所表示的真实世界中的尺寸;
所述装置还包括:
尺寸调整模块,用于按照地图在所述采集位置处的投影方式,将所述俯视图像所表示的真实世界中的尺寸换算为在地图投影平面上的尺寸,按照所述地图的比例尺缩小换算后的尺寸至目标尺寸。
8.根据权利要求6所述的装置,其特征在于,所述全景图像为相邻采集的多个;所述对照显示模块还用于将相邻采集的多个全景图像所对应的筛选出的图像区域分别俯视投影得到的俯视图像融合为连续俯视图像;将所述连续俯视图像,按照相应的所述采集位置,与提取的道路要素对照显示于地图中。
9.根据权利要求6至8中任一项所述的装置,其特征在于,所述投影模块还用于将筛选出的图像区域划分网格,得到相应的网格节点;确定所述网格节点在所述全景图像的立体模型中的位置;根据所述网格节点在所述立体模型中的位置,将所述网格节点投影至俯视投影平面,得到包括所述道路要素的俯视图像。
10.根据权利要求9所述的装置,其特征在于,所述全景图像的立体模型为球形,所述全景图像的立体模型中的位置,包括所述网格节点在所述全景图像的视线角度坐标系中的视线水平角度和视线垂直角度;
所述投影模块还用于按照以下公式计算所述网格节点投影至俯视投影平面的坐标:
X=R/tan(v-p)×cos(u+h);
Y=R/tan(v-p)×sin(u+h);
其中,R=H*tan(90°-θ);
X为所述网格节点投影在俯视投影平面的横坐标,Y为所述网格节点投影在俯视投影平面的纵坐标,R为所述网格节点在俯视投影平面中的投影最远距离,H为所述全景图像所对应的采集高度,θ为将表示平视的垂直视线角度所要减去的预设锐角,v为所述网格节点在所述全景图像的视线角度坐标系中的视线垂直角度,u为所述网格节点在所述全景图像的视线角度坐标系中的视线水平角度,p为所述全景图像对应的俯仰角,h为所述全景图像对应的偏航角;
所述投影模块还用于按照投影至所述俯视投影平面的坐标,得到包括所述道路要素的俯视图像。
11.一种电子设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至5中任一项所述的方法的步骤。
12.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至5中任一项所述的方法的步骤。
CN201710097659.7A 2017-02-22 2017-02-22 地图道路要素编辑方法和装置 Active CN108460815B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201710097659.7A CN108460815B (zh) 2017-02-22 2017-02-22 地图道路要素编辑方法和装置
PCT/CN2018/073689 WO2018153196A1 (zh) 2017-02-22 2018-01-23 地图道路要素编辑方法、装置、电子设备和存储介质
US16/410,709 US10964079B2 (en) 2017-02-22 2019-05-13 Method and apparatus for editing road element on map, electronic device, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710097659.7A CN108460815B (zh) 2017-02-22 2017-02-22 地图道路要素编辑方法和装置

Publications (2)

Publication Number Publication Date
CN108460815A CN108460815A (zh) 2018-08-28
CN108460815B true CN108460815B (zh) 2022-06-17

Family

ID=63220908

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710097659.7A Active CN108460815B (zh) 2017-02-22 2017-02-22 地图道路要素编辑方法和装置

Country Status (3)

Country Link
US (1) US10964079B2 (zh)
CN (1) CN108460815B (zh)
WO (1) WO2018153196A1 (zh)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11373067B2 (en) * 2018-08-10 2022-06-28 Nec Corporation Parametric top-view representation of scenes
CN109597861A (zh) * 2018-10-31 2019-04-09 百度在线网络技术(北京)有限公司 地图数据的处理方法、装置及可读存储介质
CN109684921B (zh) * 2018-11-20 2022-05-27 吉林大学 一种基于三维激光雷达的道路边界检测与跟踪方法
CN111307163B (zh) * 2018-12-11 2022-07-22 北京地平线机器人技术研发有限公司 可移动设备的定位方法、定位装置及电子设备
CN111368605B (zh) * 2018-12-26 2023-08-25 易图通科技(北京)有限公司 车道线提取方法及装置
CN110110248B (zh) * 2019-05-20 2021-04-13 徐书诚 一种实现电子地图沿线展示全景图像的计算机***
CN110414098B (zh) * 2019-07-12 2021-07-06 北京三快在线科技有限公司 一种仿真测试环境的生成方法及装置
CN110795994B (zh) * 2019-09-16 2022-05-10 腾讯科技(深圳)有限公司 路口图像选择方法及装置
CN110609685B (zh) * 2019-09-20 2023-06-27 通号万全信号设备有限公司 一种铁路信号联锁数据配置工具界面的生成方法
CN110956100A (zh) * 2019-11-15 2020-04-03 北京三快在线科技有限公司 一种高精度地图生成方法、装置、电子设备和存储介质
US11100344B2 (en) * 2019-11-21 2021-08-24 GM Global Technology Operations LLC Image-based three-dimensional lane detection
KR102125538B1 (ko) * 2019-12-13 2020-06-22 주식회사 토르 드라이브 자율 주행을 위한 효율적인 맵 매칭 방법 및 그 장치
EP3842911B1 (en) * 2019-12-26 2023-04-05 Dassault Systèmes A 3d interface with an improved object selection
CN113435227B (zh) * 2020-03-23 2023-04-07 阿里巴巴集团控股有限公司 地图生成及车辆定位方法、***、设备及存储介质
CN113434614A (zh) * 2020-03-23 2021-09-24 北京四维图新科技股份有限公司 地图数据关联方法、装置及电子设备
CN112634414B (zh) 2020-12-24 2023-09-05 北京百度网讯科技有限公司 地图显示方法及装置
CN112734629B (zh) * 2020-12-30 2022-12-27 广州极飞科技股份有限公司 一种正射影像生成方法、装置、设备及存储介质
CN112765303B (zh) * 2021-02-05 2023-10-31 哈工大机器人(合肥)国际创新研究院 一种道路坐标配准方法及装置
CN112905729B (zh) * 2021-03-05 2024-01-30 亿海蓝(北京)数据技术股份公司 轨迹数据的热力图生成方法、装置、电子设备和存储介质
JP7479322B2 (ja) 2021-03-26 2024-05-08 Kddi株式会社 点群管理装置及びプログラム
CN113157843B (zh) * 2021-04-21 2022-03-22 天时地理(深圳)智能科技有限公司 一种基于空间网格化索引的地理空间数据管理方法
CN113838193A (zh) * 2021-09-29 2021-12-24 北京市商汤科技开发有限公司 数据处理方法、装置、计算机设备及存储介质
CN114526723A (zh) * 2022-02-14 2022-05-24 广州小鹏自动驾驶科技有限公司 道路地图构建方法、装置、电子设备及存储介质
CN114581287B (zh) * 2022-02-18 2023-02-07 高德软件有限公司 数据处理方法以及装置
CN114419145B (zh) * 2022-03-29 2022-07-01 腾讯科技(深圳)有限公司 道路元素的标注方法、装置、设备及存储介质
CN114754762A (zh) * 2022-04-14 2022-07-15 中国第一汽车股份有限公司 地图的处理方法、装置
KR102481914B1 (ko) * 2022-04-28 2022-12-28 서광항업 주식회사 핸드폰 라이다 및 사진을 활용한 지하시설물 3차원공간정보 획득 장치 및 이를 사용한 지하시설물 3차원공간정보 획득 방법
CN114898059A (zh) * 2022-05-24 2022-08-12 北京百度网讯科技有限公司 散点全景图的拓扑方法、装置及计算机程序产品
CN115438516B (zh) * 2022-11-07 2023-03-24 阿里巴巴达摩院(杭州)科技有限公司 仿真地图生成方法、电子设备及计算机存储介质
CN115904188B (zh) * 2022-11-21 2024-05-31 北京城市网邻信息技术有限公司 户型图的编辑方法、装置、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104573733A (zh) * 2014-12-26 2015-04-29 上海交通大学 一种基于高清正射影像图的高精细地图生成***及方法
CN105718870A (zh) * 2016-01-15 2016-06-29 武汉光庭科技有限公司 自动驾驶中基于前向摄像头的道路标线提取方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3568621B2 (ja) * 1995-04-20 2004-09-22 株式会社日立製作所 地図表示装置
JP2006341641A (ja) * 2005-06-07 2006-12-21 Nissan Motor Co Ltd 映像表示装置及び映像表示方法
GB0704319D0 (en) * 2007-03-06 2007-04-11 Areograph Ltd Image capture and playback
US20090040186A1 (en) * 2007-08-07 2009-02-12 Esenther Alan W Method and System for Displaying Multiple Synchronized Images
EP2356584B1 (en) * 2008-12-09 2018-04-11 Tomtom North America, Inc. Method of generating a geodetic reference database product
US9024970B2 (en) * 2011-12-30 2015-05-05 Here Global B.V. Path side image on map overlay
CN103455480B (zh) * 2012-05-28 2017-03-08 深圳市腾讯计算机***有限公司 一种基于电子地图的位置检索方法及装置
JP5992210B2 (ja) * 2012-06-01 2016-09-14 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
US10179543B2 (en) * 2013-02-27 2019-01-15 Magna Electronics Inc. Multi-camera dynamic top view vision system
KR101573576B1 (ko) * 2013-10-08 2015-12-01 현대자동차주식회사 Avm 시스템의 이미지 처리 방법
US20160306901A1 (en) * 2013-12-17 2016-10-20 Renishaw Plc Improvements in or relating to the building of supports in additive manufacturing
US10438631B2 (en) * 2014-02-05 2019-10-08 Snap Inc. Method for real-time video processing involving retouching of an object in the video
CN104535070B (zh) * 2014-12-26 2017-11-14 上海交通大学 高精细地图数据结构、采集和处理***及方法
US10449899B2 (en) * 2015-05-08 2019-10-22 Magna Electronics Inc. Vehicle vision system with road line sensing algorithm and lane departure warning
CN110325981B (zh) * 2016-08-24 2023-02-17 谷歌有限责任公司 基于变化检测的地图界面更新***
CN106372255B (zh) * 2016-09-29 2019-01-22 北京百度网讯科技有限公司 一种街景图像的识别方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104573733A (zh) * 2014-12-26 2015-04-29 上海交通大学 一种基于高清正射影像图的高精细地图生成***及方法
CN105718870A (zh) * 2016-01-15 2016-06-29 武汉光庭科技有限公司 自动驾驶中基于前向摄像头的道路标线提取方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"基于高精细地图的GPS导航方法研究";贺勇;《中国优秀硕士学位论文全文数据库》;20160215(第02期);正文第2.1、3.1-3.7、5.2节 *

Also Published As

Publication number Publication date
US20190266772A1 (en) 2019-08-29
CN108460815A (zh) 2018-08-28
US10964079B2 (en) 2021-03-30
WO2018153196A1 (zh) 2018-08-30

Similar Documents

Publication Publication Date Title
CN108460815B (zh) 地图道路要素编辑方法和装置
CN108474666B (zh) 用于在地图显示中定位用户的***和方法
US8625851B2 (en) Measurement apparatus, measurement method, and feature identification apparatus
AU2008322565B9 (en) Method and apparatus of taking aerial surveys
JP5324240B2 (ja) 路面標示地図生成方法及び路面標示地図生成装置
JP3225882B2 (ja) 景観ラベリングシステム
JPH1165431A (ja) 景観ラベル付カーナビゲーション装置およびシステム
US9549169B2 (en) Stereoscopic map display system
CN104101348A (zh) 导航***以及在导航***上显示地图的方法
JP6110780B2 (ja) 付加情報表示システム
JP3156646B2 (ja) 検索型景観ラベリング装置およびシステム
JPH1186034A (ja) 景観ラベル付ヒューマンナビゲーション装置およびシステム
US9609309B2 (en) Stereoscopic image output system
JP3156645B2 (ja) 情報発信型景観ラベリング装置およびシステム
JP3053172B2 (ja) 距離参照型景観ラベリング装置およびシステム
EP4036859A1 (en) A system and method for providing improved geocoded reference data to a 3d map representation
JP3114862B2 (ja) 相互利用型景観ラベリングシステム
JP3156649B2 (ja) 変形ラベル型景観ラベリング装置およびシステム
JP3053169B2 (ja) 景観ラベル利用型通信装置およびシステム
JPH1132250A (ja) 音声案内型景観ラベリング装置およびシステム
JP2009238029A (ja) 座標対応装置、座標対応方法およびプログラム
JPH09179967A (ja) 地図データ修正方法
JPH1131239A (ja) 注視方向景観ラベリング装置およびシステム
JP2022123068A (ja) 高精度マップの横断歩道の生成方法、装置及び電子機器
JPH1166348A (ja) 差分抽出型景観ラベリング装置およびシステム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant