CN112907728B - 基于摄像头和边缘计算的船舶场景还原和定位方法及*** - Google Patents
基于摄像头和边缘计算的船舶场景还原和定位方法及*** Download PDFInfo
- Publication number
- CN112907728B CN112907728B CN202110111326.1A CN202110111326A CN112907728B CN 112907728 B CN112907728 B CN 112907728B CN 202110111326 A CN202110111326 A CN 202110111326A CN 112907728 B CN112907728 B CN 112907728B
- Authority
- CN
- China
- Prior art keywords
- target
- images
- camera
- processed
- targets
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000004364 calculation method Methods 0.000 title claims abstract description 40
- 238000005516 engineering process Methods 0.000 claims abstract description 36
- 238000004891 communication Methods 0.000 claims abstract description 23
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 12
- 238000013135 deep learning Methods 0.000 claims description 21
- 230000006870 function Effects 0.000 claims description 18
- 238000012937 correction Methods 0.000 claims description 16
- 238000004422 calculation algorithm Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 10
- 238000007781 pre-processing Methods 0.000 claims description 9
- 238000001914 filtration Methods 0.000 claims description 8
- 238000013519 translation Methods 0.000 claims description 7
- 230000015572 biosynthetic process Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000003786 synthesis reaction Methods 0.000 description 9
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000003702 image correction Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A10/00—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
- Y02A10/40—Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例提供的一种基于摄像头和边缘计算的船舶场景还原和定位方法及***,应用于通信技术领域,可以获取多张待处理图像;利用计算机视觉技术对所述多张待处理图像进行分析,得到所述多张待处理图中的目标以及所述目标和拍摄该目标的摄像头之间的距离;根据所述目标以及所述目标和拍摄该目标的摄像头之间的距离,对所述多张待处理图像进行合成,得到所述船舶的三维场景图像。通过得到所述船舶的三维场景图像,可以便于船舶驾驶者根据船舶的三维场景图像进行船舶的航道和周围环境的判断,由于该船舶的三维场景图像更加直观,驾驶者可以更加方便的感知周围的环境,提高驾驶者的体验。
Description
技术领域
本申请涉及通信技术领域,特别是涉及一种基于摄像头和边缘计算的船舶场景还原和定位方法及***。
背景技术
随着水上交通的发展,航道开辟日益增多,船舶航行路线渐趋复杂。而在船舶行驶过程中,船舶驾驶者需清楚自身所处航道具***置及周边相关信息才可保障船舶航行的安全高效。
然而,当前的航道监控***往往是通过安装在船上或岸边的单个摄像头进行图像采集,进行航道的监控。然而,在通过单个摄像头进行测距时,测量的精度往往不高,并且驾驶者需要清楚摄像头的安装位置,体验效果不佳。
发明内容
本申请实施例的目的在于提供一种基于摄像头和边缘计算的船舶场景还原和定位方法及***,用以解决当前船舶监控***用户体验效果不佳的问题。
具体技术方案如下:
在本申请实施例的第一方面,首先提供了一种基于摄像头和边缘计算的船舶场景还原和定位方法,所述方法包括:
获取多张待处理图像,其中,所述多张待处理图像包括船舶上的摄像头拍摄的岸边的图像和所述岸边的摄像头拍摄的所述船舶的图像;
利用计算机视觉技术对所述多张待处理图像进行分析,得到所述多张待处理图中的目标以及所述目标和拍摄该目标的摄像头之间的距离,其中,所述目标包括所述船舶和所述岸边;
根据所述目标以及所述目标和拍摄该目标的摄像头之间的距离,对所述多张待处理图像进行合成,得到所述船舶的三维场景图像。
可选的,所述利用计算机视觉技术对所述多张待处理图像进行分析,得到所述多张待处理图中的目标以及所述目标和拍摄该目标的摄像头之间的距离,包括:
利用计算机视觉技术对所述多张待处理图像进行预处理;
将预处理后的图像输入多个预先训练好的深度学习网络模型进行目标识别,得到各模型识别出的所述多张待处理图中的目标以及各模型识别出的所述目标和拍摄该目标的摄像头之间的识别距离;
通过预设平衡函数对所述各模型识别出的所述目标和拍摄该目标的摄像头之间的识别距离进行加权求和,得到所述目标和拍摄该目标的摄像头之间的距离。
可选的,所述利用计算机视觉技术对所述多张待处理图像进行预处理,包括:
利用计算机视觉技术对所述多张待处理图像进行平移矫正和角度矫正;
对矫正后的图像进行滤波除噪处理。
可选的,所述将预处理后的图像输入多个预先训练好的深度学习网络模型进行目标识别,得到各模型识别出的所述多张待处理图中的目标以及各模型识别出的所述目标和拍摄该目标的摄像头之间的识别距离,包括:
将预处理后的图像输入多个预先训练好的深度学习网络模型进行目标识别,得到各模型识别出的所述多张待处理图中的目标;
根据各模型识别出的所述多张待处理图中的目标,获取所述目标在各张待处理图中的像素位置;
根据所述像素位置,通过三角定位算法,得到所述目标和拍摄该目标的摄像头之间的第一识别距离;
根据所述像素位置,通过单目深度估计算法,得到所述目标和拍摄该目标的摄像头之间的第二识别距离;
所述通过预设平衡函数对所述各模型识别出的所述目标和拍摄该目标的摄像头之间的识别距离进行加权求和,得到所述目标和拍摄该目标的摄像头之间的距离,包括:
通过预设平衡函数对所述第一识别距离和所述第二识别距离进行加权求和,得到所述目标和拍摄该目标的摄像头之间的距离。
可选的,所述利用计算机视觉技术对所述多张待处理图像进行分析,得到所述多张待处理图中的目标以及所述目标和拍摄该目标的摄像头之间的距离之后,所述方法还包括:
获取当前航道场景二维图像,其中,所述当前航道场景二维图像是预先通过当前航道场景图像进行映射计算得到的图像;
根据所述多张待处理图中的目标以及所述目标和拍摄该目标的摄像头之间的距离,对所述目标进行距离匹配,得到比例尺度;
根据所述比例尺度,在所述当前航道场景二维图像中标注所述目标,得到所述船舶的二维场景图像。
在本申请实施例的第二方面,提供了一种基于摄像头和边缘计算的船舶场景还原和定位***,所述***包括:
岸边摄像头,用于拍摄的船舶的图像;
船舶摄像头,用于拍摄岸边的图像;
边缘计算设备,用于获取多张待处理图像,其中,所述多张待处理图像包括船舶上的摄像头拍摄的岸边的图像和所述岸边的摄像头拍摄的所述船舶的图像;利用计算机视觉技术对所述多张待处理图像进行分析,得到所述多张待处理图中的目标以及所述目标和拍摄该目标的摄像头之间的距离,其中,所述目标包括所述船舶和所述岸边;根据所述目标以及所述目标和拍摄该目标的摄像头之间的距离,对所述多张待处理图像进行合成,得到所述船舶的三维场景图像。
可选的,所述边缘计算设备,还用于利用计算机视觉技术对所述多张待处理图像进行预处理;将预处理后的图像输入多个预先训练好的深度学***衡函数对所述各模型识别出的所述目标和拍摄该目标的摄像头之间的识别距离进行加权求和,得到所述目标和拍摄该目标的摄像头之间的距离。
可选的,所述边缘计算设备,还用于利用计算机视觉技术对所述多张待处理图像进行平移矫正和角度矫正;对矫正后的图像进行滤波除噪处理。
可选的,所述边缘计算设备,还用于将预处理后的图像输入多个预先训练好的深度学***衡函数对所述第一识别距离和所述第二识别距离进行加权求和,得到所述目标和拍摄该目标的摄像头之间的距离。
可选的,所述边缘计算设备,还用于获取当前航道场景二维图像,其中,所述当前航道场景二维图像是预先通过当前航道场景图像进行映射计算得到的图像;根据所述多张待处理图中的目标以及所述目标和拍摄该目标的摄像头之间的距离,对所述目标进行距离匹配,得到比例尺度;根据所述比例尺度,在所述当前航道场景二维图像中标注所述目标,得到所述船舶的二维场景图像。
本申请实施例的另一方面,还提供了一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述任一所述的基于摄像头和边缘计算的船舶场景还原和定位方法。
本申请实施例的另一方面,一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一所述的基于摄像头和边缘计算的船舶场景还原和定位方法。
本申请实施例的另一方面,本申请实施例还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述任一所述的基于摄像头和边缘计算的船舶场景还原和定位方法。
本申请实施例有益效果:
本申请实施例提供的一种基于摄像头和边缘计算的船舶场景还原和定位方法及***,可以获取多张待处理图像,其中,所述多张待处理图像包括船舶上的摄像头拍摄的岸边的图像和所述岸边的摄像头拍摄的所述船舶的图像;利用计算机视觉技术对所述多张待处理图像进行分析,得到所述多张待处理图中的目标以及所述目标和拍摄该目标的摄像头之间的距离,其中,所述目标包括所述船舶和所述岸边;根据所述目标以及所述目标和拍摄该目标的摄像头之间的距离,对所述多张待处理图像进行合成,得到所述船舶的三维场景图像。
通过根据所述目标以及所述目标和拍摄该目标的摄像头之间的距离,对所述多张待处理图像进行合成,得到所述船舶的三维场景图像,可以便于船舶驾驶者根据船舶的三维场景图像进行船舶的航道和周围环境的判断,由于该船舶的三维场景图像更加直观,驾驶者可以更加方便的感知周围的环境,提高驾驶者的体验。
当然,实施本申请的任一产品或方法并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1为本申请实施例提供的基于摄像头和边缘计算的船舶场景还原和定位方法的流程示意图;
图2a为本申请实施例提供的一种河岸摄像头的示意图;
图2b为本申请实施例提供的一种船载摄像头的示意图;
图3为本申请实施例提供的对多张待处理图像进行分析的流程示意图;
图4为本申请实施例提供的识别目标和拍摄该目标的摄像头之间的识别距离的流程示意图;
图5为本申请实施例提供的生成船舶的二维场景图像的流程示意图;
图6为本申请实例提供了的基于摄像头和边缘计算的船舶场景还原和定位方法的实例图;
图7为本申请实例提供了的基于摄像头和边缘计算的船舶场景还原和定位***的实例图;
图8为本申请实施例提供的基于摄像头和边缘计算的船舶场景还原和定位***的结构示意图;
图9为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员基于本申请所获得的所有其他实施例,都属于本申请保护的范围。
在本申请实施例的第一方面,首先提供了一种基于摄像头和边缘计算的船舶场景还原和定位方法,方法包括:
获取多张待处理图像,其中,多张待处理图像包括船舶上的摄像头拍摄的岸边的图像和岸边的摄像头拍摄的船舶的图像;
利用计算机视觉技术对多张待处理图像进行分析,得到多张待处理图中的目标以及目标和拍摄该目标的摄像头之间的距离,其中,目标包括船舶和岸边;
根据目标以及目标和拍摄该目标的摄像头之间的距离,对多张待处理图像进行合成,得到船舶的三维场景图像。
可见,通过本申请实施例的基于摄像头和边缘计算的船舶场景还原和定位方法,可以通过根据所述目标以及所述目标和拍摄该目标的摄像头之间的距离,对所述多张待处理图像进行合成,得到所述船舶的三维场景图像,由于该船舶的三维场景图像更加直观,可以便于船舶驾驶者更加方便的感知船舶的航道和周围环境的判断,从而提高驾驶者的体验。
参见图1,图1为本申请实施例提供的基于摄像头和边缘计算的船舶场景还原和定位方法的流程示意图,包括:
步骤S11,获取多张待处理图像。
其中,多张待处理图像包括船舶上的摄像头拍摄的岸边的图像和岸边的摄像头拍摄的船舶的图像。例如,可以是通过船舶上的多个摄像头拍摄的岸边的图像,通过岸边的多个摄像头拍摄的船舶的图像。在实际使用过程中,船舶上的摄像头可以包括多组摄像头,该多组摄像头可以安装与船舶的相同或不同位置。例如,参见图2a和图2b,河岸摄像头101包括两组摄像头1011和1012,船载摄像头102包括1021、1022、1023、1024、1025、1026。
本申请实施例中的基于摄像头和边缘计算的船舶场景还原和定位方法可以通过智能终端实施,具体的该智能终端可以是电脑或服务器等。在实际使用过程中,该智能终端可以安装与船舶上或岸边。
步骤S12,利用计算机视觉技术对多张待处理图像进行分析,得到多张待处理图中的目标以及目标和拍摄该目标的摄像头之间的距离。
其中,目标包括船舶和岸边。利用计算机视觉技术对多张待处理图像进行分析,可以通过预先训练好的深度学习神经网络对多张待处理图像进行分析,得到多张待处理图中的目标以及目标和拍摄该目标的摄像头之间的距离。
其中,上述深度学习神经网络的训练过程,可以包括:
1、通过岸边摄像头采集航道内船舶图像样本,通过船载摄像头采集航道岸边图像样本;
2、对图像样本进行预处理,包括灰度处理、图像滤波、平移校正、角度校正、数据增强;
3、对图像样本内的目标物体进行标注;
4、将标注的图像样本作为训练数据集,训练得到多个深度学习神经网络。
在实际使用过程中,利用计算机视觉技术对多张待处理图像进行分析,可以将将多个摄像头拍摄的不同角度、高度的船舶与河岸图像输入上述训练好的深度学习神经网络,得到多个不同角度、高度的船舶与河岸目标识别结果。
步骤S13,根据目标以及目标和拍摄该目标的摄像头之间的距离,对多张待处理图像进行合成,得到船舶的三维场景图像。
其中,根据目标以及目标和拍摄该目标的摄像头之间的距离,对多张待处理图像进行合成可以通过方法实现,例如DynamicFusion、BundleFusion等三维重建算法进行合成。
上述通过船舶上的多个摄像头拍摄的岸边的图像,通过岸边的多个摄像头拍摄的船舶的图像,可以是通过船舶上的至少三个摄像头拍摄的岸边的图像,通过岸边的至少三个摄像头拍摄的船舶的图像。在根据目标以及目标和拍摄该目标的摄像头之间的距离,对多张待处理图像进行合成时,可以根据各个摄像头的位置,以及目标和拍摄该目标的摄像头之间的距离通过三角定位法确定目标的位置,从而对多张待处理图像进行合成,得到船舶的三维场景图像。
在生成三维场景图像之后,可通过安装在船舶上或岸边的显示设备进行三维场景图像的显示。该显示设备可以与智能终端进行无线或有线通讯,例如,当显示设备位于船上,而智能终端位于岸边时,可以通过智能终端通过无线通信将生成的三维场景图像传输至显示设备进行显示。
可见,通过本申请实施例的基于摄像头和边缘计算的船舶场景还原和定位方法,可以通过根据所述目标以及所述目标和拍摄该目标的摄像头之间的距离,对所述多张待处理图像进行合成,得到所述船舶的三维场景图像,由于该船舶的三维场景图像更加直观,可以便于船舶驾驶者更加方便的感知船舶的航道和周围环境的判断,从而提高驾驶者的体验。
可选的,参见图3,步骤S12利用计算机视觉技术对多张待处理图像进行分析,得到多张待处理图中的目标以及目标和拍摄该目标的摄像头之间的距离,包括:
步骤S121,利用计算机视觉技术对多张待处理图像进行预处理。
可选的,利用计算机视觉技术对多张待处理图像进行预处理,包括:利用计算机视觉技术对多张待处理图像进行平移矫正和角度矫正;对矫正后的图像进行滤波除噪处理。
例如,当拍摄的多张待处理图像是通过视频的形式拍摄的图像时,可以根据拍摄图像前后帧的关联性,通过校正算法对图像进行角度偏移和平移偏移校正;对拍摄图像进行灰度处理、图像滤波消除由于船体晃动导致的拍摄图像出现的影响图像识别效果噪点。
步骤S122,将预处理后的图像输入多个预先训练好的深度学习网络模型进行目标识别,得到各模型识别出的多张待处理图中的目标以及各模型识别出的目标和拍摄该目标的摄像头之间的识别距离。
步骤S123,通过预设平衡函数对各模型识别出的目标和拍摄该目标的摄像头之间的识别距离进行加权求和,得到目标和拍摄该目标的摄像头之间的距离。
例如,根据目标在图像中的像素位置,通过三角定位技术计算得到目标与摄像头距离1;根据目标在图像中的像素位置,通过单目深度估计技术得到目标与摄像头距离2;对距离1和距离2进行加权和,得到更准确目标物体与摄像头距离。其中,加权和所用权重参数可以根据摄像头拍摄时所处高度、拍摄角度、畸变参数、焦距、多张图像拍摄时所处高度差、角度差计算得到各图像及权重参数;通过权重参数对多组目标与摄像头距离进行加权运算得到高精度的定位结果。
可见,通过本申请实施例的方法,可以通过预设平衡函数对各模型识别出的目标和拍摄该目标的摄像头之间的识别距离进行加权求和,得到目标和拍摄该目标的摄像头之间的距离,从而可以提高距离识别的精度,便于个根据识别的距离进行三维图的合成。
参见图4,步骤S122将预处理后的图像输入多个预先训练好的深度学习网络模型进行目标识别,得到各模型识别出的多张待处理图中的目标以及各模型识别出的目标和拍摄该目标的摄像头之间的识别距离,包括:
步骤S1221,将预处理后的图像输入多个预先训练好的深度学习网络模型进行目标识别,得到各模型识别出的多张待处理图中的目标。
步骤S1222,根据各模型识别出的多张待处理图中的目标,获取目标在各张待处理图中的像素位置。
获取目标在各张待处理图中的像素位置,可以通过对船舶图像和河岸图像进行数据增强;将图像输入预先训练好的深度学习神经网络进行目标识别,得到目标物体在图像中的像素位置。
步骤S1223,根据像素位置,通过三角定位算法,得到目标和拍摄该目标的摄像头之间的第一识别距离。
步骤S1224,根据像素位置,通过单目深度估计算法,得到目标和拍摄该目标的摄像头之间的第二识别距离。
其中三角定位技术是基于坐标变换和几何原理,利用成像设备拍摄目标物体,建立成像设备坐标系,通过相似三角形对目标物体计算得到相机坐标系内目标距离,再通过坐标变换得到真实世界坐标系内目标距离。
其中单目深度估计技术是基于深度学习识别原理,对目标所处图像深度进行估计,计算得到真实世界目标系内目标距离。
步骤S123通过预设平衡函数对各模型识别出的目标和拍摄该目标的摄像头之间的识别距离进行加权求和,得到目标和拍摄该目标的摄像头之间的距离,包括:
步骤S1231,通过预设平衡函数对第一识别距离和第二识别距离进行加权求和,得到目标和拍摄该目标的摄像头之间的距离。
例如,获取目标和拍摄该目标的摄像头之间的距离的步骤包括:
1、对多个河岸摄像头及船载摄像头进行外参测量和内参获取,得到摄像头畸变参数、焦距等计算所需关键信息。
2、根据摄像头参数信息建立摄像头坐标系对真实坐标系的转换和映射;
3、获取目标识别输出结果,将目标在图像中的坐标转换为真实世界坐标,采用三角定位技术预测得到目标物体与摄像头的真实距离1,采用单目深度估计技术预测得到真实距离2;
4、通过权重参数对计算得到的真实距离1和真实距离2进行综合计算,得到最终的预测目标距离。
参见图5,步骤S12利用计算机视觉技术对多张待处理图像进行分析,得到多张待处理图中的目标以及目标和拍摄该目标的摄像头之间的距离之后,方法还包括:
步骤S14,获取当前航道场景二维图像。
其中,当前航道场景二维图像是预先通过当前航道场景图像进行映射计算得到的图像。
步骤S15,根据多张待处理图中的目标以及目标和拍摄该目标的摄像头之间的距离,对目标进行距离匹配,得到比例尺度。
步骤S16,根据比例尺度,在当前航道场景二维图像中标注目标,得到船舶的二维场景图像。
例如,获取船及河岸的目标识别及检测结果;边缘计算中心利用大规模计算资源对航道进行场景映射计算,将航道整体场景信息映射为二维平面图像,构建航道场景二维图像;根据目标识别及检测结果,对目标船舶进行距离匹配,计算中心计算得到目标船舶在航道场景中所处位置,按照比例尺在航道场景二维图像中绘制出船舶位置;边缘计算中心对合成的三维立体影像进行目标抽取及映射,按照比例尺在航道场景二维图像中绘制目标图像。
可见,通过本申请实施例的方法,可以计算并根据比例尺度,在当前航道场景二维图像中标注目标,得到船舶的二维场景图像,从而驾驶者可以根据船舶的二维维场景图像进行船舶的驾驶。
参见图6,图6为本申请实例提供了的基于摄像头和边缘计算的船舶场景还原和定位方法的实例图,包括:
步骤S61,获取多组摄像头拍摄于不同位置的船舶图像、河岸图像、船舶四周水面及船体图像;
步骤S62,对每组图像进行画面校正,得到校正后的图像;
步骤S63,对校正后的多组船舶图像、河岸图像进行目标识别,得到多组目标在图像中所处的像素位置;
步骤S64,根据多组目标在图像中所处的像素位置,计算得到每组图像目标与摄像头的距离;
步骤S65,根据多组图像目标与摄像头的距离进行综合计算进行高精度的定位;
步骤S66,对多组船舶四周水面及船体图像进行合成,建立船舶行驶三维影像;
步骤S67,对船舶行驶三维影像和定位结果进行目标抽取和映射,构建船舶行驶二维图像;
步骤S68,对船舶行驶三维影像和二维图像进行显示。
参见图7,图7为本申请实例提供了的基于摄像头和边缘计算的船舶场景还原和定位***的实例图,包括:
河岸摄像头101,用于拍摄多张船舶图像。
具体的,摄像头101可以用于拍摄不同角度、方向的船舶四周水面和船体图像,得到至少四组图像,图像中包含船舶四周水域及船体目标,随后发送至视觉处理设备视频合成设备104。
船载摄像头102,用于拍摄多张河岸图像、船舶四周水面及船体图像。
具体的,摄像头102可以用于拍摄不同高度、角度、方向的航道河岸图像,得到至少两组图像,图像中包含航道河岸目标,随后发送至视觉处理设备103。
视觉处理设备103,用于对船载摄像头所拍摄图像进行图像校正,计算多张图像内目标与摄像头的距离,通过权重函数综合计算得到船舶与河岸距离进行高精度定位。
具体的,视觉处理设备103可以用于将摄像头102拍摄图像进行图像校正,而后对摄像头101拍摄图像和校正后的图像进行目标识别,根据目标在图像中的位置计算目标距离,对多个摄像头计算所得目标距离进行综合计算得到船舶与河岸距离,随后发送至场景重建设备105。
视频合成设备104,用于将多张船舶四周水面及船体图像进行合成船舶行驶三维立体影像。
具体的,视频合成设备104可以用于将摄像头102拍摄的船舶四周水域及船体图像进行视频合成,建立船舶行驶三维立体影像,随后发送至场景重建设备105和显示设备106。
场景重建设备105,用于对船舶行驶三维立体影像和定位进行场景映射,构建船舶行驶二维图像。
具体的,场景重建设备105可以用于接收视频合成设备103计算所得船舶定位距离和视频合成设备104合成的船舶行驶三维立体影像,抽取三维立体影像详细目标信息,结合船舶定位距离和航道场景绘制船舶在航道行驶的二维图像,随后发送至显示设备106。
显示设备106,用于显示三维立体影像和二维图像。
具体的,显示设备106可以用于接收视频合成设备104合成的三维立体影像和场景重建设备105绘制的船舶行驶二维图像进行显示。
在本申请实施例的第二方面,提供了一种基于摄像头和边缘计算的船舶场景还原和定位***,参见图8,上述***包括:
岸边摄像801,用于拍摄的船舶的图像;
船舶摄像头802,用于拍摄岸边的图像;
边缘计算设备803,用于获取多张待处理图像,其中,多张待处理图像包括船舶上的摄像头拍摄的岸边的图像和岸边的摄像头拍摄的船舶的图像;利用计算机视觉技术对多张待处理图像进行分析,得到多张待处理图中的目标以及目标和拍摄该目标的摄像头之间的距离,其中,目标包括船舶和岸边;根据目标以及目标和拍摄该目标的摄像头之间的距离,对多张待处理图像进行合成,得到船舶的三维场景图像。
可选的,上述***还包括显示设备,用于对得到船舶的三维场景图像进行显示。
可选的,边缘计算设备,还用于利用计算机视觉技术对多张待处理图像进行预处理;将预处理后的图像输入多个预先训练好的深度学***衡函数对各模型识别出的目标和拍摄该目标的摄像头之间的识别距离进行加权求和,得到目标和拍摄该目标的摄像头之间的距离。
可选的,边缘计算设备,还用于利用计算机视觉技术对多张待处理图像进行平移矫正和角度矫正;对矫正后的图像进行滤波除噪处理。
可选的,边缘计算设备,还用于将预处理后的图像输入多个预先训练好的深度学***衡函数对第一识别距离和第二识别距离进行加权求和,得到目标和拍摄该目标的摄像头之间的距离。
可选的,边缘计算设备,还用于获取当前航道场景二维图像,其中,当前航道场景二维图像是预先通过当前航道场景图像进行映射计算得到的图像;根据多张待处理图中的目标以及目标和拍摄该目标的摄像头之间的距离,对目标进行距离匹配,得到比例尺度;根据比例尺度,在当前航道场景二维图像中标注目标,得到船舶的二维场景图像。
可见,通过本申请实施例的基于摄像头和边缘计算的船舶场景还原和定位***,可以通过根据所述目标以及所述目标和拍摄该目标的摄像头之间的距离,对所述多张待处理图像进行合成,得到所述船舶的三维场景图像,由于该船舶的三维场景图像更加直观,可以便于船舶驾驶者更加方便的感知船舶的航道和周围环境的判断,从而提高驾驶者的体验。
本申请实施例还提供了一种电子设备,如图9所示,包括处理器901、通信接口902、存储器903和通信总线904,其中,处理器901,通信接口902,存储器903通过通信总线904完成相互间的通信,存储器903,用于存放计算机程序;
处理器901,用于执行存储器903上所存放的程序时,实现如下步骤:
获取多张待处理图像,其中,所述多张待处理图像包括船舶上的摄像头拍摄的岸边的图像和所述岸边的摄像头拍摄的所述船舶的图像;
利用计算机视觉技术对所述多张待处理图像进行分析,得到所述多张待处理图中的目标以及所述目标和拍摄该目标的摄像头之间的距离,其中,所述目标包括所述船舶和所述岸边;
根据所述目标以及所述目标和拍摄该目标的摄像头之间的距离,对所述多张待处理图像进行合成,得到所述船舶的三维场景图像。
上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本申请提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一基于摄像头和边缘计算的船舶场景还原和定位方法的步骤。
在本申请提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一基于摄像头和边缘计算的船舶场景还原和定位方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于***、电子设备、存储介质、计算机程序产品实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的较佳实施例,并非用于限定本申请的保护范围。凡在本申请的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本申请的保护范围内。
Claims (7)
1.基于摄像头和边缘计算的船舶场景还原和定位方法,其特征在于,所述方法包括:
获取多张待处理图像,其中,所述多张待处理图像包括船舶上的摄像头拍摄的岸边的图像和所述岸边的摄像头拍摄的所述船舶的图像;
利用计算机视觉技术对所述多张待处理图像进行分析,得到所述多张待处理图中的目标以及所述目标和拍摄该目标的摄像头之间的距离,其中,所述目标包括所述船舶和所述岸边;
根据所述目标以及所述目标和拍摄该目标的摄像头之间的距离,对所述多张待处理图像进行合成,得到所述船舶的三维场景图像;
所述利用计算机视觉技术对所述多张待处理图像进行分析,得到所述多张待处理图中的目标以及所述目标和拍摄该目标的摄像头之间的距离,包括:利用计算机视觉技术对所述多张待处理图像进行预处理;将预处理后的图像输入多个预先训练好的深度学***衡函数对所述各模型识别出的所述目标和拍摄该目标的摄像头之间的识别距离进行加权求和,得到所述目标和拍摄该目标的摄像头之间的距离;
所述将预处理后的图像输入多个预先训练好的深度学***衡函数对所述各模型识别出的所述目标和拍摄该目标的摄像头之间的识别距离进行加权求和,得到所述目标和拍摄该目标的摄像头之间的距离,包括:通过预设平衡函数对所述第一识别距离和所述第二识别距离进行加权求和,得到所述目标和拍摄该目标的摄像头之间的距离。
2.根据权利要求1所述的方法,其特征在于,所述利用计算机视觉技术对所述多张待处理图像进行预处理,包括:
利用计算机视觉技术对所述多张待处理图像进行平移矫正和角度矫正;
对矫正后的图像进行滤波除噪处理。
3.根据权利要求1所述的方法,其特征在于,所述利用计算机视觉技术对所述多张待处理图像进行分析,得到所述多张待处理图中的目标以及所述目标和拍摄该目标的摄像头之间的距离之后,所述方法还包括:
获取当前航道场景二维图像,其中,所述当前航道场景二维图像是预先通过当前航道场景图像进行映射计算得到的图像;
根据所述多张待处理图中的目标以及所述目标和拍摄该目标的摄像头之间的距离,对所述目标进行距离匹配,得到比例尺度;
根据所述比例尺度,在所述当前航道场景二维图像中标注所述目标,得到所述船舶的二维场景图像。
4.基于摄像头和边缘计算的船舶场景还原和定位***,其特征在于,所述***包括:
岸边摄像头,用于拍摄的船舶的图像;
船舶摄像头,用于拍摄岸边的图像;
边缘计算设备,用于获取多张待处理图像,其中,所述多张待处理图像包括船舶上的摄像头拍摄的岸边的图像和所述岸边的摄像头拍摄的所述船舶的图像;利用计算机视觉技术对所述多张待处理图像进行分析,得到所述多张待处理图中的目标以及所述目标和拍摄该目标的摄像头之间的距离,其中,所述目标包括所述船舶和所述岸边;根据所述目标以及所述目标和拍摄该目标的摄像头之间的距离,对所述多张待处理图像进行合成,得到所述船舶的三维场景图像;
所述边缘计算设备,还用于利用计算机视觉技术对所述多张待处理图像进行预处理;将预处理后的图像输入多个预先训练好的深度学***衡函数对所述各模型识别出的所述目标和拍摄该目标的摄像头之间的识别距离进行加权求和,得到所述目标和拍摄该目标的摄像头之间的距离;
所述边缘计算设备,还用于将预处理后的图像输入多个预先训练好的深度学***衡函数对所述第一识别距离和所述第二识别距离进行加权求和,得到所述目标和拍摄该目标的摄像头之间的距离。
5.根据权利要求4所述的***,其特征在于,
所述边缘计算设备,还用于利用计算机视觉技术对所述多张待处理图像进行平移矫正和角度矫正;对矫正后的图像进行滤波除噪处理。
6.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-3任一所述的方法步骤。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-3任一所述的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110111326.1A CN112907728B (zh) | 2021-01-27 | 2021-01-27 | 基于摄像头和边缘计算的船舶场景还原和定位方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110111326.1A CN112907728B (zh) | 2021-01-27 | 2021-01-27 | 基于摄像头和边缘计算的船舶场景还原和定位方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112907728A CN112907728A (zh) | 2021-06-04 |
CN112907728B true CN112907728B (zh) | 2023-04-11 |
Family
ID=76120646
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110111326.1A Active CN112907728B (zh) | 2021-01-27 | 2021-01-27 | 基于摄像头和边缘计算的船舶场景还原和定位方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112907728B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114693763B (zh) * | 2022-03-15 | 2023-04-07 | 武汉理工大学 | 航道船舶三维模型构建方法、***、装置及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020125229A1 (zh) * | 2018-12-20 | 2020-06-25 | 深圳云天励飞技术有限公司 | 特征融合方法、装置、电子设备及存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107818326B (zh) * | 2017-12-11 | 2018-07-20 | 珠海大横琴科技发展有限公司 | 一种基于场景多维特征的船只检测方法及*** |
CN109285389B (zh) * | 2018-09-18 | 2020-08-14 | 广州中国科学院沈阳自动化研究所分所 | 一种无人船自动靠泊***及方法 |
CN111524392B (zh) * | 2020-04-22 | 2022-05-06 | 智慧航海(青岛)科技有限公司 | 一种辅助智能船舶远程驾驶的综合*** |
CN111986312B (zh) * | 2020-08-14 | 2022-04-22 | 连云港引航站 | 一种船舶轨迹绘制方法、终端设备及存储介质 |
CN112001971A (zh) * | 2020-09-22 | 2020-11-27 | 北京神州泰岳软件股份有限公司 | 一种物体识别方法及*** |
-
2021
- 2021-01-27 CN CN202110111326.1A patent/CN112907728B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020125229A1 (zh) * | 2018-12-20 | 2020-06-25 | 深圳云天励飞技术有限公司 | 特征融合方法、装置、电子设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
李敏 ; 金晶 ; .基于VR技术的舰船航行环境快速重构研究.舰船科学技术.2020,(14),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN112907728A (zh) | 2021-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108961327B (zh) | 一种单目深度估计方法及其装置、设备和存储介质 | |
CN107330439B (zh) | 一种图像中物体姿态的确定方法、客户端及服务器 | |
CN107516322B (zh) | 一种基于对数极空间的图像物体大小和旋转估计计算方法 | |
CN111723691B (zh) | 一种三维人脸识别方法、装置、电子设备及存储介质 | |
US11948344B2 (en) | Method, system, medium, equipment and terminal for inland vessel identification and depth estimation for smart maritime | |
CN109300151B (zh) | 图像处理方法和装置、电子设备 | |
EP3346445A1 (en) | Methods and devices for extracting an object from a video sequence | |
CN111047634B (zh) | 场景深度的确定方法、装置、设备及存储介质 | |
CN112509036B (zh) | 位姿估计网络训练及定位方法、装置、设备、存储介质 | |
Fabio et al. | Performance evaluation of a low-cost stereo vision system for underwater object detection | |
CN112991401B (zh) | 车辆运行轨迹追踪方法、装置、电子设备和存储介质 | |
CN112907728B (zh) | 基于摄像头和边缘计算的船舶场景还原和定位方法及*** | |
CN110188179B (zh) | 语音定向识别交互方法、装置、设备及介质 | |
CN115482556A (zh) | 关键点检测模型训练及虚拟角色驱动的方法和对应的装置 | |
CN115164900A (zh) | 一种基于全向相机的城市环境下视觉辅助导航方法及*** | |
CN113256697B (zh) | 水下场景的三维重建方法、***、装置和存储介质 | |
CN114782529A (zh) | 一种面向带电作业机器人的抓线点高精度定位方法、***及存储介质 | |
Olson | Adaptive-scale filtering and feature detection using range data | |
CN117132649A (zh) | 人工智能融合北斗卫星导航的船舶视频定位方法及装置 | |
CN114463430B (zh) | 一种基于图像处理的海洋搜救***和方法 | |
CN112880675B (zh) | 用于视觉定位的位姿平滑方法、装置、终端和移动机器人 | |
CN111311652B (zh) | 一种基于回归校正网络的声呐图像配准方法及*** | |
Kallasi et al. | Object detection and pose estimation algorithms for underwater manipulation | |
CN107802468B (zh) | 导盲方法及导盲*** | |
CN114761998A (zh) | 通过神经网络的自适应学习从图像确定深度的方法及其*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |