CN109685842B - 一种基于多尺度网络的稀疏深度稠密化方法 - Google Patents
一种基于多尺度网络的稀疏深度稠密化方法 Download PDFInfo
- Publication number
- CN109685842B CN109685842B CN201811531022.5A CN201811531022A CN109685842B CN 109685842 B CN109685842 B CN 109685842B CN 201811531022 A CN201811531022 A CN 201811531022A CN 109685842 B CN109685842 B CN 109685842B
- Authority
- CN
- China
- Prior art keywords
- layer
- convolution
- input
- block
- channels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于多尺度网络的稀疏深度稠密化方法。属于计算机视觉的深度估计技术领域。本发明使用多尺度卷积神经网络,将RGB图像数据和稀疏点云数据进行有效的融合,最终得出稠密的深度图像。将稀疏点云映射到二维平面生成稀疏深度图,并与RGB图像对齐,然后将稀疏深度图和RGB图像连接在一起生成RGBD图像,将RGBD图像输入到多尺度卷积神经网络进行训练和测试,最终估计出一个稠密的深度图。RGB图像和稀疏点云相结合的方式估计深度,可以让点云包含的距离信息去指导RGB图像转化为深度图;多尺度网络利用了原始数据不同分辨率的信息,一方面扩大了视野域,另一方面小分辨率上的输入深度图更稠密,可以获得更高的准确率。
Description
技术领域
本发明属于计算机视觉的深度估计领域,具体涉及一种基于多尺度卷积神经网络的稀疏深度稠密化方法。
背景技术
无人驾驶中,基于计算机视觉技术的感知***是最基础的部分。目前,无人驾驶感知***中最常使用的是基于可见光的摄像头,摄像头具有成本低,相关技术成熟等优点。但基于可见光的摄像头也存在明显缺点:其一,由摄像头拍摄的RGB图像只有颜色信息,如果目标纹理复杂,感知***容易判断失误。其二,在某些环境,基于可见光的摄像头会失效。例如光照不足的夜晚,摄像头很难正常进行工作。激光雷达也是无人驾驶感知***经常使用的传感器。激光雷达不易受光照条件的影响,其采集的点云数据具有三维特性,由点云数据可以直接得到深度图像,深度图像是将点云映射到二维平面形成的图像,每一个像素点的值表示该点到传感器的距离。相比于RGB图像,深度图像包含的距离信息对物体识别,分割等任务更有帮助。但激光雷达价格昂贵,并且采集的点云过于稀疏,生成的深度图也过于稀疏,一定程度影响了其使用效果。
发明内容
本发明的发明目的在于:针对上述存在的问题,提供一种利用多尺度网络对稀疏深度进行稠密化的方法。
本发明的基于多尺度网络的稀疏深度稠密化方法,包括下列步骤:
构建多尺度网络模型:
所述多尺度网络模型包括L(L≥2)路输入分支支路,将L路分支支路的输出对应点相加后输入信息融合层,对信息融合层后接一个上采样处理层,作为多尺度网络模型的输出层;
其中,L路输入分支支路中,其中一路支路作为原始图像的输入;剩余L-1路作为原始图像进行不同下采样后得到的下采样图像的输入;且多尺度网络模型的输出层的输出图像与原始图像的尺寸相同;
且L路输入分支支路的输入数据包括:RGB图像和稀疏深度图;其中对于对原始图像的稀疏深度图的下采样方式为:对于稀疏深度图,基于预设的下采样倍数K,将稀疏深度图按照像素划分为网格,每个网格包含K×K个原始输入像素;并基于原始输入像素的深度值设置各原始输入像素的标记值si,若当前原始输入像素的深度值为0,则si=0;否则si=1;其中i为每个网格包括的K×K个原始输入像素的区分符;并根据公式得到每个网格的深度值pnew,其中pi表示原始输入像素i的深度值;
输入为原始图像的支路的网络结构为第一网络结构;
输入为原始图像的下采样图像的支路的网络结构为:在第一网络结构后增设K/2个16通道的上采样卷积块D,其中K表示对原始图像的下采样倍数;
所述第一网络结构包括十四层,分别为:
第一层为输入层和池化层,输入层的卷积核大小为7*7,通道数为64,卷积步长为2;池化层采用最大值池化,其卷积核大小为3*3,池化常数为2;
第二层和第三层结构相同,均为一个64通道的R1残差卷积块;
第四层为一个128通道的R2残差卷积块;
第五层为一个128通道的R1残差卷积块;
第六层为一个256通道的R2残差卷积块;
第七层为一个256通道的R1残差卷积块;
第八层为一个512通道的R2残差卷积块;
第九层为一个512通道的R1残差卷积块;
第十层为一个卷积层,其卷积核大小为3*3,通道数为256,卷积步长为1;
第十一层为128通道的上采样卷积块D,并将第十一层的输出与第七层的输出按照通道叠加后再输入第十二层;
第十二层为64通道的上采样卷积块D,并将第十二层的输出与第五层的输出按照通道叠加后再输入第十三层;
第十三层是32通道的上采样卷积块D,并将第十三层的输出与第三层的输出按照通道叠加后再输入第十四层;
第十四层为16通道的上采样卷积块D;
所述R1残差卷积块包括两层相同结构的卷积层,其卷积核大小为3*3,卷积步长为1,通道数可调节;并将输入R1残差卷积块的输入数据与第二层的输出对应点相加接入一个ReLU激活函数,作为R1残差卷积块的输出层;
所述R2残差卷积块包括第一、第二和第三卷积层,输入R2残差卷积块的输入数据分别进入两条支路,再将两条支路的输出对应点相加接入一个ReLU激活函数,作为R2残差卷积块的输出层;其中一条支路为顺次连接的第一和第二卷积层,另一条支路为第三卷积层;
所述第一卷积层和第二卷积层的结构相同,均为卷积核大小为3*3,卷积步长为2,通道数可调节;第三卷积层为卷积核大小为3*3,卷积步长为1,通道数可调节;
所述上采样卷积块D包括两个放大模块和一个卷积层,其中输入上采样卷积块D的输入数据分别进入两条支路,再将两条支路的输出对应点相加接入一个ReLU激活函数,作为上采样卷积块D的输出层;其中一条支路为顺次连接的第一放大模块和卷积层,另一条支路为第二放大模块;
其中,上采样卷积块D的卷积层为:卷积核大小是3*3,卷积步长为1,通道数可调节;
上采样卷积块D的放大模块包括四个并列的卷积层,该四个卷积层的通道数设置为相同,卷积核大小分别为:3*3,3*2,2*3和2*2,且卷积步长均为1,输入放大模块的输入数据通过其四个卷积层后再拼接在一起,作为放大模块的输出;
所述信息融合模块为卷积核大小为3*3,通道数为1,卷积步长为1的卷积层;
对所构建的多尺度网络模型进行深度学习训练,并通过训练好的多尺度网络模型得到待处理图像的稠密化的处理结果。
综上所述,由于采用了上述技术方案,本发明的有益效果是:本发明利用稀疏点云和图像相结合的方式估计深度,稀疏深度对RGB图像进行指导,RGB图像对稀疏深度进行补充,结合两种数据形式的优点,结合本发明所设置的多个尺度网络模型进行深度估计,提高了深度估计的准确率。
附图说明
图1是具体实施方式中,本发明的下采样示意图;
图2是具体实施方式中,残差卷积块示意图。其中图2-a是类型一残差卷积块,图2-b是类型二残差卷积块;
图3是具体实施方式中,上采样卷积块示意图。其中图3-a是放大模块示意图,图3-b是整个上采样卷积块示意图;
图4是具体实施方式中,所采用的多尺度网络结构示意图;
图5是具体实施方式中,本发明与现有处理方法的结果与对比结果图。其中图5-a为输入的RGB图像,图5-b为稀疏深度图;图5-c为现有方法对图5-b的深度估计;图5-d为本发明对图5-b的深度估计结果。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面结合实施方式和附图,对本发明作进一步地详细描述。
为了满足特定场景(例如无人驾驶)对对深度图像质量要求较高的需求,本发明提出了一种利用多尺度网络对稀疏深度进行稠密化的方法。而现有的深度估计方法主要利用RGB图像直接得到稠密深度,但是由于二维图像直接估计深度图像存在内在模糊性,为了解决该问题,本发明利用稀疏点云和图像相结合的方式估计深度,稀疏深度对RGB图像进行指导,RGB图像对稀疏深度进行补充,结合两种数据形式的优点,同时在多个尺度下进行深度估计,提高了深度估计的准确率。
本发明使用多尺度卷积神经网络,将RGB图像数据和稀疏点云数据进行有效的融合,最终得出稠密的深度图像。将稀疏点云映射到二维平面生成稀疏深度图,并与RGB图像对齐,然后将稀疏深度图和RGB图像连接在一起生成RGBD(RGB+Depth Map)图像,将RGBD图像输入到多尺度卷积神经网络进行训练和测试,最终估计出一个稠密的深度图。RGB图像和稀疏点云相结合的方式估计深度,可以让点云包含的距离信息去指导RGB图像转化为深度图;多尺度网络利用了原始数据不同分辨率的信息,一方面扩大了视野域,另一方面小分辨率上的输入深度图更稠密,可以获得更高的准确率。
本发明提出的基于多尺度的稀疏深度稠密化方法的具体实现过程如下:
(1)输入数据下采样:
可行的下采样倍数与输入数据的大小有很大的关系。对于一张大小为M*N的输入图像而言,可行的下采样倍数范围为[2,min(M,N)*2-5]。
采样的方式如下所述:用K表示所选择的下采样倍数,将输入稀疏深度图按照像素划分为网格,每个网格包含K*K个原始输入像素,则输入图像将被划分为个网格。图1为下采样倍数为2时的示意图。将网格中的K*K个像素表示为像素集合P={p1,p2,...,pK*K}。
由于稀疏深度图中存在深度为零的值,这些值被称为无效值。构建一个标记值s用来标记无效值,如果该像素点深度值不等于0则认为有效,令s等于1;否则为无效值,令s等于0。从而可以得到与像素集合P对应的标记值集合为S={s1,s2,...,sK*K}。
对划分好的每个网格都进行上述操作,从而得到一个新的分辨率更小,更加稠密的深度图(简称小分辨率深度图)。相比于传统的降采样方法,该方式得到的小分辨率深度图更加稠密,由于剔除了无效值的影响,深度值也更加准确。RGB图像降采样则采用传统的双线性内插降采样方法。最终得到小分辨率的图像和稀疏深度图。
(2)构建残差卷积块:
残差卷积块是本发明的多尺度网络的重要组成部分,用于提取输入数据的特征,其分为两种类型。
类型一:残差卷积块R1构建过程如下:如图2-a所示,残差卷积块的第一层是一个卷积层,其卷积核大小为3*3,通道数为n,卷积步长(stide)为1。第二层与第一层结构相同。然后将输入数据与第二层的输出对应点相加。最后接入一个ReLU激活函数。残差卷积块结构固定,但是卷积层的通道数可变,调整通道数可以得到不同的残差卷积块,据此将类型一残差卷积块命名为n通道R1。R1的输入输出大小一致,其中没有下采样的操作。
类型二:残差卷积块R2构建过程如下:如图2-b所示,残差卷积块的第一层是一个卷积层,其卷积核大小为3*3,通道数为n,卷积步长为2。第二层也是是一个卷积层,其卷积核大小为3*3,通道数为n,卷积步长为1。然后将输入数据通过一个卷积层,其卷积核大小为1*1,通道数为n,卷积步长为2,将该输出与第二层的输出对应点相加。最后接入一个ReLU激活函数。与R1命名方式类似,将类型二残差卷积块命名为n通道R2。R2的输入大小是输出的两倍,该操作的目的是扩大卷积核的感受野,更好的提取全局特征。
(3)构建上采样卷积块:
上采样卷积块也是多尺度网络的重要部分,其作用是将输入放大,每一个上采样卷积块可以将输入放大一倍。其构建过程如下:上采样卷积块的基本模块是放大模块,如图3-a所示,放大模块由四个并列的卷积层构成,这四个卷积层的通道数都是n,卷积核大小分别是3*3,3*2,2*3和2*2,输入通过这四个卷积层后拼接在一起,输出相比于输入扩大了一倍。如图3-b所示,上采样卷积块由两个分支构成。分支一的第一层是一个通道数为n的放大模块,其后接一个ReLU激活函数,第二层是一个卷积层,其卷积核大小是3*3,通道数为n。分支二只有一层,该层是一个通道数为n的放大模块。分支一的输出与分支二的输出对应点相加,最后接入一个ReLU激活函数。与R1,R2命名方式类似,将上采样卷积块命名为n通道D。
(4)构建多尺度卷积网络:
多尺度网络可以构建多个尺度,即可以构建多条支路,支路构建的数量与下采样倍数一样受到输入图像大小的影响,对于大小为M*N的图像而言,支路数量上限为log2(min(M,N)*2-5)+1。构建方法以两条支路为例,其要建立两条支路,一条支路的输入为原分辨率,另一条支路的输入为1/K原始分辨率,K为输入图像的下采样倍数。最后将两条支路进行信息融合。
第一条支路,即输入为原始分辨率的支路构建如下:
第一层为输入层和池化层,输入层的卷积核大小为7*7,通道数为64,卷积步长为2。池化层采用最大值池化,其卷积核大小为3*3,池化常数为2。原始输入的尺寸为M*N*4,通过第一层后尺寸变为即大小变为原来的1/4,通道数变为64个。
第二层是一个64通道的R1残差卷积块,记为R1 1。
第三层结构与第二层相同,记为R1 2。
第四层是一个128通道的R2残差卷积块记为R2 1。
第五层是一个128通道的R1残差卷积块,记为R1 3。
第六层是一个256通道的R2残差卷积块,记为R2 2。
第七层是一个256通道的R1残差卷积块,记为R1 4。
第八层是一个512通道的R2残差卷积块,记为R2 3。
第九层是一个512通道的R1残差卷积块,记为R1 5。
第十层是一个卷积层,其卷积核大小为3*3,通道数为256,卷积步长为1。
第十一层为128通道的上采样卷积块D,记为D1。
第十二层为64通道的上采样卷积块D,记为D2,然后将D2的输出与R1 3的输出按照通道叠加。
第十三层是32通道的上采样卷积块D,记为D3,然后将D3的输出与R1 2的输出按照通道叠加。
第十四层为16通道的上采样卷积块D,记为D4。
至此,输入为原分辨率的支路的网络结构构建完毕。
第二条支路,即输入为1/K原始分辨率的支路构建如下:
前十四层结构与输入为原始分辨率的支路完全相同,其后要根据支路的输入大小添加对应个数的16通道的上采样卷积块D。对于输入为1/K原始分辨率(下采样倍数为K)的支路而言,则要添加K/2个上采样卷积块。如图4为一个两条支路的情形,其中第二条支路输入为1/2原始分辨率(下采样倍数为2)的例子,其第二条支路要添加的上采样卷积块D的个数就是1个。多分辨率的情况与之类似,如果输入是1/4原始分辨率,则添加两个16通道的上采样卷积块,以此类推。
支路构建完成后,需要将这两条支路的信息进行融合,信息融合的结构如下:将第一条支路的输出与第二条支路的输出对应点相加,作为信息融合模块的输入。信息融合模块的网络结构为一个卷积层,其卷积核大小为3*3,通道数为1,最后将该层输出经过线性上采样得到大小和原始输入一样大小的最终结果。
多余多支路(两条以上)情况下的信息融合,则是:
(5)损失函数的设置:
(6)模型的训练和测试:
本具体实施方式中,采用的训练数据来源于公开数据集NYU-Depth-v2 dataset。该数据集包含了RGB图像和稠密的深度图,其大小为640*480。训练过程选用了48000张RGB图像和其对应的稠密深度图作为训练数据;测试过程选用了654张RGB图像和其对应的稠密深度作为测试数据。网络的输入是一张RGB图像以及一张稀疏深度图,该数据集不存在稀疏深度图,可以通过对稠密深度图随机采样1000个点得到稀疏深度图,与RGB图像组合成RGBD图像作为输入。
训练时,将RGBD图像下采样成320*240大小,再进行中心切割得到304*228大小的RGBD图像(即输入多尺度网络模型的原始图像),将该图像作为第一条支路的输入,然后将该图像按照步骤(1)所述的方法下采样两倍得到152*114大小的RGBD图像作为第二条支路的输入。一次训练8张图像,则训练完整个数据集需要6000次,将整个数据集训练15遍,则一共要训练90000次。训练时的学习率采用变化的学习率,初始学习率设置为0.01,数据集每训练完5遍,学习率下降10倍,最后学习率为0.0001。训练完毕后将模型的参数保存。
测试时,读取模型的参数,数据处理方式于训练过程相同,将处理后的数据输入到模型中,输出最终的结果。如图5所示,是本发明的输出结果和现有的深度学习方法的一些比较。整体来看,本发明的结果更清晰,从黑框中的结果比较可以看出,本发明的结果细节体现的更好。
以上所述,仅为本发明的具体实施方式,本说明书中所公开的任一特征,除非特别叙述,均可被其他等效或具有类似目的的替代特征加以替换;所公开的所有特征、或所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以任何方式组合。
Claims (3)
1.一种基于多尺度网络的稀疏深度稠密化方法,其特征在于,包括下列步骤:
构建多尺度网络模型:
所述多尺度网络模型包括L路输入分支支路,将L路分支支路的输出对应点相加后输入信息融合层,对信息融合层后接一个上采样处理层,作为多尺度网络模型的输出层;
其中,L路输入分支支路中,其中一路支路作为原始图像的输入;剩余L-1路作为原始图像进行不同下采样后得到的下采样图像的输入;且多尺度网络模型的输出层的输出图像与原始图像的尺寸相同;
且L路输入分支支路的输入数据包括:RGB图像和稀疏深度图;其中对于对原始图像的稀疏深度图的下采样方式为:对于稀疏深度图,基于预设的下采样倍数K,将稀疏深度图按照像素划分为网格,每个网格包含K×K个原始输入像素;并基于原始输入像素的深度值设置各原始输入像素的标记值si,若当前原始输入像素的深度值为0,则si=0;否则si=1;其中i为每个网格包括的K×K个原始输入像素的区分符;并根据公式得到每个网格的深度值pnew,其中pi表示原始输入像素i的深度值;
输入为原始图像的支路的网络结构为第一网络结构;
输入为原始图像的下采样图像的支路的网络结构为:在第一网络结构后增设K/2个16通道的上采样卷积块D,其中K表示对原始图像的下采样倍数;
所述第一网络结构包括十四层,分别为:
第一层为输入层和池化层,输入层的卷积核大小为7*7,通道数为64,卷积步长为2;池化层采用最大值池化,其卷积核大小为3*3,池化常数为2;
第二层和第三层结构相同,均为一个64通道的R1残差卷积块;
第四层为一个128通道的R2残差卷积块;
第五层为一个128通道的R1残差卷积块;
第六层为一个256通道的R2残差卷积块;
第七层为一个256通道的R1残差卷积块;
第八层为一个512通道的R2残差卷积块;
第九层为一个512通道的R1残差卷积块;
第十层为一个卷积层,其卷积核大小为3*3,通道数为256,卷积步长为1;
第十一层为128通道的上采样卷积块D,并将第十一层的输出与第七层的输出按照通道叠加后再输入第十二层;
第十二层为64通道的上采样卷积块D,并将第十二层的输出与第五层的输出按照通道叠加后再输入第十三层;
第十三层是32通道的上采样卷积块D,并将第十三层的输出与第三层的输出按照通道叠加后再输入第十四层;
第十四层为16通道的上采样卷积块D;
所述R1残差卷积块包括两层相同结构的卷积层,其卷积核大小为3*3,卷积步长为1,通道数可调节;并将输入R1残差卷积块的输入数据与第二层的输出对应点相加接入一个ReLU激活函数,作为R1残差卷积块的输出层;
所述R2残差卷积块包括第一、第二和第三卷积层,输入R2残差卷积块的输入数据分别进入两条支路,再将两条支路的输出对应点相加接入一个ReLU激活函数,作为R2残差卷积块的输出层;其中一条支路为顺次连接的第一和第二卷积层,另一条支路为第三卷积层;
所述第一卷积层和第二卷积层的结构相同,均为卷积核大小为3*3,卷积步长为2,通道数可调节;第三卷积层为卷积核大小为3*3,卷积步长为1,通道数可调节;
所述上采样卷积块D包括两个放大模块和一个卷积层,其中输入上采样卷积块D的输入数据分别进入两条支路,再将两条支路的输出对应点相加接入一个ReLU激活函数,作为上采样卷积块D的输出层;其中一条支路为顺次连接的第一放大模块和卷积层,另一条支路为第二放大模块;
其中,上采样卷积块D的卷积层为:卷积核大小是3*3,卷积步长为1,通道数可调节;
上采样卷积块D的放大模块包括四个并列的卷积层,该四个卷积层的通道数设置为相同,卷积核大小分别为:3*3,3*2,2*3和2*2,且卷积步长均为1,输入放大模块的输入数据通过其四个卷积层后再拼接在一起,作为放大模块的输出;
信息融合模块为卷积核大小为3*3,通道数为1,卷积步长为1的卷积层;
对所构建的多尺度网络模型进行深度学习训练,并通过训练好的多尺度网络模型得到待处理图像的稠密化的处理结果。
2.如权利要求1所述的方法,其特征在于,对原始图像的RGB图像的下采样方式为:采用双线性内插降采样方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811531022.5A CN109685842B (zh) | 2018-12-14 | 2018-12-14 | 一种基于多尺度网络的稀疏深度稠密化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811531022.5A CN109685842B (zh) | 2018-12-14 | 2018-12-14 | 一种基于多尺度网络的稀疏深度稠密化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109685842A CN109685842A (zh) | 2019-04-26 |
CN109685842B true CN109685842B (zh) | 2023-03-21 |
Family
ID=66187804
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811531022.5A Active CN109685842B (zh) | 2018-12-14 | 2018-12-14 | 一种基于多尺度网络的稀疏深度稠密化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109685842B (zh) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110490118A (zh) * | 2019-08-14 | 2019-11-22 | 厦门美图之家科技有限公司 | 图像处理方法及装置 |
CN110796105A (zh) * | 2019-11-04 | 2020-02-14 | 中国矿业大学 | 一种基于多模态数据融合的遥感图像语义分割方法 |
CN113034562B (zh) * | 2019-12-09 | 2023-05-12 | 百度在线网络技术(北京)有限公司 | 用于优化深度信息的方法和装置 |
CN111062981B (zh) * | 2019-12-13 | 2023-05-05 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置及存储介质 |
CN111079683B (zh) * | 2019-12-24 | 2023-12-12 | 天津大学 | 基于卷积神经网络的遥感图像云雪检测方法 |
CN111199516B (zh) * | 2019-12-30 | 2023-05-05 | 深圳大学 | 基于图像生成网络模型的图像处理方法、***及存储介质 |
CN111179331B (zh) * | 2019-12-31 | 2023-09-08 | 智车优行科技(上海)有限公司 | 深度估计方法、装置、电子设备及计算机可读存储介质 |
CN110992271B (zh) * | 2020-03-04 | 2020-07-07 | 腾讯科技(深圳)有限公司 | 图像处理方法、路径规划方法、装置、设备及存储介质 |
CN113496138A (zh) * | 2020-03-18 | 2021-10-12 | 广州极飞科技股份有限公司 | 稠密点云数据的生成方法、装置、计算机设备及存储介质 |
CN111667522A (zh) * | 2020-06-04 | 2020-09-15 | 上海眼控科技股份有限公司 | 三维激光点云密集化方法及设备 |
CN111815766B (zh) * | 2020-07-28 | 2024-04-30 | 复影(上海)医疗科技有限公司 | 基于2d-dsa图像重建血管三维模型处理方法及*** |
CN112001914B (zh) * | 2020-08-31 | 2024-03-01 | 三星(中国)半导体有限公司 | 深度图像补全的方法和装置 |
CN112102472B (zh) * | 2020-09-01 | 2022-04-29 | 北京航空航天大学 | 稀疏三维点云稠密化方法 |
CN112132880B (zh) * | 2020-09-02 | 2024-05-03 | 东南大学 | 一种基于稀疏测量和单目rgb图像的实时稠密深度估计方法 |
CN112258626A (zh) * | 2020-09-18 | 2021-01-22 | 山东师范大学 | 基于图像级联生成稠密点云的三维模型生成方法及*** |
CN112837262B (zh) * | 2020-12-04 | 2023-04-07 | 国网宁夏电力有限公司检修公司 | 一种刀闸开合状态的检测方法、介质及*** |
CN112861729B (zh) * | 2021-02-08 | 2022-07-08 | 浙江大学 | 一种基于伪深度图引导的实时深度补全方法 |
CN113256546A (zh) * | 2021-05-24 | 2021-08-13 | 浙江大学 | 一种基于彩色图指导的深度图补全方法 |
CN113344839B (zh) * | 2021-08-06 | 2022-01-07 | 深圳市汇顶科技股份有限公司 | 深度图像采集装置、融合方法和终端设备 |
WO2023010559A1 (zh) * | 2021-08-06 | 2023-02-09 | 深圳市汇顶科技股份有限公司 | 深度图像采集装置、融合方法和终端设备 |
CN113807417B (zh) * | 2021-08-31 | 2023-05-30 | 中国人民解放军战略支援部队信息工程大学 | 基于深度学习视野自选择网络的密集匹配方法及*** |
CN114627351B (zh) * | 2022-02-18 | 2023-05-16 | 电子科技大学 | 一种基于视觉和毫米波雷达的融合深度估计方法 |
CN114494023B (zh) * | 2022-04-06 | 2022-07-29 | 电子科技大学 | 一种基于运动补偿与稀疏增强的视频超分辨率实现方法 |
CN116152066B (zh) * | 2023-02-14 | 2023-07-04 | 苏州赫芯科技有限公司 | 一种元件完整形貌的点云检测方法、***、设备及介质 |
CN115861401B (zh) * | 2023-02-27 | 2023-06-09 | 之江实验室 | 一种双目与点云融合深度恢复方法、装置和介质 |
CN115908531B (zh) * | 2023-03-09 | 2023-06-13 | 深圳市灵明光子科技有限公司 | 车载测距方法、装置、车载终端及可读存储介质 |
CN117953029B (zh) * | 2024-03-27 | 2024-06-07 | 北京科技大学 | 一种基于深度信息传播的通用深度图补全方法及装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108535675A (zh) * | 2018-04-08 | 2018-09-14 | 朱高杰 | 一种基于深度学习和数据自洽的磁共振多通道重建方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9519972B2 (en) * | 2013-03-13 | 2016-12-13 | Kip Peli P1 Lp | Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies |
US9412172B2 (en) * | 2013-05-06 | 2016-08-09 | Disney Enterprises, Inc. | Sparse light field representation |
CN106408015A (zh) * | 2016-09-13 | 2017-02-15 | 电子科技大学成都研究院 | 基于卷积神经网络的岔路口识别及深度估计方法 |
CN107767413B (zh) * | 2017-09-20 | 2020-02-18 | 华南理工大学 | 一种基于卷积神经网络的图像深度估计方法 |
CN107944459A (zh) * | 2017-12-09 | 2018-04-20 | 天津大学 | 一种rgb‑d物体识别方法 |
-
2018
- 2018-12-14 CN CN201811531022.5A patent/CN109685842B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108535675A (zh) * | 2018-04-08 | 2018-09-14 | 朱高杰 | 一种基于深度学习和数据自洽的磁共振多通道重建方法 |
Non-Patent Citations (1)
Title |
---|
深度网络模型压缩综述;雷杰等;《软件学报》(第02期);第31-46页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109685842A (zh) | 2019-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109685842B (zh) | 一种基于多尺度网络的稀疏深度稠密化方法 | |
CN111563923B (zh) | 获得稠密深度图的方法及相关装置 | |
JP6745328B2 (ja) | 点群データを復旧するための方法及び装置 | |
CN109598754B (zh) | 一种基于深度卷积网络的双目深度估计方法 | |
CN111160214B (zh) | 一种基于数据融合的3d目标检测方法 | |
CN113936139B (zh) | 一种视觉深度信息与语义分割相结合的场景鸟瞰图重构方法及*** | |
CN110674829A (zh) | 一种基于图卷积注意网络的三维目标检测方法 | |
CN108801274B (zh) | 一种融合双目视觉和差分卫星定位的地标地图生成方法 | |
CN114254696A (zh) | 基于深度学习的可见光、红外和雷达融合目标检测方法 | |
DE112017003815T5 (de) | Bildverarbeitungsvorrichtung und bildverarbeitungsverfahren | |
CN111325782A (zh) | 一种基于多尺度统一的无监督单目视图深度估计方法 | |
CN114219855A (zh) | 点云法向量的估计方法、装置、计算机设备和存储介质 | |
CN116778288A (zh) | 一种多模态融合目标检测***及方法 | |
CN112907573A (zh) | 一种基于3d卷积的深度补全方法 | |
CN115861601A (zh) | 一种多传感器融合感知方法及装置 | |
CN116612468A (zh) | 基于多模态融合与深度注意力机制的三维目标检测方法 | |
CN117876608B (zh) | 三维图像重建方法、装置、计算机设备及存储介质 | |
CN115457354A (zh) | 融合方法、3d目标检测方法、车载设备及存储介质 | |
CN116310673A (zh) | 一种基于点云与图像特征融合的三维目标检测方法 | |
CN113592015B (zh) | 定位以及训练特征匹配网络的方法和装置 | |
CN117132737B (zh) | 一种三维建筑模型构建方法、***及设备 | |
CN115965961B (zh) | 局部到全局的多模态融合方法、***、设备及存储介质 | |
CN116258756B (zh) | 一种自监督单目深度估计方法及*** | |
CN116630528A (zh) | 基于神经网络的静态场景重建方法 | |
CN116342677A (zh) | 一种深度估计方法、装置、车辆及计算机程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |