CN114241160A - 基于深度学习的单视角叶片三维重建方法 - Google Patents
基于深度学习的单视角叶片三维重建方法 Download PDFInfo
- Publication number
- CN114241160A CN114241160A CN202111582989.8A CN202111582989A CN114241160A CN 114241160 A CN114241160 A CN 114241160A CN 202111582989 A CN202111582989 A CN 202111582989A CN 114241160 A CN114241160 A CN 114241160A
- Authority
- CN
- China
- Prior art keywords
- blade
- dimensional
- network model
- view
- reconstruction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的单视角叶片三维重建方法,包括步骤S1.制作叶片数据集;S2.将叶片数据集输入到神经网络模型进行网络训练,得到训练好的重建网络模型;S3.将目标叶片图像输入到重建网络模型,输出目标叶片的网格渲染轮廓信息,调整重建网络模型中的参数值,使得输出的网格渲染轮廓信息与目标叶片图像的轮廓信息之间的差异最小,并将达到差异最小时设置的重建网络模型作为最优重建网络模型;S4.将待测叶片图像输入到最优重建网络模型,输出待测叶片的三维形状。本发明能够提高单视角叶片三维重建的精度和速度,减少人为建模的时间和降低单视角重建的难度。
Description
技术领域
本发明涉及作物叶片三维领域,具体涉及一种基于深度学习的单视角叶片三维重建方法。
背景技术
在当前的智能农业领域,叶片表型是衡量植物生长的标准之一,单一视角下的叶片三维重建是分析植物生长性状的任务,并能在数字孪生***中描述植物生长。另外,育种者可以使用作物叶片的三维几何形状做出相应的决策。这种决策包括选择最好的栽培品种来继续育种过程,以及为下一季选择最佳栽培品种。因此,快速准确的叶片三维重建对于叶片表型分析、参数测量和虚拟可视化至关重要。
目前,单视图重建技术迅速发展,使得重建的准确率和实时性均有很大程度的提高。随着深度学习在三维领域迅速发展,ShapeNet数据集也被广泛地应用在基于深度学习的三维重建方法中。现阶段已有不同的三维模型表示方法(如体素、点云、网格等)开发出了大量的网络模型。Wang等人基于网格表示方式,通过类似于VGG-16网络提取图像特征结果。而基于级联型变的三维网格重建方法,使用GCN(全卷积网络)卷积网络存储三维空间信息,解决了三维网格反池化的问题。
尽管上述方法在叶片三维重建方面的研究已经取得了一些进展,但利用深度学***面叶片几何的工作较少,同时,上述的单视角重建算法中,叶片三维重建往往存在精度低、实现复杂、速度慢等问题,难以恢复叶片的三维信息。
发明内容
有鉴于此,本发明的目的是克服现有技术中的缺陷,提供基于深度学习的单视角叶片三维重建方法,能够提高单视角叶片三维重建的精度和速度,减少人为建模的时间和降低单视角重建的难度。
本发明的基于深度学习的单视角叶片三维重建方法,包括如下步骤:
S1.制作叶片数据集;所述叶片数据集包括叶片在不同视角下的渲染视图以及对应视角的点云;
S2.将叶片数据集输入到神经网络模型进行网络训练,得到训练好的重建网络模型;
S3.将目标叶片图像输入到重建网络模型,输出目标叶片的网格渲染轮廓信息,调整重建网络模型中的参数值,使得输出的网格渲染轮廓信息与目标叶片图像的轮廓信息之间的差异最小,并将达到差异最小时设置的重建网络模型作为最优重建网络模型;
S4.将待测叶片图像输入到最优重建网络模型,输出待测叶片的三维形状。
进一步,所述制作叶片数据集,具体包括:
采集若干种不同叶形的叶片,得到若干种轮廓不同的叶片模型,并获取叶片模型的三维数据信息;
对叶片模型进行归一化处理,使得若干叶片模型为同一个尺度;
在叶片模型的网格上均匀采样,得到若干样本点云数据;
确定场景相机的渲染位置、角度以及视野大小,并随后结合不同相机视角和光照强度对场景下的叶片模型进行视图渲染,得到不同视角的渲染视图;
将叶片模型三维点对应的坐标信息映射回所渲染的视图进行匹配,使得所形成的点云数据与渲染视图中的二维特征点能够对应匹配。
进一步,在进行匹配前,在保证已有的叶子模型三维形状不变的前提下,对叶子模型进行旋转与平移,以增加叶子模型样本的多样性。
进一步,所述神经网络模型采用改进的ResNet18网络作为特征提取网络;
所述改进的ResNet18网络一开始分别使用两层3×3的16维卷积核和32维卷积核,用于提取二维浅层图像特征信息;所述改进的ResNet18网络选取3×3小卷积核替换原始ResNet18中64维的7×7卷积核,并将所述3×3小卷积核堆叠以提高网络模型的提取特征能力。
进一步,所述神经网络模型采用的损失函数包括Chamfer损失函数、Normal损失函数、Laplacian正则化以及Edge length正则化;
所述Chamfer损失函数用于限制叶片网格顶点的具***置;
所述Normal损失函数用于加强网格曲面法线的一致性;
所述Laplacian正则化用于维持形变时相邻顶点的相对位置关系;
所述Edge length正则化用于防止个别异常点出现局部最优化,造成网格表面不平滑。
进一步,将输出的网格渲染轮廓信息与目标叶片图像的轮廓信息之间的差异标记为Ls;
进一步,所述待测叶片图像为RGBA图像。
进一步,所述步骤S2中,还包括使用评价指标对训练好的重建网络模型进行测试评价,用于判断重建网络模型输出的结果与真实结果之间的相似程度。
进一步,所述评价指标包括3D IOU、F-score、CD以及EMD;其中,3D IOU以及F-score越大,所述相似程度越高;CD以及EMD越小,所述相似程度越高。
本发明的有益效果是:本发明公开的一种基于深度学习的单视角叶片三维重建方法,通过多个视角的叶片的三维数据和二维数据的信息融合训练,并优化相应参数,同时结合可微分渲染器对重建网络模型进行优化,使得重建出的单视角叶片网格模型在形状上接近目标图像,进而提高了单视角叶片三维重建的精度和速度,减少了人为建模的时间和降低了单视角重建的难度。
附图说明
下面结合附图和实施例对本发明作进一步描述:
图1为本发明的叶片三维重建方法框架示意图;
图2为本发明的重建网络模型结构示意图;
图3为本发明的不同层数的残差网络的loss对比示意图。
具体实施方式
以下结合说明书附图对本发明做出进一步的说明,如图所示:
本发明的基于深度学习的单视角叶片三维重建方法,包括如下步骤:
S1.制作叶片数据集;所述叶片数据集包括叶片在不同视角下的渲染视图以及对应视角的点云;
S2.将叶片数据集输入到神经网络模型进行网络训练,得到训练好的重建网络模型;其中,所述训练好的重建网络模型为粗略网格模型;
S3.将目标叶片图像输入到重建网络模型,输出目标叶片的网格渲染轮廓信息,调整重建网络模型中的参数值,使得输出的网格渲染轮廓信息与目标叶片图像的轮廓信息之间的差异最小,并将达到差异最小时设置的重建网络模型作为最优重建网络模型;通过上述步骤,实现对粗略网格模型的调整优化,进而得到最优重建网络模型;
S4.将待测叶片图像输入到最优重建网络模型,输出待测叶片的三维形状。
本发明使用改进的残差网络来加强特征提取,然后在使用Pixl2Mesh将图像的特征和三维位置结合起来。最后,通过可微分渲染技术对模型进行形变、优化,提高了重建网络模型的真实度和准确率,减轻了周围复杂环境对三维重建的影响,从而为植物叶片的三维重建提供一个合理的方法。本发明可用于农业数字孪生***的重建模型,由单个视角的叶片图像重建出叶片的三维形状,加强了重建的精度,减少了冗余提取,简化了重建流程,提高了重建速度,准确地重建出图像中叶片,可被广泛用于农业数字孪生中对作物叶片的生长监测、无损测量、表性分析等场景。
本实施例中,所述制作叶片数据集,具体包括:
采集若干种不同叶形的叶片,得到若干种轮廓不同的叶片模型,并获取叶片模型的三维数据信息;其中,采集9种不同叶形的叶片模型,叶片三维数据信息主要分为场景相机视角、叶片模型渲染视图、叶片对应视角的点云等三部分。
为将叶片模型尺寸缩放在指定大小的立方体包围盒中,同时将坐标原点设置为叶片模型的中心位置,通过对叶片模型进行均值归一化处理,使得若干叶片模型为同一个尺度,所述叶片模型坐标会被控制在-1到1之间;
在叶片模型的网格上均匀采样,得到若干样本点云数据;其中,对原始叶片模型顶点进行下采样处理,采用Meshlab软件对归一化后的网格模型下采样点云,对每一组模型都均匀采样1000个顶点。
确定场景相机的渲染位置、角度以及视野大小,并随后结合不同相机视角和光照强度对场景下的叶片模型进行视图渲染,得到不同视角的渲染视图;其中,可以设置24个不同的相机视角;
将叶片模型三维点对应的坐标信息映射回所渲染的视图进行匹配,使得所形成的点云数据与渲染视图中的二维特征点能够对应匹配。
本实施例中,在进行匹配前,为了避免二维图像信息与三维坐标信息产生偏差,导致出现重建模型与输入图像不匹配、位置偏移等情况。则将对已有的三维模型数据进行增广,具体是指保持已有的叶子模型三维形状不变的前提下,对叶子模型进行一定角度的旋转(0-180°)与平移等随机变换,以增加叶子模型样本的多样性。
本实施例中,通过配置环境,搭建以TensorFlow为底层的神经网络训练平台;在Pixel2mesh的基础上,修改了原有的特征提取网络,将原有vgg-16的网络修改成改进的ResNet18网络;所述神经网络模型采用改进的ResNet18网络作为特征提取网络;其中,所述ResNet18表示ResNet采用18层残差网络。
在深度学习中,网络的层数是一个重要的考虑因素,因为它直接影响到预测性能。比较常用的18、34、50层残差网络作为特征提取网络的性能,在扫描完所有的测试数据后,评估了所提出的模型中的层数对损失和重建性能的影响。图3显示了测试集上18到50层的不同层数的损失趋势,实验结果显示,随着层数的减少,测试集上的损失值迅速下降。当层数为18时,网络重建的结果最好。
原始的ResNet18是从64维开始提取图像特征,使用的是7×7大卷积核,虽然大卷积核拥有较大的感受野,但在提取单视图叶片中的细小轮廓特征表现不如小尺度的卷积核,在Pixel2Mesh特征提取网络的基础上,并结合ResNet18的优势对特征提取网络进行改进。在原有ResNet18的一开始分别加入两层3×3的16维卷积核和32维卷积核,用于提取二维浅层图像特征信息;其次选取3×3小卷积核替换原始ResNet18中64维的7×7卷积核,将所述3×3小卷积核堆叠以提高模型的提取特征能力,从而获取更多特细致的特征信息,使得预测的3D位置特征更加准确。
本实施例中,所述神经网络模型采用的损失函数包括Chamfer损失函数、Normal损失函数、Laplacian正则化以及Edge length正则化;
Chamfer损失函数,又称倒角距离,其函数是针对一个集合中的每个顶点,并寻找另一个集合中最邻近点,将其平方距离相加,以验证3D网格的顶点和实际3D网格的顶点是否相似,其作用是限制网格顶点的具***置。所述Chamfer损失函数的计算公式如式(2)所示:
重建网络中不仅考虑三维网格的顶点位置,还要考虑网格面的特征损失,通过使用Normal损失函数,保证网格表面法向量的一致性,以增加表面光滑程度。所述Normal损失函数的计算公式如式(3)所示:
Laplacian正则化,该函数的作用是维持形变时相邻顶点的相对位置关系。所述Laplacian正则化的计算公式如(4)所示:
Edge length正则化,该函数的目的是防止个别异常点出现局部最优化,造成网格表面不平滑,所述Edge length正则化的计算公式如(5)所示:
本实施例中,使用上述构建的神经网络模型进行网络训练,并采用步骤S1中自制的三维数据集作为训练用数据,其包含9种不同形状类别的叶片三维网格模型,训练集与验证集比例为4:1,即20736组作为训练数据集,剩余的作为测试数据集。输入的图像尺寸为224×224,初始学习率设置为3e-5,优化器为Adam,Epoch为50,对训练集中所有类别对象统一训练,为防止数据的过拟合,将不同类型数据进行随机排列,并且将Batch Size设置为1,训练用时大约为3天。
本实施例中,由于训练好的重建网络模型可能会存在网格形状与输入图像的轮廓形状有所差异,因此在此阶段,需要将输入的图像的轮廓信息和网格渲染轮廓信息进行对比,然后去形变网格模型,从而达到单视角网格形状与输入图像相似的目的;所述单视角可理解为单视图。
基于训练好的重建网络模型重建出来初始粗略模型,定义一个可微分的渲染算子来比较当前网格的轮廓和输入图像的轮廓。使用可微分渲染器,可以定义一个损失函数和梯度下降来最小化损失值,利用机器学习方法来加速优化,并更新损失函数。
将输出的网格渲染轮廓信息与目标叶片图像的轮廓信息之间的差异标记为Ls;
本发明定义的可微分渲染器,可以用它来对源网格进行反向传播以形变网格模型形状,使其渲染的视图与目标图像之间的差异最小化,从而使渲染的图像与目标图像尽可能地相似。如图2所示,优化后的重建网络模型由两部分组成:上部为特征提取模块,逐层提取不同层次的叶片图像特征,下部设计了三个级联变形模块,由GCN组成,用于存储每次变形后的网格信息。初始网格(椭圆体)通过感知特征池层的二维特征信息不断变形,以逼近真实的叶片三维形状,每次变形过程将叶片图像特征点与GCN中的顶点特征融合,作为新一轮输入GCN,从而更新其三维顶点和特征,同时,通过图上池层增加节点和边的数量,提高模型的细节层次。最后,初始模型再通过迭代更新不断转化为目标模型。
本实施例中,步骤S4中,在实际场景中拍摄一个特定的作物叶片图像,将所述作物叶片作为待测叶片,并基于传统图像处理的方法,用人工交互的方法去选取特定的叶片,然后将其分割出来,得到一个RGBA的叶片图像,随后输入到最优重建网络模型,并将其重建出来,得到待测叶片的三维形状。并可以验证其叶片网格模型与输入图片在视觉层面的匹配程度。所述RGBA的叶片图像与普通的RGB图像相比,具有更加丰富的色彩空间,增强了输入叶片图像的兼容性。
本实施例中,所述步骤S2中,还包括使用评价指标对训练好的重建网络模型进行测试评价,用于判断重建网络模型输出的结果与真实结果之间的相似程度。该过程主要是基于训练好的重建网络模型分别在不同的叶形类别的测试集上对重建网络模型进行评价测试,检测重建网络模型在测试集中预测的结果与Ground truth的相似度,从而进行判断重建网络模型的输出与真实模型的相似程度。所述评价指标包括3D IOU、F-score、CD以及EMD;其中,3D IOU以及F-score越大,所述相似程度越高;CD以及EMD越小,所述相似程度越高。通过上述对重建网络模型进行测试评价,能够评估出重建网络模型的输出精度与可靠性,为优化重建网络模型提供了参考,有益于进一步明确优化重建网络模型的目的与方向。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (9)
1.一种基于深度学习的单视角叶片三维重建方法,其特征在于:包括如下步骤:
S1.制作叶片数据集;所述叶片数据集包括叶片在不同视角下的渲染视图以及对应视角的点云;
S2.将叶片数据集输入到神经网络模型进行网络训练,得到训练好的重建网络模型;
S3.将目标叶片图像输入到重建网络模型,输出目标叶片的网格渲染轮廓信息,调整重建网络模型中的参数值,使得输出的网格渲染轮廓信息与目标叶片图像的轮廓信息之间的差异最小,并将达到差异最小时设置的重建网络模型作为最优重建网络模型;
S4.将待测叶片图像输入到最优重建网络模型,输出待测叶片的三维形状。
2.根据权利要求1所述的基于深度学习的单视角叶片三维重建方法,其特征在于:所述制作叶片数据集,具体包括:
采集若干种不同叶形的叶片,得到若干种轮廓不同的叶片模型,并获取叶片模型的三维数据信息;
对叶片模型进行归一化处理,使得若干叶片模型为同一个尺度;
在叶片模型的网格上均匀采样,得到若干样本点云数据;
确定场景相机的渲染位置、角度以及视野大小,并随后结合不同相机视角和光照强度对场景下的叶片模型进行视图渲染,得到不同视角的渲染视图;
将叶片模型三维点对应的坐标信息映射回所渲染的视图进行匹配,使得所形成的点云数据与渲染视图中的二维特征点能够对应匹配。
3.根据权利要求2所述的基于深度学***移,以增加叶子模型样本的多样性。
4.根据权利要求1所述的基于深度学习的单视角叶片三维重建方法,其特征在于:所述神经网络模型采用改进的ResNet18网络作为特征提取网络;
所述改进的ResNet18网络一开始分别使用两层3×3的16维卷积核和32维卷积核,用于提取二维浅层图像特征信息;所述改进的ResNet18网络选取3×3小卷积核替换原始ResNet18中64维的7×7卷积核,并将所述3×3小卷积核堆叠以提高网络模型的提取特征能力。
5.根据权利要求4所述的基于深度学习的单视角叶片三维重建方法,其特征在于:所述神经网络模型采用的损失函数包括Chamfer损失函数、Normal损失函数、Laplacian正则化以及Edge length正则化;
所述Chamfer损失函数用于限制叶片网格顶点的具***置;
所述Normal损失函数用于加强网格曲面法线的一致性;
所述Laplacian正则化用于维持形变时相邻顶点的相对位置关系;
所述Edge length正则化用于防止个别异常点出现局部最优化,造成网格表面不平滑。
7.根据权利要求1所述的基于深度学习的单视角叶片三维重建方法,其特征在于:所述待测叶片图像为RGBA图像。
8.根据权利要求1所述的基于深度学习的单视角叶片三维重建方法,其特征在于:所述步骤S2中,还包括使用评价指标对训练好的重建网络模型进行测试评价,用于判断重建网络模型输出的结果与真实结果之间的相似程度。
9.根据权利要求8所述的基于深度学习的单视角叶片三维重建方法,其特征在于:所述评价指标包括3D IOU、F-score、CD以及EMD;其中,3D IOU以及F-score越大,所述相似程度越高;CD以及EMD越小,所述相似程度越高。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111582989.8A CN114241160A (zh) | 2021-12-22 | 2021-12-22 | 基于深度学习的单视角叶片三维重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111582989.8A CN114241160A (zh) | 2021-12-22 | 2021-12-22 | 基于深度学习的单视角叶片三维重建方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114241160A true CN114241160A (zh) | 2022-03-25 |
Family
ID=80761413
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111582989.8A Pending CN114241160A (zh) | 2021-12-22 | 2021-12-22 | 基于深度学习的单视角叶片三维重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114241160A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114820604A (zh) * | 2022-06-27 | 2022-07-29 | 四川大学 | 基于最邻近点距离损失的叶片型线数据拼接方法及设备 |
CN117496075A (zh) * | 2024-01-02 | 2024-02-02 | 中南大学 | 一种单视图的三维重建方法、***、设备及存储介质 |
-
2021
- 2021-12-22 CN CN202111582989.8A patent/CN114241160A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114820604A (zh) * | 2022-06-27 | 2022-07-29 | 四川大学 | 基于最邻近点距离损失的叶片型线数据拼接方法及设备 |
CN117496075A (zh) * | 2024-01-02 | 2024-02-02 | 中南大学 | 一种单视图的三维重建方法、***、设备及存储介质 |
CN117496075B (zh) * | 2024-01-02 | 2024-03-22 | 中南大学 | 一种单视图的三维重建方法、***、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113128405B (zh) | 一种结合语义分割与点云处理的植物识别与模型构建方法 | |
Gibbs et al. | Approaches to three-dimensional reconstruction of plant shoot topology and geometry | |
Golbach et al. | Validation of plant part measurements using a 3D reconstruction method suitable for high-throughput seedling phenotyping | |
CN109146889B (zh) | 一种基于高分辨率遥感图像的农田边界提取方法 | |
CN106920243B (zh) | 改进的全卷积神经网络的陶瓷材质件序列图像分割方法 | |
CN109544681B (zh) | 一种基于点云的果实三维数字化方法 | |
CN112435239B (zh) | 基于MRE-PointNet和自编码器模型的绿萝叶片外形参数估测方法 | |
CN109410321A (zh) | 基于卷积神经网络的三维重建方法 | |
Li et al. | An overlapping-free leaf segmentation method for plant point clouds | |
CN114241160A (zh) | 基于深度学习的单视角叶片三维重建方法 | |
Lou et al. | Accurate multi-view stereo 3D reconstruction for cost-effective plant phenotyping | |
Pound et al. | A patch-based approach to 3D plant shoot phenotyping | |
Ando et al. | Robust surface reconstruction of plant leaves from 3D point clouds | |
CN115661404A (zh) | 一种多细粒度树木实景参数化建模方法 | |
CN114510772B (zh) | 基于斜扫数据建筑面轮廓的快速生成方法 | |
Li et al. | A single view leaf reconstruction method based on the fusion of ResNet and differentiable render in plant growth digital twin system | |
CN109242968A (zh) | 一种基于多属性超体素图割的河道三维建模方法 | |
CN115439694A (zh) | 一种基于深度学习的高精度点云补全方法及装置 | |
CN112215217A (zh) | 模拟医师阅片的数字图像识别方法及装置 | |
CN114581577A (zh) | 物体材质微表面模型重构方法及*** | |
CN112926648B (zh) | 一种烟叶烘烤过程中烟叶尖部异常的检测方法及装置 | |
CN116704497B (zh) | 一种基于三维点云的油菜表型参数提取方法及*** | |
Golla et al. | Temporal upsampling of point cloud sequences by optimal transport for plant growth visualization | |
CN116757713B (zh) | 基于图像识别的作品估值方法、装置、设备及存储介质 | |
Srivastava et al. | Drought stress classification using 3D plant models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |