CN117437362B - 一种三维动漫模型生成方法及*** - Google Patents
一种三维动漫模型生成方法及*** Download PDFInfo
- Publication number
- CN117437362B CN117437362B CN202311538906.4A CN202311538906A CN117437362B CN 117437362 B CN117437362 B CN 117437362B CN 202311538906 A CN202311538906 A CN 202311538906A CN 117437362 B CN117437362 B CN 117437362B
- Authority
- CN
- China
- Prior art keywords
- vertex
- target
- dimensional
- vector
- vertexes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 239000013598 vector Substances 0.000 claims abstract description 137
- 230000006870 function Effects 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 6
- 238000006073 displacement reaction Methods 0.000 description 8
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 210000001015 abdomen Anatomy 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
Abstract
本发明涉及三维模型生成技术领域,具体涉及一种三维动漫模型生成方法及***。该方法包括:生成三维动漫模型,获取其顶点的坐标记为目标顶点,获取目标顶点的第一特征领域和第二特征领域;根据目标顶点与其第一特征领域内顶点的差异获取目标顶点的目标微分向量;根据目标顶点与其第二特征领域内顶点的距离获取目标顶点的三维顶点密集指数;获取顶点的法向量,预设三维单位向量,根据顶点的法向量和三维单位向量获取顶点的偏移角度,并基于此获取目标顶点的凹凸参数;根据目标顶点的目标微分向量、三维顶点密集指数以及凹凸参数获取目标顶点的偏移距离;根据偏移距离更新顶点坐标生成三维动漫模型。本发明生成了精度更高的三维动漫模型。
Description
技术领域
本发明涉及三维模型生成技术领域,具体涉及一种三维动漫模型生成方法及***。
背景技术
随着人工智能技术的发展,人工智能相关技术在不断为传统行业赋能增效。在生成式人工智能方向也取得了巨大的发展,在以往的生成式模型中主要以生成二维图片为主,现如今,使用深度学习生成三维模型也有着较为成熟的技术。三维模型一般是指空间中实体对象的数学表示。三维模型在计算机中的表现形式有多边形网格,曲面,体素,点云等。其中多边形网格表示方法是最常用的三维模型表示方法,易于编辑,同时在实时图像处理中的性能也较好。其中又以三角网格(也称作三角形图元)使用最多。三角网格由顶点的坐标和索引组成。顶点坐标即三角形三个顶点的坐标,顶点索引即顶点之间的连接顺序。有些较为细致的三维模型还会存储纹理坐标,顶点颜色,法线向量等模型信息。在生成的动漫模型中模型的曲面大部分为较为光滑的曲面,缺少人物的纹理细节。一般使用位移映射和法线映偏移来丰富模型的细节内容,位移映射需要实现准备位移贴图来标明每个顶点的位移大小,位移映射较大改变了模型的顶点位置。而法线偏移是通过顶点位置的微调,改变三角网格表面法线从而影响光照和阴影,使得三维模型看起来细节更多,更丰富。
而在法线偏移过程中,因为三维动漫模型的三角网格分布不均匀的特点,直接使用法线偏移来优化模型细节可能会导致部分顶点的几何失真,即在模型的细节部分出现不合理的顶点位置。
发明内容
为了解决模型细节失真的技术问题,本发明提供了一种三维动漫模型生成方法及***,所采用的技术方案具体如下:
第一方面,本发明提出了一种三维动漫模型生成方法,该方法包括以下步骤:
生成三维动漫模型,获取三维动漫模型的每个顶点的坐标。
将三维动漫模型任意一个顶点记为目标顶点,获取目标顶点的第一特征领域和第二特征领域;根据目标顶点与其第一特征领域内每个顶点的差值向量、第一特征领域内顶点的数量获取目标顶点的目标微分向量;
根据目标顶点的第二特征领域内的顶点与目标顶点的欧氏距离、第二特征领域内顶点的预设邻近距离以及第二特征领域内顶点的个数获取目标顶点的三维顶点密集指数;
获取每个顶点的法向量,预设三维单位向量,根据每个顶点的法向量和三维单位向量获取每个顶点的偏移角度,根据每个目标顶点对应的所有第一特征领域内顶点的偏移角度获取目标顶点的凹凸参数;根据目标顶点的目标微分向量、三维顶点密集指数以及凹凸参数获取目标顶点的偏移距离;
将目标顶点的偏移距离与目标顶点的坐标相加获取更新坐标,对于所有顶点获取更新坐标,更新坐标生成三维动漫模型。
优选的,所述获取目标顶点的第一特征领域和第二特征领域的方法为:
与目标顶点直接相连的所有顶点构成目标顶点的第一特征领域,所述直接相连为目标顶点和顶点相连且连线内不存在其余顶点;
与目标顶点间接相连的所有顶点构成目标顶点的第二特征领域,所述间接相连为目标顶点与顶点和同一个顶点直接相连。
优选的,所述根据目标顶点与其第一特征领域内每个顶点的差值向量、第一特征领域内顶点的数量获取目标顶点的目标微分向量的方法为:
将目标顶点的第一特征邻域内的顶点记为第一领域顶点,将目标顶点与其第一领域顶点的坐标之差作为目标顶点与第一领域顶点之间的向量记为第一向量;
将目标顶点与其所有第一领域顶点的第一向量取模后累加作为目标顶点的第一特征值;
根据目标顶点与其第一领域顶点的第一向量以及目标顶点对应的第一领域顶点的数量获取目标顶点的第一微分向量;
根据目标顶点与其第一领域顶点的第一向量、目标顶点的第一特征值以及每个第一向量的模获取目标顶点的第二微分向量;
将目标顶点的第一微分向量和第二微分向量进行加权求和获取目标顶点的目标微分向量,其中第一微分向量的权重小于第二微分向量的权重。
优选的,所述根据目标顶点与其第一领域顶点的第一向量以及目标顶点对应的第一领域顶点的数量获取目标顶点的第一微分向量的方法为:
式中,Vi表示第i个顶点,V1i,j表示第i个顶点的第一特征领域内的第j个顶点,Vi-V1i,j表示顶点Vi与顶点V1i,j的第一向量,N1(Vi)表示第i个顶点的第一特征领域集合,表示第i个顶点对应的第一领域顶点的数量,/>表示第i个顶点的第一微分向量。
优选的,所述根据目标顶点与其第一领域顶点的第一向量、目标顶点的第一特征值以及每个第一向量的模获取目标顶点的第二微分向量的方法为:
式中,Vi表示第i个顶点,V1i,j表示第i个顶点的第一特征领域内的第j个顶点,Vi-V1i,j表示顶点Vi与顶点V1i,j的第一向量,|Vi-V1i,j|表示顶点Vi与顶点Vi,j的第一向量的模,M(Vi)表示第i个顶点的第一特征值,N1(Vi)表示第i个顶点的第一特征领域集合,exp()表示以自然常数为底的指数函数,表示第i个顶点的第二微分向量。
优选的,所述根据目标顶点的第二特征领域内的顶点与目标顶点的欧氏距离、第二特征领域内顶点的预设邻近距离以及第二特征领域内顶点的个数获取目标顶点的三维顶点密集指数的方法为:
将目标顶点的第二特征领域内的顶点作为目标顶点对应的第二领域顶点,对于每个第二领域顶点,计算其与所有顶点的欧氏距离,设定预设值k,将第二领域顶点与距离其第k近的顶点之间的距离作为第二领域顶点的邻域距离;获取目标顶点和第二领域顶点的欧氏距离与第二领域顶点的邻域距离中的最大值,将所述最大值作为目标顶点与第二领域顶点的目标距离,根据目标顶点与第二领域顶点的目标距离以及第二特征领域内顶点的数量获取目标顶点的三维顶点密集指数。
优选的,所述根据目标顶点与第二领域顶点的目标距离以及第二特征领域内顶点的数量获取目标顶点的三维顶点密集指数的方法为:
式中,表示第i个顶点对应的第二领域顶点的数量,Vi表示第i个顶点,V2i,j表示第i个顶点的第二特征领域内的第j个顶点,N2(Vi)表示第i个顶点的第二特征领域集合,DIS(Vi,j,Vi)表示顶点Vi与顶点Vi,j的目标距离,U(Vi)表示第i个顶点的三维顶点密集指数。
优选的,所述根据每个顶点的法向量和三维单位向量获取每个顶点的偏移角度,根据每个目标顶点对应的所有第一特征领域内顶点的偏移角度获取目标顶点的凹凸参数的方法为:
对于每个顶点,根据向量的点乘公式获取顶点的法向量和三维单位向量的之间的夹角,将夹角作为顶点的偏移角度;
对于每个目标顶点,将其所有第一特征领域内顶点的偏移角度求标准差作为目标顶点的凹凸参数。
优选的,所述根据目标顶点的目标微分向量、三维顶点密集指数以及凹凸参数获取目标顶点的偏移距离的方法为:
R(Vi)=δ(Vi)×exp(-β×U(Vi)×S(Vi))
式中,Vi表示第i个顶点,δ(Vi)表示第i个顶点的目标微分向量,U(Vi)表示第i个顶点的顶点密集指数,S(Vi)表示第i个顶点的凹凸参数,exp()表示以自然常数为底的指数函数,β表示调节系数,R(Vi)表示第i个顶点的偏移距离。
第二方面,本发明实施例还提供了一种三维动漫模型生成***,包括存储器、处理器以及存储在所述存储器中并在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述任意一项所述一种三维动漫模型生成方法的步骤。
本发明具有如下有益效果:在计算微分向量的过程中根据顶点与邻域顶点的远近关系设置不同的权重系数,使用两种计算微分向量的方式相结合,减少了公式的拟合误差,较为准确的描述出顶点相对于周围顶点的位置信息。考虑到三维动漫模型中三角网格密度不同的问题,构建模型的顶点密集指数U(Vi),模型凹凸参数S(Vi),对不同位置的顶点设置不同的偏移距离,防止过大的偏移导致三维模型的几何失真和形状的明显变化,使得最终生成的三维动漫模型更精细。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1为本发明一个实施例所提供的一种三维动漫模型生成方法流程图;
图2为目标顶点与第二领域顶点的目标距离示意图;
图3为顶点所在面的示意图。
具体实施方式
为了更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的一种三维动漫模型生成方法,其具体实施方式、结构、特征及其功效,详细说明如下。在下述说明中,不同的“一个实施例”或“另一个实施例”指的不一定是同一实施例。此外,一或多个实施例中的特定特征、结构或特点可由任何合适形式组合。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。
一种三维动漫模型生成方法实施例:
下面结合附图具体的说明本发明所提供的一种三维动漫模型生成方法的具体方案。
请参阅图1,其示出了本发明一个实施例提供的一种三维动漫模型生成方法流程图,该方法包括以下步骤:
步骤S001,生成三维动漫模型,获取三维动漫模型的每个顶点的坐标。
使用三维模型生成器随机生成三维动漫模型,对于三维动漫模型,将其使用三维笛卡尔坐标系表示,并通过三维笛卡尔坐标系以任意方向固定获取三维动漫模型的所有顶点坐标,获取三维动漫模型的顶点坐标集合V={V1,V2,……Vn}。在本实施例中,所述三维动漫模型均为三角网络表示的三维模型。
至此,获取了三维动漫模型的顶点集合。
步骤S002,将三维动漫模型任意一个顶点记为目标顶点,获取目标顶点的第一特征领域和第二特征领域;根据目标顶点与其第一特征领域内每个顶点的差值向量、第一特征领域内顶点的数量获取每个顶点的目标微分向量。
由于顶点在法向量上的唯一可以放大三维物体表面的细微细节,如褶皱,纹理,凹凸等,这种微小的变化使得三维模型看起来更加真实和自然。相较于直接增加三维动漫模型的细节,使用法向量位移放大表面的细节不仅没有改变顶点的个数,而且还有效的减少了计算机渲染时的负担。
为了放大三维动漫模型的细节部分,首先要获取顶点的位置信息。而传统的三维笛卡尔坐标系仅描述了顶点在全局中的位置,无法描述顶点相对于周围顶点的位置情况。仅知道一个三维笛卡尔坐标系下的顶点,无法推断该顶点应如何移动。
为描述出一个顶点相对于周围顶点的位置,考虑使用微分向量。相比用于描述全局空间位置的笛卡尔坐标,微分向量更关注曲面的局部信息。
对于三维动漫模型中的任意一个顶点记为目标顶点,将与目标顶点直接相连的所有顶点构成目标顶点的第一特征领域,与目标顶点间接相连的顶点构成目标顶点的第二特征领域;所述直接相连为两个顶点之间有一条直线,且直线内没有其余顶点;所述间接相连为两个顶点拥有共同直接相连的顶点;由此获取了每个顶点的第一特征领域和第二特征领域。
对于目标顶点,将目标顶点与其第一特征领域内的每个顶点的坐标分别作差,将目标顶点与每个顶点坐标作差后得到一条向量记为第一向量,将目标顶点与其第一特征领域内作差得到的所有第一向量累加,将目标顶点的所有第一向量累加后与目标顶点的第一特征领域内的顶点的数量的比值作为目标顶点的第一微分向量;计算目标顶点与其第一特征领域内所有顶点的第一向量取模求和记为第一特征值,之后令目标顶点的每条第一向量与其模的大小和第一特征值的比获取目标顶点的第二微分向量,公式如下:
式中,Vi表示第i个顶点,V1i,j表示第i个顶点的第一特征领域内的第j个顶点,Vi-V1i,j表示顶点Vi与顶点V1i,j的坐标之差,N1(Vi)表示第i个顶点的第一特征领域集合,表示第i个顶点的第一特征领域内顶点的数量,exp()表示以自然常数为底的指数函数,|Vi-V1i,j|表示顶点Vi与顶点Vi,j的坐标之差的模,M(Vi)表示第i个顶点的第一特征值,表示第i个顶点的第一微分向量,/>表示第i个顶点的第二微分向量。
其中,在三维动漫模型中,距离目标顶点Vi较近的邻域顶点对顶点的微分向量影响较大,赋予较大的权重。若邻域顶点V1i,j距离目标顶点Vi的直线距离较远,则Vi在V1i,j方向的微分权重较小,微分向量反应的是模型局部的位置信息,距离邻域顶点V1i,j越远的邻域顶点越不能代表该顶点邻域的位置信息,所以赋予的权重较小。
根据目标顶点的第一微分向量和第二微分向量获取目标顶点的目标微分向量,公式如下:
式中,表示第i个顶点的第一微分向量,/>表示第i个顶点的第二微分向量,γ表示权重系数,在本实施例中令其为0.8,/>表示第i个顶点的目标微分向量。
由于微分向量只是近似表达了三维的局部几何信息,但计算结果往往还存在误差,因此通过整合两种计算微分向量的方式来减小潜在的误差,的计算过程更科学,因此赋予的权重较大。
至此,获取了每个顶点的目标微分向量。
步骤S003,根据目标顶点的第二特征领域内的顶点与目标顶点的欧氏距离、第二特征领域内顶点的预设邻近距离以及第二特征领域内顶点的个数获取目标顶点的三维顶点密集指数。
在三维动漫模型中,三角网格通常可分为表示模型细节部分和表示大致姿态的部分。在模型细节的部分(如头部的眼睛,耳朵)有较多的三角形网格来表示细节,为方便叙述称之为密集区域。而在例如三维动漫人物模型的背部,腹部等位置细节不如头部丰富,需要的三角形网格也较少,称之为非密集区域。
在三角形网格密集区域里,三维动漫模型在该部分细节较多,需要减小顶点的位移权重,因为过大的位移可能会造成模型的几何失真,而在非密集区域中,三维动漫模型表示细节的部分较少,可适当增大顶点的位移。
对于目标顶点,将目标顶点的第二特征领域内的顶点记为第二领域顶点,计算目标顶点与第二领域顶点的欧氏距离,对于目标顶点的每个第二领域顶点,对其获取一个k邻域距离,即第二领域顶点与距离其第k近的顶点的欧氏距离,在本实施例中k取6。令第二领域顶点与距离其第k近的顶点的欧氏距离记为第二领域顶点的邻域距离。对于目标顶点的每一个第二领域顶点,将第二领域顶点与目标顶点的欧氏距离和第二领域顶点的邻域距离比较,选取大的值作为目标顶点与第二领域顶点的目标距离。根据目标顶点与所有第二领域顶点的目标距离和目标顶点的第二领域顶点的数量获取目标顶点的三维顶点密集指数,公式如下:
式中,表示第i个顶点对应的第二领域顶点的数量,Vi表示第i个顶点,V2i,j表示第i个顶点的第二特征领域内的第j个顶点,N2(Vi)表示第i个顶点的第二特征领域集合,DIS(Vi,j,Vi)表示顶点Vi与顶点Vi,j的目标距离,U(Vi)表示第i个顶点的三维顶点密集指数。
所述DIS(Vi,j,Vi)的表示如图2所示,图2中,Vi,j表示第i个顶点的第一特征领域内的第j个顶点,disk(Vi,j)表示第i个顶点的第一特征领域内的第j个顶点的邻域距离,若其对应的Vi与其的距离小于disk(Vi,j)时,令disk(Vi,j)表示Vi与Vi,j的目标距离;若其对应的Vi与其的距离大于disk(Vi,j)时,令d2表示Vi与Vi,j的目标距离。
在顶点密集的区域,顶点的分布相对集中,且顶点Vi的第二领域顶点与Vi的距离相对较小,说明该区域描绘的模型的细节更多,用了更多的三角网格来表示。对于一个顶点Vi来说第二领域顶点的个数越多,分子越大,与顶点Vi距离越小,分母越小,顶点密集指数U(Vi)越大,表示顶点越密集。
至此,获取了每个顶点的三维顶点密集指数。
步骤S004,获取每个顶点的法向量,预设三维单位向量,根据每个顶点的法向量和三维单位向量获取每个顶点的偏移角度,根据每个目标顶点对应的所有第一特征领域内顶点的偏移角度获取目标顶点的凹凸参数;根据目标顶点的目标微分向量、三维顶点密集指数以及凹凸参数获取目标顶点的偏移距离。
每个顶点的三维顶点密集指数越大,说明该顶点处的顶点越多,三角网格越密集。而在生成三维动漫模型时,最开始是随机生成的,在非密集区域可能使用了很多的顶点表示,而在密集区域范围没有太多的顶点描述细节,因此需要对该情况进行修正。
首先对于每个顶点,根据其坐标获取其法向量,顶点的法向量为顶点所在的面的法向量的和,如图3所示,图3中,面1为最上方的面,面2为右后方的面,面3为右前方的面,面4为最下方的面,面5为左前方的面,面6为左后方的面,顶点Vj所在的面为面1,面3和面5,同时对于三维动漫模型预设其三维单位向量,三维单位向量记为根据每个顶点的法向量和三维单位向量获取每个顶点的偏移角度,公式如下:
式中,表示第i个顶点的法向量,/>表示三维单位向量,其中式中分子为两个向量的点乘,arccos表示三角函数,θi表示第i个顶点的偏移角度。
之后对于每个目标顶点,计算其第一特征领域内所有顶点的偏移角度的标准差作为目标顶点的凹凸参数,公式如下:
S(Vi)=σ(θi,j)
式中,θi,j表示第i个顶点的第一特征领域内第j个顶点的偏移角度,Vi表示第i个顶点,σ()表示标准差函数,S(Vi)表示第i个顶点的凹凸参数。
当顶点Vi附近的曲面凹凸不一致时,其各个面的法向量朝向不一致,导致顶点Vi的第一特征邻域的顶点法向量朝向较为混乱,其法向量方向的角度标准差较大。凹凸参数S(Vi)越大,顶点Vi区域法向量的方向越多样,曲面越丰富,越可能是表示细节的区域。而凹凸参数S(Vi)越小,表示顶点Vi附近的三角网格所构成的面(曲面)的朝向一致,该区域越可能是较为平滑的区域,所描述的细节较少。顶点密集指数U(Vi)越大,凹凸参数S(Vi)越大,顶点Vi所在的区域越有可能是模型的细节部分,考虑减小在法线偏移过程中的偏移量,防止三维模型细节区域的偏移过大,导致模型的几何失真现象。
根据每个顶点的顶点密集指数、凹凸参数以及目标微分向量获取每个顶点的偏移距离,公式如下:
R(Vi)=δ(Vi)×exp(-β×U(Vi)×S(Vi))
式中,Vi表示第i个顶点,δ(Vi)表示第i个顶点的目标微分向量,U(Vi)表示第i个顶点的顶点密集指数,S(Vi)表示第i个顶点的凹凸参数,exp()表示以自然常数为底的指数函数,β表示调节系数,在本实施例中取0.1,R(Vi)表示第i个顶点的偏移距离。
其中,在三维动漫模型中,人物模型的眼睛,耳朵等细节丰富的区域,其顶点密集指数U(Vi)较大,凹凸参数S(Vi)较大,减小在微分向量上的偏移。在动漫人物腹部,背部等细节较少的区域,可适当增大偏移的数值,以更好的丰富细节。
至此,获取了每个顶点的偏移距离。
步骤S005,将目标顶点的偏移距离与目标顶点的坐标相加获取更新坐标,对于所有顶点获取更新坐标,更新坐标生成三维动漫模型。
获取每个顶点的偏移距离后,由于其偏移距离为矢量,将该偏移距离与顶点的坐标相加获取新的顶点坐标,将所有顶点通过其偏移距离更新后得到新的三维动漫模型。上述操作放大了模型顶点的微小变化,将微小的凹凸放大,使得平滑的部分有着更多的细节。在光照下的阴影更丰富,增加三维动漫模型的真实感。
本实施例提供一种三维动漫模型生成***,包括存储器、处理器以及存储在所述存储器中并在所述处理器上运行的计算机程序,处理器执行所述计算机程序时实现上述步骤S001至步骤S005的方法。
需要说明的是:上述本发明实施例先后顺序仅仅为了描述,不代表实施例的优劣。在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。
Claims (2)
1.一种三维动漫模型生成方法,其特征在于,该方法包括以下步骤:
生成三维动漫模型,获取三维动漫模型的每个顶点的坐标;
将三维动漫模型任意一个顶点记为目标顶点,获取目标顶点的第一特征领域和第二特征领域;根据目标顶点与其第一特征领域内每个顶点的差值向量、第一特征领域内顶点的数量获取目标顶点的目标微分向量;
根据目标顶点的第二特征领域内的顶点与目标顶点的欧氏距离、第二特征领域内顶点的预设邻近距离以及第二特征领域内顶点的个数获取目标顶点的三维顶点密集指数;
获取每个顶点的法向量,预设三维单位向量,根据每个顶点的法向量和三维单位向量获取每个顶点的偏移角度,根据每个目标顶点对应的所有第一特征领域内顶点的偏移角度获取目标顶点的凹凸参数;根据目标顶点的目标微分向量、三维顶点密集指数以及凹凸参数获取目标顶点的偏移距离;
将目标顶点的偏移距离与目标顶点的坐标相加获取更新坐标,对于所有顶点获取更新坐标,更新坐标生成三维动漫模型;
所述获取目标顶点的第一特征领域和第二特征领域的方法为:
与目标顶点直接相连的所有顶点构成目标顶点的第一特征领域,所述直接相连为目标顶点和顶点相连且连线内不存在其余顶点;
与目标顶点间接相连的所有顶点构成目标顶点的第二特征领域,所述间接相连为目标顶点与顶点和同一个顶点直接相连;
所述根据目标顶点与其第一特征领域内每个顶点的差值向量、第一特征领域内顶点的数量获取目标顶点的目标微分向量的方法为:
将目标顶点的第一特征邻域内的顶点记为第一领域顶点,将目标顶点与其第一领域顶点的坐标之差作为目标顶点与第一领域顶点之间的向量记为第一向量;
将目标顶点与其所有第一领域顶点的第一向量取模后累加作为目标顶点的第一特征值;
根据目标顶点与其第一领域顶点的第一向量以及目标顶点对应的第一领域顶点的数量获取目标顶点的第一微分向量;
根据目标顶点与其第一领域顶点的第一向量、目标顶点的第一特征值以及每个第一向量的模获取目标顶点的第二微分向量;
将目标顶点的第一微分向量和第二微分向量进行加权求和获取目标顶点的目标微分向量,其中第一微分向量的权重小于第二微分向量的权重;
所述根据目标顶点与其第一领域顶点的第一向量以及目标顶点对应的第一领域顶点的数量获取目标顶点的第一微分向量的方法为:
式中,Vi表示第i个顶点,V1i,j表示第i个顶点的第一特征领域内的第j个顶点,Vi-V1i,j表示顶点Vi与顶点V1i,j的第一向量,N1(Vi)表示第i个顶点的第一特征领域集合,表示第i个顶点对应的第一领域顶点的数量,/>表示第i个顶点的第一微分向量;
所述根据目标顶点与其第一领域顶点的第一向量、目标顶点的第一特征值以及每个第一向量的模获取目标顶点的第二微分向量的方法为:
式中,Vi表示第i个顶点,V1i,j表示第i个顶点的第一特征领域内的第j个顶点,Vi-V1i,j表示顶点Vi与顶点V1i,j的第一向量,|Vi-V1i,j|表示顶点Vi与顶点Vi,j的第一向量的模,M(Vi)表示第i个顶点的第一特征值,N1(Vi)表示第i个顶点的第一特征领域集合,exp()表示以自然常数为底的指数函数,表示第i个顶点的第二微分向量;
所述根据目标顶点的第二特征领域内的顶点与目标顶点的欧氏距离、第二特征领域内顶点的预设邻近距离以及第二特征领域内顶点的个数获取目标顶点的三维顶点密集指数的方法为:
将目标顶点的第二特征领域内的顶点作为目标顶点对应的第二领域顶点,对于每个第二领域顶点,计算其与所有顶点的欧氏距离,设定预设值k,将第二领域顶点与距离其第k近的顶点之间的距离作为第二领域顶点的邻域距离;获取目标顶点和第二领域顶点的欧氏距离与第二领域顶点的邻域距离中的最大值,将所述最大值作为目标顶点与第二领域顶点的目标距离,根据目标顶点与第二领域顶点的目标距离以及第二特征领域内顶点的数量获取目标顶点的三维顶点密集指数;
所述根据目标顶点与第二领域顶点的目标距离以及第二特征领域内顶点的数量获取目标顶点的三维顶点密集指数的方法为:
式中,表示第i个顶点对应的第二领域顶点的数量,Vi表示第i个顶点,V2i,j表示第i个顶点的第二特征领域内的第j个顶点,N2(Vi)表示第i个顶点的第二特征领域集合,DIS(Vi,j,Vi)表示顶点Vi与顶点Vi,j的目标距离,U(Vi)表示第i个顶点的三维顶点密集指数;
所述根据每个顶点的法向量和三维单位向量获取每个顶点的偏移角度,根据每个目标顶点对应的所有第一特征领域内顶点的偏移角度获取目标顶点的凹凸参数的方法为:
对于每个顶点,根据向量的点乘公式获取顶点的法向量和三维单位向量的之间的夹角,将夹角作为顶点的偏移角度;
对于每个目标顶点,将其所有第一特征领域内顶点的偏移角度求标准差作为目标顶点的凹凸参数;
所述根据目标顶点的目标微分向量、三维顶点密集指数以及凹凸参数获取目标顶点的偏移距离的方法为:
R(Vi)=δ(Vi)×exp(-β×U(Vi)×S(Vi))
式中,Vi表示第i个顶点,δ(Vi)表示第i个顶点的目标微分向量,U(Vi)表示第i个顶点的顶点密集指数,S(Vi)表示第i个顶点的凹凸参数,exp()表示以自然常数为底的指数函数,β表示调节系数,R(Vi)表示第i个顶点的偏移距离。
2.一种三维动漫模型生成***,包括存储器、处理器以及存储在所述存储器中并在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1所述一种三维动漫模型生成方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311538906.4A CN117437362B (zh) | 2023-11-17 | 一种三维动漫模型生成方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311538906.4A CN117437362B (zh) | 2023-11-17 | 一种三维动漫模型生成方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117437362A CN117437362A (zh) | 2024-01-23 |
CN117437362B true CN117437362B (zh) | 2024-06-21 |
Family
ID=
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113570634A (zh) * | 2020-04-28 | 2021-10-29 | 北京达佳互联信息技术有限公司 | 对象三维重建方法、装置、电子设备及存储介质 |
CN114373056A (zh) * | 2021-12-17 | 2022-04-19 | 云南联合视觉科技有限公司 | 一种三维重建方法、装置、终端设备及存储介质 |
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113570634A (zh) * | 2020-04-28 | 2021-10-29 | 北京达佳互联信息技术有限公司 | 对象三维重建方法、装置、电子设备及存储介质 |
CN114373056A (zh) * | 2021-12-17 | 2022-04-19 | 云南联合视觉科技有限公司 | 一种三维重建方法、装置、终端设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hu et al. | Centroidal Voronoi tessellation based polycube construction for adaptive all-hexahedral mesh generation | |
CN101901503B (zh) | 使用光谱分析的伸展驱动的网格参数化 | |
US8537158B2 (en) | Parallel triangle tessellation | |
CN101339669A (zh) | 基于正侧面影像的三维人脸建模方法 | |
Kobourov et al. | Non-Eeuclidean spring embedders | |
CN113111861A (zh) | 人脸纹理特征提取、3d人脸重建方法及设备及存储介质 | |
Zhang et al. | Critical regularizations for neural surface reconstruction in the wild | |
WO2021203711A1 (zh) | 一种基于几何重建模型的等几何分析方法 | |
CN112862949B (zh) | 基于多视图的物体3d形状重建方法 | |
CN113592711B (zh) | 点云数据不均匀的三维重建方法、***、设备及存储介质 | |
CN114842136A (zh) | 一种基于可微分渲染器的单图三维人脸重建方法 | |
CN116977536A (zh) | 一种基于混合神经辐射场的无边界场景新视角合成方法 | |
CN113343328B (zh) | 一种基于改进牛顿迭代的高效最近点投影方法 | |
CN106960469B (zh) | 一种快速分割三角形的光滑自由变形方法 | |
CN117437362B (zh) | 一种三维动漫模型生成方法及*** | |
KR100414058B1 (ko) | 3차원 다각형 표면의 리메슁 최적화 방법 및 장치 | |
CN110322548B (zh) | 一种基于几何图像参数化的三维网格模型生成方法 | |
Yoo | Three-dimensional morphing of similar shapes using a template mesh | |
CN117437362A (zh) | 一种三维动漫模型生成方法及*** | |
CN110738726A (zh) | 一种基于八叉树的机器人视觉引导三维物体重建方法 | |
CN109801367B (zh) | 一种基于压缩流形模式的网格模型特征编辑方法 | |
CN113112596A (zh) | 人脸几何模型提取、3d人脸重建方法、设备及存储介质 | |
CN117083638A (zh) | 用于视图合成的加速神经辐射场 | |
CN109509249B (zh) | 一种基于部件的虚拟场景光源智能生成方法 | |
Sela et al. | Generation of view dependent models using free form deformation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |