CN114047823B - 三维模型展示方法、计算机可读存储介质及电子设备 - Google Patents

三维模型展示方法、计算机可读存储介质及电子设备 Download PDF

Info

Publication number
CN114047823B
CN114047823B CN202111423855.1A CN202111423855A CN114047823B CN 114047823 B CN114047823 B CN 114047823B CN 202111423855 A CN202111423855 A CN 202111423855A CN 114047823 B CN114047823 B CN 114047823B
Authority
CN
China
Prior art keywords
image
model
value
network
view angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111423855.1A
Other languages
English (en)
Other versions
CN114047823A (zh
Inventor
李佳佳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seashell Housing Beijing Technology Co Ltd
Original Assignee
Seashell Housing Beijing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seashell Housing Beijing Technology Co Ltd filed Critical Seashell Housing Beijing Technology Co Ltd
Priority to CN202111423855.1A priority Critical patent/CN114047823B/zh
Publication of CN114047823A publication Critical patent/CN114047823A/zh
Application granted granted Critical
Publication of CN114047823B publication Critical patent/CN114047823B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

本公开的实施例公开了一种三维模型展示方法、计算机可读存储介质及电子设备。该方法包括:确定目标三维模型的待展示视角;获取目标三维模型在参考视角下的第一模型图像;确定待展示视角与参考视角的第一视角差异信息;根据第一模型图像和第一视角差异信息,经由图像生成网络生成目标三维模型在待展示视角下的第二模型图像;展示第二模型图像。本公开的实施例能够降低需要预先存储的图像数据量,从而能够节约存储空间。

Description

三维模型展示方法、计算机可读存储介质及电子设备
技术领域
本公开涉及三维建模和展示技术领域,尤其涉及一种三维模型展示方法、计算机可读存储介质及电子设备。
背景技术
虚拟现实(Virtual Reality,VR)技术可以借用设备,让用户体验到虚拟世界和现实世界的结合,帮助用户达到沉浸式的用户体验。
需要说明的是,VR技术中三维模型(例如三维房屋模型)往往需要进行不同视角的展示,基于此,可以预先存储三维模型在多个视角下的多张模型图像,以便通过不同模型图像呈现三维模型在不同视角下的应有姿态,这样,需要预先存储的图像数据量非常大,因此,如何降低需要预先存储的图像数据量对于本领域技术人员而言是一个亟待解决的问题。
发明内容
为了解决上述技术问题,提出了本公开。本公开的实施例提供了一种三维模型展示方法、计算机可读存储介质及电子设备。
根据本公开实施例的一个方面,提供了一种三维模型展示方法,包括:
确定目标三维模型的待展示视角;
获取所述目标三维模型在参考视角下的第一模型图像;
确定所述待展示视角与所述参考视角的第一视角差异信息;
根据所述第一模型图像和所述第一视角差异信息,经由图像生成网络生成所述目标三维模型在所述待展示视角下的第二模型图像;
展示所述第二模型图像。
在一个可选示例中,所述图像生成网络包括:编码器和解码器;
所述根据所述第一模型图像和所述第一视角差异信息,经由图像生成网络生成所述目标三维模型在所述待展示视角下的第二模型图像,包括:
将所述第一视角差异信息转换为方向向量;
经由所述编码器对所述第一模型图像进行特征提取,以得到图像特征向量;
对所述方向向量和所述图像特征向量进行拼接,以得到拼接向量;
经由所述解码器根据所述拼接向量生成所述目标三维模型在所述待展示视角下的第二模型图像。
在一个可选示例中,所述第一视角差异信息包括:水平角度差值和俯仰角度差值;
所述将所述第一视角差异信息转换为方向向量,包括:
对所述水平角度差值进行第一三角函数运算,以得到第一运算结果值,以及对所述水平角度差值进行第二三角函数运算,以得到第二运算结果值;
对所述俯仰角度差值进行所述第一三角函数运算,以得到第三运算结果值,以及对所述俯仰角度差值进行所述第二三角函数运算,以得到第四运算结果值;
生成向量元素包括所述第一运算结果值、所述第二运算结果值、所述第三运算结果值和所述第四运算结果值的方向向量。
在一个可选示例中,所述方法还包括:
获取网络训练数据;其中,所述网络训练数据包括:训练三维模型在第一视角下的第三模型图像和在第二视角下的第四模型图像;
确定所述第二视角与所述第一视角的第二视角差异信息;
根据所述第三模型图像、所述第二视角差异信息和所述第四模型图像,训练所述图像生成网络。
在一个可选示例中,所述根据所述第三模型图像、所述第二视角差异信息和所述第四模型图像,训练所述图像生成网络,包括:
根据所述第三模型图像和所述第二视角差异信息,经由所述图像生成网络生成第五模型图像;
计算所述第五模型图像与所述第四模型图像的相似度评估值;
利用判别网络判别所述第五模型图像是否属于真实图像,以得到判别结果值;
根据所述相似度评估值和所述判别结果值,进行加权运算,以得到网络损失值;
以最小化所述网络损失值作为调整目标,调整所述图像生成网络的网络参数。
在一个可选示例中,所述根据所述相似度评估值和所述判别结果值,进行加权运算,以得到网络损失值,包括:
计算预设数值与所述判别结果值的差值;
对所述差值进行对数运算,以得到对数运算结果值;
利用指定权重,对所述相似度评估值和所述对数运算结果值进行加权运算,以得到网络损失值。
根据本公开实施例的另一个方面,提供了一种三维模型展示装置,包括:
第一确定模块,用于确定目标三维模型的待展示视角;
第一获取模块,用于获取所述目标三维模型在参考视角下的第一模型图像;
第二确定模块,用于确定所述待展示视角与所述参考视角的第一视角差异信息;
生成模块,用于根据所述第一模型图像和所述第一视角差异信息,经由图像生成网络生成所述目标三维模型在所述待展示视角下的第二模型图像;
展示模块,用于展示所述第二模型图像。
在一个可选示例中,所述图像生成网络包括:编码器和解码器;
所述生成模块,包括:
转换子模块,用于将所述第一视角差异信息转换为方向向量;
特征提取子模块,用于经由所述编码器对所述第一模型图像进行特征提取,以得到图像特征向量;
拼接子模块,用于对所述方向向量和所述图像特征向量进行拼接,以得到拼接向量;
第一生成子模块,用于经由所述解码器根据所述拼接向量生成所述目标三维模型在所述待展示视角下的第二模型图像。
在一个可选示例中,所述第一视角差异信息包括:水平角度差值和俯仰角度差值;
所述转换子模块,包括:
第一处理单元,用于对所述水平角度差值进行第一三角函数运算,以得到第一运算结果值,以及对所述水平角度差值进行第二三角函数运算,以得到第二运算结果值;
第二处理单元,用于对所述俯仰角度差值进行所述第一三角函数运算,以得到第三运算结果值,以及对所述俯仰角度差值进行所述第二三角函数运算,以得到第四运算结果值;
生成单元,用于生成向量元素包括所述第一运算结果值、所述第二运算结果值、所述第三运算结果值和所述第四运算结果值的方向向量。
在一个可选示例中,所述装置还包括:
第二获取模块,用于获取网络训练数据;其中,所述网络训练数据包括:训练三维模型在第一视角下的第三模型图像和在第二视角下的第四模型图像;
第三确定模块,用于确定所述第二视角与所述第一视角的第二视角差异信息;
训练模块,用于根据所述第三模型图像、所述第二视角差异信息和所述第四模型图像,训练所述图像生成网络。
在一个可选示例中,所述训练模块,包括:
第二生成子模块,用于根据所述第三模型图像和所述第二视角差异信息,经由所述图像生成网络生成第五模型图像;
计算子模块,用于计算所述第五模型图像与所述第四模型图像的相似度评估值;
获取子模块,用于利用判别网络判别所述第五模型图像是否属于真实图像,以得到判别结果值;
处理子模块,用于根据所述相似度评估值和所述判别结果值,进行加权运算,以得到网络损失值;
调整子模块,用于以最小化所述网络损失值作为调整目标,调整所述图像生成网络的网络参数。
在一个可选示例中,所述处理子模块,包括:
计算单元,用于计算预设数值与所述判别结果值的差值;
第三处理单元,用于对所述差值进行对数运算,以得到对数运算结果值;
第四处理单元,用于利用指定权重,对所述相似度评估值和所述对数运算结果值进行加权运算,以得到网络损失值。
根据本公开实施例的再一个方面,提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述三维模型展示方法。
根据本公开实施例的又一个方面,提供了一种电子设备,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现上述三维模型展示方法。
根据本公开实施例的又一个方面,提供了一种计算机程序产品,包括程序,当所述程序被处理器执行时实现上述三维模型展示方法。
本公开的实施例中,在确定目标三维模型的待展示视角之后,可以获取目标三维模型在参考视角下的第一模型图像,确定待展示视角与参考视角的第一视角差异信息,并根据第一模型图像和第一视角差异信息,经由图像生成网络生成目标三维模型在待展示视角下的第二模型图像,以便展示第二模型图像,从而向用户呈现目标三维模型在待展示视角下的应有姿态。可见,本公开的实施例中,通过预先存储三维模型在参考视角下的模型图像,再结合视角差异信息的确定和图像生成网络的使用,可以生成用户所需任意视角下的模型图像,也即,在仅存储少量模型图像的前提下,本公开的实施例能够向用户呈现三维模型在各种视角下的应有姿态,因此,本公开的实施例能够降低需要预先存储的图像数据量,从而能够节约存储空间。
下面通过附图和实施例,对本公开的技术方案做进一步的详细描述。
附图说明
通过结合附图对本公开实施例进行更详细的描述,本公开的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本公开实施例的进一步理解,并且构成说明书的一部分,与本公开实施例一起用于解释本公开,并不构成对本公开的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1是本公开的实施例提供的三维模型展示方法的流程示意图。
图2是本公开的实施例中目标三维模型的示意图。
图3是本公开的实施例提供的三维模型展示方法的另一流程示意图。
图4是本公开的实施例中图像生成网络的示意图。
图5是本公开的实施例提供的三维模型展示方法的再一流程示意图。
图6是本公开的实施例提供的三维模型展示方法的又一流程示意图。
图7是本公开的实施例中判别网络的示意图。
图8是本公开的实施例提供的三维模型展示装置的结构示意图。
图9是本公开的实施例提供的三维模型展示装置的另一结构示意图。
图10是本公开的实施例提供的电子设备的结构图。
具体实施方式
下面,将参考附图详细地描述根据本公开的示例实施例。显然,所描述的实施例仅仅是本公开的一部分实施例,而不是本公开的全部实施例,应理解,本公开不受这里描述的示例实施例的限制。
应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本公开的范围。
本领域技术人员可以理解,本公开实施例中的“第一”、“第二”等术语仅用于区别不同步骤、设备或模块等,既不代表任何特定技术含义,也不表示它们之间的必然逻辑顺序。
还应理解,在本公开实施例中,“多个”可以指两个或两个以上,“至少一个”可以指一个、两个或两个以上。
还应理解,对于本公开实施例中提及的任一部件、数据或结构,在没有明确限定或者在前后文给出相反启示的情况下,一般可以理解为一个或多个。
另外,本公开中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本公开中字符“/”,一般表示前后关联对象是一种“或”的关系。
还应理解,本公开对各个实施例的描述着重强调各个实施例之间的不同之处,其相同或相似之处可以相互参考,为了简洁,不再一一赘述。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
本公开实施例可以应用于终端设备、计算机***、服务器等电子设备,其可与众多其它通用或专用计算***环境或配置一起操作。适于与终端设备、计算机***、服务器等电子设备一起使用的众所周知的终端设备、计算***、环境和/或配置的例子包括但不限于:个人计算机***、服务器计算机***、瘦客户机、厚客户机、手持或膝上设备、基于微处理器的***、机顶盒、可编程消费电子产品、网络个人电脑、小型计算机***、大型计算机***和包括上述任何***的分布式云计算技术环境,等等。
终端设备、计算机***、服务器等电子设备可以在由计算机***执行的计算机***可执行指令(诸如程序模块)的一般语境下描述。通常,程序模块可以包括例程、程序、目标程序、组件、逻辑、数据结构等等,它们执行特定的任务或者实现特定的抽象数据类型。计算机***/服务器可以在分布式云计算环境中实施,分布式云计算环境中,任务是由通过通信网络链接的远程处理设备执行的。在分布式云计算环境中,程序模块可以位于包括存储设备的本地或远程计算***存储介质上。
示例性方法
图1是本公开一示例性实施例提供的三维模型展示方法的流程示意图。图1所示的方法可以包括步骤101、步骤102、步骤103、步骤104和步骤105,下面对各步骤分别进行说明。
步骤101,确定目标三维模型的待展示视角。
可选地,目标三维模型可以为图2所示的三维汽车模型,当然,目标三维模型的类型并不局限于此,例如,目标三维模型还可以为三维房屋模型或者其它类型的三维模型,在此不再一一列举。
可选地,在目标三维模型的展示场景下,可以基于用户在VR设备上的操作,确定目标三维模型的待展示视角,例如,用户可以通过触控操作,在VR设备上输入一视角,该视角即可作为目标三维模型的待展示视角。
可选地,目标三维模型的待展示视角可以包括两部分,分别是一水平角度(为了便于区分,后续将其称为第一水平角度)和一俯仰角度(为了便于区分,后续将其称为第一俯仰角度);其中,第一水平角度可以表示为θr1,第一俯仰角度可以表示为θh1
步骤102,获取目标三维模型在参考视角下的第一模型图像。
需要说明的是,参考视角可以为预先设定好的任意视角,参考视角可以包括两部分,分别是一水平角度(为了便于区别,后续将其称为第二水平角度)和一俯仰角度(为了便于区分,后续将其称为第二俯仰角度);其中,第二水平角度可以表示为θr2,第二俯仰角度可以表示为θh2。可选地,θr2可以为15度,θh2可以为25度;或者,θr2可以为0度,θh2可以为30度。
另外,目标三维模型在参考视角下的第一模型图像可以预先进行存储,第一模型图像可以是目标三维模型真实的模型图像,第一模型图像具体可以为RGB(其代表红、绿、蓝三个通道的颜色)图像。这样,在步骤102中,可以直接获取预先存储的第一模型图像。
步骤103,确定待展示视角与参考视角的第一视角差异信息。
在步骤103中,可以计算第一水平角度与第二水平角度的差值(其可以作为下文中的水平角度差值),以及计算第一俯仰角度与第二俯仰角度的差值(其可以作为下文中的俯仰角度差值),计算出的两个差值可以组成第一视角差异信息。
步骤104,根据第一模型图像和第一视角差异信息,经由图像生成网络生成目标三维模型在待展示视角下的第二模型图像。
需要说明的是,图像生成网络可以为预先训练得到的、用于多视角模型图像生成的网络,图像生成网络的具体训练方式在下文中进行介绍,在此先不做具体展开。可选地,图像生成网络可以为编码解码网络,编码解码网络是指包括编码器和解码器的网络。
由于第二模型图像是由图像生成网络生成的模型图像,且待展示视角可以不同于参考视角,第二模型图像可以认为是基于第一模型图像和第一视角差异信息,经角度转换后得到的重构图像。
步骤105,展示第二模型图像。
在步骤105中,可以对第二模型图像进行展示,以通过第二模型图像将目标三维模型在待展示视角下的应有姿态呈现给用户。
本公开的实施例中,在确定目标三维模型的待展示视角之后,可以获取目标三维模型在参考视角下的第一模型图像,确定待展示视角与参考视角的第一视角差异信息,并根据第一模型图像和第一视角差异信息,经由图像生成网络生成目标三维模型在待展示视角下的第二模型图像,以便展示第二模型图像,从而向用户呈现目标三维模型在待展示视角下的应有姿态。可见,本公开的实施例中,通过预先存储三维模型在参考视角下的模型图像,再结合视角差异信息的确定和图像生成网络的使用,可以生成用户所需任意视角下的模型图像,也即,在仅存储少量模型图像的前提下,本公开的实施例能够向用户呈现三维模型在各种视角下的应有姿态,因此,本公开的实施例能够降低需要预先存储的图像数据量,从而能够节约存储空间。
在一个可选示例中,图像生成网络包括:编码器和解码器;
在图1所示实施例的基础上,如图3所示,步骤104,包括:
步骤1041,将第一视角差异信息转换为方向向量;
步骤1042,经由编码器对第一模型图像进行特征提取,以得到图像特征向量;
步骤1043,对方向向量和图像特征向量进行拼接,以得到拼接向量;
步骤1044,经由解码器根据拼接向量生成目标三维模型在待展示视角下的第二模型图像。
本公开的实施例中,在确定第一视角差异信息之后,可以将第一视角差异信息转换为方向向量。在一种具体实施方式中,第一视角差异信息包括:水平角度差值和俯仰角度差值;
将第一视角差异信息转换为方向向量,包括:
对水平角度差值进行第一三角函数运算,以得到第一运算结果值,以及对水平角度差值进行第二三角函数运算,以得到第二运算结果值;
对俯仰角度差值进行第一三角函数运算,以得到第三运算结果值,以及对俯仰角度差值进行第二三角函数运算,以得到第四运算结果值;
生成向量元素包括第一运算结果值、第二运算结果值、第三运算结果值和第四运算结果值的方向向量。
可选地,第一三角函数运算可以为正弦函数运算,第二三角函数运算可以为余弦函数运算,当然,第一三角函数运算和第二三角函数运算也可以为其它类型的三角函数运算,例如为正切函数运算、正割函数运算等,在此不再一一列举。
假设第一视角差异信息包括的水平角度差值表示为Δθr,第一视角差异信息包括的俯仰角度差值表示为Δθh,第一三角函数运算为正弦函数运算,第二三角函数运算为余弦函数运算,则第一运算结果值可以表示为sin(Δθr),第二运算结果值可以表示为cos(Δθr),第三运算结果值可以表示为sin(Δθh),第四运算结果值可以表示为cos(Δθh),则方向向量可以呈如下形式:
[sin(Δθr),cos(Δθr),sin(Δθh),cos(Δθh)]
容易看出,这里的方向向量具体为1×4维向量。
这种实施方式中,基于三角函数运算,能够非常便捷可靠地实现由视角差异信息至方向向量的转换。
本公开的实施例中,可以由图像生成网络的编码器对第一模型图像进行特征提取,以得到图像特征向量。可选地,如图4所示,编码器(其对应图4中的编码结构部分)可以包括5个卷积层和1个最大池化层;其中,按照从前至后的顺序,这5个卷积层包括的卷积核的个数可以为32、64、128、64、16,前3个卷积层采用的卷积核的大小可以为3×3,另外2个卷积层采用的卷积核的大小可以为1×1,每个卷积层都可以采用修正线性单元(RectifiedLinear Unit,ReLU)激活函数,在将第一模型图像输入后,在卷积层处可以进行运算,对于图像中的每个像素点,可以在不同通道上进行线性组合,以在保留原有平面结构基础上对通道数进行降维;最大池化层的局部池化范围可以为2×2,步长可以为2。另外,卷积层后还可以接一全连接层[4096,128]进行降维,以生成1×128维向量,该向量即可作为图像特征向量。
在得到方向向量和图像特征向量之后,可以对方向向量和图像特征向量进行拼接,以得到拼接向量。在一个具体例子中,方向向量为1×4维向量,图像特征向量为1×128维向量,则可以先将方向向量升维为1×128维向量,然后将升维后的方向向量与图像特征向量两者对应位置的元素求和,以得到拼接向量,或者,可以直接将作为方向向量的1×4维向量附加在图像特征向量末端,以得到拼接向量。
在得到拼接向量之后,可以将拼接向量提供给图像生成网络的解码器(其对应图4中的解码结构部分),解码器可以基于提供给其的拼接向量进行运算,从而最终生成并输出第二模型图像。
本公开的实施例中,图像生成网络中的编码器可以便捷可靠地对第一模型图像进行特征提取,以生成图像特征向量,基于图像特征向量和方向向量两者进行拼接得到的拼接向量,图像生成网络中的解码器可以便捷可靠地生成第二模型图像,这样,本公开的实施例中,在生成模型图像时,不仅利用了参考图像所承载的图像信息,还有效地利用了视角差异信息所承载的角度信息,这样能够较好地保证最终生成的模型图像的可靠性。
在图1所示实施例的基础上,如图5所示,该方法还包括:
步骤111,获取网络训练数据;其中,网络训练数据包括:训练三维模型在第一视角下的第三模型图像和在第二视角下的第四模型图像;
步骤112,确定第二视角与第一视角的第二视角差异信息;
步骤113,根据第三模型图像、第二视角差异信息和第四模型图像,训练图像生成网络。
需要说明的是,训练三维模型是指用于图像生成网络的训练的三维模型,训练三维模型具体可以来源于一些开源数据库,例如来源于ShapeNet;其中,ShapeNet是一个具有丰富注释的三维模型的大型数据集。需要指出的是,训练三维模型的数量可以为成千上万个,由于针对各个训练三维模型的相关处理是类似的,本公开的实施例中仅针对单个训练三维模型的相关处理进行介绍。
在步骤111中,可以通过解析程序对训练三维模型进行解析,以获取网络训练数据,例如,每次可以在一固定的俯仰角度下,每间隔一定的水平角度,通过解析程序解析出相应的模型图像(其可以为二维图像),通过多次解析,可以实现网络训练数据的获取。具体地,可以先令俯仰角度为0度,控制水平视角从0度至360度,每隔10度解析出一模型图像,俯仰角度从0度至30度,可以每隔10度变化一次,按照这样的方式,能够得到多张模型图像,基于得到的多张模型图像,可以生成多个网络训练数据,每个网络训练数据可以包括得到的多张模型图像中的两张模型图像,其中一张模型图像可以作为第一视角下的第三模型图像,另一张模型图像可以作为第二视角下的第四模型图像。需要指出的是,虽然网络训练数据的数量为多个,但是由于针对各个网络训练数据的相关处理是类似的,本公开的实施例中仅针对单个网络训练数据的相关处理进行介绍。
在步骤112中,可以采用与上文中确定第一视角差异信息的方式类似的方式,确定第二视角与第一视角的第二视角差异信息。
在步骤113中,可以将第二视角差异信息转换为方向向量,然后将第三模型图像和转换得到的方向向量作为输入数据,将第四模型图像作为输出数据进行训练,从而得到图像生成网络,该图像生成网络能够根据提供给其的模型图像和方向向量,生成并输出相应视角下的模型图像。当然,在步骤113中,也可以直接将第三模型图像和第二视角差异信息作为输入数据,将第四模型图像作为输出数据进行训练,从而得到图像生成网络,该图像生成网络能够根据提供给其的模型图像和视角差异信息,生成并输出相应视角下的模型图像。
本公开的实施例中,在获取包括训练三维模型在第一视角下的第三模型图像和在第二视角下的第四模型图像的网络训练数据之后,可以确定第二视角和第一视角的第二视角差异信息,再之后可以根据第三模型图像、第二视角差异信息和第四模型图像,训练图像生成网络,经训练得到的图像生成网络可以用于上文中第二模型图像的生成,这样,通过训练得到的图像生成网络的运用,在仅存储少量模型图像的前提下,能够向用户呈现三维模型在各种视角下的应有姿态,从而能够降低需要预先存储的图像数据量,进而能够节约存储空间。
在图5所示实施例的基础上,如图6所示,步骤113,包括:
步骤1131,根据第三模型图像和第二视角差异信息,经由图像生成网络生成第五模型图像;
步骤1132,计算第五模型图像与第四模型图像的相似度评估值;
步骤1133,利用判别网络判别第五模型图像是否属于真实图像,以得到判别结果值;
步骤1134,根据相似度评估值和判别结果值,进行加权运算,以得到网络损失值;
步骤1135,以最小化网络损失值作为调整目标,调整图像生成网络的网络参数。
需要说明的是,步骤1131中的图像生成网络生成第五模型图像的具体方式与上面的步骤104中的图像生成网络生成第二模型图像的具体方式是类似的,区别仅在于步骤1131中的图像生成网络为训练过程中的图像生成网络,而步骤104中的图像生成网络为训练完成的图像生成网络,在此不对生成第五模型图像的具体方式进行展开说明。
在生成第五模型图像之后,可以计算第五模型图像与第四模型图像的相似度评估值。可选地,可以计算第五模型图像与第四模型图像两者的欧式距离值,并将欧式距离值作为两者的相似度评估值,当然,计算相似度评估值的方式并不局选于此,例如,可以计算第五模型图像与第四模型图像两者的余弦距离值,并将余弦距离值作为相似度评估值。
另外,还可以利用判别网络判别第五模型图像是否属于真实图像(即不是通过图像生成网络重构出的图像),以得到判别结果值;其中,判别网络可以包括一判别器,判别结果值可以由判别器生成;判别网络的具体结构可以参见图7,这时,判别网络的具体结构与上文中的编码器的结构是类似的,区别仅在于判别网络的全连接层采取的是[4096,128,1]。可选地,在第五模型图像属于真实图像的情况下,判别结果为真,判别结果值可以为1,否则,判别结果为假,判别结果值可以为0。
在得到相似度评估值和判别结果值之后,可以根据相似度评估值和判别结果值,进行加权运算,以得到网络损失值,以便以最小化网络损失值作为调整目标,调整图像生成网络的网络参数。
在一种具体实施方式中,根据相似度评估值和判别结果值,进行加权运算,以得到网络损失值,包括:
计算预设数值与判别结果值的差值;
对差值进行对数运算,以得到对数运算结果值;
利用指定权重,对相似度评估值和对数运算结果值进行加权运算,以得到网络损失值。
可选地,预设数值可以为1。
假设第三模型图像表示为x,第四模型图像表示为判别网络表示为D,图像生成网络表示为G,第二视角差异信息转换为的方向向量表示为d,对第三模型图像进行图像特征提取得到的图像特征向量表示为z,指定权重表示为λ,相似度评估值具体为第五模型图像与第四模型图像的欧式距离值,则第五模型图像可以表示为G(z,d),相似度评估值可以表示为/>判别结果值可以表示为D[G(z,d)],预设数值与判别结果值的差值可以表示为1-D[G(z,d)],对数运算结果值可以表示为log{1-D[G(z,d)]},网络损失值可以表示为/>
需要说明的是,参照上段中网络损失值的具体形式,网络损失值实际上是对相似度评估值和对数运算结果值进行加权求和后得到的数值,具体实现时,网络损失值也可以是利用指定权重,对相似度评估值和对数运算结果值进行加权平均后得到的数值。
在得到网络损失值之后,可以最小化网络损失值作为调整目标,调整图像生成网络的网络参数,从而使图像生成网络训练至最优的状态,也即,本公开的实施例中可以采用如下的损失函数,进行图像生成网络的训练:
其中,pdata表示网络训练数据的图像角度联合概率分布。
需要说明的是,上述损失函数中,可以认为是新生成图像(即图像生成网络的输出图像)与真实数据库中的训练图像间的欧式距离损失,log{1-D[G(z,d)]}可以认为类似于普通的生成对抗网络的对抗损失,欧式距离损失可以用于确保新生成图像与真实数据库中的训练图像的相似性,对抗损失可以用于保持图像的纹理信息,λ可以认为是衡量新生成图像的锐化程度,以及新生成图像与训练图像的相似性的权重,这样有利于确保图像生成网络生成的模型图像在相似性和真实性之间达到平衡。
可见,本公开的实施例中,通过相似度评估值和判别结果值的获取,并据此进行加权运算,基于运算得到的网络损失值进行网络参数的调整,能够通过融入对抗思想,提升图像生成网络生成的模型图像的质量。
需要指出的是,开源数据库中往往包括大量的三维模型,在进行网络训练时,可以先去掉这些三维模型中纹理较差或者分辨率较低的模型,然后从剩下的三维模型中选取一定数量的三维模型,例如选取6000个三维模型,其中5800个三维模型可以作为训练集,另外200个三维模型可以作为测试集。
可选地,在进行网络训练时,可采用交替训练方式,具体而言,可以先训练用于判别输入的图像是否为真实图像的判别网络,在迭代数次后可以固定判别网络的网络参数,然后训练图像生成网络,迭代数次后再训练判别网络,后续依此类推,直至判别网络和图像生成网络均达到平衡。
本公开的实施例提供的任一种三维模型展示方法可以由任意适当的具有数据处理能力的设备执行,包括但不限于:终端设备和服务器等。或者,本公开实施例提供的任一种三维模型展示方法可以由处理器执行,如处理器通过调用存储器存储的相应指令来执行本公开实施例提及的任一种三维模型展示方法。下文不再赘述。
示例性装置
图8是本公开一示例性实施例提供的三维模型展示装置的结构示意图,图8所示的装置包括第一确定模块801、第一获取模块802、第二确定模块803、生成模块804和展示模块805。
第一确定模块801,用于确定目标三维模型的待展示视角;
第一获取模块802,用于获取目标三维模型在参考视角下的第一模型图像;
第二确定模块803,用于确定待展示视角与参考视角的第一视角差异信息;
生成模块804,用于根据第一模型图像和第一视角差异信息,经由图像生成网络生成目标三维模型在待展示视角下的第二模型图像;
展示模块805,用于展示第二模型图像。
在一个可选示例中,图像生成网络包括:编码器和解码器;
如图9所示,生成模块804,包括:
转换子模块8041,用于将第一视角差异信息转换为方向向量;
特征提取子模块8042,用于经由编码器对第一模型图像进行特征提取,以得到图像特征向量;
拼接子模块8043,用于对方向向量和图像特征向量进行拼接,以得到拼接向量;
第一生成子模块8044,用于经由解码器根据拼接向量生成目标三维模型在待展示视角下的第二模型图像。
在一个可选示例中,第一视角差异信息包括:水平角度差值和俯仰角度差值;
转换子模块,包括:
第一处理单元,用于对水平角度差值进行第一三角函数运算,以得到第一运算结果值,以及对水平角度差值进行第二三角函数运算,以得到第二运算结果值;
第二处理单元,用于对俯仰角度差值进行第一三角函数运算,以得到第三运算结果值,以及对俯仰角度差值进行第二三角函数运算,以得到第四运算结果值;
生成单元,用于生成向量元素包括第一运算结果值、第二运算结果值、第三运算结果值和第四运算结果值的方向向量。
在一个可选示例中,如图9所示,该装置还包括:
第二获取模块811,用于获取网络训练数据;其中,网络训练数据包括:训练三维模型在第一视角下的第三模型图像和在第二视角下的第四模型图像;
第三确定模块812,用于确定第二视角与第一视角的第二视角差异信息;
训练模块813,用于根据第三模型图像、第二视角差异信息和第四模型图像,训练图像生成网络。
在一个可选示例中,训练模块813,包括:
第二生成子模块,用于根据第三模型图像和第二视角差异信息,经由图像生成网络生成第五模型图像;
计算子模块,用于计算第五模型图像与第四模型图像的相似度评估值;
获取子模块,用于利用判别网络判别第五模型图像是否属于真实图像,以得到判别结果值;
处理子模块,用于根据相似度评估值和判别结果值,进行加权运算,以得到网络损失值;
调整子模块,用于以最小化网络损失值作为调整目标,调整图像生成网络的网络参数。
在一个可选示例中,处理子模块,包括:
计算单元,用于计算预设数值与判别结果值的差值;
第三处理单元,用于对差值进行对数运算,以得到对数运算结果值;
第四处理单元,用于利用指定权重,对相似度评估值和对数运算结果值进行加权运算,以得到网络损失值。
示例性电子设备
下面,参考图10来描述根据本公开实施例的电子设备。该电子设备可以是第一设备和第二设备中的任一个或两者、或与它们独立的单机设备,该单机设备可以与第一设备和第二设备进行通信,以从它们接收所采集到的输入信号。
图10图示了根据本公开实施例的电子设备1000的框图。
如图10所示,电子设备1000包括一个或多个处理器1001和存储器1002。
处理器1001可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备1000中的其他组件以执行期望的功能。
存储器1002可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器1001可以运行所述程序指令,以实现上文所述的本公开的各个实施例的三维模型展示方法。在所述计算机可读存储介质中还可以存储诸如输入信号、信号分量、噪声分量等各种内容。
在一个示例中,电子设备1000还可以包括:输入装置1003和输出装置1004,这些组件通过总线***和/或其他形式的连接机构(未示出)互连。
例如,在电子设备1000是第一设备或第二设备时,该输入装置1003可以是麦克风或麦克风阵列。在电子设备1000是单机设备时,该输入装置1003可以是通信网络连接器,用于从第一设备和第二设备接收所采集的输入信号。
此外,该输入装置1003还可以包括例如键盘、鼠标等等。
该输出装置1004可以向外部输出各种信息。该输出装置1004可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出装置等等。
当然,为了简化,图10中仅示出了该电子设备1000中与本公开有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备1000还可以包括任何其他适当的组件。
示例性计算机程序产品和计算机可读存储介质
除了上述方法和设备以外,本公开的实施例还可以是计算机程序产品,其包括程序,当该程序被处理器执行时实现本说明书上述“示例性方法”部分中描述的根据本公开各种实施例的三维模型展示方法。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本公开的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本公开各种实施例的三维模型展示方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本公开的基本原理,但是,需要指出的是,在本公开中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本公开的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本公开为必须采用上述具体的细节来实现。
本说明书中各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似的部分相互参见即可。对于***实施例而言,由于其与方法实施例基本对应,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本公开中涉及的器件、装置、设备、***的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、***。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
可能以许多方式来实现本公开的方法和装置。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本公开的方法和装置。用于所述方法的步骤的上述顺序仅是为了进行说明,本公开的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本公开实施为记录在记录介质中的程序,这些程序包括用于实现根据本公开的方法的机器可读指令。因而,本公开还覆盖存储用于执行根据本公开的方法的程序的记录介质。
还需要指出的是,在本公开的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本公开的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本公开。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本公开的范围。因此,本公开不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本公开的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。

Claims (8)

1.一种三维模型展示方法,其特征在于,包括:
确定目标三维模型的待展示视角;
获取所述目标三维模型在参考视角下的第一模型图像;
确定所述待展示视角与所述参考视角的第一视角差异信息;其中,所述第一视角差异信息呈角度差值形式;
根据所述第一模型图像和所述第一视角差异信息,经由图像生成网络生成所述目标三维模型在所述待展示视角下的第二模型图像;
展示所述第二模型图像;
所述图像生成网络包括:编码器和解码器;
所述根据所述第一模型图像和所述第一视角差异信息,经由图像生成网络生成所述目标三维模型在所述待展示视角下的第二模型图像,包括:
将所述第一视角差异信息转换为方向向量;
经由所述编码器对所述第一模型图像进行特征提取,以得到图像特征向量;
对所述方向向量和所述图像特征向量进行拼接,以得到拼接向量;其中,所述拼接向量采用如下方式得到:将所述方向向量的维数升高至与所述图像特征向量一致,并将经升维后的所述方向向量与所述图像特征向量两者对应位置的元素求和,以得到所述拼接向量;
经由所述解码器根据所述拼接向量生成所述目标三维模型在所述待展示视角下的第二模型图像。
2.根据权利要求1所述的方法,其特征在于,所述第一视角差异信息包括:水平角度差值和俯仰角度差值;
所述将所述第一视角差异信息转换为方向向量,包括:
对所述水平角度差值进行第一三角函数运算,以得到第一运算结果值,以及对所述水平角度差值进行第二三角函数运算,以得到第二运算结果值;
对所述俯仰角度差值进行所述第一三角函数运算,以得到第三运算结果值,以及对所述俯仰角度差值进行所述第二三角函数运算,以得到第四运算结果值;
生成向量元素包括所述第一运算结果值、所述第二运算结果值、所述第三运算结果值和所述第四运算结果值的方向向量。
3.根据权利要求1-2中任一项所述的方法,其特征在于,还包括:
获取网络训练数据;其中,所述网络训练数据包括:训练三维模型在第一视角下的第三模型图像和在第二视角下的第四模型图像;
确定所述第二视角与所述第一视角的第二视角差异信息;
根据所述第三模型图像、所述第二视角差异信息和所述第四模型图像,训练所述图像生成网络。
4.根据权利要求3所述的方法,其特征在于,所述根据所述第三模型图像、所述第二视角差异信息和所述第四模型图像,训练所述图像生成网络,包括:
根据所述第三模型图像和所述第二视角差异信息,经由所述图像生成网络生成第五模型图像;
计算所述第五模型图像与所述第四模型图像的相似度评估值;
利用判别网络判别所述第五模型图像是否属于真实图像,以得到判别结果值;
根据所述相似度评估值和所述判别结果值,进行加权运算,以得到网络损失值;
以最小化所述网络损失值作为调整目标,调整所述图像生成网络的网络参数。
5.根据权利要求4所述的方法,其特征在于,所述根据所述相似度评估值和所述判别结果值,进行加权运算,以得到网络损失值,包括:
计算预设数值与所述判别结果值的差值;
对所述差值进行对数运算,以得到对数运算结果值;
利用指定权重,对所述相似度评估值和所述对数运算结果值进行加权运算,以得到网络损失值。
6.一种计算机可读存储介质,所述存储介质存储有计算机程序,其特征在于,所述计算机程序用于执行上述权利要求1至5中任一项所述的三维模型展示方法。
7.一种电子设备,其特征在于,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现上述权利要求1至5中任一项所述的三维模型展示方法。
8.一种计算机程序产品,包括程序,其特征在于,当所述程序被处理器执行时实现权利要求1至5中任一项所述的三维模型展示方法。
CN202111423855.1A 2021-11-26 2021-11-26 三维模型展示方法、计算机可读存储介质及电子设备 Active CN114047823B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111423855.1A CN114047823B (zh) 2021-11-26 2021-11-26 三维模型展示方法、计算机可读存储介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111423855.1A CN114047823B (zh) 2021-11-26 2021-11-26 三维模型展示方法、计算机可读存储介质及电子设备

Publications (2)

Publication Number Publication Date
CN114047823A CN114047823A (zh) 2022-02-15
CN114047823B true CN114047823B (zh) 2024-06-11

Family

ID=80211393

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111423855.1A Active CN114047823B (zh) 2021-11-26 2021-11-26 三维模型展示方法、计算机可读存储介质及电子设备

Country Status (1)

Country Link
CN (1) CN114047823B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115599276A (zh) * 2022-12-13 2023-01-13 深圳鹏锐信息技术股份有限公司(Cn) 基于人工智能ai三维模型展示方法及***
CN117036444A (zh) * 2023-10-08 2023-11-10 深圳市其域创新科技有限公司 三维模型输出方法、装置、设备及计算机可读存储介质
CN117876610B (zh) * 2024-03-12 2024-05-24 之江实验室 针对三维构建模型的模型训练方法、装置、存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108629823A (zh) * 2018-04-10 2018-10-09 北京京东尚科信息技术有限公司 多视角图像的生成方法和装置
CN113220251A (zh) * 2021-05-18 2021-08-06 北京达佳互联信息技术有限公司 物体显示方法、装置、电子设备及存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10560683B2 (en) * 2016-04-08 2020-02-11 Maxx Media Group, LLC System, method and software for producing three-dimensional images that appear to project forward of or vertically above a display medium using a virtual 3D model made from the simultaneous localization and depth-mapping of the physical features of real objects
CN113238656B (zh) * 2021-05-25 2024-04-30 北京达佳互联信息技术有限公司 三维图像的显示方法、装置、电子设备及存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108629823A (zh) * 2018-04-10 2018-10-09 北京京东尚科信息技术有限公司 多视角图像的生成方法和装置
CN113220251A (zh) * 2021-05-18 2021-08-06 北京达佳互联信息技术有限公司 物体显示方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN114047823A (zh) 2022-02-15

Similar Documents

Publication Publication Date Title
CN114047823B (zh) 三维模型展示方法、计算机可读存储介质及电子设备
US11380050B2 (en) Face image generation method and apparatus, device, and storage medium
US11481869B2 (en) Cross-domain image translation
CN108898186B (zh) 用于提取图像的方法和装置
WO2022156640A1 (zh) 一种图像的视线矫正方法、装置、电子设备、计算机可读存储介质及计算机程序产品
CA3138907C (en) System and method for interactive projection
US20180181802A1 (en) Recognizing combinations of body shape, pose, and clothing in three-dimensional input images
KR20100098641A (ko) 불변적인 시각적 장면 및 객체 인식
CN112489114A (zh) 图像转换方法、装置、计算机可读存储介质及电子设备
US11631154B2 (en) Method, apparatus, device and storage medium for transforming hairstyle
US11604963B2 (en) Feedback adversarial learning
WO2023241065A1 (zh) 用于图像逆渲染的方法、装置、设备和介质
CN113592706B (zh) 调整单应性矩阵参数的方法和装置
CN112950759B (zh) 基于房屋全景图的三维房屋模型构建方法及装置
CN117372604A (zh) 一种3d人脸模型生成方法、装置、设备及可读存储介质
KR102346325B1 (ko) 3차원 데이터를 이용한 웹툰 제작 시스템 및 방법
CN112102479B (zh) 基于模型对齐的增强现实方法和装置、存储介质、电子设备
CN111310818B (zh) 特征描述子确定方法、装置及计算机可读存储介质
KR20230016418A (ko) 이미지 생성 모델 학습 장치 및 방법
CN112465716A (zh) 图像转换方法、装置、计算机可读存储介质及电子设备
CN112927200A (zh) 本征图像分解方法、装置、可读存储介质及电子设备
CN113674346B (zh) 图像检测方法、装置、电子设备和计算机可读存储介质
CN116030201B (zh) 多颜色发型演示图像的生成方法、装置、终端及存储介质
CN117095129A (zh) 物体三维重建方法和装置、电子设备和存储介质
CN117635792A (zh) 渲染方法和装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20220407

Address after: 100085 Floor 101 102-1, No. 35 Building, No. 2 Hospital, Xierqi West Road, Haidian District, Beijing

Applicant after: Seashell Housing (Beijing) Technology Co.,Ltd.

Address before: 101300 room 24, 62 Farm Road, Erjie village, Yangzhen Town, Shunyi District, Beijing

Applicant before: Beijing fangjianghu Technology Co.,Ltd.

GR01 Patent grant
GR01 Patent grant