CN115841546A - 一种场景结构关联的地铁站多视矢量仿真渲染方法及*** - Google Patents
一种场景结构关联的地铁站多视矢量仿真渲染方法及*** Download PDFInfo
- Publication number
- CN115841546A CN115841546A CN202211698166.6A CN202211698166A CN115841546A CN 115841546 A CN115841546 A CN 115841546A CN 202211698166 A CN202211698166 A CN 202211698166A CN 115841546 A CN115841546 A CN 115841546A
- Authority
- CN
- China
- Prior art keywords
- view
- target position
- images
- image
- scene structure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Generation (AREA)
Abstract
本发明公开了一种场景结构关联的地铁站多视矢量仿真渲染方法及***,本发明方法包括在目标位置下的多个方向分别采集一个视角的图像,得到多视角图像;分别提取多视角图像中的特征;对多视角图像特征进行配准获得两两空间关联信息,对两两特征关联信息构建图模型以表达多对多结构关联信息;基于图模型提取目标位置下的隐式表示场,并基于目标位置下的隐式表示场生成目标位置下的多视角仿真渲染图像。本发明实现简单、成本低,能够实现对当前场景下任意视角的渲染图像进行仿真。
Description
技术领域
本发明涉及计算机视觉技术领域,具体涉及一种场景结构关联的地铁站多视矢量仿真渲染方法及***。
背景技术
在基于计算机视觉的物体三维重建和特征描述中,物理特性估计和渲染即是通过对外部环境的估计,对三维物体建立适合计算机表示和处理的数学模型,其是在计算机环境下对物体进行处理、操作和分析物体性质的基础,也是在计算机中建立表达客观世界的虚拟现实的关键技术。目前光学特性渲染主要采用以下两种方式:1)正向渲染:通过对物体材质建模进行渲染,即通过形状和材质参数,在一个新颖且给定的光照环境下,渲染物体的场景。该类方法通常是通过基于物理的建模来实现,例如辐射传输框架或单散射和扩散近似等假设。但是由于物体内部任何一点的光照取决于身体其他点的光照和透光率,而材质本身可能具有复杂的各向异性或不均匀的密度,这些特性共同导致采用正向渲染时会导致渲染计算成本高昂。2)逆向渲染:逆向渲染的目标即是形状或材料估计,根据已知光线下的场景图像预测对象的几何或光学参数。早期的逆渲染方法通常基于各种参数的先验假设来解决这个问题,例如形状或反射率。随着近年来深度学习技术的发展,数据驱动的方法在大多数情况下已经能够实现通用的逆向渲染。但是,无论是正向渲染还是逆向渲染,它们在对对象建模时具有很高的复杂性,且对模型本身的材质参数需求较高,对材质进行建模时缺乏准确性和鲁棒性,而实际工况下,无需对场景自身的几何和材质信息进行严格建模,实际需求为对其他未拍摄到的视角进行仿真渲染,因为需要一种可以端到端对不同视角进行模拟的方法。
发明内容
本发明要解决的技术问题:针对现有技术的上述问题,提供一种场景结构关联的地铁站多视矢量仿真渲染方法及***,本发明实现简单、成本低,能够实现对当前场景下任意视角的渲染图像进行仿真。
为了解决上述技术问题,本发明采用的技术方案为:
一种场景结构关联的地铁站多视矢量仿真渲染方法,包括:
S101,在目标位置下的多个方向分别采集一个视角的图像,得到多视角图像;
S102,分别提取多视角图像中的特征;
S103,对多视角图像特征进行配准获得两两空间关联信息,对两两特征关联信息构建图模型以表达多对多结构关联信息;
S104,基于图模型提取目标位置下的隐式表示场,并基于目标位置下的隐式表示场生成目标位置下的多视角仿真渲染图像。
可选地,步骤S101包括在目标位置下按照指定的角度间隔对目标位置的周边360度进行等角度采样,共得到n个视角的图像I1,I2,...,In构成的多视角图像。
可选地,步骤S102中多视角图像中的特征为二元组数据(I1,F1),(I2,F2),...,(In,Fn),其中I1~In为n个视角的图像,F1~Fn分别为从n个视角的图像I2,I2,...,In中提取得到的轮廓边缘像素点特征。
可选地,步骤S103包括:
S201,针对二元组数据(I1,F1),(I2,F2),...,(In,Fn)进行两两欧氏距离计算;
S202,针对n个视角的图像I1,I2,...,n中的任意第i个视角的图像Ii,选取欧氏距离最近的k个图像Ii1,Ii2,...,Iik;
S203,以任意第i个视角的图像Ii作为一个顶点,并将第i个视角的图像Ii与欧氏距离最近的k个图像Ii1,Ii2,...,Iik之间共同组成一个超边,从而构成一个图模型H以表达n个视角的图像I1,I2,...,In的多对多结构关联信息。
可选地,步骤S104基于图模型提取目标位置下的隐式表示场是指将图模型输入预先训练好的机器学习模型以得到目标位置下的隐式表示场,所述机器学习模型被预先训练建立了图模型、隐式表示场之间的映射关系。
可选地,所述机器学习模型为多层感知机MLP。
可选地,步骤S104中基于目标位置下的隐式表示场生成目标位置下的多视角仿真渲染图像是指采用用于视图合成的神经辐射场技术,基于目标位置下的隐式表示场生成目标位置下的多视角仿真渲染图像。
可选地,步骤S104之后,还包括将生成的目标位置下的多视角仿真渲染图像作为局部三维白模增加到全局三维白模中以更新全局三维白模;然后判断是否仍有尚未完成处理的位置,若是否仍有尚未完成处理的位置,则移动到新的位置并将新的位置作为新的目标位置,跳转步骤S101,否则,输出最终得到的全局三维白模,结束并退出。
此外,本发明还提供一种场景结构关联的地铁站多视矢量仿真渲染***,包括相互连接的微处理器和存储器,所述微处理器被编程或配置以执行所述场景结构关联的地铁站多视矢量仿真渲染方法。
此外,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,所述计算机程序用于被微处理器编程或配置以执行所述场景结构关联的地铁站多视矢量仿真渲染方法。
和现有技术相比,本发明主要具有下述优点:本发明方法包括在目标位置下的多个方向分别采集一个视角的图像,得到多视角图像;分别提取多视角图像中的特征;对多视角图像特征进行配准获得两两空间关联信息,对两两特征关联信息构建图模型以表达多对多结构关联信息;基于图模型提取目标位置下的隐式表示场,并基于目标位置下的隐式表示场生成目标位置下的多视角仿真渲染图像。本发明实现简单、成本低,能够实现对当前场景下任意视角的渲染图像进行仿真。
附图说明
图1为本发明实施例方法的基本流程示意图。
具体实施方式
如图1所示,本实施例场景结构关联的地铁站多视矢量仿真渲染方法包括:
S101,在目标位置下的多个方向分别采集一个视角的图像,得到多视角图像;
S102,分别提取多视角图像中的特征;
S103,对多视角图像特征进行配准获得两两空间关联信息,对两两特征关联信息构建图模型以表达多对多结构关联信息;
S104,基于图模型提取目标位置下的隐式表示场,并基于目标位置下的隐式表示场生成目标位置下的多视角仿真渲染图像。
本实施例中,步骤S101包括在目标位置下按照指定的角度间隔(例如本实施例中具体为5°)对目标位置的周边360度进行等角度采样,共得到n个视角的图像I1,I2,...,In构成的多视角图像。毫无疑问,角度间隔和n两者存在关联,角度间隔越小,则n取值越大,会使得不同视角图像之间的重叠度就越大,生成多视角仿真渲染图像的精度越高,但是所需消耗的计算资源也就越大,因此可以根据实际需要选择两者的取值。
本实施例中,步骤S102中多视角图像中的特征为二元组数据(I1,F1),(I2,F2),...,(In,Fn),其中I1~In为n个视角的图像,F1~Fn分别为从n个视角的图像I1,I2,...,In中提取得到的轮廓边缘像素点特征,提取得到的轮廓边缘像素点特征可采用边缘检测算法来实现,包括微分法、差分边缘检测法、Roberts边缘检测算子、Sobel边缘检测算子、Prewitt边缘检测算子、拉普拉斯边缘检测算子等,可根据实际需要选择所需的算法。
本实施例中,步骤S103包括:
S201,针对二元组数据(I1,F1),(I2,F2),...,(In,Fn)进行两两欧氏距离计算;
S202,针对n个视角的图像I1,I2,...,In中的任意第i个视角的图像Ii,选取欧氏距离最近的k个图像Ii1,Ii2,...,Iik;
S203,以任意第i个视角的图像Ii作为一个顶点,并将第i个视角的图像Ii与欧氏距离最近的k个图像Ii1,Ii2,...,Iik之间共同组成一个超边,从而构成一个图模型H以表达n个视角的图像I1,I2,...,In的多对多结构关联信息。图模型H可表示为H=(,V),其中E为超边,每个超边有若干个顶点组成,表示这些顶点之间具备一定的关联,V为该图模型上的顶点,在本模型中每个顶点表示为一个视角上图像。
本实施例中,步骤S104基于图模型提取目标位置下的隐式表示场是指将图模型输入预先训练好的机器学***均图像为输入,输出为另一个视角下的隐式表示场,即:
MLP(θ)=Iθ,
上式中,Iθ表示目标位置下的隐式表示场。
作为一种可选的实施方式,本实施例中多层感知机MLP的训练损失损失函数为:
本实施例中,步骤S104中基于目标位置下的隐式表示场生成目标位置下的多视角仿真渲染图像是指采用用于视图合成的神经辐射场技术,基于目标位置下的隐式表示场生成目标位置下的多视角仿真渲染图像。需要说明的是,其中用于视图合成的神经辐射场技术为现有视图合成方法,具体可参见文献:Mildenhall B,Srinivasan P P,Tancik M,etal.Nerf:Representing scenes as neural radiance fields for view synthesis[J].Communications of the ACM,2021,65(1):99-106。
此外,作为一种可选的实施方式,本实施例中在步骤S104之后,还包括将生成的目标位置下的多视角仿真渲染图像作为局部三维白模增加到全局三维白模中以更新全局三维白模;然后判断是否仍有尚未完成处理的位置,若是否仍有尚未完成处理的位置,则移动到新的位置并将新的位置作为新的目标位置,跳转步骤S101,否则,输出最终得到的全局三维白模,结束并退出。
综上所述,本实施例场景结构关联的地铁站多视矢量仿真渲染方法包括在目标位置下的多个方向分别采集一个视角的图像,得到多视角图像;分别提取多视角图像中的特征;对多视角图像特征进行配准获得两两空间关联信息,对两两特征关联信息构建图模型以表达多对多结构关联信息;基于图模型提取目标位置下的隐式表示场,并基于目标位置下的隐式表示场生成目标位置下的多视角仿真渲染图像。本实施例方法实现简单、成本低,能够实现对当前场景下任意视角的渲染图像进行仿真。
此外,本实施例还提供一种场景结构关联的地铁站多视矢量仿真渲染***,包括相互连接的微处理器和存储器,该微处理器被编程或配置以执行场景结构关联的地铁站多视矢量仿真渲染方法。此外,本实施例还提供一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序该计算机程序用于被微处理器编程或配置以执行场景结构关联的地铁站多视矢量仿真渲染方法。
本领域内的技术人员应明白,本申请的实施例可提供为方法、***、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可读存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。本申请是参照根据本申请实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.一种场景结构关联的地铁站多视矢量仿真渲染方法,其特征在于,包括:
S101,在目标位置下的多个方向分别采集一个视角的图像,得到多视角图像;
S102,分别提取多视角图像中的特征;
S103,对多视角图像特征进行配准获得两两空间关联信息,对两两特征关联信息构建图模型以表达多对多结构关联信息;
S104,基于图模型提取目标位置下的隐式表示场,并基于目标位置下的隐式表示场生成目标位置下的多视角仿真渲染图像。
2.根据权利要求1所述的场景结构关联的地铁站多视矢量仿真渲染方法,其特征在于,步骤S101包括在目标位置下按照指定的角度间隔对目标位置的周边360度进行等角度采样,共得到n个视角的图像I1,I2,...,In构成的多视角图像。
3.根据权利要求1所述的场景结构关联的地铁站多视矢量仿真渲染方法,其特征在于,步骤S102中多视角图像中的特征为二元组数据(I1,F1),(I2,F2),...,(In,Fn),其中I1~In为n个视角的图像,F1~Fn分别为从n个视角的图像I1,I2,...,In中提取得到的轮廓边缘像素点特征。
4.根据权利要求3所述的场景结构关联的地铁站多视矢量仿真渲染方法,其特征在于,步骤S103包括:
S201,针对二元组数据(I1,F1),(I2,F2),...,(In,Fn)进行两两欧氏距离计算;
S202,针对n个视角的图像I1,I2,...,In中的任意第i个视角的图像Ii,选取欧氏距离最近的k个图像Ii1,Ii2,...,Iik;
S203,以任意第i个视角的图像Ii作为一个顶点,并将第i个视角的图像Ii与欧氏距离最近的k个图像Ii1,Ii2,...,Iik之间共同组成一个超边,从而构成一个图模型H以表达n个视角的图像I1,I2,...,In的多对多结构关联信息。
5.根据权利要求1所述的场景结构关联的地铁站多视矢量仿真渲染方法,其特征在于,步骤S104基于图模型提取目标位置下的隐式表示场是指将图模型输入预先训练好的机器学习模型以得到目标位置下的隐式表示场,所述机器学习模型被预先训练建立了图模型、隐式表示场之间的映射关系。
6.根据权利要求5所述的场景结构关联的地铁站多视矢量仿真渲染方法,其特征在于,所述机器学习模型为多层感知机MLP。
7.根据权利要求1所述的场景结构关联的地铁站多视矢量仿真渲染方法,其特征在于,步骤S104中基于目标位置下的隐式表示场生成目标位置下的多视角仿真渲染图像是指采用用于视图合成的神经辐射场技术,基于目标位置下的隐式表示场生成目标位置下的多视角仿真渲染图像。
8.根据权利要求1所述的场景结构关联的地铁站多视矢量仿真渲染方法,其特征在于,步骤S104之后,还包括将生成的目标位置下的多视角仿真渲染图像作为局部三维白模增加到全局三维白模中以更新全局三维白模;然后判断是否仍有尚未完成处理的位置,若是否仍有尚未完成处理的位置,则移动到新的位置并将新的位置作为新的目标位置,跳转步骤S101,否则,输出最终得到的全局三维白模,结束并退出。
9.一种场景结构关联的地铁站多视矢量仿真渲染***,包括相互连接的微处理器和存储器,其特征在于,所述微处理器被编程或配置以执行权利要求1~8中任意一项所述场景结构关联的地铁站多视矢量仿真渲染方法。
10.一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,其特征在于,所述计算机程序用于被微处理器编程或配置以执行权利要求1~8中任意一项所述场景结构关联的地铁站多视矢量仿真渲染方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211698166.6A CN115841546A (zh) | 2022-12-28 | 2022-12-28 | 一种场景结构关联的地铁站多视矢量仿真渲染方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211698166.6A CN115841546A (zh) | 2022-12-28 | 2022-12-28 | 一种场景结构关联的地铁站多视矢量仿真渲染方法及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115841546A true CN115841546A (zh) | 2023-03-24 |
Family
ID=85579384
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211698166.6A Pending CN115841546A (zh) | 2022-12-28 | 2022-12-28 | 一种场景结构关联的地铁站多视矢量仿真渲染方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115841546A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117495797A (zh) * | 2023-10-30 | 2024-02-02 | 武汉大学 | 基于隐式三维表达引导的航空数据变化检测方法及*** |
-
2022
- 2022-12-28 CN CN202211698166.6A patent/CN115841546A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117495797A (zh) * | 2023-10-30 | 2024-02-02 | 武汉大学 | 基于隐式三维表达引导的航空数据变化检测方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Huang et al. | Arch: Animatable reconstruction of clothed humans | |
CN109003325B (zh) | 一种三维重建的方法、介质、装置和计算设备 | |
Park et al. | Pix2pose: Pixel-wise coordinate regression of objects for 6d pose estimation | |
Huang et al. | Indoor depth completion with boundary consistency and self-attention | |
US10803546B2 (en) | Systems and methods for unsupervised learning of geometry from images using depth-normal consistency | |
Menze et al. | Joint 3d estimation of vehicles and scene flow | |
CN110084304B (zh) | 一种基于合成数据集的目标检测方法 | |
Xu et al. | Predicting animation skeletons for 3d articulated models via volumetric nets | |
US20180174311A1 (en) | Method and system for simultaneous scene parsing and model fusion for endoscopic and laparoscopic navigation | |
EP3905194A1 (en) | Pose estimation method and apparatus | |
JP7063837B2 (ja) | 領域抽出装置及びプログラム | |
JP7129529B2 (ja) | 人工知能の使用による3dオブジェクトへのuvマッピング | |
JP7294788B2 (ja) | 3d配置のタイプに応じた2d画像の分類 | |
Zhou et al. | Three-dimensional (3D) reconstruction of structures and landscapes: a new point-and-line fusion method | |
Liu et al. | PoseGAN: A pose-to-image translation framework for camera localization | |
CN116250021A (zh) | 图像生成模型的训练方法、新视角图像生成方法及装置 | |
CN115205463A (zh) | 基于多球面场景表达的新视角图像生成方法、装置和设备 | |
Jung et al. | Deformable 3d gaussian splatting for animatable human avatars | |
CN115841546A (zh) | 一种场景结构关联的地铁站多视矢量仿真渲染方法及*** | |
Rasoulzadeh et al. | Strokes2Surface: Recovering Curve Networks From 4D Architectural Design Sketches | |
CN116091705A (zh) | 基于神经辐射场的变拓扑动态场景重建与编辑方法和装置 | |
US20230145498A1 (en) | Image reprojection and multi-image inpainting based on geometric depth parameters | |
Gao et al. | Multi-target 3d reconstruction from rgb-d data | |
Kang et al. | 3D urban reconstruction from wide area aerial surveillance video | |
Kelly et al. | Visiongpt-3d: A generalized multimodal agent for enhanced 3d vision understanding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |