CN114119633A - 一种基于mr应用场景的显示融合切割算法 - Google Patents
一种基于mr应用场景的显示融合切割算法 Download PDFInfo
- Publication number
- CN114119633A CN114119633A CN202111359247.9A CN202111359247A CN114119633A CN 114119633 A CN114119633 A CN 114119633A CN 202111359247 A CN202111359247 A CN 202111359247A CN 114119633 A CN114119633 A CN 114119633A
- Authority
- CN
- China
- Prior art keywords
- plane
- fragment
- model
- fusion cutting
- cutting algorithm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/80—Shading
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30048—Heart; Cardiac
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Generation (AREA)
Abstract
本发明提供一种基于MR应用场景的显示融合切割算法,软件基础为Unity3d;原理为:A1:对于心脏模型的每一个片元,在世界坐标系下,使用平面的法线向量n与平面中心点到待渲染点的方向向量d做点乘;A2:根据计算结果的正负号将模型划分为平面的内侧和外侧两部分;A3:对于心脏模型的每一个片元,计算其到球心的距离以此来计算每个片元的位置;A4:对于心脏模型的每一个片元,将片元坐标变换到立方体的模型坐标系下得到坐标position,用position的每个坐标分量取绝对值再减去立方形大小;A5:在工程中,ClippingPlane会将整个空间一分为二,空间的一侧被切割,另一侧不被切割。本发明通过该步骤对图像模型进行多次切割,从而更为的精细,是的画面更逼真,体验感更好和流畅度更快。
Description
技术领域
本发明涉及于MR应用场景的显示技术领域,主要涉及一种基于MR应用场景的显示融合切割算法。
背景技术
MR,Mixed Reality,混合现实,一种将真实场景和虚拟场景非常自然地融合在一起,它们之间可以发生具有真实感地实时交互,让人们难以区分哪部分是真实的,哪部分是虚拟的。
MR采用视频透视技术,通过双目摄像头实时采集你看到的“现实”世界并数字化,然后通过计算机算法实时渲染画面,既可以叠加部分虚拟图像(AR)也可以完全叠加虚拟图像(VR),此外还能摆脱现实画面的束缚对影像进行删减更改,人眼看到的将是经过计算机渲染后新的“现实画面”。
为了增加图像的现场感、混合性和逼真性,为人们带来更强的体验感和流畅度,我们在所开发的应用场景中研发本套切割算法。
发明内容
本发明主要提供了一种基于MR应用场景的显示融合切割算法,用以解决上述背景技术中提出的技术问题。
本发明解决上述技术问题采用的技术方案为:
一种基于MR应用场景的显示融合切割算法,软件基础为Unity 3d;
基于此基础软件提出的算法的核心原理为:A1:对于心脏模型的每一个片元,在世界坐标系下,使用平面的法线向量n与平面中心点到待渲染点的方向向量d做点乘;
A2:根据计算结果的正负号将模型划分为平面的内侧和外侧两部分;
A3:对于心脏模型的每一个片元,计算其到球心的距离以此来计算每个片元的位置;
A4:对于心脏模型的每一个片元,将片元坐标变换到立方体的模型坐标系下得到坐标position,用position的每个坐标分量取绝对值再减去立方形大小;
A5:在工程中,Clipping Plane会将整个空间一分为二,空间的一侧被切割,另一侧不被切割。
进一步的,操作过程中,通过修改shader实现不同的功能;修改Clipping Plane裁剪的范围。
进一步的,在计算每一个片元到球新的距离的时候,如果其小于半径,则位于内侧,反之,位于外侧。
进一步的,步骤A4中的结果坐标中最大值大于零的,说明在立方体外,最大值小于零的说明在立方体内。
进一步的,包括以下控制方法:
S1:现有的软件为Unity 3d;
S2:在软件的场景中修改变量至合适大小,默认大小为1米x1米,这里设置切片为0.5米,
S3:在ClippingPlane.cs文件中声明变量,并获取切片信息;
S4:在着色器MixedRealityStandard.shader中调用变量和函数;
S5:得到平面中心点位置,平面法向量,部分截取;
S6:计算面片与平面中心坐标差,计算面片在平面坐标系下x,y值;
S7:创建材质球,选择着色器为mixedrealitytoolkit/Standard选择RenderingMode为Transparent;
S8:多个ClippingPrimitive对同一个模型进行切割。
与现有技术相比,本发明的有益效果为:
本发明通过对心脏模型的每一个片元在世界坐标系下,使用平面的法线向量n与平面中心点到待渲染点的方向向量d做点乘,根据计算结果的正负号将模型划分为平面的内侧和外侧两部分,在通过心脏模型的每一个片元,将片元坐标变换到立方体的模型坐标系下得到坐标position,用position的每个坐标分量取绝对值再减去立方形大小,最终得到的坐标中最大值大于零的,说明在立方体外,最大值小于零的说明在立方体内,由此类推来实现对模型的多次切割,从而使得图像的精度更高,由此增加图像的现场感、混合性和逼真性。
附图说明
图1是本发明的示意图;
图2是本发明的属性设置后的变量示意图;
图3是本发明的函数定义示意图。
具体实施方式
为了便于理解本发明,下面将参照相关附图对本发明进行更加全面的描述,附图中给出了本发明的若干实施例,但是本发明可以通过不同的形式来实现,并不限于文本所描述的实施例,相反的,提供这些实施例是为了使对本发明公开的内容更加透彻全面。
需要说明的是,当元件被称为“固设于”另一个元件,它可以直接在另一个元件上也可以存在居中的元件,当一个元件被认为是“连接”另一个元件,它可以是直接连接到另一个元件或者可能同时存在居中元件,本文所使用的术语“垂直的”、“水平的”、“左”、“右”以及类似的表述只是为了说明的目的。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常连接的含义相同,本文中在本发明的说明书中所使用的术语知识为了描述具体的实施例的目的,不是旨在于限制本发明,本文所使用的术语“及/或”包括一个或多个相关的所列项目的任意的和所有的组合。
实施例,请着重参照附图1-3,基础软件为为Unity 3d;
算法的原理为:A1:对于心脏模型的每一个片元,在世界坐标系下,使用平面的法线向量n与平面中心点到待渲染点的方向向量d做点乘,根据计算结果的正负号将模型划分为平面的内侧和外侧两部分;
A2:对于心脏模型的每一个片元,计算其到球心的距离,如果小于半径,则位于内侧,反之,位于外侧;
A3:对于心脏模型的每一个片元,将片元坐标变换到立方体的模型坐标系下得到坐标position,用position的每个坐标分量取绝对值再减去立方形大小;
A4:最终得到的坐标中最大值大于零的,说明在立方体外,最大值小于零的说明在立方体内;
A5:修改shader实现不同的功能;修改Clipping Plane裁剪的范围;
A6:在工程中,Clipping Plane会将整个空间一分为二,空间的一侧被切割,另一侧不被切割。
在软件中具体的操作方法为:
S1:在场景中修改变量至合适大小,默认大小为1米x1米。这里设置切片为0.5米,拿到模型坐标系下的(0,1,0);
S2:在ClippingPlane.cs文件中声明变量,并获取切片信息;
S3:在着色器MixedRealityStandard.shader中调用变量和函数。
S4:得到平面中心点位置,平面法向量,部分截取。
S5:计算面片与平面中心坐标差,计算面片在平面坐标系下x,y值;
S6:创建材质球,选择着色器为mixedrealitytoolkit/Standard选择RenderingMode为Transparent;
S7:多个ClippingPrimitive对同一个模型进行切割。
上述结合附图对本发明进行了示例性描述,显然本发明具体实现并不受上述方式的限制,只要采用了本发明的方法构思和技术方案进行的这种非实质改进,或未经改进将本发明的构思和技术方案直接应用于其他场合的,均在本发明的保护范围之内。
Claims (5)
1.根据权利要求1所述的一种基于MR应用场景的显示融合切割算法,其特征在于:软件基础为Unity 3d;
基于此基础软件提出的算法的核心原理为:A1:对于心脏模型的每一个片元,在世界坐标系下,使用平面的法线向量n与平面中心点到待渲染点的方向向量d做点乘;
A2:根据计算结果的正负号将模型划分为平面的内侧和外侧两部分;
A3:对于心脏模型的每一个片元,计算其到球心的距离以此来计算每个片元的位置;
A4:对于心脏模型的每一个片元,将片元坐标变换到立方体的模型坐标系下得到坐标position,用position的每个坐标分量取绝对值再减去立方形大小;
A5:在工程中,Clipping Plane会将整个空间一分为二,空间的一侧被切割,另一侧不被切割。
2.根据权利要求1所述的一种基于MR应用场景的显示融合切割算法,其特征在于:操作过程中,通过修改shader实现不同的功能;修改Clipping Plane裁剪的范围。
3.根据权利要求1所述的一种基于MR应用场景的显示融合切割算法,其特征在于:在计算每一个片元到球新的距离的时候,如果其小于半径,则位于内侧,反之,位于外侧。
4.根据权利要求1所述的一种基于MR应用场景的显示融合切割算法,其特征在于:步骤A4中的结果坐标中最大值大于零的,说明在立方体外,最大值小于零的说明在立方体内。
5.根据权利要求1所述的一种基于MR应用场景的显示融合切割算法,其特征在于:包括以下控制方法:
S1:在软件的场景中修改变量至合适大小,默认大小为1米x1米,这里设置切片为0.5米,
S2:在ClippingPlane.cs文件中声明变量,并获取切片信息;
S3:在着色器MixedRealityStandard.shader中调用变量和函数;
S4:得到平面中心点位置,平面法向量,部分截取;
S5:计算面片与平面中心坐标差,计算面片在平面坐标系下x,y值;
S6:创建材质球,选择着色器为mixedrealitytoolkit/Standard选择Rendering Mode为Transparent;
S7:多个ClippingPrimitive对同一个模型进行切割。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111359247.9A CN114119633A (zh) | 2021-11-17 | 2021-11-17 | 一种基于mr应用场景的显示融合切割算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111359247.9A CN114119633A (zh) | 2021-11-17 | 2021-11-17 | 一种基于mr应用场景的显示融合切割算法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114119633A true CN114119633A (zh) | 2022-03-01 |
Family
ID=80397013
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111359247.9A Withdrawn CN114119633A (zh) | 2021-11-17 | 2021-11-17 | 一种基于mr应用场景的显示融合切割算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114119633A (zh) |
-
2021
- 2021-11-17 CN CN202111359247.9A patent/CN114119633A/zh not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20060152579A1 (en) | Stereoscopic imaging system | |
CN111161392B (zh) | 一种视频的生成方法、装置及计算机*** | |
CN108564646A (zh) | 对象的渲染方法和装置、存储介质、电子装置 | |
WO2021135320A1 (zh) | 一种视频的生成方法、装置及计算机*** | |
CN105447898A (zh) | 一种虚拟现实设备中显示2d应用界面的方法和装置 | |
US20170032560A1 (en) | Robust attribute transfer for character animation | |
CN109598796A (zh) | 将真实场景与虚拟物体进行3d融合显示的方法和装置 | |
CN109510975B (zh) | 一种视频图像的提取方法、设备及*** | |
CN102819855B (zh) | 二维图像的生成方法及装置 | |
Ebner et al. | Multi‐view reconstruction of dynamic real‐world objects and their integration in augmented and virtual reality applications | |
CN109741438A (zh) | 三维人脸建模方法、装置、设备及介质 | |
CN104740874A (zh) | 一种在二维游戏场景中播放视频的方法及*** | |
CN110689626A (zh) | 游戏模型渲染方法和装置 | |
CN108668168A (zh) | 基于Unity 3D的安卓VR视频播放器及其设计方法 | |
US11657478B1 (en) | Systems and methods for dynamically rendering three-dimensional images with varying detail to emulate human vision | |
CN110120087A (zh) | 三维虚拟沙盘的标签标注方法、装置及终端设备 | |
KR20170091710A (ko) | 디지털 비디오 렌더링 | |
CN113546410B (zh) | 地形模型渲染方法、装置、电子设备和存储介质 | |
EP3683769A1 (en) | Image processing method and apparatus, storage medium, and electronic device | |
CN106530384B (zh) | 一种三维模型的外观纹理合成方法及装置 | |
JP4987124B2 (ja) | グラフィックデータ提供方法及びグラフィックデータ表示方法 | |
CN116958344A (zh) | 虚拟形象的动画生成方法、装置、计算机设备及存储介质 | |
CN114119633A (zh) | 一种基于mr应用场景的显示融合切割算法 | |
WO2021227740A1 (zh) | 图像处理方法及图像显示装置 | |
JP6062589B1 (ja) | プログラム、情報処理装置、影響度導出方法、画像生成方法及び記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20220301 |
|
WW01 | Invention patent application withdrawn after publication |