CN102693065A - 立体影像视觉效果处理方法 - Google Patents
立体影像视觉效果处理方法 Download PDFInfo
- Publication number
- CN102693065A CN102693065A CN2011100719675A CN201110071967A CN102693065A CN 102693065 A CN102693065 A CN 102693065A CN 2011100719675 A CN2011100719675 A CN 2011100719675A CN 201110071967 A CN201110071967 A CN 201110071967A CN 102693065 A CN102693065 A CN 102693065A
- Authority
- CN
- China
- Prior art keywords
- coordinate
- stereopsis
- visual effect
- cursor
- disposal route
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明公开一种立体影像视觉效果处理方法,其包括下列步骤:提供一立体影像,该立体影像是由多个对象所组成,每一该子对象具有一对象坐标值;提供一光标,该光标具有一光标坐标值;判断该光标坐标值是否与其中的一该多个对象的该对象坐标值相重合;若该光标坐标值与其中的一该多个对象的该对象坐标值相重合,则改变相对应该多个对象的对象坐标值的一深度坐标参数;重新绘制与该光标值相符合的该对象的影像。由此,可突显与光标相对应的对象立体影像,以强化视觉效果及增加互动感。
Description
技术领域
本发明涉及一种影像处理方法,特别是指一种立体影像视觉效果处理方法。
背景技术
近二十多年来,计算机绘图已成为人机接口中,最重要的数据显示方法,并广泛运用于各种应用中。例如三维(three dimensional,3-D)计算机绘图。而多媒体(multimedia)以及虚拟实境(virtual reality)产品则越来越普及,其不但是人机界面上的重大突破,更在娱乐应用中扮演重要的角色。而上述的应用,多半是以低成本实时3-D计算机绘图技术为基础。一般而言,2-D计算机绘图是一种常用以将数据和内容表现出来的普遍记述,特别是在互动应用上。而3-D计算机绘图则是计算机绘图中一股越来越大的分支,其使用3-D模型和各种影像处理来产生具有三维空间真实感的影像。
而立体计算机图形(3D computer graphics)的建构过程主要可依其顺序分为三个基本阶段:
1:建模(modeling):建模阶段可以描述为「确定后面场景所要使用的对象的形状」的过程,并具多种建模技术,如构造实体几何、NURBS建模、多边形建模或细分曲面等。此外,建模过程中可包括编辑物体表面或材料性质,增加纹理、凹凸对应和其它特征。
2:场景布局及动画生成(layout & animation):场景设定涉及安排一个场景内的虚拟物体、灯光、摄影机和其它实体的位置及大小,而可用于制作一幅静态画面或一段动画。而动画生成则可以使用关键帧(key frame)等技术来建立场景内复杂的运动关系。
3:绘制渲染(rendering):渲染是从准备场景建立实际的二维影像或动画的最终阶段,其可以和现实世界中于布景完成后的照相或摄制场景的过程相比。
而在现有技术中,在交互式媒体,如游戏或各类应用程序中,其经绘制出来的立体对象,其通常无法随当使用者操作鼠标、触控板或触控面板时而改变光标坐标位置而实时地产生对应变化以突显其视觉效果,导致无法给予使用者足够的场景互动感。
另外,目前已有先前技术可将2D影像转换为3D影像,通常会在2D影像中选择一主要对象,而将该主要对象设为前景,其余对象设为背景,并分别给予该些对象不同的景深(Depth of field),进而形成3D影像,但使用者的操作鼠标通常与显示屏幕为同一景深,且操作鼠标的位置通常亦为视觉停留所在,若鼠标的景深信息与鼠标所在位置的对象的景深不同,则会有空间视觉上的错乱。
发明内容
本发明的主要目的,旨在提供一种立体影像视觉效果处理方法,其可随光标坐标位置来突显对应的对象立体影像,以增强人机互动。
为达上述目的,本发明的立体影像视觉效果处理方法,其是包含下列步骤:首先,提供一立体影像,该立体影像是由多个对象所组成,每一该多个对象具有一对象坐标值;接着,提供一光标,该光标具有一光标坐标值;接着,判断该光标坐标值是否与其中的一该多个对象的该对象坐标值相重合;接着,若该光标坐标值与其中的一该多个对象的该对象坐标值相重合,则改变相对应该多个对象的对象坐标值的一深度坐标参数;最后,重新绘制与该光标坐标值相符合的该对象的影像。
其中,若该光标坐标值改变时,则重新判断该光标坐标值是否与其中的一该多个对象的对象坐标值相重合。
其中,该多个对象坐标值是对应本地坐标、世界坐标、视角坐标或投影坐标的坐标值。
其中,该光标坐标值是由鼠标、触控板或触控面板所产生。
其中,该立体影像是依序由建模(modeling)、场景布局及动画生成(layout& animation)及绘制渲染(rendering)等计算机绘图步骤所产生。
其中,该多个对象的对象坐标值的该深度坐标值是由Z缓冲法(Z buffer)、画家深度排序法、平面法线判定法、曲面法线判定法、最大最小法等方式所决定。
附图说明
图1A为本发明立体影像视觉效果处理方法较佳实施例的步骤流程图;
图1B为使用本发明立体影像视觉效果处理方法较佳实施例所形成的一立体影像;
图2为本发明立体影像视觉效处理方法较佳实施例的三维绘图流程图;
图3A为本发明立体影像视觉效果处理方法使用并集逻辑运算子建模的示意图;
图3B为本发明立体影像视觉效果处理方法使用交集逻辑运算子建模的示意图;
图3C为本发明立体影像视觉效果处理方法使用补集建模的示意图;
图4A为本发明立体影像视觉效果处理方法使用NURBS曲线建模的示意图;
图4B为本发明立体影像视觉效果处理方法使用NURBS曲面建模的示意图;
图5为本发明立体影像视觉效果处理方法使用多边形网格建模示意图;
图6A为本发明立体影像视觉效果处理方法使用细分曲面建模第一示意图;
图6B为本发明立体影像视觉效果处理方法使用细分曲面建模第二示意图;
图6C为本发明立体影像视觉效果处理方法使用细分曲面建模第三示意图;
图6D为本发明立体影像视觉效果处理方法使用细分曲面建模第四示意图;
图6E为本发明立体影像视觉效果处理方法使用细分曲面建模第五示意图;
图7为本发明立体影像视觉效果处理方法所使用的标准绘图着色管线示意图;
图8为本发明立体影像视觉效果处理方法较佳实施例的影像显示第一示意图;
图9为本发明立体影像视觉效果处理方法较佳实施例的影像显示第二示意图;
图10为本发明立体影像视觉效果处理方法较佳实施例的影像显示第三示意图;
图11A为本发明立体影像视觉效果处理方法较佳实施例的影像显示第四示意图;
图11B为本发明立体影像视觉效果处理方法较佳实施例的影像显示第五示意图;
图12A为本发明立体影像视觉效果处理方法使用Z缓冲绘制对象的第一示意图;
图12B为本发明立体影像视觉效果处理方法使用Z缓冲绘制对象的第二示意图;
图13A为本发明立体影像视觉效果处理方法使用画家深度排序法绘制对象的第一示意图;
图13B为本发明立体影像视觉效果处理方法使用画家深度排序法绘制对象的第二示意图;
图13C为本发明立体影像视觉效果处理方法使用画家深度排序法绘制对象的第三示意图;
图14为本发明立体影像视觉效果处理方法使用平面法线判定法绘制对象的示意图;
图15为本发明立体影像视觉效果处理方法使用最大最小法绘制对象的示意图。
附图标记说明:11-立体影像;12-对象;21-应用程序;22-操作***;23-应用程序接口;24-几何转换子***;25-着色子***;31-几何转换子***;32-着色子***;41-本地坐标空间;42-世界坐标空间;43-视角坐标空间;44-三维屏幕坐标空间;45-显示空间;51-定义对象;52-定义场景、参考视角与光源;53-挑出及修剪至三维视角范围;54-隐藏面消除、着色及阴影处理;61-模型化转换;62-视角转换;700-并集几何图形;701-交集几何图形;702-补集几何图形;703-NURBS曲线;704-NURBS曲面;705-多边形建模对象;706-方体;707-第一类球体;708-第二类球体;709-第三类球体;710-球体;711-Z缓冲立体影像;712-Z缓冲示意影像;713-第一画家深度排序影像;714-第二画家深度排序影像;715-第三画家深度排序影像;716-可视平面;717-隐藏面;718-立体深度影像;S11~S17-步骤流程。
具体实施方式
为使贵审查委员能清楚了解本发明的内容,谨以下列说明搭配图式,敬请参阅。
请参阅图1A、图1B及图2所示,其为本发明立体影像视觉效果处理方法较佳实施例的步骤流程图、使用本发明立体影像视觉效果处理方法所形成的一立体影像及一三维绘图流程图。其中,立体影像11是由多个对象12所组成,其依序由应用程序21(Application)、操作***22(Operation System)、应用程序接口23(Application programming interface,API)、几何转换子***24(Geometric Subsystem)及着色子***25(Raster subsystem)所产生。而该立体影像视觉效果处理方法包含下列步骤:
S11:提供一立体影像,该立体是由多个对象所组成,每一该对象具有一对象坐标值。
S12:提供一光标,该光标具有一光标坐标值。
S13:判断该光标坐标值是否与其中的一该多个对象的该对象坐标值相重合。
S14:若该光标坐标值与其中的一该多个对象的该对象坐标值相重合,则改变相对应该多个对象的对象坐标值的一深度坐标参数。
S15:重新绘制与该光标坐标值相符合的该对象的影像。
S16:若该光标坐标值改变时,重新判断该光标坐标值是否与其中的一该多个对象的对象坐标值相重合。
此外,若该光标坐标值与该对象坐标值不相重合时,则于每一预设周期时间后重新判断该光标坐标值是否与其中的一该多个对象的对象坐标值相重合,如步骤S17所示。
其中,该光标坐标值可由鼠标、触控板或触控面板或任何可供使用者与电子装置互动的人机接口(Human-Computer interaction)所产生。
其中,该立体影像11是以立体计算机绘图(3D computer graphic)的方式所绘制。该立体影像可依序由建模(modeling)、场景布局与动画生成(layout &animation)及绘制渲染(rendering)等计算机绘图步骤所产生。
其中,该建模阶段又大致可分为以下几类:
1:构造实体几何(constructive solid geometry,CSG),在构造实体几何中,可以使用逻辑运算子(logical operator)将不同物体(如立方体、圆柱体、棱柱、棱锥、球体、圆锥等),以并集、交集及补集等方式组合成复杂的曲面,藉以形成一并集几何图形700、交集几何图形701及补集几何图形702,而可用其建构复杂的模型或曲面。如图3A、图3B及图3C所示。
2:非均匀有理样条(non uniform rational B-spline,NURBS):其可用来产生和表示曲线及曲面,一条NURBS曲线703,其是由阶次(order)、一组具有权重(weight)控制点及一节点向量(knot vector)所决定。其中,NURBS为B-样条(B spline)及贝赛尔曲线(Bézier curves)及曲面两者的广义概念。通过估算一NURBS曲面704的s及t参数,可将此曲面于空间坐标中表示。如图4A及图4B所示。
3:多边形建模(polygon modeling):多边形建模是以多边形网格(polygonmesh)来表示或是用于近似物体曲面的物体建模方法。而通常网格(mesh)是以三角形、四边形或者其它简单凸多边形所组成一多边型建模对象705。如图5所示。
4:细分曲面(subdivision surface):又称为子分曲面,其用于从任意网格建立光滑曲面,通过反复细化初始的多边形网格,可产生一系列网格逼近至无限的细分曲面,且每一细分部都产生更多多边形元素及更光滑的网格,而可由依序由一方体706逼近成一第一类球体707、一第二类球体708、一第三类球体709及一球体710。如图6A、6B、6C、6D及6E所示。
而在建模步骤中,亦可视需求编辑物体表面或材料性质,增加纹理,凹凸对应或其它特征。
而场景布局及动画生成用于安排一场景内的虚拟物体、灯光、摄影机或其它实体,用于制作静态画面或动画。场景布局用于定义对象于场景中的位置及大小的空间关系。动画生成则用于瞬时描述一对象,如其随时间运动或变形,其可使用关键帧(key framing)、逆运动(inverse kinematic)及动态捕捉(motion capture)来达成。
绘制渲染则是由准备的场景建立实际的二维景像或动画的最终阶段,其可分为非实时(non real time)方式或实时(real time)方式。
非实时方式其是将模型以仿真光传输(light transport)以获得如相片拟真(photo realistic)的真实效果,通常可用光迹追踪法(ray tracing)或幅射度算法(radiosity)来达成。
实时(real time)方式则使用非照片拟真(non photo realistic)的渲染法以取得实时的绘制速度,而可用平直着色法(flat shading)、Phong着色法、Gouraud着色、位图纹理(bit map texture)、凹凸纹理对应(bump mapping)、阴影(shading)、运动模糊(motion blur)、景深(depth of field)等各种方式来绘制,如用于游戏或仿真程序等交互式媒体的图像绘制,均需要及时计算和显示,其速度上大约为20至120帧(frame)每秒。
为更清楚了解三维绘图方式,请一并参照图7,其为一标准三维绘图着色管线的示意图。图中。该着色管线是根据不同的坐标***而分割成数个部分,大致包括一几何转换子***31及一着色子***32。定义对象51内所定义的对象是为三维模型的描述定义,其使用坐标***参考其本身参考点称为本地坐标空间41(local coordinate space)。当合成一幅三维立体影像,各个不同的对象由数据库中读取,并转换至一个统一的世界坐标空间42(world coordinatespace),并在世界坐标空间42内进行定义场景、参考视角与光源52,而由本体坐标空间41转换至世界坐标空间42的过程称为模型化转换61。接着,须定义观测点(view)的位置。由于绘图***硬件分辨率的限制,而必须将连续的坐标转换至含有X及Y坐标,以及深度坐标(亦称为Z坐标)的三维屏幕空间,当作隐藏面的消除(hidden surface removal)以及将对象以像素(pixel)的方式绘制出来,而由世界坐标空间42转换至视角坐标空间43,以进行挑出及修剪至三维视角范围53的步骤,此过程又称的为视角转换62。接着,由视角坐标空间43转换至三维屏幕坐标空间44,以进行隐藏面消除、着色及阴影处理54。之后,框架缓冲区(frame buffer)将最终结果的图像输出至屏幕上,而由三维屏幕坐标空间转换至显示空间45。在本实施例中,在该几何转换子***及该着色子***的步骤中,可以微处理器来完成,或搭配以硬件加速装置来完成,如图形处理单元(Graphic processing unit,GPU)或3D绘图加速卡等。
请参照图8、图9、图10、图11A及图11B,其为本创作立体影像视觉效果处理方法较佳实施例的影像显示第一示意图、第二示意图、第三示意图、第四示意图及第五示意图。当使用者通过操作鼠标、触控板、触控面板或任何人机接口时移动该光标,而改变该光标坐标值时,则重新判断该光标坐标值是否与其中的一该多个对象12的对象坐标值相重合。若不相重合,则维持原显示画面的立体影像11而不重新绘制。若该光标值与其中的一该多个对象12的对象坐标值相重合,则改变相对应该多个对象的对象坐标值的深度坐标参数,并通过上述三维绘图着色管线步骤重新绘制立体影像11。若当光标坐标值改变而与其它对象12相符合时,则原点选对象12回复其原深度坐标参数,另一被点选的对象12则改变其深度坐标参数,当重新绘制整体立体影像11便突显出被点选对象12的立体视觉效果。由此可供使用者操作鼠标等人机接口工具而与立体影像产生一定的互动效果。此外,当其中的一对象12与光标坐标位置相符合而改变其深度坐标位置时,其它对象12的坐标参数亦可随光标坐标位置而随之改变,如此更可突显其视觉感受及互动效果。
其中,该对象的对象坐标的该深度坐标参数可由下述方式所决定:
1:Z缓冲法(Z buffering),又称为深度缓冲法,当渲染对象时,每一个生成的像素的深度(即Z坐标)储存于一缓冲区中,该缓冲区亦称为Z缓冲区或深度缓冲区,而该缓冲区则组成一储存每一屏幕像素深度的x-y二维组。若场景中另外一个对象亦于同一像素生成渲染结果,则比较两者的深度值,且保留距离观察者较近的物体,并将此对象深度储存至深度缓冲区内,最后,依据该深度缓冲区正确地深度感知效果,较近的物体遮挡较远的物体。而此过程亦称为Z消隐(Z culling)。如图12A及图12B所示的一Z缓冲立体影像711及一Z缓冲示意影像712。
2:画家深度排序法(Painter’salgorithm):其首先绘制距离较远的对象,然后在绘制距离较近的对象以覆盖较远的对象部分,其先将各个对象根据深度进行排序,然后依照顺序进行绘制,而依序形成一第一画家深度排序影像713、一第二画家深度排序影像714及一第三画家深度排序影像715。如图13A、图13B及图13C所示。
3:平面法线判定法:其适用于无凹线的凸多面体,例如正多面体或水晶球,其原理为求出每个面的法线向量,若法线向量的Z分量大于0(即面朝线观察者),则该面为可视平面716,若法线向量的Z分量小于0,则判定为隐藏面717,无须绘制。如图14所示
4:曲面法线判定法:使用曲面方程式作为判定基则,如用于求对象受光亮时,则将每一点的坐标值带入方程式,求得法向量并与光线向量进行内积运算,以求得受光亮,于绘制时由最远的点开始绘制。如此近的点于绘制时将遮盖住远的点,以处理深度问题。
5:最大最小法:当绘制时从最大的Z坐标开始绘制,而最大最小点根据Y坐标的值来决定哪些点须被绘制,而形成一立体深度影像718。如图15所示。
本发明立体影像视觉效果处理方法,其功效在于可通过操作光标移动,使对应的对象改变其深度坐标位置而能突显其视觉效果。此外,其它的对象亦对应改变其相对坐标位置,以进一步突显影像视觉的变化。
以上说明对本发明而言只是说明性的,而非限制性的,本领域普通技术人员理解,在不脱离以下所附权利要求所限定的精神和范围的情况下,可做出许多修改,变化,或等效,但都将落入本发明的保护范围内。
Claims (6)
1.一种立体影像视觉效果处理方法,其特征在于,包含下列步骤:
提供一立体影像,该立体影像是由多个对象所组成,每一该多个对象具有一对象坐标值;
提供一光标,该光标具有一光标坐标值;
判断该光标坐标值是否与其中的一该多个对象的该对象坐标值相重合;
若该光标坐标值与其中的一该多个对象的该对象坐标值相重合,则改变相对应该多个对象的对象坐标值的一深度坐标参数;及
重新绘制与该光标坐标值相符合的该对象的影像。
2.根据权利要求1所述的立体影像视觉效果处理方法,其特征在于,若该光标坐标值改变时,则重新判断该光标坐标值是否与其中之一该多个对象的对象坐标值相重合。
3.根据权利要求1所述的立体影像视觉效果处理方法,其特征在于,该多个对象坐标值是对应本地坐标、世界坐标、视角坐标或投影坐标的坐标值。
4.根据权利要求1所述的立体影像视觉效果处理方法,其特征在于,该光标坐标值是由鼠标、触控板或触控面板所产生。
5.根据权利要求1所述的立体影像视觉效果处理方法,其特征在于,该立体影像是依序由建模、场景布局与动画生成及绘制渲染这些计算机绘图步骤所产生。
6.根据权利要求1所述的立体影像视觉效果处理方法,其特征在于,该多个对象的该对象坐标值的该深度坐标参数是由Z缓冲法、画家深度排序法、平面法线判定法、曲面法线判定法、最大最小法这些方式所决定。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2011100719675A CN102693065A (zh) | 2011-03-24 | 2011-03-24 | 立体影像视觉效果处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2011100719675A CN102693065A (zh) | 2011-03-24 | 2011-03-24 | 立体影像视觉效果处理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102693065A true CN102693065A (zh) | 2012-09-26 |
Family
ID=46858571
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2011100719675A Pending CN102693065A (zh) | 2011-03-24 | 2011-03-24 | 立体影像视觉效果处理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102693065A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106162142A (zh) * | 2016-06-15 | 2016-11-23 | 南京快脚兽软件科技有限公司 | 一种高效的vr场景绘画方法 |
CN106406508A (zh) * | 2015-07-31 | 2017-02-15 | 联想(北京)有限公司 | 一种信息处理方法及中继设备 |
CN104268922B (zh) * | 2014-09-03 | 2017-06-06 | 广州博冠信息科技有限公司 | 一种图像渲染方法及图像渲染装置 |
CN108463837A (zh) * | 2016-01-12 | 2018-08-28 | 高通股份有限公司 | 用于渲染多个细节等级的***和方法 |
CN110091614A (zh) * | 2018-01-30 | 2019-08-06 | 东莞市图创智能制造有限公司 | 立体图像打印方法、装置、设备及存储介质 |
WO2021110038A1 (zh) * | 2019-12-05 | 2021-06-10 | 北京芯海视界三维科技有限公司 | 3d显示设备、3d图像显示方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6295062B1 (en) * | 1997-11-14 | 2001-09-25 | Matsushita Electric Industrial Co., Ltd. | Icon display apparatus and method used therein |
US20040230918A1 (en) * | 2000-12-08 | 2004-11-18 | Fujitsu Limited | Window display controlling method, window display controlling apparatus, and computer readable record medium containing a program |
CN101587386A (zh) * | 2008-05-21 | 2009-11-25 | 深圳华为通信技术有限公司 | 光标处理方法、装置及*** |
-
2011
- 2011-03-24 CN CN2011100719675A patent/CN102693065A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6295062B1 (en) * | 1997-11-14 | 2001-09-25 | Matsushita Electric Industrial Co., Ltd. | Icon display apparatus and method used therein |
US20040230918A1 (en) * | 2000-12-08 | 2004-11-18 | Fujitsu Limited | Window display controlling method, window display controlling apparatus, and computer readable record medium containing a program |
CN101587386A (zh) * | 2008-05-21 | 2009-11-25 | 深圳华为通信技术有限公司 | 光标处理方法、装置及*** |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104268922B (zh) * | 2014-09-03 | 2017-06-06 | 广州博冠信息科技有限公司 | 一种图像渲染方法及图像渲染装置 |
CN106406508A (zh) * | 2015-07-31 | 2017-02-15 | 联想(北京)有限公司 | 一种信息处理方法及中继设备 |
CN108463837A (zh) * | 2016-01-12 | 2018-08-28 | 高通股份有限公司 | 用于渲染多个细节等级的***和方法 |
CN106162142A (zh) * | 2016-06-15 | 2016-11-23 | 南京快脚兽软件科技有限公司 | 一种高效的vr场景绘画方法 |
CN110091614A (zh) * | 2018-01-30 | 2019-08-06 | 东莞市图创智能制造有限公司 | 立体图像打印方法、装置、设备及存储介质 |
WO2021110038A1 (zh) * | 2019-12-05 | 2021-06-10 | 北京芯海视界三维科技有限公司 | 3d显示设备、3d图像显示方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102249577B1 (ko) | Hud 객체 설계 및 방법 | |
US9282321B2 (en) | 3D model multi-reviewer system | |
KR101145260B1 (ko) | 3d 객체 모델에 텍스쳐를 매핑하는 방법 및 장치 | |
CN102289845B (zh) | 一种三维模型绘制方法以及装置 | |
US20120229463A1 (en) | 3d image visual effect processing method | |
US9202309B2 (en) | Methods and apparatus for digital stereo drawing | |
EP2051533B1 (en) | 3D image rendering apparatus and method | |
EP3379495B1 (en) | Seamless fracture in an animation production pipeline | |
KR20080051134A (ko) | 3d 그래픽을 위한 2d 편집 메타포어 | |
CN102693065A (zh) | 立体影像视觉效果处理方法 | |
KR20080055581A (ko) | 3D 오브젝트의 셀프 셰도우(self-shadow)를만들기 위해 데이터를 미리-저장할 수 있는 장치, 방법,응용프로그램 및 컴퓨터 판독가능한 매체 | |
JP2009116856A (ja) | 画像処理装置、画像処理方法 | |
CN108804061A (zh) | 虚拟现实***的虚拟场景显示方法 | |
Sandnes | Sketching 3D immersed experiences rapidly by hand through 2D cross sections | |
KR101919077B1 (ko) | 증강 현실 표시 방법 및 장치 | |
WO2013152684A1 (zh) | 一种实现三维饼状图动态呈现的方法 | |
KR20140019199A (ko) | 적외선 동작 인식 카메라를 사용한 네추럴 유저 인터페이스 기반 입체 지구본의 제조 방법 | |
Gois et al. | Interactive shading of 2.5 D models. | |
TWI797761B (zh) | 虛擬實境的顯示方法 | |
CN111625093B (zh) | 一种海量数字点云数据在mr眼镜中的动态调度显示方法 | |
Elgndy | Using Immersive media to develop the most intuitive way to build an Interactive Animated Augmented Reality (AR) experiences for Product Design taking into consideration the Covid-19 Pandemic. | |
Ji | Design and Modeling of Chinese Classical Lanterns Based on Different Processes | |
Smith et al. | Multicam: A system for interactive rendering of abstract digital images | |
Öhrn | Different mapping techniques for realistic surfaces | |
Gong | Simulating 3D cloud shape based on computer vision and particle system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20120926 |