CN107256576A - 图片中三维场景的展示方法和装置 - Google Patents
图片中三维场景的展示方法和装置 Download PDFInfo
- Publication number
- CN107256576A CN107256576A CN201710267704.9A CN201710267704A CN107256576A CN 107256576 A CN107256576 A CN 107256576A CN 201710267704 A CN201710267704 A CN 201710267704A CN 107256576 A CN107256576 A CN 107256576A
- Authority
- CN
- China
- Prior art keywords
- picture
- vanishing point
- module
- point
- vanishing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0641—Shopping interfaces
- G06Q30/0643—Graphical representation of items or shoppers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/04—Architectural design, interior design
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Development Economics (AREA)
- Economics (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种图片中三维场景的展示方法和装置,所述方法包括:对用户输入的单张图片进行灭点检测获取灭点;根据所述灭点获取所述图片包含的相机参数信息;根据所述相机参数信息对所述图片内的物体进行三维建模;显示所述三维建模后的物体。本发明整个过程融合DIY和TIP操作,使图片中物体的三维显示真实性更高。
Description
技术领域
本发明涉及虚实融合的应用领域,特别是涉及一种图片中三维场景的展示方法和装置。
背景技术
随着互联网大数据的蓬勃发展,家居虚拟展示能够跨越时空的局限,帮助用户直观、快速、全面的实现室内设计方案的展示,当前主要有基于Web3D的三维虚拟家居DIY平台和基于室内图片的二维家居TIP平台两种构建虚拟三维家居平台的方式,这两种平台对应的漫游方式也不相同。
家居虚拟展示技术多采用纯3D的技术方式,将房间和家具的三维模型按照用户的指令进行虚拟布局。但纯3D的虚拟家居技术过分依赖于丰富的三维模型库,为达到展示效果的高真实性,家居模型需要经过复杂的制作过程和大量繁琐的人工操作,而且网页上光影效果差强人意,较难达到现实中的光照效果。
基于图片进行家居虚拟设计及展示的方法在一定程度上克服了纯3D技术渲染速度慢、模型制作复杂等缺点。但图片往往缺少一些关键的场景信息,如场景的深度信息、空间结构信息等,同时,室内图片中通常包含丰富的物品,物品之间的相互遮挡也会造成场景信息的缺失,使场景信息的获取更加困难。
因此,如何更为有效的提高虚拟家居展示的真实性,使其更加贴近真实世界,一直是此类研究中的难点。
发明内容
基于此,有必要提供一种图片中三维场景的展示方法和装置,提高虚拟家居展示的真实性。
一种图片中三维场景的展示方法,所述方法包括:
对用户输入的单张图片进行灭点检测获取灭点;
根据所述灭点获取所述图片包含的相机参数信息;
根据所述相机参数信息对所述图片内的物体进行三维建模;
显示所述三维建模后的物体。
在其中一个实施例中,所述对用户输入的单张图片进行灭点检测获取灭点,包括:
通过边缘检测获取所述图片中物体的边缘线;
从所述边缘线中检测出直线数据;
通过灭点估计算法获取与所述直线数据对应的灭点坐标。
在其中一个实施例中,所述通过灭点估计算法获取与所述直线数据对应的灭点坐标,包括:
采用投票公式对直线数据中任意两条直线形成的交点进行投票;
以投票次数最多的所述交点作为第一灭点;
从剩余的所述交点中删除不符合要求的交点;
采用投票公式对删除后剩余的所述交点进行投票;
将投票次数最多的两个灭点作为第二灭点和第三灭点。
在其中一个实施例中,所述根据所述相机参数信息对所述图片内的物体进行三维建模,包括:
根据图片和灭点生成场景布局和物体模型;
参照所述相机参数信息对所述场景布局和物体模型进行三维构造。
在其中一个实施例中,所述方法还包括:
根据用户对所述物体的标注对所述三维建模的物体进行修正;
对所述图片中的场景光照进行分析生成对应的图片背景。
一种图片中三维场景的展示装置,所述装置包括:
灭点检测模块,用于对用户输入的单张图片进行灭点检测获取灭点;
参数获取模块,用于根据所述灭点获取所述图片包含的相机参数信息;
建模模块,用于根据所述相机参数信息对所述图片内的物体进行三维建模;
显示模块,用于显示所述三维建模后的物体。
在其中一个实施例中,所述灭点检测模块包括:
边缘检测模块,用于通过边缘检测获取所述图片中物体的边缘线;
直线检测模块,用于从所述边缘线中检测出直线数据;
灭点获取模块,用于通过灭点估计算法获取与所述直线数据对应的灭点坐标。
在其中一个实施例中,所述灭点获取模块包括:
第一模块,用于采用投票公式对直线数据中任意两条直线形成的交点进行投票;
第二模块,用于以投票次数最多的所述交点作为第一灭点;
第三模块,用于从剩余的所述交点中删除不符合要求的交点;
第四模块,用于采用投票公式对删除后剩余的所述交点进行投票;
第五模块,用于将投票次数最多的两个灭点作为第二灭点和第三灭点。
在其中一个实施例中,所述建模模块包括:
生成模块,用于根据图片和灭点生成场景布局和物体模型;
构造模块,用于参照所述相机参数信息对所述场景布局和物体模型进行三维构造。
在其中一个实施例中,所述装置还包括:
修正模块,用于根据用户对所述物体的标注对所述三维建模的物体进行修正;
背景生成模块,用于对所述图片中的场景光照进行分析生成对应的图片背景。
以上所述图片中三维场景的展示方法和装置对单张图片进行灭点检测获取灭点,根据所述灭点获取所述图片包含的相机参数信息,并根据所述相机参数信息对所述图片内的物体进行三维建模和显示,整个过程融合DIY和TIP操作,使图片中物体的三维显示真实性更高。
附图说明
图1为图片中三维场景的展示方法的流程图;
图2为图1中步骤S120的流程图;
图3图2中步骤S123的流程图;
图4为灭点检测算法耗时对比图;
图5为投影线检测到的冗余直线的数量对比图;
图6为图1中步骤S160的流程图;
图7为图片中三维场景的展示方法的另一流程图;
图8为图片中三维场景的展示装置的结构图;
图9为图片中三维场景的展示装置的另一结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,一实施例的图片中三维场景的展示方法包括步骤S120至步骤S180。
步骤S120,对用户输入的单张图片进行灭点检测获取灭点;
步骤S140,根据灭点获取图片包含的相机参数信息;
步骤S160,根据相机参数信息对图片内的物体进行三维建模;
步骤S180,显示三维建模后的物体。
以上所述图片中三维场景的展示方法对单张图片进行灭点检测获取灭点,根据所述灭点获取所述图片包含的相机参数信息,并根据所述相机参数信息对所述图片内的物体进行三维建模和显示,整个过程融合DIY和TIP操作,使图片中物体的三维显示真实性更高。
如图2所示,步骤S120包括步骤S121至步骤S123。
步骤S121,通过边缘检测获取图片中物体的边缘线。
本实施例优选采用结构化的边缘检测算法进行物体轮廓线检测。对于图片中的物体,通过边缘检测可以检测出物体的边缘线,边缘线包括直线或曲线。边缘线形态取决于物体的形态。
步骤S122,从边缘线中检测出直线数据。
根据边缘线的形状,可以从其中区分出相应的直线,也可以采用一些坐标计算方法等检测出直线。
步骤S123,通过灭点估计算法获取与直线数据对应的灭点坐标。
其中,步骤S123包括步骤S1231至步骤S1235。
步骤S1231,采用投票公式对直线数据中任意两条直线形成的交点进行投票;
步骤S1232,以投票次数最多的交点作为第一灭点;
步骤S1233,从剩余的交点中删除不符合要求的交点;
步骤S1234,采用投票公式对删除后剩余的交点进行投票;
步骤S1235,将投票次数最多的两个灭点作为第二灭点和第三灭点。
通过以上步骤S1231至步骤S1235,可以获取三个灭点信息,分别为第一灭点、第二灭点和第三灭点。其中,步骤S1233从剩余的交点中删除不符合要求的交点时,可以首先计算出剩余的交点到图片中心的距离,图片中心为图片的几何中心;之后,对于某一距离,判断该距离与图片对角线长度的一半的大小,如果小于,则确定阀值10,否则,则将该距离与图片对角线长度相除并乘以20作为确定的阀值;之后,判断与该距离对应的交点与剩余交点中的其他交点之间的距离是否小于确定的阀值,如果小于,则删除对应的交点;之后,从删除后剩余的交点中选择其中任意两个交点与第一灭点进行正交性检测,即检测由三个点组成的三角形其垂心是否在图片范围内,移除不符合要求的点;之后剩下的交点可以由步骤S1234进行投票。
为验证以上灭点估计算法的有效性,本实施例将以上灭点估计算法与Hedau的灭点检测算法(Hedau V,Hoiem D,Forsyth D.Recovering the spatial layout ofcluttered rooms[C]//IEEE International Conference on Computer Vision.IEEE,2009:1849-1856)进行测试,并对两种算法在时间和冗余直线的数量的结果做出比较。
其中,图4和图5中,I表示分辨率在300*200范围的图像,II表示分辨率在640*480范围的图像,III表示分辨率在800*600范围的图像,IV表示分辨率在1280*768范围的图像,V表示分辨率在1600*1200范围的图像。
如图4所示,随着分辨率的增加,本实施的灭点估计算法在时间消耗上较远远少于Hedau的算法。如图5所示,本实施例的灭点估计算法有效的减少了检测到的冗余直线的数量。本实施例的灭点检测不但能快速处理分辨率很高的图片,而且避免了由于冗余直线数量过多导致错误灭点检测结果的最坏情况。采用本实施例的灭点估计算法可以准确地找到平行于房间墙面的直线。
如图6所示,步骤S160包括步骤S161和步骤S162。
步骤S161,根据图片和灭点生成场景布局和物体模型。
将室内图片和灭点作为输入,可以生成场景布局和物体模型。为使建模更加准确,本实施例还可以通过手工拖拽角点的方式对房间布局的场景进行修改。本实施例还可以对生成的场景布局进行评估和优化,场景布局进行评估可以采用Structured-SVM模型进行布局评价模型的参数训练。
步骤S162,参照相机参数信息对场景布局和物体模型进行三维构造。
本实施例的三维构造包括相机本质矩阵的计算,旋转和平移矩阵的计算,二维图像点到三维图像点的转换。本实施例可以基本还原出图像场景,并重建出图片内显著物品的模型。
如图7所示,本实施的图片中三维场景的展示方法还包括步骤S171和步骤S172。
步骤S171,根据用户对物体的标注对三维建模的物体进行修正。
用户对物体的标注可以是用户在图片中画出的具体图形,如桌子或床的图形,由于用户对物体的标注确定了物体的位置、大小和形状,可以依此对物体进行修正,使物体更符合构造的场景,并提高物体构造的真实性。
步骤S172,对图片中的场景光照进行分析生成对应的图片背景。
本实施例在构造场景时,保留图片中场景的光源信息。对光源信息进行分析可以生成与修正后的物体相匹配的图片背景。
其中,步骤S180显示三维建模后的物体时,可以将构造的场景与物体共同显示在显示屏上。
如图8所示,一实施例的图片中三维场景的展示装置包括:
灭点检测模块120,用于对用户输入的单张图片进行灭点检测获取灭点;
参数获取模块140,用于根据灭点获取图片包含的相机参数信息;
建模模块160,用于根据相机参数信息对图片内的物体进行三维建模;
显示模块180,用于显示三维建模后的物体。
以上所述图片中三维场景的展示装置对单张图片进行灭点检测获取灭点,根据所述灭点获取所述图片包含的相机参数信息,并根据所述相机参数信息对所述图片内的物体进行三维建模和显示,整个过程融合DIY和TIP操作,使图片中物体的三维显示真实性更高。
其中,灭点检测模块120包括边缘检测模块121、直线检测模块122和灭点获取模块123。
边缘检测模块121,用于通过边缘检测获取图片中物体的边缘线。
本实施例优选采用结构化的边缘检测算法进行物体轮廓线检测。对于图片中的物体,通过边缘检测可以检测出物体的边缘线,边缘线包括直线或曲线。边缘线形态取决于物体的形态。
直线检测模块122,用于从边缘线中检测出直线数据。
根据边缘线的形状,可以从其中区分出相应的直线,也可以采用一些坐标计算方法等检测出直线。
灭点获取模块123,用于通过灭点估计算法获取与直线数据对应的灭点坐标。
其中,灭点获取模块123包括以下功能模块。
第一模块1231,用于采用投票公式对直线数据中任意两条直线形成的交点进行投票;
第二模块1232,用于以投票次数最多的交点作为第一灭点;
第三模块1233,用于从剩余的交点中删除不符合要求的交点;
第四模块1234,用于采用投票公式对删除后剩余的交点进行投票;
第五模块1235,用于将投票次数最多的两个灭点作为第二灭点和第三灭点。
通过以上第一至第五模块,可以获取三个灭点信息,分别为第一灭点、第二灭点和第三灭点。其中,第三模块1233从剩余的交点中删除不符合要求的交点时,可以首先计算出剩余的交点到图片中心的距离,图片中心为图片的几何中心;之后,对于某一距离,判断该距离与图片对角线长度的一半的大小,如果小于,则确定阀值10,否则,则将该距离与图片对角线长度相除并乘以20作为确定的阀值;之后,判断与该距离对应的交点与剩余交点中的其他交点之间的距离是否小于确定的阀值,如果小于,则删除对应的交点;之后,从删除后剩余的交点中选择其中任意两个交点与第一灭点进行正交性检测,即检测由三个点组成的三角形其垂心是否在图片范围内,移除不符合要求的点;之后剩下的交点可以由第四模块1234进行投票。
为验证以上灭点估计算法的有效性,本实施例将以上灭点估计算法与Hedau的灭点检测算法(Hedau V,Hoiem D,Forsyth D.Recovering the spatial layout ofcluttered rooms[C]//IEEE International Conference on Computer Vision.IEEE,2009:1849-1856)进行测试,并对两种算法在时间和冗余直线的数量的结果做出比较。
其中,图4和图5中,I表示分辨率在300*200范围的图像,II表示分辨率在640*480范围的图像,III表示分辨率在800*600范围的图像,IV表示分辨率在1280*768范围的图像,V表示分辨率在1600*1200范围的图像。
如图4所示,随着分辨率的增加,本实施的灭点估计算法在时间消耗上较远远少于Hedau的算法。如图5所示,本实施例的灭点估计算法有效的减少了检测到的冗余直线的数量。本实施例的灭点检测不但能快速处理分辨率很高的图片,而且避免了由于冗余直线数量过多导致错误灭点检测结果的最坏情况。采用本实施例的灭点估计算法可以准确地找到平行于房间墙面的直线。
其中,建模模块160包括生成模块161和构造模块162。
生成模块161,用于根据图片和灭点生成场景布局和物体模型。
将室内图片和灭点作为输入,可以生成场景布局和物体模型。为使建模更加准确,本实施例还可以通过手工拖拽角点的方式对房间布局的场景进行修改。本实施例还可以对生成的场景布局进行评估和优化,场景布局进行评估可以采用Structured-SVM模型进行布局评价模型的参数训练。
构造模块162,用于参照相机参数信息对场景布局和物体模型进行三维构造。
本实施例的三维构造包括相机本质矩阵的计算,旋转和平移矩阵的计算,二维图像点到三维图像点的转换。本实施例可以基本还原出图像场景,并重建出图片内显著物品的模型。
如图9所示,本实施的图片中三维场景的展示装置还包括修正模块171和背景生成模块172。
修正模块171,用于根据用户对物体的标注对三维建模的物体进行修正。
用户对物体的标注可以是用户在图片中画出的具体图形,如桌子或床的图形,由于用户对物体的标注确定了物体的位置、大小和形状,可以依此对物体进行修正,使物体更符合构造的场景,并提高物体构造的真实性。
背景生成模块172,用于对图片中的场景光照进行分析生成对应的图片背景。
本实施例在构造场景时,保留图片中场景的光源信息。对光源信息进行分析可以生成与修正后的物体相匹配的图片背景。
其中,显示模块180显示三维建模后的物体时,可以将构造的场景与物体共同显示在显示屏上。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种图片中三维场景的展示方法,其特征在于,所述方法包括:
对用户输入的单张图片进行灭点检测获取灭点;
根据所述灭点获取所述图片包含的相机参数信息;
根据所述相机参数信息对所述图片内的物体进行三维建模;
显示所述三维建模后的物体。
2.根据权利要求1所述的方法,其特征在于,所述对用户输入的单张图片进行灭点检测获取灭点,包括:
通过边缘检测获取所述图片中物体的边缘线;
从所述边缘线中检测出直线数据;
通过灭点估计算法获取与所述直线数据对应的灭点坐标。
3.根据权利要求2所述的方法,其特征在于,所述通过灭点估计算法获取与所述直线数据对应的灭点坐标,包括:
采用投票公式对直线数据中任意两条直线形成的交点进行投票;
以投票次数最多的所述交点作为第一灭点;
从剩余的所述交点中删除不符合要求的交点;
采用投票公式对删除后剩余的所述交点进行投票;
将投票次数最多的两个灭点作为第二灭点和第三灭点。
4.根据权利要求1所述的方法,其特征在于,所述根据所述相机参数信息对所述图片内的物体进行三维建模,包括:
根据图片和灭点生成场景布局和物体模型;
参照所述相机参数信息对所述场景布局和物体模型进行三维构造。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据用户对所述物体的标注对所述三维建模的物体进行修正;
对所述图片中的场景光照进行分析生成对应的图片背景。
6.一种图片中三维场景的展示装置,其特征在于,所述装置包括:
灭点检测模块,用于对用户输入的单张图片进行灭点检测获取灭点;
参数获取模块,用于根据所述灭点获取所述图片包含的相机参数信息;
建模模块,用于根据所述相机参数信息对所述图片内的物体进行三维建模;
显示模块,用于显示所述三维建模后的物体。
7.根据权利要求6所述的装置,其特征在于,所述灭点检测模块包括:
边缘检测模块,用于通过边缘检测获取所述图片中物体的边缘线;
直线检测模块,用于从所述边缘线中检测出直线数据;
灭点获取模块,用于通过灭点估计算法获取与所述直线数据对应的灭点坐标。
8.根据权利要求7所述的装置,其特征在于,所述灭点获取模块包括:
第一模块,用于采用投票公式对直线数据中任意两条直线形成的交点进行投票;
第二模块,用于以投票次数最多的所述交点作为第一灭点;
第三模块,用于从剩余的所述交点中删除不符合要求的交点;
第四模块,用于采用投票公式对删除后剩余的所述交点进行投票;
第五模块,用于将投票次数最多的两个灭点作为第二灭点和第三灭点。
9.根据权利要求6所述的装置,其特征在于,所述建模模块包括:
生成模块,用于根据图片和灭点生成场景布局和物体模型;
构造模块,用于参照所述相机参数信息对所述场景布局和物体模型进行三维构造。
10.根据权利要求6所述的装置,其特征在于,所述装置还包括:
修正模块,用于根据用户对所述物体的标注对所述三维建模的物体进行修正;
背景生成模块,用于对所述图片中的场景光照进行分析生成对应的图片背景。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710267704.9A CN107256576A (zh) | 2017-04-21 | 2017-04-21 | 图片中三维场景的展示方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710267704.9A CN107256576A (zh) | 2017-04-21 | 2017-04-21 | 图片中三维场景的展示方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107256576A true CN107256576A (zh) | 2017-10-17 |
Family
ID=60027860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710267704.9A Pending CN107256576A (zh) | 2017-04-21 | 2017-04-21 | 图片中三维场景的展示方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107256576A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111161336A (zh) * | 2019-12-18 | 2020-05-15 | 北京城市网邻信息技术有限公司 | 三维重建方法、三维重建装置和计算机可读存储介质 |
CN111292414A (zh) * | 2020-02-24 | 2020-06-16 | 当家移动绿色互联网技术集团有限公司 | 生成物体三维图像的方法、装置、存储介质及电子设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120070101A1 (en) * | 2009-12-16 | 2012-03-22 | Hadas Kogan | Estimating 3d structure from a 2d image |
US20120169847A1 (en) * | 2010-12-30 | 2012-07-05 | Hon Hai Precision Industry Co., Ltd. | Electronic device and method for performing scene design simulation |
CN104143212A (zh) * | 2014-07-02 | 2014-11-12 | 惠州Tcl移动通信有限公司 | 基于穿戴设备的增强现实方法及*** |
US20140333615A1 (en) * | 2013-05-11 | 2014-11-13 | Mitsubishi Electric Research Laboratories, Inc. | Method For Reconstructing 3D Scenes From 2D Images |
CN104376596A (zh) * | 2014-11-28 | 2015-02-25 | 北京航空航天大学 | 一种基于单幅图像的三维场景结构建模与注册方法 |
CN104809755A (zh) * | 2015-04-09 | 2015-07-29 | 福州大学 | 基于单幅图像文化遗存遗址的三维重建方法 |
CN106327532A (zh) * | 2016-08-31 | 2017-01-11 | 北京天睿空间科技股份有限公司 | 一种单幅图像的三维配准方法 |
CN106558103A (zh) * | 2015-09-24 | 2017-04-05 | 鸿富锦精密工业(深圳)有限公司 | 扩增实境图像处理***及扩增实境图像处理方法 |
-
2017
- 2017-04-21 CN CN201710267704.9A patent/CN107256576A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120070101A1 (en) * | 2009-12-16 | 2012-03-22 | Hadas Kogan | Estimating 3d structure from a 2d image |
US20120169847A1 (en) * | 2010-12-30 | 2012-07-05 | Hon Hai Precision Industry Co., Ltd. | Electronic device and method for performing scene design simulation |
US20140333615A1 (en) * | 2013-05-11 | 2014-11-13 | Mitsubishi Electric Research Laboratories, Inc. | Method For Reconstructing 3D Scenes From 2D Images |
CN104143212A (zh) * | 2014-07-02 | 2014-11-12 | 惠州Tcl移动通信有限公司 | 基于穿戴设备的增强现实方法及*** |
CN104376596A (zh) * | 2014-11-28 | 2015-02-25 | 北京航空航天大学 | 一种基于单幅图像的三维场景结构建模与注册方法 |
CN104809755A (zh) * | 2015-04-09 | 2015-07-29 | 福州大学 | 基于单幅图像文化遗存遗址的三维重建方法 |
CN106558103A (zh) * | 2015-09-24 | 2017-04-05 | 鸿富锦精密工业(深圳)有限公司 | 扩增实境图像处理***及扩增实境图像处理方法 |
CN106327532A (zh) * | 2016-08-31 | 2017-01-11 | 北京天睿空间科技股份有限公司 | 一种单幅图像的三维配准方法 |
Non-Patent Citations (1)
Title |
---|
王海菲 等: "复杂室内图像的灭点检测与箱体重建方法", 《计算机科学与探索》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111161336A (zh) * | 2019-12-18 | 2020-05-15 | 北京城市网邻信息技术有限公司 | 三维重建方法、三维重建装置和计算机可读存储介质 |
CN111161336B (zh) * | 2019-12-18 | 2021-01-29 | 北京城市网邻信息技术有限公司 | 三维重建方法、三维重建装置和计算机可读存储介质 |
CN111292414A (zh) * | 2020-02-24 | 2020-06-16 | 当家移动绿色互联网技术集团有限公司 | 生成物体三维图像的方法、装置、存储介质及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106373187B (zh) | 基于ar的二维图像转换至三维场景的实现方法 | |
US10068547B2 (en) | Augmented reality surface painting | |
CN102622776B (zh) | 三维环境重构 | |
CN104732203B (zh) | 一种基于视频信息的情绪识别与跟踪方法 | |
CN107992858A (zh) | 一种基于单一rgb帧的实时三维手势估计方法 | |
CN108735052A (zh) | 一种基于slam的增强现实自由落体实验方法 | |
CN110926334A (zh) | 测量方法、装置、电子设备及存储介质 | |
US20120229463A1 (en) | 3d image visual effect processing method | |
Xu et al. | Model-guided 3D sketching | |
Zhang et al. | 3D tree skeletonization from multiple images based on PyrLK optical flow | |
Boom et al. | Interactive light source position estimation for augmented reality with an RGB‐D camera | |
KR100957189B1 (ko) | 심플 프레임 마커를 이용하는 증강현실 시스템 및 그 방법,상기 방법을 구현하는 프로그램이 기록된 기록매체 | |
Kohtala et al. | Leveraging synthetic data from cad models for training object detection models–a vr industry application case | |
CN107256576A (zh) | 图片中三维场景的展示方法和装置 | |
Valentini | Natural interface in augmented reality interactive simulations: This paper demonstrates that the use of a depth sensing camera that helps generate a three-dimensional scene and track user's motion could enhance the realism of the interactions between virtual and physical objects | |
Tian et al. | Registration and occlusion handling based on the FAST ICP-ORB method for augmented reality systems | |
CN110008873B (zh) | 面部表情捕捉方法、***及设备 | |
Nguyen et al. | Interactive syntactic modeling with a single-point laser range finder and camera | |
CN104272351A (zh) | 用于表示场景中的参与介质的方法以及对应的设备 | |
JP2019032713A5 (zh) | ||
Nan et al. | vdesign: Toward image segmentation and composition in cave using finger interactions | |
US11640695B2 (en) | Digital garment generation | |
US12039668B2 (en) | Digital garment generation | |
Puggelli et al. | ARTE–augmented readability tactile exploration: the tactile bas-relief of Piazza San Francesco painting | |
Keaveny | Experimental Evaluation of Affordance Detection Applied to 6-DoF Pose Estimation for Intelligent Robotic Grasping of Household Objects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20171017 |
|
RJ01 | Rejection of invention patent application after publication |