CN108227929B - 基于bim技术的增强现实放样***及实现方法 - Google Patents
基于bim技术的增强现实放样***及实现方法 Download PDFInfo
- Publication number
- CN108227929B CN108227929B CN201810034164.4A CN201810034164A CN108227929B CN 108227929 B CN108227929 B CN 108227929B CN 201810034164 A CN201810034164 A CN 201810034164A CN 108227929 B CN108227929 B CN 108227929B
- Authority
- CN
- China
- Prior art keywords
- augmented reality
- coordinate system
- bim
- construction
- construction site
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 156
- 238000005516 engineering process Methods 0.000 title claims abstract description 53
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000010276 construction Methods 0.000 claims abstract description 106
- 238000005259 measurement Methods 0.000 claims abstract description 61
- 238000013461 design Methods 0.000 claims abstract description 54
- 230000009466 transformation Effects 0.000 claims abstract description 13
- 238000006243 chemical reaction Methods 0.000 claims abstract description 9
- 230000004438 eyesight Effects 0.000 claims description 14
- 230000003287 optical effect Effects 0.000 claims description 13
- 238000013507 mapping Methods 0.000 abstract description 5
- 239000003550 marker Substances 0.000 description 8
- 230000036544 posture Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000013439 planning Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/0009—Transmission of position information to remote stations
- G01S5/0045—Transmission from base station to mobile station
- G01S5/0063—Transmission from base station to mobile station of measured values, i.e. measurement on base station and position calculation on mobile
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/08—Construction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Business, Economics & Management (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Strategic Management (AREA)
- Primary Health Care (AREA)
- Electromagnetism (AREA)
- Human Resources & Organizations (AREA)
- General Health & Medical Sciences (AREA)
- Economics (AREA)
- Health & Medical Sciences (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开一种基于BIM技术的增强现实放样***及方法。该方法包括:使施工现场处于定位装置的定位跟踪范围内,使用标准尺对定位装置的工作空间测量定位并建立测量坐标系;分别确定设计关键位置A/B/C分别在测量坐标系中的坐标;确定施工设计坐标系转换到测量坐标系的坐标转换参数;利用坐标转换参数对BIM模型进行坐标变换,然后将已完成坐标变换的BIM模型载入增强显示设备中,使用者头戴增强现实设备观察施工现场时,BIM模型显示在施工现场中且BIM模型的各个设计关键位置分别与施工现场的各个施工关键位置一一对应重合。本发明可以精确确定施工现场与BIM模型的映射关系,使设计单位的BIM三维设计成果可以利用增强现实技术准确叠加在施工现场。
Description
技术领域
本发明涉及建筑信息处理技术,尤其是涉及一种基于BIM技术的增强现实放样***及实现方法。
背景技术
增强现实(Augmented Reality,简称AR)是一种实时地计算摄影机影像的位置及姿态并加上相应图像的技术,这种技术的目标是在屏幕上把虚拟世界叠加在现实世界并进行互动。增强现实***为实现虚拟与真实场景的完美结合,计算机产生的虚拟添加信息需通过三维跟踪注册算法与真实场景保持精确的对准关系。
在增强现实***中,跟踪注册是增强现实***构建的基础技术,也是决定增强现实***性能的关键。其中,注册主要是指将计算机产生的虚拟物体与用户周围的真实环境全方位对准;跟踪是指保证计算机产生的虚拟物体在真实环境的运动过程中维持正确的对准关系。实用的光学增强现实跟踪注册技术主要有两种:
一种为基于标识的跟踪注册。基于标识的跟踪注册需要事先在真实场景中放置一个标识物作为跟踪注册的基准,基于标识的跟踪注册过程一般为:首先增强现实***通过对真实场景的视频捕捉来进行图像分析,对该图像进行标识的提取、检测与识别,以此来识别标识的ID;然后增强现实***计算出摄像机相对于标识物的位置和朝向,即摄像机的外部参数矩阵;然后根据标识的ID,生成其相对应的3D虚拟物体。基于标识的跟踪注册技术可以实现设计成果模型在实施现场按照BIM坐标系注册在增强现实***中的目的。用传统测量技术测量出标识物在BIM坐标系中的位姿,增强现实***可以根据标识在摄像机中的成像,计算出增强现实设备在BIM坐标系中的位姿,从而实现设计成果模型按照BIM坐标系在增强现实***坐标系中完成注册。然而在基于标识的跟踪注册技术中,标识的尺寸限制了增强注册精度和跟踪范围。虽然可以在大空间中放置多个标识提高注册精度和扩大跟踪范围,但是测量每个标识的坐标和姿态需要花费大量的时间,在实际应用中受到很大限制。
另一种为无标识跟踪注册。无标识跟踪注册***利用自然场景图像或重建场景模型(如SLAM技术),根据摄像机每帧中得到的目标特征2D投影图像,计算求解目标或摄像机的位置和姿态。由多个高速相机从不同角度对目标特征点的监视和跟踪来进行动作捕捉。理论上对于空间中的任意一个点,只要它能同时为两部相机所见,就可以确定这一时刻该点在空间中的位置。光学式动作捕捉技术精度可以达到亚毫米,因其高精度的性能,目前国内有青瞳视觉、瑞立视公司把此项技术应用于虚拟现实***的跟踪。
随着增强现实技术的发展,增强现实***SLAM(simultaneous localization andmapping的缩写,即时定位与地图构建或并发建图与定位)技术成为跟踪定位技术主流,如微软公司的Hololens增强现实眼镜就是采用SLAM技术进行跟踪定位。SLAM定位技术可使增强现实***实现室内外大空间范围的跟踪,而不需事先花费大量的时间布置标识并对标识的坐标及姿态进行测量。然而,SLAM技术是在机器人视觉的基础上发展而来,其算法不是专门针对高精度测量定位来开发的,除了昂贵的激光雷达SLAM,其他SLAM定位技术均不能满足工程测量的精度要求。
当前高精度的定位技术主要有用于VR(虚拟现实)***的光学式动作捕捉技术和用于工业定位的室内GPS(iGPS)***。
虚拟现实***定位采用的光学式动作捕捉技术由多个高速相机从不同角度对目标特征点的监视和跟踪来进行动作捕捉。理论上对于空间中的任意一个点,只要它能同时为两部相机所见,就可以确定这一时刻该点在空间中的位置。光学式动作捕捉技术精度可以达到亚毫米,因其高精度的性能,目前国内有青瞳视觉、瑞立视公司把此项技术应用于虚拟现实***的跟踪。
室内GPS(iGPS)主要由测量基站和接收器组成,利用角度交会的测量原理,两个以上的测量基站就可以测出接收器所处位置的三维坐标。室内GPS的特点在于亚毫米的跟踪精度和大面积的跟踪范围。在飞机、轮船制造、检测、装备中已经得到广泛的应用。
建筑信息模型(Building Information Modeling,简称BIM是一种建筑全生命周期信息化管理技术,具有可视化、协调性、模拟性、优化性和可出图五大特点。BIM 是一种全新的建筑设计、施工、管理方法,以三维数字信息技术为基础,将规划、设计、建造、运营等各阶段的数据资料全部包含在 3D 模型之中,让建筑物整个生命周期中任何阶段的工作人员在使用该模型时,都能根据精确完整的数据做出有效、正确的决策。目前BIM的三维模型只能在电脑及智能手机上调用,现场施工放样则仍然由图纸上的标注尺寸指导施工定位放线,造成设计师建完BIM模型后花费大量时间和精力把BIM模型里的三维定位信息标注为二维图纸上的尺寸,施工人员再根据这些二维图纸上的信息用传统测量技术进行测量放样,使BIM的应用价值大幅缩水,阻碍了BIM在建筑业的应用。
发明内容
针对现有技术中不能对BIM模型进行增强现实放样的技术问题,本发明公开了一种基于BIM技术的增强现实放样***及实现方法,使BIM模型可以利用增强现实技术准确叠加在施工现场以满足实际需要。
本发明提出一种基于BIM技术的增强现实放样方法,其包括:
步骤a.使施工现场处于定位装置的定位跟踪范围内,使用标准尺对定位装置的工作空间测量定位并建立测量坐标系;
步骤b. 在使用增强现实坐标系的增强现实设备中生成一个光点;
步骤c.使用者头戴增强现实设备,将光点与施工现场中预设设定已知坐标的校准位置重合瞄准时确定为人眼视线,换算出人眼视线在增强现实坐标系中的直线方程;
步骤d. BIM模型中不处于同一直线上的3个设计关键位置A/B/C的坐标与施工现场中3个施工关键位置A’/B’/C’的坐标存在一一对应关系,通过如下方式分别确定设计关键位置A/B/C分别在测量坐标系中的坐标:d1.使用者通过增强现实设备观察到光点与施工关键位置A’/B’/C’重合时,光点与施工关键位置A’/B’/C’之间的直线设为第一视线,记录增强现实设备处于第一视线时在测量坐标系中的第一位姿,将该第一位姿代入上述直线方程得到第一方程;d2.在第一视线的侧方对施工现场再次观察到使光点与施工关键位置A’/B’/C’再次重合时,光点与施工关键位置A’/B’/C’之间的直线设为第二视线,记录增强现实设备处于第二视线时在测量坐标系中的第二位姿,将该第二位姿代入上述直线方程得到第二方程;d3.计算出第一方程所在直线与第二方程所在直线两者之间的公垂线,当该公垂线的长度满足预设误差要求时,该公垂线中点坐标作为设计关键位置A/B/C在测量坐标系中坐标;
步骤e.根据设计关键位置A/B/C在BIM模型或施工现场所使用的施工设计坐标系中的坐标、设计关键位置A/B/C在测量坐标系中坐标,确定施工设计坐标系转换到测量坐标系的坐标转换参数;
步骤f.利用坐标转换参数对BIM模型进行坐标变换,然后将已完成坐标变换的BIM模型载入增强显示设备中,使用者头戴增强现实设备观察施工现场时,BIM模型显示在施工现场中且BIM模型的各个设计关键位置分别与施工现场的各个施工关键位置一一对应重合。
其中,步骤c具体包括:
c1. 使用者头戴增强现实设备对施工现场进行观察,当观察到光点与校准位置重合时,由增强现实设备生成一个与光点重合的标记点并记录此时增强现实设备在测量坐标系中的首次位姿,由光点在增强现实设备中的坐标和增强现实设备在测量坐标系中的首次位姿计算出标记点在测量坐标系中的第一坐标(x1,y1,z1);
c2. 使用者的视觉沿着由标记点和光点所确定的人眼视线方向移动,并保持光点、标记点与校准位置三点处于一条直线上,此时记录增强现实设备在测量坐标系中的再次位姿,并根据再次位姿和光点在增强现实坐标系中的坐标计算出此时光点在测量坐标系中的第二坐标(x2,y2,z2);
c3.由第一坐标(x1,y1,z1)和第二坐标(x2,y2,z2)得出通过光点的人眼视线在测量坐标系中的直线方程,从而换算出人眼视线在增强现实坐标系中的直线方程。
其中,定位装置包括两个动作捕捉相机,且两个动作捕捉相机的镜头分别与增强现实设备之间的两条视线存在交会角,所述增强现实设备安装有可被动作捕捉相机监视跟踪的多个光学标识点。
其中,定位装置包括两个室内GPS激光发射基站,这两个室内GPS激光发射基站分别朝增强现实设备发出的激光之间存在交会角,所述增强现实设备安装有可接收室内GPS激光发射基站的传感器。
其中,交会角介于 60°至 120°。
其中,若步骤d3中公垂线的长度不满足预设误差要求时,则重复步骤d1-步骤d3重新计算公垂线的长度。
其中,第一视线与第二视线之间存在一个夹角。夹角介于30°-150°。
其中,使用者头戴增强现实设备,用同一只单眼对施工现场进行观察。
本发明还提出一种基于BIM技术的增强现实放样***,其使用了上述放样方法。
综上,与现有技术相比,本发明具有如下有益技术效果:
1.本发明可以精确确定施工现场与BIM模型的映射关系,使设计单位的BIM三维设计成果可以利用增强现实技术准确叠加在施工现场中,避免现场施工人员对设计意图产生误解,方便甲方及监理单位对施工单位的施工过程进行监督。
2.本发明采用定位精度达到亚毫米的光学式动作捕捉技术和室内GPS技术,保证了增强现实***的精度。
3.本发明技术方案先用标准尺建立工作空间测量定位***坐标系,然后采用对准施工现场中多个已知坐标点的施工关键位置求出BIM坐标系和工作空间测量定位***坐标系的坐标转换参数,不需要对动作捕捉相机或激光发射基站进行调平对点设站,也不需要后视定向,不仅提高了准确性,还大大提高了放样处理的工作效率。
4.本发明技术方案同样适用于视频透视型的增强现实设备,具有适应性好的特点。因为视频透视型的增强现实设备的摄像头位置不会象人眼一样相对于增强现实设备变动,可以利用步骤S5和步骤6在生产阶段进行校准即可,在此不再详细展开描述。
附图说明
图1为基于BIM技术的增强现实放样***的示意图;
图2为本发明一个实施例的流程示意图;
图3为使用者头戴增强现实设备首次瞄准施工现场中校准位置a时的示意图;
图4为使用者头戴增强现实设备再次瞄准施工现场中校准位置a时的示意图;
图5为使用者头戴增强现实设备瞄准施工关键位置A’时的示意图。
具体实施方式
下面结合附图和实施例对本发明做进一步说明。
本发明公开了一种基于BIM技术的增强现实放样***,是将已经设计出的BIM模型通过增强现实技术在施工现场中进行模拟放样,从而明确BIM模型中各个设计位置与施工现场的对应映射关系,可以避免现场施工人员对BIM模型所表达的设计意图产生误解,更方便甲方及监理单位对施工现场进行施工监督。
如图1所示,该增强现实放样***包括定位装置1和使用者2头戴的增强现实设备3,利用定位装置1对增强现实设备3进行定位跟踪实现BIM模型4在真实场景下的放样作业。其中,使用者2为现场施工人员、甲方及监理单位的施工监督者等。
所述增强现实设备3为光学透视型或视频透视型增强现实设备。定位装置1包括两个动作捕捉相机,且两个动作捕捉相机的镜头分别与增强现实设备之间的两条视线之间存在介于 60°-120°的交会角,所述增强现实设备3安装有可被动作捕捉相机监视跟踪的多个光学标识点。或者,定位装置1包括两个室内GPS激光发射基站,这两个室内GPS激光发射基站分别朝增强现实设备发出的激光之间存在介于 60°-120°之间的交会角,所述增强现实设备3安装有可接收室内GPS激光发射基站的传感器。
其中,定位装置1、增强现实设备3及BIM模型4具有三个各自不同坐标原点的坐标系。为了后续能够更清楚的描述本发明的构成及工作原理,故先对三个坐标系进行介绍:①定位装置1具有Xa-Ya-Za的测量坐标系11。②增强现实设备3具有Xb-Yb-Zb的增强现实坐标系31,增强现实坐标系31是以增强现实设备3的中心作为坐标原点。③BIM模型4具有Xc-Yc-Zc的施工设计坐标系41,其坐标系在设计时由设计所使用的软件设定,并且,由于BIM模型4需要通过施工在施工现场5对应进行建造,故BIM模型4与施工现场5采用相同的坐标系,两者之间不存在坐标转换。
进一步结合图2所示,本发明的一个实施例是通过如下步骤来实现对BIM模型4的放样处理:
步骤S1、如图1所示,在施工现场5的一侧设置定位装置1,使施工现场5完全处于定位装置1的动作捕捉相机摄像范围或发射基站激光覆盖范围。即让两个动作捕捉相机的镜头分别与增强现实设备之间的两条视线之间存在介于 60°-120°的交会角,或者,让两个激光发射基站分别朝增强现实设备发出的激光之间交会角介于 60°至120°。
步骤S2、使用标准尺对定位装置1的工作空间测量定位建立测量坐标系11。
使用标准尺对两个动作捕捉相机或激光发射基站在测量坐标系中的位置和姿态进行标定(使用标准尺标定的方法是一种成熟的摄影测量方法,可参考中国专利申请CN2011102347770),建立Xa-Ya-Za的测量坐标系11,此时该坐标系和BIM模型4或施工现场5的施工设计坐标系41之间还没有建立转换关系。
在光学透视型增强现实***中,人眼的位置影响到增强现实***中虚拟图像显示在屏幕上的位置,以下步骤通过对准现实场景中各个设计关键位置来标定人眼的位置同时确定测量坐标系11与施工设计坐标系41之间的转换关系。
预先按照BIM模型4中所涉及的各个设计关键位置(比如,图1中标号设计关键位置A、设计关键位置B、设计关键位置C及设计关键位置D)在施工现场5中相应确定的各个施工关键位置(图1中A、B、C和D分别与A’、B’、C’及D’一一存在位置对应关系,比如施工关键位置A’与BIM模型4中设计关键位置A对应,表示中建筑物外墙最左侧位置;施工关键位置B’及C’分别表示建筑物左侧最大占地位置及右侧最大占地位置;施工关键位置D’表示建筑物外墙最右侧位置)的坐标。实际上,只要BIM模型4中不处于同一条直线上的三个设计关键位置分别在施工现场5中相应的确定各个施工关键位置,即可将BIM模型4放样在施工现场5中。
步骤S3,打开增强现实设备3,利用定位装置1的两个动作捕捉相机/两个激光发射基站通过增强现实设备3上的光学标识点/传感器进行跟踪。同时,在增强现实设备3的增强现实***中载入BIM模型4, BIM模型4通过增强现实设备3在定位装置1的测量坐标系11中显示在第一位置4a而不能准确的显示在施工现场5的正确施工位置中。
因此,需要求出测量坐标系11与施工设计坐标系41之间的转换参数,将BIM模型4与定位装置1之间建立精确的对位关系,确定BIM模型4中每个设计关键位置分别在测量坐标系11中的坐标。
步骤S4,如图3所示,在增强现实设备3的增强现实坐标系31中生成一个光点32,此光点32为增强现实设备3的子物体,无论使用者2的头部21如何变化,光点32也在增强现实设备3的显示屏幕上的显示位置不变。
步骤S5,预先在施工现场5选定其中一个施工关键位置作为校准位置a(比如选择与该设计关键位置A相对应的施工关键位置A’作为校准位置a,故校准位置a在施工现场5中的坐标是已知的),该校准位置用于增强现实设备3人眼位置的校准。
如图3所示,用增强现实设备3对施工现场5进行摄像,当观察(为保证精度,本发明各步骤中都是建议使用者2在瞄准时用同一只单眼进行瞄准)到光点32与施工现场5中校准位置a重合时,按下增强现实设备3的记录按键,由增强现实设备3生成一个与光点32重合的标记点33标记并记录此时增强现实设备3在测量坐标系11中的首次位姿(由于步骤S2中建立了测量坐标系11,通过定位装置1定位跟踪增强现实设备3即可记录获得增强现实设备3的在测量坐标系11中的位姿(位置与方向))。
由于标记点33设定为不是增强现实设备3的子物体,因而该标记点33在测量坐标系11中的坐标不变,不随增强现实设备3的使用者2的头部21的变化和改变。此时,标记点33在测量坐标系11中的第一坐标(x1,y1,z1)可由光点32在增强现实设备3中的坐标和增强现实设备3在测量坐标系11中的首次位姿计算得出。
如图4所示,使用者的视觉沿着由标记点33和光点32所确定的人眼视线34方向进行移动,并保持光点32、标记点33与校准位置a三点处于一条直线上,此时按下增强现实设备3的记录按键,记录增强现实设备3在测量坐标系11中的再次位姿。并根据增强现实设备3在测量坐标系11中的再次位姿和光点32在增强现实坐标系31中的坐标,计算出此时光点32在测量坐标系11中的第二坐标(x2,y2,z2)。
因在步骤S5中,已求出标记点33在测量坐标系11中的坐标(x1,y1,z1)和坐标(x2,y2,z2),可以根据坐标(x1,y1,z1)和坐标(x2,y2,z2)得出通过光点32的人眼视线34在测量坐标系11中的直线方程,换算出人眼视线34在增强现实坐标系31中的直线方程,完成增强现实设备3对人眼位置的校准。
而BIM模型4中每个设计关键位置均依据下述步骤S6来确定该设计关键位置在测量坐标系11中的坐标。由于每个设计关键位置分别与施工现场5中各个施工关键位置存在一一对应关系,故以下继续以施工关键位置A’为例进行说明。步骤S6包括步骤S6-1、步骤S6-2及步骤S6-3。
步骤S6-1、如图5所示,用增强现实设备3对施工现场5进行摄像观察,直至观察到施工关键位置A’重合时光点32与施工关键位置设为第一视线,按下增强现实设备3的记录按键,记录增强现实设备3处于第一视线34a时在测量坐标系11中的第一位姿,将该第一位姿代入步骤S5得出的人眼视线34在增强现实坐标系31中的直线方程,从而计算出第一视线34a对应在增强现实测量坐标系31中的第一方程。
步骤S6-2,在第一视线34a的侧方相对施工现场5朝一侧移动增强现实设备3,使光点32与施工现场5中的施工关键位置A’再次重合,人眼通过光点32对准施工关键位置A’的直线为第二视线34b,且让第一视线34a与第二视线34b之间存在一个夹角,该夹角介于30°-150°。此时,按下增强现实设备3的记录按钮,记下增强现实设备3处于第二视线34b时在测量标系中11的第二位姿,将该第二位姿代入步骤S5得出的人眼视线34在增强现实坐标系31中的直线方程,从而计算出第二视线34b在测量坐标系11中的第二方程。
步骤S6-3,根据步骤S6和S7中得出的使用者眼睛通过光点32的第一视线34及第二视线34a各自在测量坐标系11中的第一方程和第二方程,计算出第一方程所在直线和第二方程所在直线两者之间的公垂线,该公垂线的长度即为两次不重合所产生的误差。当误差满足预设误差要求时,求出该公垂线中点坐标作为施工关键位置A’(或BIM模型4中设计关键位置A)在测量坐标系11中坐标。
步骤S7,根据上述所确定的各个设计关键位置对应在测量坐标系11中坐标(至少需要不在同一直线上的3个设计关键位置),确定施工设计坐标系41转换到测量坐标系11的坐标转换参数(可以采用布尔莎七参数法进行转换)。
步骤S8,利用步骤S7得到的坐标转换参数对BIM模型4进行坐标变换,然后将已完成坐标变换的BIM模型4载入增强显示设备3中,此时BIM模型4恰好显示在施工现场5中,各个设计关键位置分别与对应的施工关键位置一一重合,由此实现了BIM模型在施工现场精确增强显示目的,满足BIM模型施工放样要求。
综上,与现有技术相比,本发明具有如下有益技术效果:
1.本发明可以精确确定施工现场与BIM模型的映射关系,使设计单位的BIM三维设计成果可以利用增强现实技术准确叠加在施工现场中,避免现场施工人员对设计意图产生误解,方便甲方及监理单位对施工单位的施工过程进行监督。
2.本发明采用定位精度达到亚毫米的光学式动作捕捉技术和室内GPS技术,保证了增强现实***的精度。
3.本发明技术方案先用标准尺建立工作空间测量定位***坐标系,然后采用对准施工现场中多个已知坐标点的施工关键位置求出BIM坐标系和工作空间测量定位***坐标系的坐标转换参数,不需要对动作捕捉相机或激光发射基站进行调平对点设站,也不需要后视定向,不仅提高了准确性,还大大提高了放样处理的工作效率。
4.本发明技术方案同样适用于视频透视型的增强现实设备,具有适应性好的特点。因为视频透视型的增强现实设备的摄像头位置不会象人眼一样相对于增强现实设备变动,可以利用步骤S5和步骤6在生产阶段进行校准即可,在此不再详细展开描述。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于BIM技术的增强现实放样方法,其特征在于,包括:
步骤a.使施工现场处于定位装置的定位跟踪范围内,使用标准尺对定位装置的工作空间测量定位并建立测量坐标系;
步骤b. 在使用增强现实坐标系的增强现实设备中生成一个光点;
步骤c.使用者头戴增强现实设备,将光点与施工现场中预设设定已知坐标的校准位置重合瞄准时确定为人眼视线,换算出人眼视线在增强现实坐标系中的直线方程;
步骤d. BIM模型中不处于同一直线上的3个设计关键位置A/B/C的坐标与施工现场中3个施工关键位置A’/B’/C’的坐标存在一一对应关系,通过如下方式分别确定设计关键位置A/B/C分别在测量坐标系中的坐标:d1.使用者通过增强现实设备观察到光点与施工关键位置A’/B’/C’重合时,光点与施工关键位置A’/B’/C’之间的直线设为第一视线,记录增强现实设备处于第一视线时在测量坐标系中的第一位姿,将该第一位姿代入上述直线方程得到第一方程;d2.在第一视线的侧方对施工现场再次观察到使光点与施工关键位置A’/B’/C’再次重合时,光点与施工关键位置A’/B’/C’之间的直线设为第二视线,记录增强现实设备处于第二视线时在测量坐标系中的第二位姿,将该第二位姿代入上述直线方程得到第二方程;d3.计算出第一方程所在直线与第二方程所在直线两者之间的公垂线,当该公垂线的长度满足预设误差要求时,该公垂线中点坐标作为设计关键位置A/B/C在测量坐标系中坐标;
步骤e.根据设计关键位置A/B/C在BIM模型或施工现场所使用的施工设计坐标系中的坐标、设计关键位置A/B/C在测量坐标系中坐标,确定施工设计坐标系转换到测量坐标系的坐标转换参数;
步骤f.利用坐标转换参数对BIM模型进行坐标变换,然后将已完成坐标变换的BIM模型载入增强显示设备中,使用者头戴增强现实设备观察施工现场时,BIM模型显示在施工现场中且BIM模型的各个设计关键位置分别与施工现场的各个施工关键位置一一对应重合。
2.根据权利要求1所述基于BIM技术的增强现实放样方法,其特征在于,步骤c具体包括:
c1. 使用者头戴增强现实设备对施工现场进行观察,当观察到光点与校准位置重合时,由增强现实设备生成一个与光点重合的标记点并记录此时增强现实设备在测量坐标系中的首次位姿,由光点在增强现实设备中的坐标和增强现实设备在测量坐标系中的首次位姿计算出标记点在测量坐标系中的第一坐标(x1,y1,z1);
c2. 使用者的视觉沿着由标记点和光点所确定的人眼视线方向移动,并保持光点、标记点与校准位置三点处于一条直线上,此时记录增强现实设备在测量坐标系中的再次位姿,并根据再次位姿和光点在增强现实坐标系中的坐标计算出此时光点在测量坐标系中的第二坐标(x2,y2,z2);
c3.由第一坐标(x1,y1,z1)和第二坐标(x2,y2,z2)得出通过光点的人眼视线在测量坐标系中的直线方程,从而换算出人眼视线在增强现实坐标系中的直线方程。
3.根据权利要求1所述基于BIM技术的增强现实放样方法,其特征在于,定位装置包括两个动作捕捉相机,且两个动作捕捉相机的镜头分别与增强现实设备之间的两条视线存在交会角,所述增强现实设备安装有可被动作捕捉相机监视跟踪的多个光学标识点。
4.根据权利要求1所述基于BIM技术的增强现实放样方法,其特征在于,定位装置包括两个室内GPS激光发射基站,这两个室内GPS激光发射基站分别朝增强现实设备发出的激光之间存在交会角,所述增强现实设备安装有可接收室内GPS激光发射基站的传感器。
5.根据权利要求3或4所述基于BIM技术的增强现实放样方法,其特征在于,交会角介于60°至 120°。
6.根据权利要求1所述基于BIM技术的增强现实放样方法,其特征在于,若步骤d3中公垂线的长度不满足预设误差要求时,则重复步骤d1-步骤d3重新计算公垂线的长度。
7.根据权利要求1所述基于BIM技术的增强现实放样方法,其特征在于,第一视线与第二视线之间存在一个夹角。
8.根据权利要求7所述基于BIM技术的增强现实放样方法,其特征在于,夹角介于30°-150°。
9.根据权利要求1所述基于BIM技术的增强现实放样方法,其特征在于,使用者头戴增强现实设备,用同一只单眼对施工现场进行观察。
10.一种基于BIM技术的增强现实放样***,其特征在于,使用了权利要求1-9任何一项所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810034164.4A CN108227929B (zh) | 2018-01-15 | 2018-01-15 | 基于bim技术的增强现实放样***及实现方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810034164.4A CN108227929B (zh) | 2018-01-15 | 2018-01-15 | 基于bim技术的增强现实放样***及实现方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108227929A CN108227929A (zh) | 2018-06-29 |
CN108227929B true CN108227929B (zh) | 2020-12-11 |
Family
ID=62641033
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810034164.4A Active CN108227929B (zh) | 2018-01-15 | 2018-01-15 | 基于bim技术的增强现实放样***及实现方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108227929B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109041207B (zh) * | 2018-07-10 | 2021-03-16 | 中交机电工程局有限公司 | 基于bim技术可用于虚拟现实和增强现实的精确定位*** |
CN109345633B (zh) * | 2018-09-19 | 2022-12-23 | 北京机械设备研究所 | 一种面向增强现实装配的全景三维注册***及方法 |
CN109348209B (zh) * | 2018-10-11 | 2021-03-16 | 北京灵犀微光科技有限公司 | 增强现实显示装置和视觉标定方法 |
CN109559381B (zh) * | 2018-11-06 | 2023-05-05 | 国网福建省电力有限公司 | 一种基于ar空间测量技术的变电站验收方法 |
CN109583604B (zh) * | 2018-12-10 | 2021-08-24 | 国网浙江义乌市供电有限公司 | 一种基于slam技术的变电设备故障标记方法 |
CN110322569B (zh) * | 2019-07-03 | 2023-03-31 | 百度在线网络技术(北京)有限公司 | 多模态ar处理方法、装置、设备和可读存储介质 |
CN110345920A (zh) * | 2019-08-20 | 2019-10-18 | 南通四建集团有限公司 | 一种基于北斗gnss和bim的现场和模型影像自动同步方法 |
CN110455265A (zh) * | 2019-08-28 | 2019-11-15 | 广州市中海达测绘仪器有限公司 | Rtk放样***、方法及装置 |
CN111521193A (zh) * | 2020-04-23 | 2020-08-11 | 广东博智林机器人有限公司 | 实景导航的方法、实景导航的装置、存储介质与处理器 |
CN113919634A (zh) * | 2021-09-07 | 2022-01-11 | 中建三局第三建设工程有限责任公司 | 一种基于bim的现场支吊架点位的ar放样方法及*** |
CN115118880A (zh) * | 2022-06-24 | 2022-09-27 | 中广建融合(北京)科技有限公司 | 一种基于沉浸式视频终端搭建的xr虚拟拍摄*** |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104679516A (zh) * | 2015-03-10 | 2015-06-03 | 浙江精工钢结构集团有限公司 | 一种基于vb插件的虚拟预拼装算法及应用 |
CN107289928A (zh) * | 2017-07-07 | 2017-10-24 | 四川云图瑞科技有限公司 | 一种三维可视化适用于剧场、图书馆的室内导航*** |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6753828B2 (en) * | 2000-09-25 | 2004-06-22 | Siemens Corporated Research, Inc. | System and method for calibrating a stereo optical see-through head-mounted display system for augmented reality |
CN102867077B (zh) * | 2012-07-05 | 2015-01-21 | 西安理工大学 | 基于bim的地铁综合管线调整方法 |
US20140035956A1 (en) * | 2012-07-31 | 2014-02-06 | Research In Motion Limited | Displaying action items based on deadline and importance |
US9336629B2 (en) * | 2013-01-30 | 2016-05-10 | F3 & Associates, Inc. | Coordinate geometry augmented reality process |
CN105955463A (zh) * | 2016-04-26 | 2016-09-21 | 王立峰 | 基于bim的vr虚拟感受*** |
EP3479160A4 (en) * | 2016-06-30 | 2020-03-25 | Magic Leap, Inc. | ESTIMATE OF THE POSE IN A 3D SPACE |
CN106327104A (zh) * | 2016-09-06 | 2017-01-11 | 华中科技大学 | 一种基于增强现实安全帽的施工管控***及方法 |
CN107562980B (zh) * | 2017-07-14 | 2020-04-07 | 青岛理工大学 | 一种基于bim模型的几何信息提取方法 |
-
2018
- 2018-01-15 CN CN201810034164.4A patent/CN108227929B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104679516A (zh) * | 2015-03-10 | 2015-06-03 | 浙江精工钢结构集团有限公司 | 一种基于vb插件的虚拟预拼装算法及应用 |
CN107289928A (zh) * | 2017-07-07 | 2017-10-24 | 四川云图瑞科技有限公司 | 一种三维可视化适用于剧场、图书馆的室内导航*** |
Non-Patent Citations (1)
Title |
---|
增强现实技术在建筑设计仿真中的应用;谭军、李哲林等;《吉林大学学报(工学版)》;20130331;第43卷(第51期);第64-68页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108227929A (zh) | 2018-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108227929B (zh) | 基于bim技术的增强现实放样***及实现方法 | |
EP3086283B1 (en) | Providing a point cloud using a surveying instrument and a camera device | |
US8792709B2 (en) | Transprojection of geometry data | |
CN106017436A (zh) | 基于全站仪及摄影测量技术的bim增强现实放样*** | |
AU2013379669A1 (en) | Apparatus and method for three dimensional surface measurement | |
JP3387911B2 (ja) | キャリブレーションシステムおよびキャリブレーション方法 | |
KR20010078102A (ko) | 캘리브레이션 시스템, 타겟장치 및 캘리브레이션방법 | |
US11108964B2 (en) | Information processing apparatus presenting information, information processing method, and storage medium | |
US10890447B2 (en) | Device, system and method for displaying measurement gaps | |
CN108269286A (zh) | 基于组合立体标志的多相机位姿关联方法 | |
CN109238247A (zh) | 一种面向大空间复杂现场的六自由度测量方法 | |
CN108952742A (zh) | 一种基于机器视觉的盾构机导向方法及*** | |
CN107328358B (zh) | 铝电解槽位姿的测量***及测量方法 | |
CN111508020B (zh) | 融合图像与激光雷达的电缆三维位置计算方法、装置 | |
WO2020130006A1 (ja) | 情報投影システム、制御装置、及び情報投影方法 | |
CN113269892B (zh) | 提供增强视图的方法、移动增强现实查看装置 | |
KR101901483B1 (ko) | 추적 시스템 정확성 측정을 위한 시스템 및 방법 | |
CN112884832B (zh) | 一种基于多目视觉的智能小车轨迹预测方法 | |
CN108592789A (zh) | 一种基于bim和机器视觉技术的钢结构工厂预拼装方法 | |
CN112785685A (zh) | 一种装配引导方法及*** | |
Jia et al. | Depth Information Extraction of Seam Structure based on Visual Method | |
Zhang et al. | Research on visual SLAM technology of industrial inspection robot based on RGB-D | |
CN115049809A (zh) | 数据核验方法、设备及可读存储介质 | |
KR20220104988A (ko) | 증강 현실 기법을 이용한 건축 구조물 정보 제공 장치 및 방법 | |
CN118135121A (zh) | 一种水下目标稠密三维重建***和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |