CN113112447A - 基于vgg卷积神经网络的隧道围岩级别智能判定方法 - Google Patents

基于vgg卷积神经网络的隧道围岩级别智能判定方法 Download PDF

Info

Publication number
CN113112447A
CN113112447A CN202010149085.5A CN202010149085A CN113112447A CN 113112447 A CN113112447 A CN 113112447A CN 202010149085 A CN202010149085 A CN 202010149085A CN 113112447 A CN113112447 A CN 113112447A
Authority
CN
China
Prior art keywords
image
surrounding rock
neural network
training
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010149085.5A
Other languages
English (en)
Inventor
李天斌
杨罡
马春驰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Univeristy of Technology
Original Assignee
Chengdu Univeristy of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Univeristy of Technology filed Critical Chengdu Univeristy of Technology
Priority to CN202010149085.5A priority Critical patent/CN113112447A/zh
Publication of CN113112447A publication Critical patent/CN113112447A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

基于VGG卷积神经网络的隧道围岩级别智能判定方法,包括如下步骤:步骤一.采集隧道掌子面高分辨率图像数据,构建样本库;步骤二.从步骤一得到的样本库中随机选取样本作为训练集,剩余的作为测试集;步骤三.构建VGG深度卷积神经网络,通过训练降低损失函数值并更新网络权重参数,得到学习后的网络权重参数;步骤四.选择需要进行围岩分级的图像,作为卷积神经网络的输入,根据所得到的围岩级别预测,返回隧道掌子面对应的围岩分级评定结果。本发明基于卷积神经网络智能评估围岩等级,不需要进行现场或室内岩土体力学实验即可实现围岩级别判定,能规避因接触式采集围岩数据信息时的危险,实现了隧道与地下工程围岩分级工作的自动化与智能化。

Description

基于VGG卷积神经网络的隧道围岩级别智能判定方法
技术领域
本发明涉及隧道与地下工程的勘察设计领域,适用于各种交通、水利水电等隧道与地下工程的勘察设计,具体为一种基于VGG卷积神经网络的隧道围岩级别智能判定方法。
背景技术
隧道是修筑在具有一定应力历史和构造迹象的多种围岩介质中的一种洞室结构体系,隧道围岩是指隧道周围一定范围内对隧道稳定性产生影响的岩土体,隧道周围的地层不管是岩体还是土体统称为隧道围岩。为满足隧道工程建设的需要,用综合指标或单一指标把围岩稳定程度划分为若干级别,这种分级称为围岩分级。对隧道的围岩级别作出正确的评价不仅关系到隧道的设计和施工方案、隧道的工程造价,而且还关系到隧道施工与运营期间的安全与稳定。因此,对岩体给出客观评价的围岩分级方案,是隧道设计和施工阶段的重要依据。
虽然规范给出了各级围岩的相关描述,但目前围岩分级的各项指标与围岩等级尚未建立精确的关系,并且部分围岩分级指标之间没有明确界限,所以隧道围岩分级受主观因素的影响较大。隧道围岩分级是一个经验性极强的领域,包含了多种不确定因素,很多情况都要依靠工程经验丰富的专家确定围岩等级。
目前,隧道围岩分级主要依靠现场采集定量、定性指标,根据规范要求方式进行选取。现场信息采集还存在获取难度高、工作量较大、误差较大、效率不高、采集过程安全性差的不足。因此,研究一种基于图像(非接触式)的隧道围岩特征提取并自动进行围岩分级的方法十分有意义,这能够很大程度上保证围岩分级的准确性、安全性。
发明内容
为克服现有技术存在的技术缺陷,本发明公开了一种基于VGG卷积神经网络的隧道围岩级别智能判定方法。
本发明所述基于VGG卷积神经网络的隧道围岩级别智能判定方法,包括如下步骤:
步骤一.采集隧道掌子面高分辨率图像数据,构建样本库;
步骤二.从步骤一得到的样本库中随机选取大于70%比例数量的样本作为训练集,剩余的作为测试集,并采用数据增广方法进行样本集的扩充,使其满足后续神经网络训练所需要的样本数量;
步骤三.构建VGG深度卷积神经网络,用于学习训练,通过训练不断降低损失函数值并更新网络权重参数,经过多次训练后,得到学习后更新了网络权重参数的神经网络;
步骤四.选择需要进行围岩分级的图像,作为卷积神经网络的输入,通过步骤三得到的卷积神经网络的迭代,并应用对应围岩分级训练集训练学习得到的网络权重参数,输出围岩对应级别预测;根据所得到的围岩级别预测,返回隧道掌子面对应的围岩分级评定结果。
优选的,所述步骤一中还包括对图像进行预处理的步骤;具体操作步骤如下:
将图像的R、G、B三个像素通道分解成单通道,对三个通道分别进行直方图均衡化,均衡化处理后的结果再进行合成,得到均衡化后的图像。
优选的,所述步骤2中数据增广可以引入imutils图像处理包对图像进行处理,具体步骤为:
调用该包的paths.list_images()函数查找从步骤一中得到的样本库的全部图像,并抓取图像路径,罗列所有文件,并将路径保存至变量imagePaths中,抓取图像的路径,将每张图像加载至内存,随后初始化图像处理包中的data和labels数组,循环遍历imagePaths,将原始像素强度调整到范围[0,1]完成图像数据预处理;
然后利用图像处理包cv2模块的imread()接口读入图像数据,并利用resize()接口将图像尺寸修改为224*224,利用img_to_array()函数将图片转化成数组,将转换后的数组存入data数组中;
从图像路径中提取类标签并更新标签列表完成多类标签的解析,将标签名添加至图像处理包的labels数组中,导入机器学习库scikit-learn库,使用LabelBinarizer()函数完成labels数组的标签二值化;
从sklearn.model_selection函数中导入train_test_split()数据包,将数据集data、标签集labels作为参数传入train_test_split()数据包;
将图像数据划分为训练集和测试集并进行数据增广。
优选的,所述步骤三中,卷积神经网络每层线性运算结果
Figure BDA0002401166290000031
其中wk [l]表示第l层的第k个卷积核,d1为第l层的卷积核数量,b[l]为第l层的对应层偏差;a[l-1]表示上一层,即第(l-1)层的输出数据;
应用激活函数g对线性运算结果进行激活,得到下一层的输入层a[l],第l层输出特征a[l]可以表示为
a[l]=g(zl)
优选的,所述步骤三中,逻辑回归使用的损失函数方程为:
损失函数:
Figure BDA0002401166290000041
其中Yj为(第j个期望输出),
Figure BDA0002401166290000042
表示第j个原始的实际输出;
对应的代价函数方程为:
代价函数
Figure BDA0002401166290000043
其中Yj为(第j个预测值),
Figure BDA0002401166290000044
表示第j个训练样本的输出值,m为输入值的个数,w,b表示不同的卷积核和偏差;
逻辑回归梯度下降计算公式为:
Figure BDA0002401166290000045
y为预测值,
Figure BDA0002401166290000046
表示训练样本的输出值。
优选的,所述步骤三中,在神经网络中某一隐藏层的中间值实现每一层神经网络的输入保持相同分布的方法具体如下:
Figure BDA0002401166290000047
Figure BDA0002401166290000048
Figure BDA0002401166290000049
Figure BDA0002401166290000051
Z(i)为各输入值,
m为每个送入批次(batch)中样本的数量;
μ为计算出的均值;
σ2为计算出的方差;
Figure BDA0002401166290000052
为归一化处理结果;∈是为了防止方差为0的稳定参数;
γ为尺度因子,用于调整数值大小;
β为平移因子,用于增加偏移。
优选的,所述步骤三的训练过程中,通过Adam算法降低损失函数值并更新网络权重参数,具体为:
Adam优化算法初始化参数:
Vdw=0,Sdw=0,Vdb=0,Sdb=0;
第t次迭代时:
Vdw=β1Vdw+(1-β1)dw,Vdb=β1Vdb+(1-β1)db
Sdw=β2Sdw+(1-β2)(dw)2,Sdb=β2Sdb+(1-β2)(db)2
t迭代的次数;α学习率;
β1:一阶矩阵估计的指数衰减率;t表示不同迭代次数t下的衰减率;
β2:二阶矩阵估计的指数衰减率;t表示不同迭代次数t下的衰减率;
∈:为了防止分母为0的稳定参数;
w:权重;
b:偏置量;
dw:权重导数;
db:偏置量导数;
(dw)2表示是权重w的梯度的平方,也称为微分的平方;
Vdm、Vdb、Sdb、Sdw是用于保存指数加权平均值(移动平均值)的中间变量。
优选的,所述步骤三的训练过程中,考虑偏差修正,得到修正后的参数:
Figure BDA0002401166290000061
Figure BDA0002401166290000062
Figure BDA0002401166290000063
Vdm、Vdb、Sdb、Sdw增加上标CORRECTED表示修正后的参数。
本发明基于数字图像和卷积神经网络实现隧道围岩等级的智能评估,不需要进行现场或室内岩土体力学实验即可实现围岩级别判定,能规避因接触式采集围岩数据信息时的危险;本发明能够很好地和各种优化问题相结合,且通用性强,对图像中不确定的信息具有一定适应能力。本发明经济实用,操作简单,适用于各种交通、水利水电等隧道工程围岩等级判定及勘察设计工作。
附图说明
图1为本发明所述判定方法的一个具体实施方式流程示意图。
图2为某个示例隧道掌子面图像处理前及采用本发明进行图像处理后的图像对比示意图;
图3为另一示例隧道掌子面图像处理前及采用本发明进行图像处理后的图像对比示意图。
图4为本发明所述VGG16卷积神经网络的一个具体实施结构示意图;
图4中,CONV表示卷积层,POOL表示该层也为池化层,FC表示全连接层,每层的3X3表示卷积核大小,各个卷积层的数字64,128,256,512分别表示对应卷积层卷积核数量;SIZE表示以下若干层输入图像数据数量,全连接层中数字表示该全连接层中神经元数目。
具体实施方式
下面结合附图,对本发明的具体实施方式作进一步的详细说明。
本发明所述基于VGG卷积神经网络的隧道围岩级别智能判定方法,包括如下步骤:
步骤一、采集隧道掌子面高分辨率图像数据,构建样本库。
所述步骤一中进行图像采集可以根据以下方法进行采集。
①根据不同的拍摄内容、拍摄时间、拍摄环境、拍摄模式分别构建数据集,根据以上要素的不同类别对数据进行细分。
其中拍摄内容由拍摄时相机到掌子面的距离和显示区域进行划分:在不放大情况下刚好能完整拍摄掌子面全貌的图像数据作为掌子面全貌拍摄类型数据,不放大情况下可体现不同岩性过渡部位、断层破碎带、节理裂隙、出水部位等掌子面部分特征的图像数据为掌子面局部拍摄类型数据。
拍摄时间根据***后正常通风后时间进行分类,每次拍摄间隔一定时间例如10min;拍摄环境分类为拍摄时的外部环境亮度,光照方向等因素,拍摄模式分类为拍摄器材的工作模式,例如正常模式不打开闪光灯情况下,不同iso值情况下的图像数据。
②对按照步骤①构建得到的不同数据集进行卷积神经网络训练,并根据训练结果选取最优训练准确率的数据集组合,进而确定图像采集标准。掌子面全貌拍摄类型数据,部分局部拍摄类型数据中的一项或多项的组合均可以用于进行后续的围岩分类。
例如发现白天***后20分钟,断层破碎带在ISO=200模式下的数据集在训练后得到的训练准确率最佳,则以该数据集的拍摄要素作为图像采集标准。
步骤一中可以结合现场数据信息对图像进行图像预处理;可以对图像去烟尘利用基于暗通道处理的去雾算法进行图像去烟尘处理。
图像预处理技术还可以基于图像增强方法对图像进行彩色图像直方图均衡化,具体操作步骤如下:
将图像的R、G、B三个像素通道分解成单通道,对三个通道分别进行直方图均衡化,均衡化处理后的结果再进行合成,得到均衡化后的图像。这样做的目的是消除拍摄误差,提高样本准确性。
图像去烟尘利用基于暗通道处理的去雾算法进行图像去烟尘处理。
步骤二、从步骤一得到的样本库中随机选取80%作为训练集,选取剩余20%作为测试集,并采用数据增广方法进行样本集的扩充,使其满足后续神经网络训练所需要的样本数量;所述数据增广方法包括但不限于随机旋转、偏移、放大和翻转等图像处理方式。
所述步骤二中的数据增广可以引入imutils图像处理包对图像进行处理,调用该包的paths.list_images()函数查找从步骤一中得到的样本库的全部图像,并抓取图像路径,罗列所有文件,并将路径保存至变量imagePaths中,抓取图像的路径,将每张图像加载至内存,随后初始化图像处理包中的data和labels数组,循环遍历imagePaths,将原始像素强度调整到范围[0,1]完成图像数据预处理。
然后利用图像处理包cv2模块的imread()接口读入图像数据,并利用resize()接口将图像尺寸修改为224*224,利用img_to_array()函数将图片转化成数组,将转换后的数组存入data数组中,便于进行下一步计算。
从图像路径中提取类标签并更新标签列表完成多类标签的解析,将标签名添加至图像处理包的labels数组中,导入机器学习库scikit-learn库,使用LabelBinarizer()函数完成labels数组的标签二值化。从sklearn.model_selection函数中导入train_test_split()函数,(train_test_split()是处理包中提供的随机划分训练集的函数),将数据集data、标签集labels作为参数传入train_test_split()函数。
将数据划分为训练集和测试集,通常设置参数test_size=0.2,即以80%的数据用于训练,其余20%用于测试。从keras.preprocessing.image文件(该文件为keras框架中数据预处理、数据增补模块preprocessing中的image.py文件)中导入图像生成器ImageDataGenerator(),该生成器为keras框架中的ImageDataGenerator类图像生成器,用于在batch中对数据进行增强,扩充数据集大小,增强模型的泛化能力,如可以进行旋转,变形,归一化等。
构造用于数据扩充的图像生成器,具体的参数设置如:可以设置图片随机翻转的角度rotation_range=25,图片随机水平偏移的幅度width_shift_range=0.1,图片随机垂直偏移的幅度height_shift_range=0.1,剪切强度shear_range=0.2,随机放大zoom_range=0.1,打开随机水平翻转值horizontal_flip=True,并设置参数fill_mode='nearest',在imutils图像处理包中,fill_mode可以设置为‘constant’,‘nearest’,‘reflect’或‘wrap’之一,当进行变换时超出边界的点将根据本参数给定的方法进行处理。
设置好各项参数后,运行函数对样本库进行数据扩充,使其数量满足神经网络训练所需。
步骤三.构建VGG(Visual Geometry Group)神经网络,用于学习训练,通过训练不断降低损失函数值并更新网络权重参数,经过多次训练后,得到学习后更新了网络权重参数的神经网络;该卷积神经网络由多个卷积层和池化层交替实现。
卷积神经网络最主要的两个部分是卷积层和池化层,卷积层(Convolutionallayer,即CONV层)的核心是卷积运算。对于图像中所有或大部分像素,以该像素为中心的局部窗口内的像素与卷积核进行内积运算,将计算结果作为该像素的新值。遍历图像中的所有或大部分像素,进行上述内积运算,加上偏差,应用激活函数进行激活,完成一次滤波,得到一个和原图像相同尺寸或比原图像尺寸较小的输出特征图。
具体计算过程为:
当前第l层输入数据为上一层第(l-1)层的输出数据a[l-1],对输入数据执行卷积运算,wk [l]表示第l层的第k个卷积核,第l层共有d1个卷积核,并考虑第l层的对应层偏差b[l],该层的线性运算结果可以表示为:
Figure BDA0002401166290000111
应用激活函数g对线性运算结果进行激活,得到下一层的输入层a[l],第l层输出特征a[l]可以表示为
a[l]=g(zl)
卷线性整流层(Rectified Linear Units layer,ReLU layer)作为每层线性运算后使用的激活函数,保证卷积层不变的同时增强卷积神经网络的非线性特性,公式为:
f(x)=max(0,x);该公式对输入数据进行非线性处理,将输入数据中负值全部用0替换。
利用池化层(Pooling Layer)对输入特征图的块进行缩小,并组合其特征激活;提高了计算速度,同时提高了所提取特征的鲁棒性,减少了噪音影响。
建立VGG16神经网络,VGG16神经网络包含13个卷积层、3个全连接层和5个池化层,如图4所示。
该神经网络的构建方法规定了图像输入尺寸为224*224的RGB图像,在卷积层中使用3*3卷积核,卷积层步长设置为1个像素,3*3卷积层的填充设置为补零(same);池化层采用最大池(max pooling),池化层共有5层,池化层间隔***卷积层且每一池化层排列在若干卷积层后,max-pooling的窗口是3*3;卷积层之后是三个全连接层(fully-connectedlayers,FC层)。前两个全连接层均有4096个神经元,第三个全连接层有1024个神经元,所有网络的全连接层配置相同;全连接层后使用逻辑回归(Softmax)分类进行分类,逻辑回归使用的损失函数方程(Loss function)为:
损失函数:
Figure BDA0002401166290000121
其中Yj为(第j个预测值),
Figure BDA0002401166290000122
表示第j个训练样本的输出值;
对应的代价函数方程(Cost function)为:
代价函数
Figure BDA0002401166290000123
上式中,m为输入值的个数;w,b表示不同的权重和偏差。
逻辑回归梯度下降计算公式为:
Figure BDA0002401166290000124
y为预测值,
Figure BDA0002401166290000125
表示训练样本的输出值;
VGG16网络的所有隐藏层(位于每个卷积层(conv层)中间)都使用ReLU函数作为激活函数,提高决策函数的非线性;激活后,使用BatchNormalization()函数进行归一化处理,解决样本点变化(Covariate Shift)问题。
隐藏层是除输入层和输出层以外的其他各层;在神经网络中某一隐藏层的中间值实现每一层神经网络的输入保持相同分布(即BatchNorm)的方法具体如下:
均值
Figure BDA0002401166290000131
方差
Figure BDA0002401166290000132
进行归一化处理
Figure BDA0002401166290000133
得到的结果进行缩放和移位
Figure BDA0002401166290000134
Z(i)为各输入值,
上述均值和方差计算式中的m为batch size,即每个送入批次(batch)中样本的数量;
μ为计算出的均值;
σ2为计算出的方差;
Figure BDA0002401166290000135
为归一化处理结果,归一化目的:把所给出的数据进去去单位化,把同类型的数据除以其所在数据的总和,得到该数据在总和中的比重。
∈是为了防止方差为0,保证数值的稳定。
γ为尺度因子,用于调整数值大小;
β为平移因子,用于增加偏移。
由于归一化后的输入基本会被限制在正态分布下,使得网络的表达能力下降,在多指标评价体系中,由于各评价指标的性质不同,通常具有不同的量纲和数量级。当各指标间的水平相差很大时,如果直接用原始指标值进行分析,就会突出数值较高的指标在综合分析中的作用,相对削弱数值水平较低指标的作用。
归一化处理在这里会把数变为(0,1)之间的小数,让各个特征对结果做出的贡献相同,使用归一化能提高模型收敛速度、提高模型精度。但在归一化处理后,原数值较高的指标与数值较低的指标范围相同,没有突出各指标区别于其他指标的范围特点。因此为解决表达能力不足的问题,引入尺度因子γ和平移因子β,将各指标还原至原有水平,恢复期表达能力,尺度因子γ和平移因子β是可以在训练中不断更新学习的参数。
在全连接层中间采用正则化处理层(dropout层),遗忘率可以取0.25,从而防止过拟合发生。
将步骤二准备好的数据集合图像标定类别输入设计好的卷积神经网络中进行训练,并通过Adam高效优化算法降低损失函数值并更新网络权重参数,所述Adam优化算法是由Momentum动量梯度下降算法和RMSprop梯度下降算法结合形成。
Adam优化算法初始化参数:
Vdw=0,Sdw=0,Vdb=0,Sdb=0。
第t次迭代时:
Vdw=β1Vdw+(1-β1)dw,Vdb=β1Vdb+(1-β1)db
Sdw=β2Sdw+(1-β2)(dw)2,Sdb=β2Sdb+(1-β2)(db)2
考虑偏差修正后,最后得到修正后的参数
Figure BDA0002401166290000151
Figure BDA0002401166290000152
Figure BDA0002401166290000153
Adam算法的偏差修正每个最新数据值,依赖于以前的数据结果,但此时初期的几个计算结果就会与真实的平均值有较大偏差,即迭代初期计算结果与真实值偏差较大,因此可以利用上述公式进行偏差修正,随着迭代次数t的增大,βt会越来越接近0,对前期修正效果较好。
式中:
t为时间步,也即迭代的次数
α:学习率,也称为步长因子,学习率控制了权重的更新比率。学习率取较大的值(如0.3)在学习率更新前会有更快的初始学习,而较小的值(如1.0E-5)会令训练收敛到更好的性能。
β1:一阶矩阵估计的指数衰减率;t表示不同迭代次数t下的衰减率;
β2:二阶矩阵估计的指数衰减率;t表示不同迭代次数t下的衰减率;
∈:为了防止分母为0的稳定参数;
w:权重;
b:偏置量;
dw:权重的导数;
db:偏置量的导数;
(dw)2表示的是权重w的梯度的平方,也称为微分的平方;
Vdm、Vdb、Sdb、Sdw是用于保存指数加权平均值(移动平均值)的中间变量,上标CORRECTED表示修正后的参数,为更新权重w和偏置b设置的中间参数。
本实施例中,可以使用以下参数设定:
α:取0.015;
β1:取缺省值0.9;
β2:取值0.9999;
ε:取10-8
一个具体实施方式为:设置神经网络训练训练100轮(epoch),设置初始学习率α为0.015,利用回调函数监测“val_loss”值,设置学习率衰减因子为0.5,设置学习率下降触发器取值为3,当3轮过去后模型性能不提升时触发学习率衰减,学习率下限设置为0.00001,设置Batch size为32,图像大小为224*224*3,损失函数采用“binary_crossentropy”二分类交叉熵损失函数。经过多次训练后,得到学习后的网络权重参数。
从图2和图3得到的处理前后的图像可以看出;如果处理前图像采集过程中影响因素过多,如烟尘较浓,闪光灯曝光不足或过曝,拍摄出的图像不能准确反映隧道掌子面特征,而利用本发明采用的图像处理后,能尽可能去除外部环境对图像质量的影响,还原再现掌子面真实图像,提高样本质量。
步骤四:选择需要进行围岩分级的图像,作为卷积神经网络的输入,通过步骤三得到的卷积神经网络的迭代,并应用对应围岩分级训练集训练学习得到的网络权重参数,输出围岩对应分级评定。再根据所得到的围岩分级评定,返回隧道掌子面对应的围岩分级评定结果。
本发明的有益效果是:
(1)采用非接触式的图像数据采集,进而进行围岩分级,提高了工作效率,规避了因接触式采集围岩数据信息时的操作危险;
(2)本方法不需要进行现场或室内岩土体力学实验,经济实用,操作简单,参数设置较少,收敛速度快,且能够很好的和各种优化问题相结合,且通用性比较强,对问题中不确定的信息具有一定的适应能力。
以某高速公路双洞隧道掌子面照片为例,依照图1流程进行图像处理、模型训练及围岩等级预测。共采集图像360张,其中Ⅴ级围岩图像125张,Ⅳ级围岩图像156张,Ⅲ级围岩图像79张,图像大小总计423.36MB,80%的图像用于模型的训练,20%的图像用于模型验证,读取图像的尺寸为224*224并包含三个通道,训练共计100轮(epoch),初始学习率设置为0.015,批数量(Batch size)设置为4。训练结果见下表:
训练结果见下表:
轮次 训练集损失函数值 训练集准确率 验证集损失函数值 验证集准确率
Epoch 1/100 loss:1.4601 acc:0.5891 val_loss:4.6479 val_acc:0.6157
Epoch 2/100 loss:1.1364 acc:0.5914 val_loss:2.3311 val_acc:0.6389
Epoch 3/100 loss:0.9668 acc:0.6331 val_loss:1.4895 val_acc:0.5880
Epoch 4/100 loss:0.9634 acc:0.6065 val_loss:1.6413 val_acc:0.6528
Epoch 5/100 loss:1.0030 acc:0.5903 val_loss:0.6723 val_acc:0.7546
Epoch 96/100 loss:0.6224 acc:0.6678 val_loss:0.5332 val_acc:0.6898
Epoch 97/100 loss:0.6077 acc:0.6690 val_loss:0.5125 val_acc:0.7037
Epoch 98/100 loss:0.6866 acc:0.6412 val_loss:0.5077 val_acc:0.6991
Epoch 99/100 loss:0.6720 acc:0.6574 val_loss:0.5092 val_acc:0.6898
Epoch100/100 loss:0.6911 acc:0.6389 val_loss:0.5093 val_acc:0.7037
本实施例中,训练集准确率达63.89%,验证集准确率达70.37%。
前文所述的为本发明的各个优选实施例,各个优选实施例中的优选实施方式如果不是明显自相矛盾或以某一优选实施方式为前提,各个优选实施方式都可以任意叠加组合使用,所述实施例以及实施例中的具体参数仅是为了清楚表述发明人的发明验证过程,并非用以限制本发明的专利保护范围,本发明说明书括号中的英文为括号前中文在计算机语言或函数中的英文名称,不在括号中的英文为没有严格中文译文的数学函数或数据库等的命名,本发明的专利保护范围仍然以其权利要求书为准,凡是运用本发明的说明书及附图内容所作的等同结构变化,同理均应包含在本发明的保护范围内。

Claims (8)

1.基于VGG卷积神经网络的隧道围岩级别智能判定方法,其特征在于,包括如下步骤:
步骤一.采集隧道掌子面高分辨率图像数据,构建样本库;
步骤二.从步骤一得到的样本库中随机选取大于70%比例数量的样本作为训练集,剩余的作为测试集,并采用数据增广方法进行样本集的扩充,使其满足后续神经网络训练所需要的样本数量;
步骤三.构建VGG深度卷积神经网络,用于学习训练,通过训练不断降低损失函数值并更新网络权重参数,经过多次训练后,得到学习后更新了网络权重参数的神经网络;
步骤四.选择需要进行围岩分级的图像,作为卷积神经网络的输入,通过步骤三得到的卷积神经网络的迭代,并应用对应围岩分级训练集训练学习得到的网络权重参数,输出围岩对应级别预测;根据所得到的围岩级别预测,返回隧道掌子面对应的围岩分级评定结果。
2.如权利要求1所述的智能判定方法,其特征在于,所述步骤一中还包括对图像进行预处理的步骤;具体操作步骤如下:
将图像的R、G、B三个像素通道分解成单通道,对三个通道分别进行直方图均衡化,均衡化处理后的结果再进行合成,得到均衡化后的图像。
3.如权利要求1所述的智能判定方法,其特征在于,所述步骤2中数据增广可以引入imutils图像处理包对图像进行处理,具体步骤为:
调用该包的paths.list_images()函数查找从步骤一中得到的样本库的全部图像,并抓取图像路径,罗列所有文件,并将路径保存至变量imagePaths中,抓取图像的路径,将每张图像加载至内存,随后初始化图像处理包中的data和labels数组,循环遍历imagePaths,将原始像素强度调整到范围[0,1]完成图像数据预处理;
然后利用图像处理包cv2模块的imread()接口读入图像数据,并利用resize()接口将图像尺寸修改为224*224,利用img_to_array()函数将图片转化成数组,将转换后的数组存入data数组中;
从图像路径中提取类标签并更新标签列表完成多类标签的解析,将标签名添加至图像处理包的labels数组中,导入机器学习库scikit-learn库,使用LabelBinarizer()函数完成labels数组的标签二值化;
从sklearn.model_selection函数中导入train_test_split()数据包,将数据集data、标签集labels作为参数传入train_test_split()数据包;
将图像数据划分为训练集和测试集并进行数据增广。
4.如权利要求1所述的智能判定方法,其特征在于,所述步骤三中,卷积神经网络每层线性运算结果
Figure FDA0002401166280000021
其中wk [l]表示第l层的第k个卷积核,d1为第l层的卷积核数量,b[l]为第l层的对应层偏差;a[l-1]表示上一层,即第(l-1)层的输出数据;
应用激活函数g对线性运算结果进行激活,得到下一层的输入层a[l],第l层输出特征a[l]可以表示为
a[l]=g(zl)。
5.如权利要求4所述的智能判定方法,其特征在于,所述步骤三中,逻辑回归使用的损失函数方程为:
损失函数:
Figure FDA0002401166280000031
其中Yj为(第j个期望输出),
Figure FDA0002401166280000032
表示第j个原始的实际输出;
对应的代价函数方程为:
代价函数
Figure FDA0002401166280000033
其中Yj为(第j个预测值),
Figure FDA0002401166280000034
表示第j个训练样本的输出值,m为输入值的个数,w,b表示不同的卷积核和偏差;
逻辑回归梯度下降计算公式为:
Figure FDA0002401166280000035
y为预测值,
Figure FDA0002401166280000036
表示训练样本的输出值。
6.如权利要求4所述的智能判定方法,其特征在于,所述步骤三中,在神经网络中某一隐藏层的中间值实现每一层神经网络的输入保持相同分布的方法具体如下:
Figure FDA0002401166280000037
Figure FDA0002401166280000038
Figure FDA0002401166280000039
Figure FDA00024011662800000310
Z(i)为各输入值,
m为每个送入批次(batch)中样本的数量;
μ为计算出的均值;
σ2为计算出的方差;
Figure FDA0002401166280000041
为归一化处理结果;∈是为了防止方差为0的稳定参数;
γ为尺度因子,用于调整数值大小;
β为平移因子,用于增加偏移。
7.如权利要求1所述的智能判定方法,其特征在于,所述步骤三的训练过程中,通过Adam算法降低损失函数值并更新网络权重参数,具体为:
Adam优化算法初始化参数:
Vdw=0,Sdw=0,Vdb=0,Sdb=0;
第t次迭代时:
Vdw=β1Vdw+(1-β1)dw,Vdb=β1Vdb+(1-β1)db
Sdw=β2Sdw+(1-β2)(dw)2,Sdb=β2Sdb+(1-β2)(db)2
t迭代的次数;α学习率;
β1:一阶矩阵估计的指数衰减率;t表示不同迭代次数t下的衰减率;
β2:二阶矩阵估计的指数衰减率;t表示不同迭代次数t下的衰减率;
∈:为了防止分母为0的稳定参数;
w:权重;
b:偏置量;
dw:权重导数;
db:偏置量导数;
(dw)2表示是权重w的梯度的平方,也称为微分的平方;
Vdm、Vdb、Sdb、Sdw是用于保存指数加权平均值(移动平均值)的中间变量。
8.如权利要求7所述的智能判定方法,其特征在于,所述步骤三的训练过程中,考虑偏差修正,得到修正后的参数:
Figure FDA0002401166280000051
Figure FDA0002401166280000052
Figure FDA0002401166280000053
Vdm、Vdb、Sdb、Sdw增加上标CORRECTED表示修正后的参数。
CN202010149085.5A 2020-03-05 2020-03-05 基于vgg卷积神经网络的隧道围岩级别智能判定方法 Pending CN113112447A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010149085.5A CN113112447A (zh) 2020-03-05 2020-03-05 基于vgg卷积神经网络的隧道围岩级别智能判定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010149085.5A CN113112447A (zh) 2020-03-05 2020-03-05 基于vgg卷积神经网络的隧道围岩级别智能判定方法

Publications (1)

Publication Number Publication Date
CN113112447A true CN113112447A (zh) 2021-07-13

Family

ID=76709144

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010149085.5A Pending CN113112447A (zh) 2020-03-05 2020-03-05 基于vgg卷积神经网络的隧道围岩级别智能判定方法

Country Status (1)

Country Link
CN (1) CN113112447A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114140448A (zh) * 2021-12-06 2022-03-04 广西路信云信息技术有限公司 一种基于深度学习的隧道掌子面围岩智能分级方法及设备
CN114547721A (zh) * 2021-12-21 2022-05-27 沈阳工业大学 深埋隧道局部区域差异定向断裂控制***方法
CN116452511A (zh) * 2023-03-17 2023-07-18 西南交通大学 钻爆法隧道掌子面围岩级别智能判识方法、装置及介质
CN117077027A (zh) * 2023-07-24 2023-11-17 西南交通大学 基于智能分级模型分级概率的围岩亚级分级方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109635618A (zh) * 2018-08-07 2019-04-16 南京航空航天大学 基于卷积神经网络的可见光图像静脉显像方法
CN110082283A (zh) * 2019-05-23 2019-08-02 山东科技大学 一种大气颗粒物sem图像识别方法及***

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109635618A (zh) * 2018-08-07 2019-04-16 南京航空航天大学 基于卷积神经网络的可见光图像静脉显像方法
CN110082283A (zh) * 2019-05-23 2019-08-02 山东科技大学 一种大气颗粒物sem图像识别方法及***

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ZENRRAN: "简单理解Momentum,RMSprop,Adam优化算法", 《CSDN》 *
李汪石: "公路隧道围岩云分级***的开发与应用", 《中国优秀硕士学位论文全文数据库 (工程科技Ⅱ辑)》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114140448A (zh) * 2021-12-06 2022-03-04 广西路信云信息技术有限公司 一种基于深度学习的隧道掌子面围岩智能分级方法及设备
CN114547721A (zh) * 2021-12-21 2022-05-27 沈阳工业大学 深埋隧道局部区域差异定向断裂控制***方法
CN114547721B (zh) * 2021-12-21 2022-10-25 沈阳工业大学 深埋隧道局部区域差异定向断裂控制***方法
CN116452511A (zh) * 2023-03-17 2023-07-18 西南交通大学 钻爆法隧道掌子面围岩级别智能判识方法、装置及介质
CN116452511B (zh) * 2023-03-17 2024-05-03 西南交通大学 钻爆法隧道掌子面围岩级别智能判识方法、装置及介质
CN117077027A (zh) * 2023-07-24 2023-11-17 西南交通大学 基于智能分级模型分级概率的围岩亚级分级方法及装置
CN117077027B (zh) * 2023-07-24 2024-03-15 西南交通大学 基于智能分级模型分级概率的围岩亚级分级方法及装置

Similar Documents

Publication Publication Date Title
CN113112446A (zh) 基于残差卷积神经网络的隧道围岩级别智能判定方法
CN113112447A (zh) 基于vgg卷积神经网络的隧道围岩级别智能判定方法
CN110728654B (zh) 一种基于深度残差神经网络的管道自动检测和分类方法
CN107169956B (zh) 基于卷积神经网络的色织物疵点检测方法
CN110097554B (zh) 基于密集卷积和深度可分离卷积的视网膜血管分割方法
CN111507884A (zh) 一种基于深层卷积神经网络的自适应图像隐写分析方法及***
CN112036513B (zh) 基于内存增强潜在空间自回归的图像异常检测方法
CN108846413B (zh) 一种基于全局语义一致网络的零样本学习方法
CN110991511A (zh) 一种基于深度卷积神经网络的向日葵作物种子分拣方法
CN110751644B (zh) 道路表面裂纹检测方法
CN111275660B (zh) 一种平板显示器缺陷检测方法及装置
CN110930378B (zh) 基于低数据需求的肺气肿影像处理方法及***
CN113971764B (zh) 一种基于改进YOLOv3的遥感图像小目标检测方法
CN113297929A (zh) 基于全过程可视化的卷积神经网络微震监测波形识别方法
CN112381763A (zh) 一种表面缺陷检测方法
CN113989257A (zh) 基于人工智能技术的电力综合管廊沉降裂缝识别方法
CN113362277A (zh) 一种基于深度学习的工件表面缺陷检测和分割方法
CN111145145A (zh) 一种基于MobileNets的图像表面缺陷检测方法
CN110991247B (zh) 一种基于深度学习与nca融合的电子元器件识别方法
CN114511521B (zh) 基于多重表示与多重子域自适应的轮胎瑕疵检测方法
CN114647760A (zh) 一种基于神经网络自温故及知识传导机制的智能视频图像检索方法
CN116206227B (zh) 5g富媒体信息的图片审查***、方法、电子设备及介质
CN112541916A (zh) 一种基于稠密连接的废旧塑料图像分割方法
CN115346091B (zh) 一种Mura缺陷图像数据集的生成方法和生成装置
CN116433980A (zh) 脉冲神经网络结构的图像分类方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210713

RJ01 Rejection of invention patent application after publication