CN106033610B - 基于非经典感受野空间总和调制的轮廓检测方法 - Google Patents

基于非经典感受野空间总和调制的轮廓检测方法 Download PDF

Info

Publication number
CN106033610B
CN106033610B CN201610163668.7A CN201610163668A CN106033610B CN 106033610 B CN106033610 B CN 106033610B CN 201610163668 A CN201610163668 A CN 201610163668A CN 106033610 B CN106033610 B CN 106033610B
Authority
CN
China
Prior art keywords
receptive field
classical receptive
central neuron
neuron
modulation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610163668.7A
Other languages
English (en)
Other versions
CN106033610A (zh
Inventor
林川
曹以隽
李亚
潘亦坚
郭越
潘勇才
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xi'an Xinbaize Culture Media Co ltd
Original Assignee
Guangxi University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangxi University of Science and Technology filed Critical Guangxi University of Science and Technology
Priority to CN201610163668.7A priority Critical patent/CN106033610B/zh
Publication of CN106033610A publication Critical patent/CN106033610A/zh
Application granted granted Critical
Publication of CN106033610B publication Critical patent/CN106033610B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/061Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Molecular Biology (AREA)
  • Neurology (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Image Analysis (AREA)

Abstract

本发明旨在提供一种基于非经典感受野空间总和调制的轮廓检测方法,包括以下步骤:A、输入经灰度处理的待检测图像;B、对待检测图像Gabor滤波,获得各像素点的各个方向的Gabor能量值;C、计算出非经典感受野对中心神经元的空间总和调制权值;D、计算出非经典感受野在距离权值上对中心神经元的调制响应;E、计算得到中心神经元受非经典感受野的刺激响应;F、计算得到中心神经元受经典感受野和非经典感受野联合调制的刺激响应,作为对应的轮廓值;G、对各像素点的轮廓值使用非极大值抑制和双阈值处理,得到各像素点的最终轮廓值。该方法克服现有技术仿真效果差、轮廓识别率低的缺陷,具有仿真效果好、轮廓识别率高的特点。

Description

基于非经典感受野空间总和调制的轮廓检测方法
技术领域
本发明涉及图像处理领域,具体涉及一种基于非经典感受野空间总和调制的轮廓检测方法。
背景技术
轮廓定义目标的形状,轮廓是目标识别中的重要任务之一,而从杂乱场景中获取的目标轮廓是一项重要且相当困难的任务,主要是因为轮廓周围通常存在大量纹理背景的边缘,因此这项工作主要需要排除由于纹理区域的无意义边缘,而保留目标轮廓。提高检测率的关键在于能基于上下文将局部信息优化整合成一致的全局特征。人类视觉***具有快速和有效的从复杂场景中提取轮廓特征的能力,有效促进了以生物特性作为启发的轮廓检测算法研究的发展。生理研究表明,V1层神经元具有方位选择性,且在其经典感受野(Classical Receptive Rield,CRF)外存在非经典感受野(Non-Classical ReceptiveRield,NCRF)区域,虽然单独刺激该区域没有响应,但可以对CRF具有一定的调制作用。
现有技术中,Grigorescu等人采用二维GABOR函数模型模拟视皮层简单细胞经典感受野的输出,由高斯差分函数(Difference of Gaussian,DoG)模拟圆环形的非经典感受野神经元对中心神经元的距离权值,提出各项同性和各项异性的抑制计算模型构建,从而建立非经典感受野目标轮廓检测模型。该类方法利用了初级视皮层中细胞的非经典感受野抑制特性,即中心神经元的活动被周边神经元所施加的抑制而减弱,形成侧抑制机制;然而,这种方法的抑制权值计算仅考虑了NCRF神经元个体对中心神经元的影响程度,但是NCRF神经元在参与中心神经元的调制中,其生理特性使得其自身同时也受到周边神经元的调制。
发明内容
本发明旨在提供一种基于非经典感受野空间总和调制的轮廓检测方法,该方法克服现有技术仿真效果差、轮廓识别率低的缺陷,具有仿真效果好、轮廓识别率高的特点。
本发明的技术方案如下:基于非经典感受野空间总和调制的轮廓检测方法,包括以下步骤:
A、输入经灰度处理的待检测图像,将待检测图像的各个像素点分别作为非经典感受野中心神经元;
B、预设多个方向参数的Gabor滤波器组,对待检测图像中的各像素点分别按照各个方向参数进行Gabor滤波,获得各像素点的各个方向的Gabor能量值;对于每个像素点,选取其各个方向的Gabor能量值中的最大值,作为该像素点受经典感受野的刺激响应,即为该非经典感受野中心神经元的刺激响应,该最大值对应的滤波方向作为该像素点的最优角,即为该非经典感受野中心神经元的最优角;
C、基于各个非经典感受野中心神经元,分别计算得到各个非经典感受野对其中心神经元的全局能量调制权值,并分别结合各非经典感受野中心神经元对应的的最优角计算得到各非经典感受野中心神经元方位调制权值,进而计算出各个非经典感受野对其中心神经元的空间总和调制权值;
D、计算出各个非经典感受野对其中心神经元作用的距离函数,将这一距离函数与其中心神经元受经典感受野的刺激响应进行卷积得到各个非经典感受野在距离权值上对其中心神经元的调制响应;
E、通过各个非经典感受野的调制响应与其空间总和调制权值进行乘积得到各个中心神经元受非经典感受野的刺激响应;
F、通过各个中心神经元受非经典感受野调制的刺激响应与抑制系数相乘,再将其中心神经元受经典感受野的刺激响应减去上述乘积得到中心神经元受经典感受野和非经典感受野联合调制的刺激响应,取正后作为该中心神经元对应的轮廓值,从而得到各个像素点的轮廓值;
G、对各像素点的轮廓值使用非极大值抑制和双阈值处理,得到各像素点的最终轮廓值。
所述的步骤B具体如下:
所述的Gabor滤波器组的二维Gabor函数表达式如下:
其中γ为一个表示椭圆形感受野长短轴比例的常数,参数λ为波长,σ为DoG模板中心区的带宽,1/λ为余弦函数的空间频率,σ/λ为空间频率的带宽,是相角参数,θ为Gabor滤波的角度参数;
I(x,y)为待检测图像,*为卷积运算符;
Gabor能量值计算如下:
其中θi为Gabor滤波的某一角度,Nθ为Gabor滤波的角度的个数;
Ec(x,y)为像素点(x,y)的各角度Gabor滤波能量值的最大值,为Ec(x,y)对应的滤波角度,作为像素点(x,y)的最优角。
所述的步骤C具体如下:
所述的非经典感受野对中心神经元的空间总和调制权值的表达式为:
Fs(x,y)=∑x′y′Fa(x+x′,y+y′)Fr(x+x′,y+y′) (7);
其中-3kσ<x′<3kσ;-3kσ<y′<3kσ;
其中Fs(x,y)为非经典感受野对中心神经元的空间总和调制权值,Fr(x,y)为非经典感受野对中心神经元的全局能量调制权值,Fa(x+x′,y+y′)为非经典感受野对中心神经元的方位调制权值;
Fr(x,y)表达式为:
其中,EAVG为待检测图像各像素点受经典感受野刺激响应的均值,即为待检测图像各个像素点的Ec(x,y)值的均值;
Fa(x+x′,y+y′)的表达式为:
其中ω=max(ω1,ω2) (10);
其中为中心神经元A(x,y)的最优角,为非经典感受野中除中心神经元外的任一神经元B(x+x′,y+y′)的最优角,即分别为神经元A、B的最大的gabor能量值对应的滤波角度,为中心神经元A与神经元B连线的偏向角。
所述的步骤D具体如下:
所述的非经典感受野在距离权值上对中心神经元的调制响应表达为:
Ed(x,y)=Ec(x,y)*Fd(x,y) (13);
其中Ed(x,y)为非经典感受野在距离权值上对中心神经元的调制响应,Fd(x,y)为非经典感受野对中心神经元作用的距离函数;
Fd(x,y)的表达式为:
其中,
其中,||·||1为(L1)范数,H(DoG(x,y))为取正值的函数,DoG(x,y)为DoG模板对应的表达式,k为DOG模板函数中两个高斯函数sigma值的比率。
所述的步骤E具体如下:
中心神经元受非经典感受野的刺激响应表达式为:
En(x,y)=Fs(x,y)·Ed(x,y) (17)。
所述的步骤F具体如下:
所述的中心神经元受经典感受野和非经典感受野联合调制的刺激响应的表达式为:
R(x,y)=Ec(x,y)-αEn(x,y) (18);
其中R(x,y)为中心神经元受经典感受野和非经典感受野联合调制的刺激响应,α为抑制系数;
所述的取正函数为
本发明轮廓检测方法采用特有的非经典感受野的中心神经元的空间总和调制权值,将非经典感受野内神经元的能量全局调制与方位调制结合,该权值既考虑了非经典感受野内神经元的能量全局调制作用,也考虑了非经典感受野内神经元的方位调制作用;该特征充分利用了非经典感受野内神经元在参与中心神经元的调制中,同时也受到自身周边神经元调制的生理特性。
因此,本发明轮廓检测方法体现了非经典感受野内神经元在全局考虑下对中心神经元的能量调制影响,更为符合非经典感受野的生理特性。该方法与现有模型对比的实验结果表明,该模型在抑制纹理和保持轮廓完整性上效果较好,且取得了较高的轮廓检测评测结果。
附图说明
图1为本发明提供的基于非经典感受野空间总和调制的轮廓检测方法的流程框图。
图2为待检测图像(山羊)
图3为待检测图像(犀牛)
图4为图2的真实轮廓图
图5为图3的真实轮廓图
图6为文献1各向异性模型对图2的检测轮廓图
图7为文献1各向异性模型对图3的检测轮廓图
图8为文献1各向同性模型对图2的检测轮廓图
图9为文献1各向同性模型对图3的检测轮廓图
图10为文献2检测方法对图2的检测轮廓图
图11为文献2检测方法对图3的检测轮廓图
图12为本实施例检测方法对图2的检测轮廓图
图13为本实施例检测方法对图3的检测轮廓图
图14为各方法对图2进行轮廓检测的盒须图
图15为各方法对图3进行轮廓检测的盒须图
图16为步骤C中的中心神经元与其余神经元各个角度的示意图
具体实施方式
下面结合附图和实施例具体说明本发明。
实施例1
本实施例提供的轮廓检测方法包括以下步骤:
A、输入经灰度处理的待检测图像,将待检测图像的各个像素点分别作为非经典感受野中心神经元;
B、预设多个方向参数的Gabor滤波器组,对待检测图像中的各像素点分别按照各个方向参数进行Gabor滤波,获得各像素点的各个方向的Gabor能量值;对于每个像素点,选取其各个方向的Gabor能量值中的最大值,作为该像素点受经典感受野的刺激响应,即为该非经典感受野中心神经元的刺激响应,该最大值对应的滤波方向作为该像素点的最优角,即为该非经典感受野中心神经元的最优角;
所述的Gabor滤波器组的二维Gabor函数表达式如下:
其中γ为一个表示椭圆形感受野长短轴比例的常数,参数λ为波长,σ为DoG模板中心区的带宽,1/λ为余弦函数的空间频率,σ/λ为空间频率的带宽,是相角参数,θ为Gabor滤波的角度参数;
I(x,y)为待检测图像,*为卷积运算符;
Gabor能量值计算如下:
其中θi为Gabor滤波的某一角度,Nθ为Gabor滤波的角度的个数;
Ec(x,y)为像素点(x,y)的各角度Gabor滤波能量值的最大值,为Ec(x,y)对应的滤波角度,作为像素点(x,y)的最优角;
C、基于各个非经典感受野中心神经元,分别计算得到各个非经典感受野对其中心神经元的全局能量调制权值,并分别结合各非经典感受野中心神经元对应的的最优角计算得到各非经典感受野中心神经元方位调制权值,进而计算出各个非经典感受野对其中心神经元的空间总和调制权值;
所述的非经典感受野对中心神经元的空间总和调制权值的表达式为:
Fs(x,y)=∑x′y′Fa(x+x′,y+y′)Fr(x+x′,y+y′) (9);
其中-3kσ<x′<3kσ;-3kσ<y′<3kσ;
其中Fs(x,y)为非经典感受野对中心神经元的空间总和调制权值,Fr(x,y)为非经典感受野对中心神经元的全局能量调制权值,Fa(x+x′,y+y′)为非经典感受野对中心神经元的方位调制权值;
Fr(x,y)表达式为:
其中,EAVG为待检测图像各像素点受经典感受野刺激响应的均值,即为待检测图像各个像素点的Ec(x,y)值的均值;
Fa(x+x′,y+y′)的表达式为:
其中ω=max(ω1,ω2) (12);
如图16所示,其中为中心神经元A(x,y)的最优角,为非经典感受野中除中心神经元外的任一神经元B(x+x′,y+y′)的最优角,即分别为神经元A、B的最大的gabor能量值对应的滤波角度,为中心神经元A与神经元B连线的偏向角;
D、计算出各个非经典感受野对其中心神经元作用的距离函数,将这一距离函数与其中心神经元受经典感受野的刺激响应进行卷积得到各个非经典感受野在距离权值上对其中心神经元的调制响应;
所述的非经典感受野在距离权值上对中心神经元的调制响应表达为:
Ed(x,y)=Ec(x,y)*Fd(x,y) (15);
其中Ed(x,y)为非经典感受野在距离权值上对中心神经元的调制响应,Fd(x,y)为非经典感受野对中心神经元作用的距离函数;
Fd(x,y)的表达式为:
其中,
其中,||·||1为(L1)范数,H(DoG(x,y))为取正值的函数,DoG(x,y)为DoG模板对应的表达式,k为DOG模板函数中两个高斯函数sigma值的比率;
E、通过各个非经典感受野的调制响应与其空间总和调制权值进行乘积得到各个中心神经元受非经典感受野的刺激响应;
中心神经元受非经典感受野的刺激响应表达式为:
En(x,y)=Fs(x,y)·Ed(x,y) (19);
F、通过各个中心神经元受非经典感受野调制的刺激响应与抑制系数相乘,再将其中心神经元受经典感受野的刺激响应减去上述乘积得到中心神经元受经典感受野和非经典感受野联合调制的刺激响应,取正后作为该中心神经元对应的轮廓值,从而得到各个像素点的轮廓值;
所述的中心神经元受经典感受野和非经典感受野联合调制的刺激响应的表达式为:
R(x,y)=H{Ec(x,y)-αEn(x,y)} (20);
其中R(x,y)为中心神经元受经典感受野和非经典感受野联合调制的刺激响应,α为抑制系数;
所述的取正函数为
G、对各像素点的轮廓值使用非极大值抑制和双阈值处理,得到各像素点的最终轮廓值。
下面将本实施例的轮廓检测方法与如下两篇文献提供的轮廓检测方法进行有效性对比,其中选用文献1中的各向同性模型以及各项异性模型进行有效性对比,两篇文献如下:
文献1:Grigorescu C,Petkov N,Westenberg M.Contour detection based onnonclassical receptive field inhibition[J].IEEE Transactions on ImageProcessing,2003,12(7):729-739.
文献2:C.Zeng,Y.Li,C.Li,Center-surround interaction with adaptiveinhibition:a computational model for contour detection,Neuroimage,2011,55(1):49-66.;
为保证对比的有效性,对于本实施例采用与文献1与文献2中相同的非极大值抑制方法进行后续的轮廓整合,其中包含的两个阈值th,tl设置为tl=0.5th,由分位数p计算而得;
其中性能评价指标采用文献1中给出的如下标准:
式中card(X)表示集合X中成员的数目;card(E)、card(Efp)、card(Efn)分别表示正确轮廓、虚假轮廓与遗漏轮廓的数目,评测标准P取值在[0,1]之间,越接近1表示轮廓检测的效果越好。
有效性对比中:选取2幅较为典型的图像进行轮廓提前的有效性对比,分别如图2、图3所示,对应的真实轮廓图分别为图4与图5;
对于图2,本实施例选用的参数为:α=0.6,σ=2.0,p=0.05,其余参数参见表1;
对于图3,本实施例选用的参数为:α=1.5,σ=2.9,p=0.1,其余参数参见表1;
对于图2,文献1中的各向异性模型选用的参数为:α=1.0,σ=2.4,p=0.1,其余参数参见表1;
对于图3,文献1中的各向异性模型选用的参数为:α=1.0,σ=2.2,p=0.1,其余参数参见表1;
对于图2,文献1中的各向同性模型选用的参数为:α=1.2,σ=2.4,p=0.1,其余参数参见表1;
对于图3,文献1中的各向同性模型选用的参数为:α=1.0,σ=2.4,p=0.1,其余参数参见表1;
对于图2,文献2中的检测方法选用的参数为:α1=1.0,α2=2.0,σf.=2.0,σc=10.0,p=0.1,其余参数参见表1;
对于图3,文献2中的检测方法选用的参数为:α1=1.0,α2=1.2,σf.=2.0,σc=10.0,p=0.1,其余参数参见表1;
表1 部分参数表
对比结果参见表2:
表2 对比结果
对应的轮廓提取结果如图6-图13所示。
为了更好地对上述几种检测方法进行对比,还进行了盒须图比较,采用文献1中公开的盒须图方法,各方法均选用80组参数,各方法的参数选择如下:
本实施例检测方法中选用的参数为:α=[0.6,0.9,1.2,1.5],σ=[2.0,2.3,2.6,2.9,3.2],p=[0.2,0.15,0.1,0.05],其余参数参见表1;
文献1中的各向异性模型选用的参数为:α=[1.0,1.2],σ=[1.0,1.2,1.4,1.6,1.8,2.0,2.2,2.4],p=[05,0.4,0.3,0.2,0.1],其余参数参见表1;
文献1中的各向同性模型选用的参数为:α=[1.0,1.2],σ=[1.0,1.2,1.4,1.6,1.8,2.0,2.2,2.4],p=[05,0.4,0.3,0.2,0.1],其余参数参见表1;
文献2中的检测方法选用的参数为:α1=1.0,α2=[1.0,1.2],σf.=[1.2,1.6,2.0,2.4],σc=[5σf.,6σf.],p=[05,0.4,0.3,0.2,0.1],其余参数参见表1;
相应的盒须图如图14、图15所示;其中A表示文献1的各项异性模型,I表示文献1的各项同性模型,Z表示文献2检测方法,O表示本实施例检测方法。
由上述表2及图14、15的对比可以看出,本实施例轮廓检测方法在保持轮廓完整和抑制纹理上具有较好的效果。

Claims (4)

1.基于非经典感受野空间总和调制的轮廓检测方法,其特征在于包括以下步骤:
A、输入经灰度处理的待检测图像,将待检测图像的各个像素点分别作为非经典感受野中心神经元;
B、预设多个方向参数的Gabor滤波器组,对待检测图像中的各像素点分别按照各个方向参数进行Gabor滤波,获得各像素点的各个方向的Gabor能量值;对于每个像素点,选取其各个方向的Gabor能量值中的最大值,作为该像素点受经典感受野的刺激响应,即为该非经典感受野中心神经元的刺激响应,该最大值对应的滤波方向作为该像素点的最优角,即为该非经典感受野中心神经元的最优角;
C、基于各个非经典感受野中心神经元,分别计算得到各个非经典感受野对其中心神经元的全局能量调制权值,并分别结合各非经典感受野中心神经元对应的的最优角计算得到各非经典感受野中心神经元方位调制权值,进而计算出各个非经典感受野对其中心神经元的空间总和调制权值;
D、计算出各个非经典感受野对其中心神经元作用的距离函数,将这一距离函数与其中心神经元受经典感受野的刺激响应进行卷积得到各个非经典感受野在距离权值上对其中心神经元的调制响应;
E、通过各个非经典感受野的调制响应与其空间总和调制权值进行乘积得到各个中心神经元受非经典感受野的刺激响应;
F、通过各个中心神经元受非经典感受野调制的刺激响应与抑制系数相乘,再将其中心神经元受经典感受野的刺激响应减去上述乘积得到中心神经元受经典感受野和非经典感受野联合调制的刺激响应,取正后作为该中心神经元对应的轮廓值,从而得到各个像素点的轮廓值;
G、对各像素点的轮廓值使用非极大值抑制和双阈值处理,得到各像素点的最终轮廓值;
所述的步骤B具体如下:
所述的Gabor滤波器组的二维Gabor函数表达式如下:
其中γ为一个表示椭圆形感受野长短轴比例的常数,参数λ为波长,σ为DoG模板中心区的带宽,1/λ为余弦函数的空间频率,是相角参数,θ为Gabor滤波的角度参数;
I(x,y)为待检测图像,*为卷积运算符;
Gabor能量值计算如下:
其中θi为Gabor滤波的某一角度,Nθ为Gabor滤波的角度的个数;
Ec(x,y)为像素点(x,y)的各角度Gabor滤波能量值的最大值,为Ec(x,y)对应的滤波角度,作为像素点(x,y)的最优角;
所述的步骤C具体如下:
所述的非经典感受野对中心神经元的空间总和调制权值的表达式为:
Fs(x,y)=∑x′y′Fa(x+x′,y+y′)Fr(x+x′,y+y′) (7);
其中-3kσ<x′<3kσ;-3kσ<y′<3kσ;
其中Fs(x,y)为非经典感受野对中心神经元的空间总和调制权值,Fr(x,y)为非经典感受野对中心神经元的全局能量调制权值,Fa(x+x′,y+y′)为非经典感受野对中心神经元的方位调制权值;
Fr(x,y)表达式为:
其中,EAVG为待检测图像各像素点受经典感受野刺激响应的均值,即为待检测图像各个像素点的Ec(x,y)值的均值;
Fa(x+x′,y+y′)的表达式为:
其中ω=max(ω1,ω2) (10);
其中为中心神经元A(x,y)的最优角,为非经典感受野中除中心神经元外的任一神经元B(x+x′,y+y′)的最优角,即分别为神经元A、B的最大的gabor能量值对应的滤波角度,为中心神经元A与神经元B连线的偏向角。
2.如权利要求1所述的基于非经典感受野空间总和调制的轮廓检测方法,其特征在于:
所述的步骤D具体如下:
所述的非经典感受野在距离权值上对中心神经元的调制响应表达为:
Ed(x,y)=Ec(x,y)*Fd(x,y) (13);
其中Ed(x,y)为非经典感受野在距离权值上对中心神经元的调制响应,Fd(x,y)为非经典感受野对中心神经元作用的距离函数;
Fd(x,y)的表达式为:
其中,
其中,||·||1为(L1)范数,H(DoG(x,y))为取正值的函数,DoG(x,y)为DoG模板对应的表达式。
3.如权利要求2所述的基于非经典感受野空间总和调制的轮廓检测方法,其特征在于:
所述的步骤E具体如下:
中心神经元受非经典感受野的刺激响应表达式为:
En(x,y)=Fs(x,y)·Ed(x,y) (17)。
4.如权利要求3所述的基于非经典感受野空间总和调制的轮廓检测方法,其特征在于:
所述的步骤F具体如下:
所述的中心神经元受经典感受野和非经典感受野联合调制的刺激响应的表达式为:
R(x,y)=Ec(x,y)-αEn(x,y) (18);
其中R(x,y)为中心神经元受经典感受野和非经典感受野联合调制的刺激响应,α为抑制系数;
所述的取正函数为
CN201610163668.7A 2016-03-22 2016-03-22 基于非经典感受野空间总和调制的轮廓检测方法 Active CN106033610B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610163668.7A CN106033610B (zh) 2016-03-22 2016-03-22 基于非经典感受野空间总和调制的轮廓检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610163668.7A CN106033610B (zh) 2016-03-22 2016-03-22 基于非经典感受野空间总和调制的轮廓检测方法

Publications (2)

Publication Number Publication Date
CN106033610A CN106033610A (zh) 2016-10-19
CN106033610B true CN106033610B (zh) 2018-10-26

Family

ID=57149502

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610163668.7A Active CN106033610B (zh) 2016-03-22 2016-03-22 基于非经典感受野空间总和调制的轮廓检测方法

Country Status (1)

Country Link
CN (1) CN106033610B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106127740B (zh) * 2016-06-16 2018-12-07 杭州电子科技大学 一种基于视通路多感受野朝向性关联的轮廓检测方法
CN107067407B (zh) * 2017-04-11 2020-01-31 广西科技大学 基于非经典感受野和线性非线性调制的轮廓检测方法
CN107766866B (zh) * 2017-11-07 2020-05-05 广西科技大学 基于感受野子区域的方向选择性轮廓检测方法
CN107909593B (zh) * 2017-11-07 2020-05-05 广西科技大学 基于感受野子区域的非方向选择性轮廓检测方法
CN108053415B (zh) * 2017-12-14 2020-05-22 广西科技大学 基于改进非经典感受野的仿生轮廓检测方法
CN110210493B (zh) * 2019-04-30 2021-03-19 中南民族大学 基于非经典感受野调制神经网络的轮廓检测方法及***
CN111062957B (zh) * 2019-10-28 2024-02-09 广西科技大学鹿山学院 一种基于非经典感受野轮廓检测方法
CN111539969B (zh) * 2020-04-23 2023-06-09 武汉铁路职业技术学院 图像边缘检测方法、装置、计算机设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009098743A1 (ja) * 2008-02-04 2009-08-13 Honda Motor Co., Ltd. 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法
CN101763641A (zh) * 2009-12-29 2010-06-30 电子科技大学 一种模拟视觉机制的图像目标物体轮廓检测方法
CN102201120A (zh) * 2011-06-17 2011-09-28 电子科技大学 一种基于多特征的目标物体轮廓检测方法
CN103903251A (zh) * 2012-12-30 2014-07-02 南京理工大学 基于非经典感受野复合调制的夜视图像显著轮廓提取方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070230754A1 (en) * 2006-03-30 2007-10-04 Jain Anil K Level 3 features for fingerprint matching

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009098743A1 (ja) * 2008-02-04 2009-08-13 Honda Motor Co., Ltd. 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法
CN101763641A (zh) * 2009-12-29 2010-06-30 电子科技大学 一种模拟视觉机制的图像目标物体轮廓检测方法
CN102201120A (zh) * 2011-06-17 2011-09-28 电子科技大学 一种基于多特征的目标物体轮廓检测方法
CN103903251A (zh) * 2012-12-30 2014-07-02 南京理工大学 基于非经典感受野复合调制的夜视图像显著轮廓提取方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Contour detection based on a non-classical receptive field model with butterfly-shaped inhibition subregions;Zeng Chi 等;《Neurocomputing》;20110531;第74卷(第10期);第1527-1534页 *
引入低对比度环境下视觉感知机制的轮廓检测模型;陈建军 等;《模式识别与人工智能》;20121015;第25卷(第5期);第845-850页 *
视觉感知结合学习的自然图像轮廓检测测模型;唐奇伶 等;《中国科学:信息科学》;20130920;第43卷(第9期);Contour detection based on a non-classical receptive field model with butterfly-shaped inhibition subregions *

Also Published As

Publication number Publication date
CN106033610A (zh) 2016-10-19

Similar Documents

Publication Publication Date Title
CN106033610B (zh) 基于非经典感受野空间总和调制的轮廓检测方法
Kim et al. Median filtered image restoration and anti-forensics using adversarial networks
CN107578418B (zh) 一种融合色彩和深度信息的室内场景轮廓检测方法
CN107767387B (zh) 基于可变感受野尺度全局调制的轮廓检测方法
US10262190B2 (en) Method, system, and computer program product for recognizing face
CN110751098B (zh) 一种基于光照、姿态生成对抗网络的人脸识别方法
CN107862249B (zh) 一种分叉掌纹识别方法及装置
CN109489576B (zh) 一种基于初级视觉通路计算模型的轮廓检测方法
RU2018142757A (ru) Система и способ обнаружения болезней растений
CN102201120B (zh) 一种基于多特征的目标物体轮廓检测方法
CN110084149B (zh) 一种基于难样本四元组动态边界损失函数的人脸验证方法
CN107067407B (zh) 基于非经典感受野和线性非线性调制的轮廓检测方法
CN107909593B (zh) 基于感受野子区域的非方向选择性轮廓检测方法
CN106599878A (zh) 一种基于深度学习的人脸重建矫正方法及装置
CN107766866B (zh) 基于感受野子区域的方向选择性轮廓检测方法
CN107742302B (zh) 基于初级视皮层多尺度轮廓融合的轮廓检测方法
CN102163286A (zh) 一种色情图像评价方法
CN108090492B (zh) 基于尺度线索抑制的轮廓检测方法
CN103870820A (zh) 极端光照人脸识别的光照归一化方法
WO2011055164A1 (en) Method for illumination normalization on a digital image for performing face recognition
CN111179294B (zh) 一种基于x、y并行视觉通道响应的仿生型轮廓检测方法
Anand Brain tumor segmentation using watershed technique and self organizing maps
CN106033609A (zh) 仿生物跳跃眼动信息处理机制的目标轮廓检测方法
CN111968087B (zh) 一种植物病害区域检测方法
CN107067408B (zh) 模拟人眼微动的图像轮廓检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210802

Address after: 710000 3104, unit 3, building 2, resettlement building, nanzhaizi village, Yanhuan Middle Road, Yanta District, Xi'an City, Shaanxi Province

Patentee after: Xi'an xinbaize culture media Co.,Ltd.

Address before: 545006 No. 268 East Ring Road, the Guangxi Zhuang Autonomous Region, Liuzhou

Patentee before: GUANGXI University OF SCIENCE AND TECHNOLOGY

TR01 Transfer of patent right