CN105373135B - 一种基于机器视觉的飞机入坞引导和机型识别的方法及*** - Google Patents
一种基于机器视觉的飞机入坞引导和机型识别的方法及*** Download PDFInfo
- Publication number
- CN105373135B CN105373135B CN201410378566.8A CN201410378566A CN105373135B CN 105373135 B CN105373135 B CN 105373135B CN 201410378566 A CN201410378566 A CN 201410378566A CN 105373135 B CN105373135 B CN 105373135B
- Authority
- CN
- China
- Prior art keywords
- image
- aircraft
- unit
- parameter
- similarity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/06—Traffic control systems for aircraft, e.g. air-traffic control [ATC] for control when on the ground
- G08G5/065—Navigation or guidance aids, e.g. for taxiing or rolling
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64F—GROUND OR AIRCRAFT-CARRIER-DECK INSTALLATIONS SPECIALLY ADAPTED FOR USE IN CONNECTION WITH AIRCRAFT; DESIGNING, MANUFACTURING, ASSEMBLING, CLEANING, MAINTAINING OR REPAIRING AIRCRAFT, NOT OTHERWISE PROVIDED FOR; HANDLING, TRANSPORTING, TESTING OR INSPECTING AIRCRAFT COMPONENTS, NOT OTHERWISE PROVIDED FOR
- B64F1/00—Ground or aircraft-carrier-deck installations
- B64F1/002—Taxiing aids
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64F—GROUND OR AIRCRAFT-CARRIER-DECK INSTALLATIONS SPECIALLY ADAPTED FOR USE IN CONNECTION WITH AIRCRAFT; DESIGNING, MANUFACTURING, ASSEMBLING, CLEANING, MAINTAINING OR REPAIRING AIRCRAFT, NOT OTHERWISE PROVIDED FOR; HANDLING, TRANSPORTING, TESTING OR INSPECTING AIRCRAFT COMPONENTS, NOT OTHERWISE PROVIDED FOR
- B64F1/00—Ground or aircraft-carrier-deck installations
- B64F1/18—Visual or acoustic landing aids
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/435—Computation of moments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
- G06V10/7515—Shifting the patterns to accommodate for positional errors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B5/00—Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied
- G08B5/06—Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied using hydraulic transmission; using pneumatic transmission
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0017—Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
- G08G5/0026—Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located on the ground
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30236—Traffic on road, railway or crossing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Mechanical Engineering (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于机器视觉的飞机入坞引导和机型识别的方法及***,该方法包括:S1、飞机泊位场景设置步骤,将监测场景划分为不同的信息处理功能区;S2、图像预处理步骤,对所拍摄的图像进行预处理;S3、飞机捕获步骤,通过在该图像中识别飞机的引擎和前轮,以确认该图像中出现飞机;S4、飞机跟踪步骤,对步骤S3所捕获到的飞机的引擎和前轮的图像进行连续跟踪和实时更新;S5、飞机定位步骤,实现对飞机实时定位并准确判断飞机相对于引导线的偏离程度和相对于停止线的距离;S6、信息显示,输出并显示步骤S5的飞机相对于引导线的偏离程度和相对于停止线的距离。本发明以可视化的方式实现飞机入坞泊位引导,有效提高了飞机入坞过程的精确性。
Description
技术领域
本发明涉及一种飞机入坞引导和机型识别的方法,特别是涉及一种基于机器视觉的飞机入坞引导和机型识别的方法及***。
背景技术
飞机入坞泊位引导是指将到港飞机从滑行道末端导引至机坪的停机位置并准确停泊的过程。飞机泊位引导的目的是保障入坞飞机安全准确停泊,能方便飞机与各种地勤接口的准确对接,并使登机桥能有效靠接飞机舱门,提高机场运行效率和安全。
自动飞机泊位引导***按使用传感器的类型不同主要分为:
(1)地埋线圈类;(2)激光扫描测距类;(3)视觉感知类。
由于激光扫描测距类和视觉感知类自动引导***能有效获取入坞飞机的可视化信息,因此该两类自动飞机泊位引导***又称为可视化泊位引导***。
地埋感应线圈类自动引导***通过探测是否有金属物体经过或停留来确定入坞飞机的位置。地埋感应线圈的优点是响应速度快、成本低,对天气和照度无要求,但误差较大、抗干扰能力低。同时,埋在地下的引线和电子元件容易被压坏、可靠性不高,测量精度不高,不能识别机型,可调试可维修性差。
激光扫描测距类自动引导***通过激光测距和激光扫描来确定飞机位置、速度和机型等信息,不受环境照度的影响、且受天气影响较小,精度较高,可调试可维修性好。
视觉感知类自动引导***通过光学成像方式获取飞机入坞过程的图像信息,进而通过智能化信息处理技术确定入坞飞机的位置、速度和机型等信息,***架构简单、成本低,具有高的智能化水平,可调性可维护性较好,但对天气和照度有要求、适应性较差。
随着视觉感知成像技术、智能化信息处理技术和计算机技术的不断深入发展,可视化飞机泊位引导技术能精确、快速获取入坞飞机的入坞信息,已在机场的泊位引导***中得到应用。
美国Honeywell公司研制的可视化飞机泊位引导***(VDGS)和德国西门子公司研制的视频泊位引导***(VDOCKS)作为国际领先水平的视觉引导设备也在国际上一些机场得到应用。
但是,在飞机入坞过程的飞机捕获、跟踪与定位、机型识别与身份验证方面的精确性还有待有进一步的提高。
发明内容
本发明解决的技术问题在于,以可视化的方式,实现飞机入坞泊位引导,能有效提高飞机入坞过程的飞机捕获、跟踪与定位的精确性。
进一步的,实现机型识别与身份验证的功能。
进一步的,能有效提高民航机场自动化、智能化和运营管理的水平。
为解决上述问题,本发明公开了一种基于机器视觉的飞机入坞引导和机型识别的方法,包括:
步骤S1,飞机泊位场景设置步骤,将监测场景划分为不同的信息处理功能区;
步骤S2,图像预处理步骤,对所拍摄的图像进行预处理;
步骤S3,飞机捕获步骤,通过在该图像中识别飞机的引擎和前轮,以确认该图像中出现飞机;
步骤S4,飞机跟踪步骤,对步骤S3所捕获到的飞机的引擎和前轮的图像进行连续跟踪和实时更新;
步骤S5,飞机定位步骤,实现对飞机实时定位并准确判断飞机相对于引导线的偏离程度和相对于停止线的距离;
步骤S6,信息显示,输出并显示步骤S5的飞机相对于引导线的偏离程度和相对于停止线的距离。
该图像预处理步骤进一步包括:
步骤S21,根据该图像的平均灰度值判断该图像为低照度图像、强光照图像还是正常光照图像,对低照度图像执行低照度图像处理步骤,对强光照图像执行强光照图像处理步骤;
步骤S22,根据该图像的方差判断该正常光照图像是否为正常图像;
步骤S23,对于非正常图像,判断其为雨雪图像还是雾图像,对雨雪图像执行雨雪图像处理步骤,对雾图像执行雾图像处理步骤。
该低照度图像处理步骤包括:
g(x,y)=f(x,y)+af(x,y)(255-f(x,y))
f(x,y)为原图像,(x,y)为图像中的像素点坐标,g(x,y)为处理之后的图像,a为低照度图像处理参数。
该雨雪图像处理步骤包括:
利用光度测定模型寻找被雨雪污染的待处理像素;
对于当前图像的待处理像素,提取与该当前图像前后相邻的图像的相应像素的亮度值,根据该亮度值判断与该当前图像前后相邻的图像的相应像素是否均为待处理像素,如果是,取该当前图像的待处理像素的所有相邻像素的亮度值的平均值,用该平均值代替该当前图像的待处理像素的亮度值,如果否,利用该当前图像前后相邻的图像的相应像素的亮度值中的最小值或最小的两个值的平均值,代替该当前图像的待处理像素的亮度值。
所述方法通过同态滤波的方法进行该雾图像处理步骤。
该飞机捕获步骤进一步包括:
步骤S31,背景消除步骤,利用单高斯背景模型来模拟场景中背景的动态分布并进行背景建模,然后将当前图像与背景模型作差分以消除背景,得到前景区域;
步骤S32,阴影消除步骤,统计该前景区域的灰度值,找出最大灰度值gmax和最小灰度值gmin,然后在灰度值小于T=gmin+(gmax-gmin)*0.5的区域进行阴影消除;
步骤S33,区域分类步骤,建立一个标准正面飞机区域模板,经过变化检测提取目标区域并求取该区域的垂直投影曲线,然后求取该垂直投影曲线与所述标准正面飞机区域模板的垂直投影曲线的相关系数,若该相关系数大于或等于一分类阈值,则该目标为飞机;
步骤S34,特征验证步骤;通过检测捕获到的飞机的引擎和前轮来进一步验证该目标是否为飞机。
该特征验证步骤进一步包括:
步骤S341,图像极黑区域提取,对当前图像的目标区域进行灰度直方图统计,在灰度级中间1%~99%范围内获得最大灰度值、最小灰度值,借助预设的极黑判定阈值以及该最大灰度值、最小灰度值提取图像中最黑的部分,得到一幅极黑区域;
步骤S342,类圆形检测,提取该极黑区域的所有外层边界,对每一个边界使用边界的矩计算边界的重心坐标,边界的第ji阶矩定义如下:
重心坐标
对于当前边界的所有像素点,计算其与该重心的距离,若计算得到的最大距离与最小距离的比值大于一圆形判定阈值,则认为该区域非圆形,进行下一区域的判定,否则认为该区域为类圆形,记录类圆形区域的重心坐标和半径;
步骤S343,在类圆形区域中通过判断相似度检测飞机引擎;
步骤S344,检测飞机前轮。
在步骤S343中,对于检测到的M个类圆形区域,其中第i个和第j个的相似度的计算为:
Similarityij=|Heighti-Heightj|*|Radiusi-Radiusj|
其中,Height为重心高度,Radius为半径,当相似度Similarityij小于预设的相似度阈值时,则认为类圆形区域i和j为飞机引擎。
在步骤S343中,若没有检测出飞机引擎,则进行迭代检测,将所述极黑判定阈值、圆形判定阈值、相似度阈值分别增大,再进行步骤S341-343;若仍然没有检测出飞机引擎,则对所有的极黑区域使用7*7的圆形模板进行开操作,再进行步骤S342-343;
若仍然没有检测出飞机引擎,则再进行2次上述迭代检测;
若仍然没有检测出飞机引擎,则判定图像中无引擎存在。
所述极黑判定阈值、圆形判定阈值、相似度阈值的增加量分别为0.05、0.5、20。
该步骤S344进一步包括:
在图像的搜索区域中,将256级的灰度级量化至64级,搜索量化为64级的灰度直方图中的第一个波峰和波谷,原始256级灰度的灰度直方图中的最优波峰位置BestPeak、最优波谷BestValley位置定义如下:
其中hist256(i)为256级灰度的灰度直方图中,灰度为i的像素总数;
以此最优波谷BestValley对灰度进行分割,对小于最优波谷BestValley的部分,除去面积较小的杂点,使用一个扁平椭圆型结构元素对图像进行闭操作;
接着对所有图形计算边界的7阶Hu矩特征,与预置的标准前轮模型的矩特征进行比对,当相似度低于一阈值时则判定中间一个为前轮。
该飞机跟踪步骤进一步包括:
步骤S41,在获得上一帧图像的引擎位置后,采用洪水填充法跟踪确定当前帧的引擎区域;
步骤S42,如果步骤S41的填充结果无效,执行阴暗环境检测跟踪步骤,使用上一帧的参数进行步骤S341和步骤S342来检测跟踪引擎区域;
步骤S43,在获取到引擎区域的信息之后,使用步骤S344检测飞机前轮;
步骤S44,前轮跟踪应急处理步骤,在检测前轮形状不正确或前轮位置与之前多帧图像相比发生明显偏离时,根据上一帧图像和当前图像的信息,利用相邻两帧图像引擎的位移对该帧的前轮位移进行估计,将估计结果作为前轮跟踪结果,如果超出N帧仍检测不到,则输出错误信息。
该飞机定位步骤进一步包括:
步骤S51,摄像装置标定与图像矫正步骤,用于确定摄像装置的光学参数与地理坐标系之间的对应关系;
步骤S52,飞机前轮偏离程度解算步骤;
步骤S53,飞机前轮实际距离解算步骤。
该步骤S51进一步包括:
步骤S511,读取N幅标定图片;
步骤S512,使用OpenCV的cvFindChessboardCorners()函数寻找棋盘角点,将读取的所述N幅标定图片分别代入所述cvFindChessboardCorners()函数,如果成功寻找到所有的角点,则函数返回1,并得到角点在图像坐标系下坐标;如果不成功则返回0;
步骤S513,将成功寻找到的所述角点在标定模板上的坐标代入函数cvCalibrateCamera2()中,返回得到摄像装置的参数矩阵、畸变系数、旋转向量和平移向量。
该步骤S52进一步包括:
根据由步骤S43得到前轮的位置坐标点(x0,y0),利用所述位置坐标点与引导线和停止线的关系,求得引导线的直线方程为:y1=k1x1+b1,停止线的直线方程为:y2=k2x2+b2,所述位置坐标点到直线的距离为:
将坐标点(x0,y0)代入两个直线方程分别求得d1和d2,d2≥0表示飞机前轮超出停止线,d2<0表示飞机前轮未到达停止线,此时若k1>0,d1>0则表示飞机偏左,d1<0表示飞机偏右;若k1<0,则d1<0表示飞机偏左,d1>0表示飞机偏右。
判断|d1|>width/2是否成立,width为一等于检测的飞机前轮的宽度的阈值,如果成立,认为飞机已经偏离引导线。
该步骤S53进一步包括:
建立图像坐标与大地坐标的对应关系;
由步骤S1的场景设置中的标记点得到图像坐标,采用最小二乘法对该图像坐标进行二次曲线拟合,得到曲线方程y=ax2+bx+c,x是图像上的距离,y是实际距离;
对于飞机前轮在图像上的位置,沿停止线方向将其投影到引导线上,计算投影点到停止点的欧氏距离作为x,则通过y=ax2+bx+c可得到飞机前轮到停止线的实际距离。
该步骤S3之后还可执行步骤S7,飞机识别及身份验证步骤,步骤S7进一步包括:
步骤S71,参数验证,提取图像中的飞机参数并与预置于数据库中的机型数据进行比对,得到机型相似度参数;
步骤S72,模板匹配,将图像与预置于所述数据库中的机型模板进行比对,得到模板相似度参数;
步骤S73,综合判断,所述机型数据相似度参数与所述模板相似度参数大于或等于一验证阈值时,视为通过身份验证。
步骤S71进一步包括:
步骤S711,提取图像中的飞机引擎参数并与预置于数据库中对应机型的飞机引擎参数进行比对,得到第一比值;
步骤S712,提取图像中的飞机机翼参数并与预置于数据库中对应机型的飞机机翼参数进行比对,得到第二比值;
步骤S713,提取图像中的飞机机头参数并与预置于数据库中对应机型的飞机机头参数进行比对,得到第三比值;
步骤S714,提取图像中的飞机尾翼参数并与预置于数据库中对应机型的飞机尾翼参数进行比对,得到第四比值;以及
步骤S715,取第一比值、第二比值、第三比值、第四比值这四者中的最小值以及最大值,将最小值/最大值,作为该机型相似度参数。
步骤S72进一步包括:
步骤S721,全局模板匹配,以整幅图像为被搜索图像,标准飞机图像为模板,计算全局模板相似度参数;
步骤S722,局部模板匹配,分别以步骤S711-S714中提取得到的所述飞机引擎、飞机机翼、飞机机头和所述飞机尾翼为被搜索图像,分别以标准飞机图像的引擎、机翼、机头和尾翼为模板,计算被搜索图像与模板的4个相似度,去掉所述4个相似度中的最小值,计算所述4个相似度中其余3个相似度的平均数为局部模板相似度参数。
步骤S73进一步包括:若所述机型相似度参数、全局模板相似度参数和所述局部模板相似度参数中至少有2个大于或等于第一验证阈值,视为通过身份验证,或,所述机型相似度参数、全局模板相似度参数和所述局部模板相似度参数都大于第二验证阈值,视为通过身份验证。
本发明还公开了一种基于机器视觉的飞机入坞引导和机型识别的***,包括:
飞机泊位场景设置单元,用于将监测场景划分为不同的信息处理功能区;
图像预处理单元,用于对所拍摄的图像进行预处理;
飞机捕获单元,用于在该图像中识别飞机的引擎和前轮,以确认该图像中出现飞机;
飞机跟踪单元,用于对所捕获到的飞机的引擎和前轮的图像进行连续跟踪和实时更新;
飞机定位单元,用于实现对飞机的实时定位并准确判断飞机相对于引导线的偏离程度和相对于停止线的距离;
信息显示单元,输出并显示飞机相对于引导线的偏离程度和相对于停止线的距离。
综上所述,本发明在飞机入坞过程中,准确实现对飞机的捕获、跟踪、定位和身份验证,并对飞机泊位引导信息进行显示,为飞机驾驶员、副驾驶员或其他人员提供正确有效的泊位引导,使飞机实现安全有效的泊位,提高机场运行效率,保障安全。
附图说明
图1为本发明一实施例的基于机器视觉的飞机入坞引导和机型识别***的结构示意图;
图2为本发明的飞机泊位引导工作原理图;
图3为本发明的飞机入坞引导和机型识别流程图;
图4为本发明的飞机泊位场景设置示意图;
图5A、5B所示为图像预处理步骤的详细流程图;
图6所示为同态滤波器函数的曲线示例图;
图7A所示为本发明的背景消除流程图;
图7B所示为一幅典型的极黑区域示意图;
图7C所示为相似度判定的流程示意图;
图7D所示为256级灰度的灰度直方图示例图;
图7E所示为量化后的64级灰度的灰度直方图示例图;
图7F所示为使用一个扁平椭圆型结构元素对图像进行闭操作的效果示例图;
图8A所示为飞机跟踪步骤的流程示意图;
图8B所示为飞机引擎部分的图像示例图;
图9是实际距离与图像距离的对应点及拟合曲线示例图;
图10A所示为飞机识别及验证算法流程图;
图10B所示为分层图像结构示意图;
图10C所示为飞机图像边缘示例图;
图10D所示为机翼轮廓与引擎轮廓示例图;
图10E所示为被搜索图像S、子图Sij、模板T的示意图;
图11所示为显示于该显示设备中的一种可行的显示方式示例图。
具体实施方式
下面结合附图对本发明的结构原理和工作原理作具体的描述:
参见图1及图2,图1为本发明一实施例的基于机器视觉的飞机入坞引导和机型识别***的结构示意图,图2为本发明飞机泊位引导工作原理图。
本发明的该基于机器视觉的飞机入坞引导和机型识别***主要由摄像装置1、中央处理设备2和显示设备3组成。摄像装置1与中央处理设备2连接,中央处理设备2与显示设备3连接。摄像装置1将拍摄的图像发送给中央处理设备2,中央处理设备2将包含引导信息的显示内容发送给显示设备3。
其中,摄像装置1安装在飞机泊位站坪4的停止线42后方,正对引导线41为宜,安装高度要高于飞机5的机身,在5-8m左右为宜,图2中与摄像装置1相连的虚线表示其设置在地方正上方。中央处理设备2可以是一种拥有接受数据、处理数据、储存数据、生成显示图像数据、发送数据能力的计算装置,包括用于执行飞机泊位场景配置、视频图像预处理、飞机捕获、飞机跟踪、飞机定位、飞机识别及身份验证的多个功能模块,以及生成用于信息显示内容的模块,全部作为软件安装在中央处理设备2中。显示设备3优选为安装于机场中可供飞机驾驶员观看的大型信息显示屏,另外,机场工作人员也可配备手持式显示设备以观察飞机情况。
参见图3,图3为本发明一实施例的飞机入坞引导和机型识别流程图。本发明基于机器视觉的飞机入坞引导和机型识别方法,包括如下步骤:
步骤S1、飞机泊位场景设置。
由于飞机从开始进入机位到最终停止需要经历一个较长的距离,故而在飞机入坞引导过程中,需分为多个阶段,每个阶段的监测内容不同,也就是说,需要提前进行飞机泊位场景设置。
在步骤S1中,将飞机泊位站坪4的监测场景划分为不同的信息处理功能区,以缩小图片的处理区域范围,提高处理效率。
首先需要在飞机泊位站坪4的监测场景中进行场景定义,紧邻该引导线41铺设一条黑白间隔的标尺,黑色与白色的长度间隔相同,长度间隔最大1m,可根据摄像装置的分辨率,使用长度间隔为0.5m、0.25m等更精细的标尺,标尺的总长度不超过对飞机位置进行距离解算的范围,通常为50m。
通过运行于中央处理设备2中的软件可再现该监测场景。开启该软件可显示摄像装置1拍摄的关于飞机泊位站坪4的画面,并通过手动绘制线条、选框和点,来标记相关区域,并保存记录。
摄像装置1拍摄没有飞机停靠时的飞机泊位站坪4的场景图像,并传送至中央处理设备2。飞机泊位场景设置示意图见图4,图中边框40表示进行标定操作时所显示的画面和可用于描绘的区域,图中虚线线框可以是手动描绘的位置,可以在显示的图像上手动绘制线条,分别标记出引导线41和停止线42,保存记录引导线41和停止线42在图像中的位置信息。通过手动绘制选框,分别标记出捕获区6、跟踪定位区7和相关地勤设备区8,保存记录捕获区6和跟踪定位区7在图像中的位置信息。机型识别与身份验证区,以及,跟踪定位区7,可以对应同一段区域。再根据场景中铺设的标尺,手动画点,标记出紧邻引导线41旁边的最大间隔为1m的所有标记点9,保存记录所有标记点9在图像中的位置信息,以及每个标记点9在实际场景中距离第一标记点91的距离。
其中,在标记引导线41、停止线42和标记点9的时候,可将需要标记的图像部分放大,放大到数十像素宽时,手动在其中间部分标记,以提高标记精度。标记的捕获区6和跟踪定位区7的位置不需要非常严格,捕获区6上边缘在实际场景中的位置距离停止线42大约100m,捕获区6下边缘在实际场景中的位置距离停止线42大约50m,跟踪定位区7上边缘在实际场景中的位置距离停止线42大约50m,跟踪定位区7下边缘在停止线42以下即可。
图3中虚线以上的步骤S1为在***安装完成后,进行泊位引导之前执行。虚线以下的部分均在泊位引导时执行。其中虚线框中的步骤需要在泊位引导过程中实时执行和更新。
步骤S1之后执行步骤S2,图像预处理步骤。如图5A、5B所示为图像预处理步骤的详细流程图。
摄像装置1实时的对捕获区6进行拍照,对于拍摄到的每幅图像,均执行步骤S2以其后的步骤。
步骤S2进一步包括:
步骤S21,对于拍摄的图像进行灰度化。
步骤S22,统计图像的平均灰度值和方差,判断图像的平均灰度值是否低于一最低阈值,如果是,该图像为低照度图像,执行步骤S25的低照度图像处理步骤,如果否,执行步骤23。
该最低阈值为预先设置,该最低阈值为处于50-60之间的一个数值。
步骤S23,判断图像的平均灰度值是否高于一最高阈值,如果是,该图像为强光照图像,执行步骤S24的强光照图像处理的步骤,如果否,该图像为正常光照图像,执行步骤26。
该最低阈值为预先设置,该最高阈值为处于150-160之间的一个数值。平均灰度值位于最高阈值与最低阈值之间的图像为正常光照图像。
步骤S24,强光照图像处理。
该步骤S24采用gamma变换的方式对该强光照图像进行亮度降低的处理。
步骤S25,低照度图像处理。
对于低照度图像,本发明采用非线性变换的方式进行处理,变换公式为:
g(x,y)=f(x,y)+af(x,y)(255-f(x,y))
其中,f(x,y)为原图像,(x,y)为图像中的像素点坐标,g(x,y)为处理之后的图像,a为低照度图像处理参数,该参数可取值0.01。
步骤S26,对正常光照图像判断其方差是否大于一方差标准值,如果是,该图像为雨雪雾图像,执行步骤S27,如果否,可知该正常光照图像非雨雪雾图像,为正常图像,则不做任何处理。
步骤S27,判断该正常光照图像的熵是否大于一熵阈值,如果是,该正常光照图像为雨雪图像,执行步骤S28的雨雪图像处理的步骤,如果否,该正常光照图像为雾图像,执行步骤S29的雾图像处理的步骤。
熵是一个数学变量,通常用于表示信息量的大小,对于图像来说,熵表示图像的细节的多少,也就是图像所含信息量的多少。雨雪图像由于雨雪的存在,图像上的雨点和雪花在不同位置出现,使得图像的细节比较多,而雾的图像则因为雾的均匀分布而显得细节较少,所以可以通过熵来判别雨雪图像与雾图像。
在一实施例中,对于灰度图像来说,选择图像的邻域灰度均值作为灰度分布的空间特征量,与图像的像素灰度组成特征二元组,记为(i,j),其中i表示像素的灰度值(0<=i<=255),j表示邻域灰度均值(0<=j<=255):令f(i,j)为特征二元组(i,j)出现的频数,N为图像的尺度,pij=f(i,j)/N2,灰度图像的二维熵的计算公式为
步骤S28,雨雪图像处理。
该雨雪图像处理步骤使用图像序列中像素的光度测定模型来判断亮度的线性相关性,从而实现去除雨雪对图像的影响的目的。
受雨雪天气影响所拍摄的图像具有如下的光度测定模型:
在当前为雨雪天气且背景固定不变情况下,对同一位置连续拍摄的三帧图像(n-1、n、n+1帧)中,同一像素点P的像素亮度值In-1、In、In+1,满足如下条件:
第n-1帧的亮度值In-1与第n+1帧的亮度值In+1是相等的,并且在第n帧中由雨雪引起的亮度变化值ΔI满足以下条件:
ΔI=In-In-1=In-In+1≥c
c代表由雨雪引起的亮度变化最小阈值。
故而,在步骤S28中,进一步包括:
步骤S281,利用光度测定模型寻找被雨雪污染的待处理像素。
即,对当前图像n的像素点P,判断In-1与In+1是否相等,且,ΔI是否大于等于c,如果两个判断的结果均为是,则认为该图像n的像素点P是待处理像素。对图像n中的所有像素均进行上述判断,直至找到所有待处理像素。
步骤S282,对待处理像素进行亮度调节。
步骤S282进一步包括:
步骤S2821,对于图像n的待处理像素P,提取与该图像n相邻的前两帧(n-1、n-2)图像和后两帧(n+1、n+2)图像的相应像素P的亮度值,判断所提取的四帧图像的像素P是否均为待处理像素,如果是,执行步骤S2822,如果否,执行步骤S2823。
步骤S2822,取该待处理像素P的所有相邻像素的亮度值的平均值,用该平均值代替图像n的待处理像素P的亮度值,以消除雨雪对图像亮度的影响。
步骤S2823,对于图像n的待处理像素P,提取与该图像n相邻的前两帧(n-1、n-2)图像和后两帧(n+1、n+2)图像的相应像素P的亮度值,共提取四帧图像的同一像素点的亮度值,取其中最小的两个亮度值,用这两个亮度值取平均值,用该平均值代替图像n的待处理像素P的亮度值,以消除雨雪对图像亮度的影响。在又一实施例中,可直接利用四帧图像的同一像素点的亮度值中的最小值代替图像n的待处理像素P的亮度值。
该步骤S2821以及步骤S2823中,还可提取图像n相邻的前后一帧或三帧或更多图像对应像素的亮度值。
步骤S29,雾图像处理。
步骤S29的雾图像处理步骤可以使用同态滤波,以消除雾对图像亮度的影响。
具体地,对图像f(x,y),将其表达成照明和反射两部分乘积形式:
f(x,y)=i(x,y)r(x,y)
其中0≤i(x,y)≤+∞为照明分量,0≤r(x,y)≤1为反射分量,在对其两边取自然对数,得到:
lnf(x,y)=lni(x,y)+lnr(x,y)
再进行傅里叶变换,得到:
F(u,v)=I(u,v)+R(u,v)
对F(u,v)使用同态滤波器函数H(u,v)进行处理:
S(u,v)=H(u,v)F(u,v)=H(u,v)I(u,v)+H(u,v)R(u,v)
其中H(u,v)的曲线形状能用任何一种理想高通滤波器的基本形式近似,例如采用高斯型高通滤波器稍微修改过的如下形式:
如图6所示为同态滤波器函数的曲线示例图。
再进行傅里叶逆变换:
s(x,y)=F-1[H(u,v)I(u,v)]+F-1[H(u,v)R(u,v)]
最后做指数运算,得到处理结果:
g(x,y)=exp(s(x,y))
g(x,y)为经过雾图像处理步骤后得到的结果。
每一帧经过步骤S3所述预处理步骤处理过的图像,获得了较高的画面质量,可以据以进行后续的步骤。
步骤S2之后执行步骤S3,飞机捕获步骤。
为了实现对入坞飞机的捕获,以进行后续的引导等操作,需持续对步骤S2中经过预处理的图像进行分析,并从中准确识别出飞机是否已出现。
步骤S3进一步包括:
步骤S31,背景消除步骤。
步骤S32,阴影消除步骤。
步骤S33,区域分类步骤。
步骤S34,特征验证步骤。
飞机存在于图像的前景中,为了准确的从图像中捕获到飞机,首先需要去除图像中的背景,消除干扰。
步骤S31的背景消除步骤是利用单高斯背景模型来模拟场景中背景的动态分布并进行背景建模,然后将当前帧与背景模型作差分以消除背景,背景消除流程图见图7A。
步骤S31进一步包括:
步骤S311,背景模型初始化。
本发明采用的是单高斯背景模型,单高斯背景模型是把背景模型中的每一个像素都看成是一个一维正态分布,而且每个像素之间是相互独立的,其分布由正态分布的均值和方差来确定。
利用经过步骤S2处理的连续的N帧图像进行背景模型的训练,以确定高斯分布的均值和方差。该N帧图像拍摄到的是,在飞机未出现在捕获区6时,捕获区6的场景,该N帧图像也就是背景图像。该N帧图像所拍摄到的位置均相同。该N帧图像可例如为摄像装置1拍摄的50帧图像。
计算该连续的N帧图像f(x,y)中每一个像素的平均灰度值μ0以及像素灰度的方差由μ0和组成具有高斯分布η(x,μ0,σ0)的初始背景图像B0,
其中:
此后为每帧图像的每个像素点建立高斯模型η(xi,μi,σi)。其中,下标i表示图像的帧序号,xi为像素点的当前像素值,μi为当前像素点高斯模型的均值,σi为当前像素点高斯模型的均方差。
随后对η(xi,μi,σi)进行判断,若η(xi,μi,σi)≤Tp(Tp为概率阈值,或称前景检测阈值),则该点被判定为前景点,否则为背景点(这时又称xi与η(xi,μi,σi)匹配)。所收集到的背景点组成背景模型,完成背景模型初始化。
在实际应用时,也可以用等价的阈值代替概率阈值Tp。记di=|xi-μi|,在常见的一维情形中,则常根据di/σi的取值来设置前景检测阈值:若di/σi>T(T值在2到3之间),则该点被判定为前景点,否则为背景点。
步骤S312,背景模型更新。
若在步骤S311完成后,场景发生变化,则背景模型需要响应这些变化,此时就要对背景模型进行更新。
利用摄像装置1在场景发生变化后拍摄的连续图像提供的实时信息对背景模型进行更新,如下式:
其中α为更新率,表示背景模型更新的快慢程度,若该像素为背景,则更新率α取0.05,若该像素为前景,则更新率α一般取0.0025。
若在步骤S311完成后,场景未发生变化,则直接执行步骤S313。
步骤S313,摄像装置1拍摄的当前帧图像经步骤S2处理后,与该背景模型做差分,以得到该当前帧图像的前景区域。
该步骤中,在该差分步骤后,还可包括对差分得到的结果进行形态学腐蚀和膨胀操作,以得到更为准确的前景区域的边界。该形态学腐蚀和膨胀操作为现有技术中本领域技术人员可以掌握的步骤。
在消除了图像中的背景之后,为准确的捕获飞机,还可进一步消除图像中的阴影。
在步骤S32的阴影消除步骤中,首先统计经过步骤31的处理而得到的前景区域中各像素的灰度值,找出最大灰度值gmax和最小灰度值gmin,并针对较低灰度值的区域进行阴影消除。该较低灰度值的区域为灰度值小于
gmin+(gmax-gmin)*0.5的区域。
每帧图像包括前景区域和背景区域,而前景区域和背景区域可能重合,则前景区域中的像素,在背景区域的同一位置点可能具有对应的背景像素。
在该较低灰度的区域中,求取每个像素与对应的背景像素之间的灰度比值,若这一比值在0.3与0.9之间,则这个像素被认为是阴影点。
接着通过多次形态学腐蚀和膨胀操作,除去阴影点集合中的非阴影区域,从而得到阴影区域。
从前景区域中去除该阴影区域,再通过多次形态学膨胀和腐蚀操作消除需要的前景区域中的空洞以及把各个区域连通起来,得到了目标区域。该目标区域对应着出现在捕获区6的物体,可能为飞机,也可能为车辆等其他物体。
在步骤S33的区域分类步骤中,事先建立一个标准正面飞机区域的模板,由于飞机具有两边窄中间宽的特性,故而该模板可用于区别飞机与非飞机。
经过变化检测提取该目标区域,并求取该目标区域的垂直投影曲线。随后,求取该标准正面飞机区域的垂直投影曲线。判断该目标区域的垂直投影曲线与该标准正面飞机区域的垂直投影曲线的相关系数是否大于一分类阈值,如果是,该目标区域对应一飞机,继续执行步骤S34;如果否,该目标区域对应的不是一飞机。该分类阈值例如为0.9。
步骤S33仅通过外形轮廓大致确认目标区域是否为飞机,之后还需要通过步骤S34的特征验证步骤来进一步确认,该目标区域是否的确为飞机。该特征验证步骤是通过检测捕获到的飞机的引擎和前轮来进一步验证该目标是否为飞机。
步骤S34进一步包括:
步骤S341,图像极黑区域提取。
对当前帧图像的目标区域进行灰度直方图统计,在灰度级1%~99%的范围内(通常也就是2~253的灰度级)获取最大(gmax)灰度值和最小(gmin)灰度值,获得像素数不为0的最大(gmax)灰度值/最小(gmin)灰度值这一灰度值比值,通过该比值判断是白天还是夜晚。结合该比值使用预设的阈值提取图像中最黑的部分,得到一幅极黑区域。
具体来说,使用一个阈值BlackestJudge(极黑判定阈值),来提取图像中灰度值在gmin到(gmax-gmin)*BlackestJudge+gmin之间的区域,也就是图像中最黑的部分,得到一幅极黑区域。
而根据最大(gmax)灰度值和最小(gmin)灰度值的比值可以判断图像处于白天还是夜晚,当该比值大于一标准值时属于白天,该极黑判定阈值选择0.05,否则属于夜晚,该极黑判定阈值选择0.5。
一幅典型的极黑区域示意图见图7B,图中的各个图形内部是极黑区域。
步骤S342,类圆形检测。
提取该极黑区域的所有外层边界,对每一个边界,计算其重心坐标。
具体地,使用边界的矩计算边界的重心,边界的第ji阶矩mji定义如下:
(x,y)为像素点的坐标值,f(x,y)为该极黑区域的图像。
重心坐标可由00、10、01阶矩计算得到:
对于当前边界的所有像素点,计算其与重心的距离,若计算得到的最大距离与最小距离的比值超过了一预设值(优选为1.5的圆形判定阈值circleJudge),则判定该边界所对应的区域不是圆形,若计算得到的最大距离与最小距离的比值未超过了该预设值,则判定该边界所对应的区域是圆形。依据这一规则对所有边界完成判定。
对于认定为圆形的区域(简称类圆形区域),记录其重心坐标、边界到重心的平均距离(即半径),以进行后续步骤S343的相似度判定。
步骤S343,相似度判定。参见图7C所示为相似度判定的流程示意图。
步骤S343进一步包括:
步骤S3431,通过对类圆形区域的相似度计算,检测该类圆形区域中是否存在引擎,如果是,执行步骤S4,如果否,执行步骤S3432。
假设一共检测到了M个类圆形区域,其中第i个类圆形区域和第j个类圆形区域的相似度的计算公式为:
Similarityij=|Heighti-Heightj|*|Radiusi-Radiusj|
其中Height为重心高度,Radius为边界到重心的平均距离(即半径)。
当相似度Similarityij小于相似度阈值similarThresh(优选预设为40)时,则认为类圆区域i和j为引擎区域。如果没有一个Similarityij小于阈值similarThresh,则视为未检测到引擎区域,执行步骤S3432。
步骤S3432,调整阈值,重新执行步骤S341、342、3431,如果仍未检测到引擎区域,执行步骤S3433。
将阈值BlackestJudge、circleJudge、similarThresh分别增大,增加量可分别优选取0.05、0.5、20,再进行极黑区域提取、类圆形检测和引擎检测的步骤。如果仍未检测到引擎区域,执行步骤S3433。
步骤S3433,对所有的极黑区域使用圆形模板进行形态学处理的开操作,重新执行步骤S342、3431。
该圆形模板可优选为7*7的圆形模板,开操作后再进行步骤S342的类圆形检测和步骤S3431的引擎检测,如果仍未检测到引擎区域,迭代执行步骤S3432。
如迭代N次后仍未检测到引擎区域,判定图像中并无引擎。N可优选为2次。
在对后续帧图像进行检测时,若其前一帧图像使用的迭代步数为n,则直接从第n-1步开始迭代。
步骤S344,前轮检测。
将步骤S343中检测到的引擎圆心的连线作为底边,底边下方4个半引擎高度的矩形区域为搜索区域。
在搜索区域中,将256级的灰度级量化至64级,256级灰度的灰度直方图示例图见图7D,量化后的64级灰度的灰度直方图示例图见图7E。
以图7E为例,搜索量化后为64级灰度的灰度直方图中的第一个波峰3001和第一个波谷3002。
设量化后的第一个波峰位置为peak,第一个波谷位置为valley,则原始256级灰度的灰度直方图中的最优波峰位置BestPeak、最优波谷BestValley位置定义如下:
其中hist256(i)为256级灰度的灰度直方图中,灰度为i的像素总数。
以此最优波谷BestValley对灰度进行分割,对小于最优波谷BestValley的部分,除去面积较小的杂点,使用一个扁平椭圆型结构元素对图像进行闭操作,效果示例图如图7F。
接着对经过闭操作后的所有图形计算其边界的7阶Hu矩特征,并与预置的标准前轮模型的Hu矩特征进行比对(关于HU距特征:几何矩是由Hu(Visual pattern recognitionby moment invariants)在1962年提出的,具有平移、旋转和尺度不变性。Hu利用二阶和三阶中心距构造的7个不变距。故此,7阶Hu距特征的7阶是唯一确定的),当相似度低于一阈值(优选取值1)时则判定为轮子。这样会得到多组轮子的位置,中间靠下的轮子即为前轮。
一旦确认检测到引擎和前轮即可认为捕获成功,执行步骤S4。
步骤S4,飞机跟踪步骤。
该步骤中,为实现对飞机实时定位并准确得到飞机相对引导线的偏离程度,根据引擎外壁和内部之间亮度的巨大差异和引擎的圆形结构,提取引擎的位置和半径,然后通过空间位置关系找到飞机前轮,对飞机进行定位。
具体而言,在实现对飞机的捕获后,摄像装置1继续进行图像拍摄。则在上一帧图像已经实现了飞机捕获后,对于当前帧图像,在执行过步骤S2的图像预处理步骤后,直接执行步骤S4,或者,执行过S2、S3后,执行步骤S4。
由于利用步骤S34的特征验证的方法已经获得了上一帧图像的引擎位置,则当前帧图像的引擎位置只会进行微小的移动,因此并不需要对全图进行重新检测,只在一个较小的扩展区域进行当前帧的引擎提取,上一帧的参数(BlackestJudge,circleJudge)将可以用于当前帧的目标检测。
如图8A所示为飞机跟踪步骤的流程示意图。
步骤S41,判断是否有上一帧的引擎信息,如果是,执行步骤S42,如果否,执行步骤S46。
步骤S42,利用洪水填充法确定引擎位置。
由于引擎具有浅色的外壁,其灰度值会明显高于引擎内部的黑色区域,飞机引擎部分图像示例图如图8B,因此以上一帧的引擎中心为种子点,使用洪水填充法,获得整个引擎的黑色区域。
在天色阴暗或低照度时,引擎边界的灰度值可能不会比中心高太多,加上一些噪声点,可能使洪水填充法可能出现溢出,导致结果无效,使得到的引擎区域明显过大,且不再是圆形,故而,继续执行步骤S43。
步骤S43,判断步骤S42的填充结果是否有效,如果是,执行步骤S46,如果否,执行步骤S44。
步骤S44,阴暗环境检测跟踪步骤。
该步骤中,直接使用处理上一帧图像时所采用的参数,重新执行步骤S341和342,检测引擎区域。
步骤S45,判断检测结果是否为有效,如果是,输出引擎区域的信息,如果否,将该上一帧的引擎信息置空,执行步骤S41。
步骤S46,直接执行步骤S34的特征验证步骤,并输出引擎区域的信息。
执行步骤S46的情况在一组飞机泊位的图像序列中不能超过两次。另外,在连续使用步骤S44的阴暗环境检测跟踪步骤检测特定帧图像(例如20帧)之后,无论检测结果如何,都将使用步骤S34的特征验证步骤进行检测。
步骤S47,前轮跟踪步骤。
在获取到引擎区域的信息之后,在本步骤中,使用步骤S344的前轮检测的方法检测飞机前轮,以用于后续的飞机定位步骤。
步骤S48,前轮跟踪应急处理步骤。
当步骤S47中得到的检测结果明显不正确时,即,判定为轮子的区域存在形状不正确、位置与之前5~10帧相比发生明显偏离的问题时,根据上一帧和当前帧的信息,利用相邻两帧引擎的位移对该帧的前轮位移进行估计,将估计结果作为前轮跟踪结果返回,如果超出N(取20~30)帧的前轮跟踪结果均明显与飞机前进参数不符,则输出错误信息。
步骤S5,飞机定位步骤。该步骤用于产生正确的泊位引导信息。
步骤S5进一步包括:
步骤S51,摄像装置标定与图像矫正步骤。
步骤S52,飞机前轮偏离程度解算步骤。
步骤S53,飞机前轮实际距离解算步骤。
步骤S51的摄像装置标定过程就是确定摄像装置1的几何和光学参数、摄像装置1相对于世界坐标系的方位。
摄像装置标定基于OpenCV实现,标定过程采用黑白相间的平面棋盘格作为标定模板。摄像装置1需在不同的角度抓取多张平面标定模板的图片,来实现对摄像装置1的标定。为了使标定的结果更加精确,标定过程中至少需要10副7*8或更大棋盘的图像,并且需要抓取尽量多的不同角度的标定图片。实现的流程如下:
步骤S511,读取N幅标定图片。
步骤S512,使用OpenCV的函数cvFindChessboardCorners()寻找棋盘角点,将读取的N幅标定图片分别代入cvFindChessboardCorners()函数,如果寻找到所有的角点,则函数返回1表示成功,并得到角点在图像坐标系下坐标;如果不成功则返回0。
步骤S513,如果寻找角点成功,则将角点在标定模板上的坐标代入函数cvCalibrateCamera2()中,返回得到摄像装置1的参数矩阵、畸变系数、旋转向量和平移向量。
由于实际的镜头有不同程度的畸变,主要是径向畸变,也有轻微的切向畸变。故而在函数cvCalibrateCamera2()返回的畸变系数中包含了径向畸变系数和切向畸变系数,将它们带入OpenCV的函数cvUndistort2(),即可在数学上去掉透镜畸变。
步骤S52的飞机前轮偏离程度计算是用于判断飞机前轮是否处于引导线上,或者,相对于引导线偏左或偏右。
通过步骤S47的前轮跟踪步骤的结果可以得到前轮的位置坐标点,则通过场景定义可以得到引导线、停止线等的相关位置信息,于是利用代数中点与直线之间关系的知识,即可实现对飞机前轮偏离程度的判断。具体可包括:
通过前轮跟踪的结果得到前轮的位置坐标点(x0,y0),通过场景定义得到引导线上任意两点坐标(xG1,yG1)、(xG2,yG2)和停止线上任意两点坐标(xS1,yS1)、(xS2,yS2)。如果引导线中两点的x坐标满足:xG1=xG2,则不能用点斜式表示引导线41的直线方程1,此时直线方程1为:x1=xG1,直线的斜率k1→∞;当xG1≠xG2时,直线方程1为:y1=k1x1+b1。同理,求得停止线42的直线方程2为:y2=k2x2+b2,所述位置坐标点到直线的距离为,坐标系的建立是在图像上,依照摄像装置1的安装位置可知,从左到右为x轴,从下到上为y轴,使用修改后的点到直线的距离方程:
不同于常用的距离方程,该方程得到的结果可正可负。将当前飞机前轮的坐标点(x0,y0)代入两个直线方程分别求得d1和d2:
d2≥0表示飞机前轮超出停止线41,d2<0表示飞机前轮未到达停止线41,此时若k1>0(其中包括了k1→+∞的情况),d1>0则表示飞机偏左,d1<0表示飞机偏右;若k1<0,则d1<0表示飞机偏左,d1>0表示飞机偏右,该偏左、偏右均以飞机驾驶员的视角确定。更进一步的,为了使算法不会过于敏感,任何d1≠0的情况都得出“偏离引导线”的结论,可加入判断条件|d1|>width/2,width为一阈值,该阈值可取等于检测的飞机前轮的宽度,当满足该判断条件时,才认为飞机已经偏离引导线。
由参数判定偏离情况见表1。
步骤S53的飞机前轮实际距离解算步骤,用于实时解算飞机距离停止线的真实距离。
首先建立图像坐标与大地坐标的对应关系。在场景中紧邻引导线处铺设黑白相间的标尺,随后在场景定义中根据标尺,每隔最大间隔1m描点得到标记点,并记录每个标记点在实际场景中距离第一标记点的距离。
S1中的场景设置的标记点的坐标都是图像坐标,以间隔1m的20个点为例,分别为:{point1,point2,...,point20},求得每个点相对停止线上的终点(point1)的相对坐标:{relativepoint1,relativepoint2,...,relativepoint20},其中relativepoint1的坐标为(0,0),每个点距离终点relativepoint1的距离为{dis1,dis2,...,dis20},每个点距离终点point1的实际距离又分别为:{0m,1m,...,19m},这样得到了{dis1,dis2,...,dis20}与{0m,1m,...,19m}的一一对应关系。
因为地面上等间距的点在图像中的表现应为二次曲线关系,即随距离的增大,两点间距呈等差数列,所以采用最小二乘法对所描的点进行二次曲线拟合,得到曲线方程y=ax2+bx+c,x是图像上的距离,y是实际距离,实际距离与图像距离的对应点及拟合曲线示例图如图9,图中横轴是实际距离,单位为m,纵轴是图像距离,单位为像素;
对于飞机前轮在图像上的位置,沿所述停止线方向将其投影到所述引导线上,计算投影点到停止点的欧氏距离作为x,代入方程y=ax2+bx+c求得y,得到飞机前轮到停止线的实际距离(单位m)。据此产生正确的泊位引导信息。
在飞机进入站坪前,机场向所述基于机器视觉的飞机入坞引导和机型识别***发送机型信息,执行完步骤S3之后,接下来即可执行的步骤S6,飞机识别及身份验证步骤就是通过对图像的分析来验证这一机型信息。也就是说,步骤S4、S5可以与步骤S6同步执行。
参见图10A所示为飞机识别及验证算法流程图。图10B为分层图像结构示意图。优选采用由粗到精的多级视觉特征的检测方法来检测飞机轮廓,具体包括:
i=0时原始图像S0具有最高的分辨率,随着i的增大图像分辨率下降,而i=L时图像SL的分辨率最低,分层图像结构示意图见图10B。在噪声较大的环境(例如雨雪雾天气、夜晚等),采用较低分辨率的分层图像,而在天气晴朗的条件下,采用较高分辨率的分层图像以获得更高的精度。在低分辨率图像中获取飞机区域后再映射回原始图像S0之后,可以得到边缘具有马赛克效果的区域分割结果。
该由粗到精的多级视觉特征的检测方法用于在天气不好的情况下,比如雨雪雾天合夜晚,图像的噪声会变大,因此降低分辨率可以提高检测的效果,然后再映射会最大分辨率,进行飞机机型的识别验证。是在恶劣环境下检测飞机特征的一个方法,***自动根据图像质量分析最佳的分辨率,以提取飞机轮廓。
步骤S6具体包括:
步骤S61,参数验证。
步骤S62,模板匹配。
步骤S63,综合判断。
其中,步骤S61进一步包括:
S611,提取飞机引擎参数,并与预置于***的数据库中对应机型的飞机引擎参数进行比对。
其中,提取飞机引擎参数的步骤可具体采用前述步骤S341-S343来实现。提取的飞机引擎参数以像素为单位即可。
计算提取到的飞机引擎参数中的飞机引擎半径与***所收到的机型信息在机场机型参数数据库中所对应的引擎半径数据的比值,该比值称为第一比值。
步骤S612,提取飞机机翼参数,并与预置于数据库中对应机型的飞机机翼参数进行比对。
该提取飞机机翼参数的步骤包括:
步骤S6121,使用Canny算子提取飞机图像的边缘。飞机图像边缘示例图见图10C。
步骤S6122,提取飞机图像边缘像素点,沿远离飞机的登机桥一侧(图10C中为左侧)的飞机引擎中轴向上枚举像素点,对每个像素点,各画多条斜率倾角为0-20°的直线,统计每条所述直线所经过的Canny边缘像素点数;
步骤S6123,确定飞机机翼边缘,取经过边缘像素点数最多的两条直线作为飞机机翼的边缘。
步骤S6124,确定飞机翼尖,取翼尖周围区域的边缘像素,作为翼尖特征记录下来。
机翼轮廓与引擎轮廓示例图见图10D。
步骤S6125,参数比对,通过翼尖位置测量飞机机翼的长度,计算该飞机机翼的长度与***所收到的机型信息在机场机型参数数据库中所对应的机翼长度数据的比值,该比值称为第二比值。
步骤S613,提取飞机机头特征参数,并与预置于数据库中对应机型的飞机机头特征参数进行比对。
步骤S6131、确定飞机机头边界,通过已经确定的飞机引擎参数,确定飞机的中轴位置,枚举中轴上的点作为圆心,枚举2至4倍所述飞机引擎半径的长度为半径画圆,取经过Canny边缘像素点最多的圆作为飞机机头的边界。
步骤S6132、确定飞机机头窗。
由于窗户在机头的上半圆周,所以采用深度优先搜索的方法,寻找所述飞机机头的边界的上半圆中与所述飞机机头边界的边缘不相粘连的最长边缘,为所述飞机机头的机头窗所在位置。
步骤S6133、参数比对,测量飞机机头半径,计算飞机机头半径与***所收到的机型信息在机场机型参数数据库中所对应的飞机机头半径的比值,该比值称为第三比值。测量到的该飞机机头半径以像素为单位即可。
步骤S614,提取飞机尾翼参数,并与预置于数据库中对应机型的飞机尾翼参数进行比对。
步骤S6141,利用深度优先搜索的方法,沿所述飞机机头的边界的上边缘寻找突起的部分为飞机尾翼。
步骤S6142,参数比对,测量所述飞机尾翼高度,以像素为单位即可,计算飞机尾翼高度与***所收到的机型信息在机场机型参数数据库中所对应的飞机尾翼参数的比值,该比值称为第四比值。
步骤S615,取第一比值、第二比值、第三比值、第四比值这四者中的最小值以及最大值,将最小值/最大值,作为机型相似度参数,作为系数1。
所述模板匹配步骤S62包括:
步骤S621,全局模板匹配,以当前拍摄的整幅图像为被搜索图像,以***的数据库中的标准飞机图像为模板,计算全局模板相似度参数,以该全局模板相似度参数作为系数2。
图10E为被搜索图像S、子图Sij、模板T的示意图。具体地,全局模板匹配计算过程为:被搜索图像S,图中标记6001,宽高为W*H。被搜索图像S的子图Sij,图中标记6002,宽高为n*m,距离图左边缘j个像素,距离图下边缘i个像素。模板T,图中标记6003,宽高为n*m。模板T与子图Sij的相似度参数R(i,j):
M为子图Sij在高度方向能够取得的最大值,N为子图Sij在宽度方向能够取得的最大值。
在所有结果R(i,j)中找出R(i,j)的最大值Rmax(im,jm),其对应的子图Sij即为匹配目标,Rmax(im,jm)也就是该子图Sij的全局模板相似度参数。
步骤S622,局部模板匹配,分别以步骤S61中提取得到的所述飞机引擎、飞机机翼、飞机机头和所述飞机尾翼位置为被搜索图像,分别以***所收到的机型信息在机场机型参数数据库中所对应的标准飞机图像的引擎、机翼、机头和尾翼为模板,利用步骤S621中的计算公式,分别计算出所述飞机引擎、飞机机翼、飞机机头和所述飞机尾翼的4个相似度参数R,去掉所述4个相似度参数中的最小值,计算所述4个相似度参数中其余3个相似度参数的平均数为局部模板相似度参数,以该局部模板相似度参数作为系数3。
步骤S63,综合判断,系数1、2、3中至少有2个大于等于一第一验证阈值,或,系数1、2、3全部大于一第二验证阈值时,当前所拍摄到的飞机与预先获得的该机型信息相符,通过身份验证,否则验证失败。
步骤S7,信息显示步骤。
显示设备3为安装于机场中的可供飞机驾驶员在飞机入坞过程中观看的大型显示屏,同时,也可供机场工作人员观察飞机情况。
如图11所示为显示于该显示设备3中的一种可行的显示方式示例图。
图中7000代表显示设备3上用于显示引导信息的区域,7002代表引导线和停止线所形成的“T”形状,以方便表示飞机和引导线、停止线的相对位置。
步骤S5的飞机定位步骤所确定的飞机的具***置等泊位引导信息,包括:偏左或偏右7001、距离停止线距离7003均实时显示在该显示设备上。
步骤S6的飞机识别及身份验证步骤所验证的飞机机型信息7004也实时显示在该显示设备上。以供飞行员观察飞机的行进线路,提高飞机入坞的安全性。
综上所述,本发明在飞机入坞过程中,准确实现对飞机的捕获、跟踪、定位和身份验证,并在显示设备3上显示准确有效的飞机泊位引导信息,为飞机驾驶员、副驾驶员或其他人员提供正确有效的泊位引导,使飞机实现安全有效的泊位,提高机场运行效率,保障安全。
当然,本发明还可有其它多种实施例,在不背离本发明精神及其实质的情况下,熟悉本领域的技术人员当可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。
Claims (42)
1.一种基于机器视觉的飞机入坞引导和机型识别的方法,其特征在于,包括:
步骤S1,飞机泊位场景设置步骤,将监测场景划分为不同的信息处理功能区;
步骤S2,图像预处理步骤,对所拍摄的图像进行预处理;
步骤S3,飞机捕获步骤,通过在该图像中识别飞机的引擎和前轮,以确认该图像中出现飞机;
步骤S4,飞机跟踪步骤,对步骤S3所捕获到的飞机的引擎和前轮的图像进行连续跟踪和实时更新;
步骤S5,飞机定位步骤,实现对飞机实时定位并准确判断飞机相对于引导线的偏离程度和相对于停止线的距离;
步骤S6,信息显示,输出并显示步骤S5的飞机相对于引导线的偏离程度和相对于停止线的距离;
其中,该飞机捕获步骤进一步包括:
步骤S31,背景消除步骤;
步骤S32,阴影消除步骤;
步骤S33,区域分类步骤;
步骤S34,特征验证步骤;
该特征验证步骤进一步包括:
步骤S341,图像极黑区域提取;
步骤S342,类圆形检测,提取该极黑区域的所有外层边界,对每一个边界使用边界的矩计算边界的重心坐标;
步骤S343,在类圆形区域中通过判断相似度检测飞机引擎;
步骤S344,检测飞机前轮;
其中,步骤S33中的所述区域分类步骤,是建立一个标准正面飞机区域模板,经过变化检测提取目标区域并求取该区域的垂直投影曲线,然后求取该垂直投影曲线与所述标准正面飞机区域模板的垂直投影曲线的相关系数,若该相关系数大于或等于一分类阈值,则该目标为飞机。
2.如权利要求1所述的方法,其特征在于,该图像预处理步骤进一步包括:
步骤S21,根据该图像的平均灰度值判断该图像为低照度图像、强光照图像还是正常光照图像,对低照度图像执行低照度图像处理步骤,对强光照图像执行强光照图像处理步骤;
步骤S22,根据该图像的方差判断该正常光照图像是否为正常图像;
步骤S23,对于非正常图像,判断其为雨雪图像还是雾图像,对雨雪图像执行雨雪图像处理步骤,对雾图像执行雾图像处理步骤。
3.如权利要求2所述的方法,其特征在于,该低照度图像处理步骤包括:
g(x,y)=f(x,y)+af(x,y)(255-f(x,y))
f(x,y)为原图像,(x,y)为图像中的像素点坐标,g(x,y)为处理之后的图像,a为低照度图像处理参数。
4.如权利要求2所述的方法,其特征在于,该雨雪图像处理步骤包括:
利用光度测定模型寻找被雨雪污染的待处理像素;
对于当前图像的待处理像素,提取与该当前图像前后相邻的图像的相应像素的亮度值,根据该亮度值判断与该当前图像前后相邻的图像的相应像素是否均为待处理像素,如果是,取该当前图像的待处理像素的所有相邻像素的亮度值的平均值,用该平均值代替该当前图像的待处理像素的亮度值,如果否,利用该当前图像前后相邻的图像的相应像素的亮度值中的最小值或最小的两个值的平均值,代替该当前图像的待处理像素的亮度值。
5.如权利要求2所述的方法,其特征在于,通过同态滤波进行该雾图像处理步骤。
6.如权利要求1所述的方法,其特征在于,该飞机捕获步骤进一步包括:
步骤S31中的所述背景消除步骤,是利用单高斯背景模型来模拟场景中背景的动态分布并进行背景建模,然后将当前图像与背景模型作差分以消除背景,得到前景区域;
步骤S32中的所述阴影消除步骤,是统计该前景区域的灰度值,找出最大灰度值g max和最小灰度值g min,然后在灰度值小于T=g min+(g max-g min)*0.5的区域进行阴影消除;
步骤S34中的所述特征验证步骤,是通过检测捕获到的飞机的引擎和前轮来进一步验证该目标是否为飞机。
7.如权利要求6所述的方法,其特征在于,该特征验证步骤进一步包括:
步骤S341中的所述图像极黑区域提取,是对当前图像的目标区域进行灰度直方图统计,在灰度级中间1%~99%范围内获得最大灰度值、最小灰度值,借助预设的极黑判定阈值以及该最大灰度值、最小灰度值提取图像中最黑的部分,得到一幅极黑区域;
步骤S342中的所述类圆形检测,是提取该极黑区域的所有外层边界,对每一个边界使用边界的矩计算边界的重心坐标,边界的第ji阶矩定义如下:
重心坐标
对于当前边界的所有像素点,计算其与该重心的距离,若计算得到的最大距离与最小距离的比值大于一圆形判定阈值,则认为该区域非圆形,进行下一区域的判定,否则认为该区域为类圆形,记录类圆形区域的重心坐标和半径。
8.如权利要求7所述的方法,其特征在于,在步骤S343中,对于检测到的M个类圆形区域,其中第i个和第j个的相似度Similarityij为:
Similarityij=|Heighti-Heightj|*|Radiusi-Radiusj|
其中,Height为重心高度,Radius为半径,当相似度Similarityij小于预设的相似度阈值时,则认为类圆形区域i和j为飞机引擎。
9.如权利要求8所述的方法,其特征在于,在步骤S343中,若没有检测出飞机引擎,则进行迭代检测,将所述极黑判定阈值、圆形判定阈值、相似度阈值分别增大,再进行步骤S341-343;若仍然没有检测出飞机引擎,则对所有的极黑区域使用7*7的圆形模板进行开操作,再进行步骤S342-343;
若仍然没有检测出飞机引擎,则再进行2次上述迭代检测;
若仍然没有检测出飞机引擎,则判定图像中无引擎存在。
10.如权利要求9所述的方法,其特征在于,所述极黑判定阈值、圆形判定阈值、相似度阈值的增加量分别为0.05、0.5、20。
11.如权利要求7所述的方法,其特征在于,该步骤S344进一步包括:
在图像的搜索区域中,将256级的灰度级量化至64级,搜索量化为64级的灰度直方图中的第一个波峰和波谷,原始256级灰度的灰度直方图中的最优波峰位置BestPeak、最优波谷BestValley位置定义如下:
其中hist256(i)为256级灰度的灰度直方图中,灰度为i的像素总数;
以此最优波谷BestValley对灰度进行分割,对小于最优波谷BestValley的部分,除去面积较小的杂点,使用一个扁平椭圆型结构元素对图像进行闭操作;
接着对所有图形计算边界的7阶Hu矩特征,与预置的标准前轮模型的矩特征进行比对,当相似度低于一阈值时则判定中间一个为前轮。
12.如权利要求7所述的方法,其特征在于,该飞机跟踪步骤进一步包括:
步骤S41,在获得上一帧图像的引擎位置后,采用洪水填充法跟踪确定当前帧的引擎区域;
步骤S42,如果步骤S41的填充结果无效,执行阴暗环境检测跟踪步骤,使用上一帧的参数进行步骤S341和步骤S342来检测跟踪引擎区域;
步骤S43,在获取到引擎区域的信息之后,使用步骤S344检测飞机前轮;
步骤S44,前轮跟踪应急处理步骤,在检测前轮形状不正确或前轮位置与之前多帧图像相比发生明显偏离时,根据上一帧图像和当前图像的信息,利用相邻两帧图像引擎的位移对该帧的前轮位移进行估计,将估计结果作为前轮跟踪结果,如果超出N帧仍检测不到,则输出错误信息。
13.如权利要求12所述的方法,其特征在于,该飞机定位步骤包括:
步骤S51,摄像装置标定与图像矫正步骤,用于确定摄像装置的光学参数与地理坐标系之间的对应关系;
步骤S52,飞机前轮偏离程度解算步骤;
步骤S53,飞机前轮实际距离解算步骤。
14.如权利要求13所述的方法,其特征在于,该步骤S51进一步包括:
步骤S511,读取N幅标定图片;
步骤S512,使用OpenCV的cvFindChessboardCorners()函数寻找棋盘角点,将读取的所述N幅标定图片分别代入所述cvFindChessboardCorners()函数,如果成功寻找到所有的角点,则函数返回1,并得到角点在图像坐标系下坐标;如果不成功则返回0;
步骤S513,将成功寻找到的所述角点在标定模板上的坐标代入函数cvCalibrateCamera2()中,返回得到摄像装置的参数矩阵、畸变系数、旋转向量和平移向量。
15.如权利要求13所述的方法,其特征在于,该步骤S52进一步包括:
根据由步骤S43得到前轮的位置坐标点(x0,y0),利用所述位置坐标点与引导线和停止线的关系,求得引导线的直线方程为:y1=k1x1+b1,停止线的直线方程为:y2=k2x2+b2,所述位置坐标点到直线的距离为:
将坐标点(x0,y0)代入两个直线方程分别求得d1和d2,d2≥0表示飞机前轮超出停止线,d2<0表示飞机前轮未到达停止线,此时若k1>0,d1>0则表示飞机偏左,d1<0表示飞机偏右;若k1<0,则d1<0表示飞机偏左,d1>0表示飞机偏右。
16.如权利要求15所述的方法,其特征在于,该步骤S52还包括,判断|d1|>width/2是否成立,width为一等于检测的飞机前轮的宽度的阈值,如果成立,认为飞机已经偏离引导线。
17.如权利要求13所述的方法,其特征在于,该步骤S53进一步包括:
建立图像坐标与大地坐标的对应关系;
由步骤S1的场景设置中的标记点得到图像坐标,采用最小二乘法对该图像坐标进行二次曲线拟合,得到曲线方程y=ax2+bx+c,x是图像上的距离,y是实际距离;
对于飞机前轮在图像上的位置,沿停止线方向将其投影到引导线上,计算投影点到停止点的欧氏距离作为x,则通过y=ax2+bx+c可得到飞机前轮到停止线的实际距离。
18.如权利要求1所述的方法,其特征在于,该步骤S3之后还可执行步骤S7,飞机识别及身份验证步骤,步骤S7进一步包括:
步骤S71,参数验证,提取图像中的飞机参数并与预置于数据库中的机型数据进行比对,得到机型相似度参数;
步骤S72,模板匹配,将图像与预置于所述数据库中的机型模板进行比对,得到模板相似度参数;
步骤S73,综合判断,所述机型相似度参数与所述模板相似度参数大于或等于一验证阈值时,视为通过身份验证。
19.如权利要求18所述的方法,其特征在于,步骤S71进一步包括:
步骤S711,提取图像中的飞机引擎参数并与预置于数据库中对应机型的飞机引擎参数进行比对,得到第一比值;
步骤S712,提取图像中的飞机机翼参数并与预置于数据库中对应机型的飞机机翼参数进行比对,得到第二比值;
步骤S713,提取图像中的飞机机头参数并与预置于数据库中对应机型的飞机机头参数进行比对,得到第三比值;
步骤S714,提取图像中的飞机尾翼参数并与预置于数据库中对应机型的飞机尾翼参数进行比对,得到第四比值;以及
步骤S715,取第一比值、第二比值、第三比值、第四比值这四者中的最小值以及最大值,将最小值/最大值,作为该机型相似度参数。
20.如权利要求19所述的方法,其特征在于,步骤S72进一步包括:
步骤S721,全局模板匹配,以整幅图像为被搜索图像,标准飞机图像为模板,计算全局模板相似度参数;
步骤S722,局部模板匹配,分别以步骤S711-S714中提取得到的所述飞机引擎、飞机机翼、飞机机头和所述飞机尾翼为被搜索图像,分别以标准飞机图像的引擎、机翼、机头和尾翼为模板,计算被搜索图像与模板的4个相似度,去掉所述4个相似度中的最小值,计算所述4个相似度中其余3个相似度的平均数为局部模板相似度参数。
21.如权利要求20所述的方法,其特征在于,步骤S73进一步包括:若所述机型相似度参数、全局模板相似度参数和所述局部模板相似度参数中至少有2个大于或等于第一验证阈值,视为通过身份验证,或,所述机型相似度参数、全局模板相似度参数和所述局部模板相似度参数都大于第二验证阈值,视为通过身份验证。
22.一种基于机器视觉的飞机入坞引导和机型识别的***,其特征在于,包括:
飞机泊位场景设置单元,用于将监测场景划分为不同的信息处理功能区;
图像预处理单元,用于对所拍摄的图像进行预处理;
飞机捕获单元,用于在该图像中识别飞机的引擎和前轮,以确认该图像中出现飞机;
飞机跟踪单元,用于对所捕获到的飞机的引擎和前轮的图像进行连续跟踪和实时更新;
飞机定位单元,用于实现对飞机的实时定位并准确判断飞机相对于引导线的偏离程度和相对于停止线的距离;
信息显示单元,输出并显示飞机相对于引导线的该偏离程度和相对于停止线的距离;
其中,该飞机捕获单元进一步包括:
背景消除单元;
阴影消除单元;
区域分类单元;
特征验证单元;
该特征验证单元进一步包括:
图像极黑区域提取单元;
类圆形检测单元,提取该极黑区域的所有外层边界,对每一个边界使用边界的矩计算边界的重心坐标;
引擎检测单元;
前轮检测单元;
其中,所述区域分类单元,是用以建立一个标准正面飞机区域模板,经过变化检测提取目标区域并求取该区域的垂直投影曲线,然后求取该垂直投影曲线与所述标准正面飞机区域模板的垂直投影曲线的相关系数,若该相关系数大于或等于一分类阈值,则该目标为飞机。
23.如权利要求22所述的***,其特征在于,该图像预处理单元进一步包括:
图像判断单元,根据该图像的平均灰度值判断该图像为低照度图像、强光照图像还是正常光照图像;
低照度图像处理单元,用于对低照度图像进行低照度图像处理;
强光照图像处理单元,用于对强光照图像进行强光照图像处理;
正常图像判断单元,用于根据该图像的方差判断该正常光照图像是否为正常图像;
雨雪雾图像判断单元,用于对于非正常图像,判断其为雨雪图像还是雾图像;
雨雪图像处理单元,用于对雨雪图像执行雨雪图像处理;
雾图像处理单元,用于对雾图像执行雾图像处理。
24.如权利要求23所述的***,其特征在于,该低照度图像处理单元进一步包括:
进行g(x,y)=f(x,y)+af(x,y)(255-f(x,y))处理的单元;
f(x,y)为原图像,(x,y)为图像中的像素点坐标,g(x,y)为处理之后的图像,a为低照度图像处理参数。
25.如权利要求23所述的***,其特征在于,该雨雪图像处理单元包括:
待处理像素确定单元,用于利用光度测定模型寻找被雨雪污染的待处理像素;
亮度处理单元,用于对于当前图像的待处理像素,提取与该当前图像前后相邻的图像的相应像素的亮度值,根据该亮度值判断与该当前图像前后相邻的图像的相应像素是否均为待处理像素,如果是,取该当前图像的待处理像素的所有相邻像素的亮度值的平均值,用该平均值代替该当前图像的待处理像素的亮度值,如果否,利用该当前图像前后相邻的图像的相应像素的亮度值中的最小值或最小的两个值的平均值,代替该当前图像的待处理像素的亮度值。
26.如权利要求23所述的***,其特征在于,该雾图像处理单元通过同态滤波进行该雾图像处理。
27.如权利要求22所述的***,其特征在于,该飞机捕获单元进一步包括:
所述背景消除单元,是利用单高斯背景模型来模拟场景中背景的动态分布并进行背景建模,然后将当前图像与背景模型作差分以消除背景,得到前景区域;
所述阴影消除单元,是统计该前景区域的灰度值,找出最大灰度值g max和最小灰度值g min,然后在灰度值小于T=g min+(g max-g min)*0.5的区域进行阴影消除;
所述区域分类单元,是建立一个标准正面飞机区域模板,经过变化检测提取目标区域并求取该区域的垂直投影曲线,然后求取该垂直投影曲线与所述标准正面飞机区域模板的垂直投影曲线的相关系数,若该相关系数大于或等于一分类阈值,则该目标为飞机;
所述特征验证单元,是通过检测捕获到的飞机的引擎和前轮来进一步验证该目标是否为飞机。
28.如权利要求27所述的***,其特征在于,该特征验证单元进一步包括:
所述图像极黑区域提取单元,是对当前图像的目标区域进行灰度直方图统计,在灰度级中间1%~99%范围内获得最大灰度值、最小灰度值,借助预设的极黑判定阈值以及该最大灰度值、最小灰度值提取图像中最黑的部分,得到一幅极黑区域;
所述类圆形检测单元,提取该极黑区域的所有外层边界,对每一个边界使用边界的矩计算边界的重心坐标,边界的第ji阶矩定义如下:
重心坐标
对于当前边界的所有像素点,计算其与该重心的距离,若计算得到的最大距离与最小距离的比值大于一圆形判定阈值,则认为该区域非圆形,进行下一区域的判定,否则认为该区域为类圆形,记录类圆形区域的重心坐标和半径;
所述引擎检测单元,用于在类圆形区域中通过判断相似度检测飞机引擎;
所述前轮检测单元,用于检测飞机前轮。
29.如权利要求28所述的***,其特征在于,在该引擎检测单元中,对于检测到的M个类圆形区域,其中第i个和第j个的相似度Similarityij为:
Similarityij=|Heighti-Heightj|*|Radiusi-Radiusj|
其中,Height为重心高度,Radius为半径,当相似度Similarityij小于预设的相似度阈值时,则认为类圆形区域i和j为飞机引擎。
30.如权利要求29所述的***,其特征在于,在该引擎检测单元中进一步包括,若没有检测出飞机引擎,则进行迭代检测,将所述极黑判定阈值、圆形判定阈值、相似度阈值分别增大,再调用图像极黑区域提取单元、类圆形检测单元和引擎检测单元;若仍然没有检测出飞机引擎,则对所有的极黑区域使用7*7的圆形模板进行开操作,再调用类圆形检测单元和引擎检测单元的单元;
若仍然没有检测出飞机引擎,则再进行2次上述迭代检测的单元;
若仍然没有检测出飞机引擎,则判定图像中无引擎存在的单元。
31.如权利要求30所述的***,其特征在于,所述极黑判定阈值、圆形判定阈值、相似度阈值的增加量分别为0.05、0.5、20。
32.如权利要求28所述的***,其特征在于,该前轮检测单元进一步包括:在图像的搜索区域中,将256级的灰度级量化至64级,搜索量化为64级的灰度直方图中的第一个波峰和波谷,原始256级灰度的灰度直方图中的最优波峰位置BestPeak、最优波谷BestValley位置定义如下:
其中hist256(i)为256级灰度的灰度直方图中,灰度为i的像素总数;
以此最优波谷BestValley对灰度进行分割,对小于最优波谷BestValley的部分,除去面积较小的杂点,使用一个扁平椭圆型结构元素对图像进行闭操作;
接着对所有图形计算边界的7阶Hu矩特征,与预置的标准前轮模型的矩特征进行比对,当相似度低于一阈值时则判定中间一个为前轮的单元。
33.如权利要求28所述的***,其特征在于,该飞机跟踪单元进一步包括:
洪水填充单元,在获得上一帧图像的引擎位置后,采用洪水填充法跟踪确定当前帧的引擎区域;
阴暗环境检测跟踪单元,如果洪水填充单元的填充结果无效,阴暗环境检测跟踪单元使用上一帧的参数调用图像极黑区域提取单元和类圆形检测单元来检测跟踪引擎区域;
该前轮检测单元,在获取到引擎区域的信息之后,检测飞机前轮;
前轮跟踪应急处理单元,在检测前轮形状不正确或前轮位置与之前多帧图像相比发生明显偏离时,根据上一帧图像和当前图像的信息,利用相邻两帧图像引擎的位移对该帧的前轮位移进行估计,将估计结果作为前轮跟踪结果,如果超出N帧仍检测不到,则输出错误信息。
34.如权利要求33所述的***,其特征在于,该飞机定位单元包括:
摄像装置标定与图像矫正单元,用于确定摄像装置的光学参数与地理坐标系之间的对应关系;
飞机前轮偏离程度解算单元;
飞机前轮实际距离解算单元。
35.如权利要求34所述的***,其特征在于,该摄像装置标定与图像矫正单元进一步包括:
读取N幅标定图片的单元;
使用OpenCV的cvFindChessboardCorners()函数寻找棋盘角点,将读取的所述N幅标定图片分别代入所述cvFindChessboardCorners()函数,如果成功寻找到所有的角点,则函数返回1,并得到角点在图像坐标系下坐标,如果不成功则返回0的单元;
将成功寻找到的所述角点在标定模板上的坐标代入函数cvCalibrateCamera2()中,返回得到摄像装置的参数矩阵、畸变系数、旋转向量和平移向量的单元。
36.如权利要求34所述的***,其特征在于,该飞机前轮偏离程度解算单元进一步包括:
引导线的直线方程为:y1=k1x1+b1,停止线的直线方程为:y2=k2x2+b2,所述前轮的位置坐标点到直线的距离为:
将前轮的位置坐标点(x0,y0)代入两个直线方程分别求得d1和d2,d2≥0表示飞机前轮超出停止线,d2<0表示飞机前轮未到达停止线,此时若k1>0,d1>0则表示飞机偏左,d1<0表示飞机偏右;若k1<0,则d1<0表示飞机偏左,d1>0表示飞机偏右。
37.如权利要求36所述的***,其特征在于,该飞机前轮偏离程度解算单元进一步包括:判断|d1|>width/2是否成立,width为一等于检测的飞机前轮的宽度的阈值,如果成立,认为飞机已经偏离引导线的单元。
38.如权利要求34所述的***,其特征在于,该飞机前轮实际距离解算单元进一步包括:
建立图像坐标与大地坐标的对应关系的单元;
由场景设置中的标记点得到图像坐标,采用最小二乘法对该图像坐标进行二次曲线拟合,得到曲线方程y=ax2+bx+c,x是图像上的距离,y是实际距离的单元;
对于飞机前轮在图像上的位置,沿停止线方向将其投影到引导线上,计算投影点到停止点的欧氏距离作为x,则通过y=ax2+bx+c可得到飞机前轮到停止线的实际距离的单元。
39.如权利要求22所述的***,其特征在于,该***还包括飞机识别及身份验证单元,该飞机识别及身份验证单元进一步包括:
参数验证单元,提取图像中的飞机参数并与预置于数据库中的机型数据进行比对,得到机型相似度参数;
模板匹配单元,将图像与预置于所述数据库中的机型模板进行比对,得到模板相似度参数;
综合判断单元,所述机型相似度参数与所述模板相似度参数大于或等于一验证阈值时,视为通过身份验证。
40.如权利要求39所述的***,其特征在于,参数验证单元进一步包括:
第一比值取得单元,用于提取图像中的飞机引擎参数并与预置于数据库中对应机型的飞机引擎参数进行比对,得到第一比值;
第二比值取得单元,用于提取图像中的飞机机翼参数并与预置于数据库中对应机型的飞机机翼参数进行比对,得到第二比值;
第三比值取得单元,用于提取图像中的飞机机头参数并与预置于数据库中对应机型的飞机机头参数进行比对,得到第三比值;
第四比值取得单元,用于提取图像中的飞机尾翼参数并与预置于数据库中对应机型的飞机尾翼参数进行比对,得到第四比值;以及
机型相似度参数获取单元,用于取第一比值、第二比值、第三比值、第四比值这四者中的最小值以及最大值,将最小值/最大值,作为该机型相似度参数。
41.如权利要求40所述的***,其特征在于,该模板匹配单元进一步包括:
全局模板匹配单元,用于以整幅图像为被搜索图像,标准飞机图像为模板,计算全局模板相似度参数;
局部模板匹配单元,分别以第一比值取得单元、第二比值取得单元、第三比值取得单元和第四比值取得单元中提取得到的所述飞机引擎、飞机机翼、飞机机头和所述飞机尾翼为被搜索图像,分别以标准飞机图像的引擎、机翼、机头和尾翼为模板,计算被搜索图像与模板的4个相似度,去掉所述4个相似度中的最小值,计算所述4个相似度中其余3个相似度的平均数为局部模板相似度参数。
42.如权利要求41所述的***,其特征在于,综合判断单元进一步包括:若所述机型相似度参数、全局模板相似度参数和所述局部模板相似度参数中至少有2个大于或等于第一验证阈值,视为通过身份验证,或,所述机型相似度参数、全局模板相似度参数和所述局部模板相似度参数都大于第二验证阈值,视为通过身份验证的单元。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410378566.8A CN105373135B (zh) | 2014-08-01 | 2014-08-01 | 一种基于机器视觉的飞机入坞引导和机型识别的方法及*** |
EP15828078.4A EP3196853A4 (en) | 2014-08-01 | 2015-07-02 | Machine vision-based method and system for aircraft docking guidance and aircraft type identification |
PCT/CN2015/083206 WO2016015547A1 (zh) | 2014-08-01 | 2015-07-02 | 一种基于机器视觉的飞机入坞引导和机型识别的方法及*** |
US15/329,994 US10290219B2 (en) | 2014-08-01 | 2015-07-02 | Machine vision-based method and system for aircraft docking guidance and aircraft type identification |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410378566.8A CN105373135B (zh) | 2014-08-01 | 2014-08-01 | 一种基于机器视觉的飞机入坞引导和机型识别的方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105373135A CN105373135A (zh) | 2016-03-02 |
CN105373135B true CN105373135B (zh) | 2019-01-01 |
Family
ID=55216748
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410378566.8A Active CN105373135B (zh) | 2014-08-01 | 2014-08-01 | 一种基于机器视觉的飞机入坞引导和机型识别的方法及*** |
Country Status (4)
Country | Link |
---|---|
US (1) | US10290219B2 (zh) |
EP (1) | EP3196853A4 (zh) |
CN (1) | CN105373135B (zh) |
WO (1) | WO2016015547A1 (zh) |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101556598B1 (ko) * | 2014-11-25 | 2015-10-13 | 연세대학교 산학협력단 | 주요 픽셀 정보에 기반한 물체 검출 장치 및 그 방법 |
US10475210B2 (en) * | 2015-06-18 | 2019-11-12 | Nec Solution Innovators, Ltd. | Image processing device, image processing method, and computer-readable recording medium |
CN106205217B (zh) * | 2016-06-24 | 2018-07-13 | 华中科技大学 | 基于机器视觉的无人机自动检测方法及无人机管制方法 |
AU2017298563B2 (en) * | 2016-07-22 | 2021-07-15 | Commonwealth Scientific And Industrial Research Organisation | Low resolution adaptive distance display |
US20190096246A1 (en) * | 2017-09-25 | 2019-03-28 | Continental Automotive Systems, Inc. | Compact modular wireless sensing radar infrastructure device |
US11188800B1 (en) * | 2018-04-03 | 2021-11-30 | Robert Edwin Douglas | Method and apparatus for improved analysis of CT scans of bags |
FR3082329B1 (fr) * | 2018-06-06 | 2020-05-15 | Thales | Procede de securisation du fonctionnement d'un systeme de vision synthetique d'un aeronef, produit programme d'ordinateur et systeme associes |
DK3584172T3 (da) * | 2018-06-18 | 2020-11-30 | Adb Safegate Sweden Ab | Fremgangsmåde og system til at lede en pilot af et luftfartøj, der nærmer sig, til en stopposition ved en stand |
CN108921844A (zh) * | 2018-07-06 | 2018-11-30 | 许继集团有限公司 | 一种绝缘子缺陷检测方法与装置 |
TWI684996B (zh) * | 2018-07-27 | 2020-02-11 | 台灣迅聯通信股份有限公司 | 智慧駐停輔具 |
EP3691277A1 (en) * | 2019-01-30 | 2020-08-05 | Ubimax GmbH | Computer-implemented method and system of augmenting a video stream of an environment |
CN110110115B (zh) * | 2019-03-28 | 2023-05-23 | 西南电子技术研究所(中国电子科技集团公司第十研究所) | 人机交互筛选识别机载目标图像的方法 |
CN109887343B (zh) * | 2019-04-04 | 2020-08-25 | 中国民航科学技术研究院 | 一种航班地服保障节点自动采集监测***及方法 |
CN110188601B (zh) * | 2019-04-16 | 2022-07-15 | 昆明理工大学 | 一种基于学习的机场遥感图像检测方法 |
PT3757968T (pt) * | 2019-06-28 | 2022-04-12 | Adb Safegate Sweden Ab | Disposição de plataforma de estacionamento de aeroporto e método |
CN110569764B (zh) * | 2019-08-28 | 2023-12-22 | 北京工业大学 | 一种基于卷积神经网络的手机型号识别方法 |
CN110908387A (zh) * | 2019-12-13 | 2020-03-24 | 齐鲁工业大学 | 一种动态环境水面无人艇路径规划方法、介质及电子设备 |
US11308646B2 (en) * | 2020-05-13 | 2022-04-19 | Walmart Apollo, Llc | Extracting color from item images |
CN112139854B (zh) * | 2020-09-28 | 2022-04-19 | 深圳数马电子技术有限公司 | 一种钥匙齿识别方法以及装置 |
CN114547763A (zh) * | 2020-11-27 | 2022-05-27 | 北京理工大学 | 飞行器指挥控制计算机*** |
CN112966636A (zh) * | 2021-03-19 | 2021-06-15 | 捻果科技(深圳)有限公司 | 一种用于民航机场飞行区客梯车靠接航空器的自动识别方法 |
KR102567249B1 (ko) * | 2021-04-21 | 2023-08-21 | (주)안세기술 | 3차원 레이저 스캐너를 이용한 항공기 주기유도 시스템 및 이를 이용한 항공기 주기 제어방법 |
CN113420693B (zh) * | 2021-06-30 | 2022-04-15 | 成都新潮传媒集团有限公司 | 一种门状态检测方法、装置、轿厢乘客流量统计方法及设备 |
CN114360296B (zh) * | 2021-12-15 | 2024-04-09 | 中国飞行试验研究院 | 基于地基光电设备的全自动飞机进近降落过程监视方法 |
EP4235627A1 (en) * | 2022-02-24 | 2023-08-30 | Honeywell International Inc. | Learning based system and method for visual docking guidance to detect new approaching aircraft types |
CN114811339B (zh) * | 2022-03-14 | 2023-08-01 | 柳州工学院 | 一种计算机视觉识别装置 |
CN115661110B (zh) * | 2022-11-08 | 2023-08-01 | 西南交通大学 | 一种透明工件识别与定位的方法 |
CN116039941B (zh) * | 2022-11-27 | 2023-07-18 | 燕山大学 | 适用于海上作业直升机的全自动牵引校正入库***及方法 |
CN115790610B (zh) * | 2023-02-06 | 2023-04-25 | 北京历正飞控科技有限公司 | 一种无人机精准定位***及方法 |
CN116091488B (zh) * | 2023-03-07 | 2023-07-14 | 西安航天动力研究所 | 一种发动机摇摆试验的位移测试方法及位移测试*** |
CN116503768B (zh) * | 2023-06-29 | 2023-11-07 | 中国科学院心理研究所 | 一种飞行设备空中对接方法及装置 |
CN116823808B (zh) * | 2023-08-23 | 2023-11-17 | 青岛豪迈电缆集团有限公司 | 基于机器视觉的电缆绞线智能检测方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0883873B1 (de) * | 1996-02-29 | 1999-12-22 | Siemens Aktiengesellschaft | Flughafen-leitsystem, insbesondere flughafen-bodenverkehrsleitsystem |
CN1399767A (zh) * | 1999-10-29 | 2003-02-26 | 安全门国际股份公司 | 飞机识别和入坞引导*** |
KR20090082546A (ko) * | 2008-01-28 | 2009-07-31 | 국방과학연구소 | 영상 내의 표적 인식 방법 |
CN101739694A (zh) * | 2010-01-07 | 2010-06-16 | 北京智安邦科技有限公司 | 基于图像分析的高压输电线的超高检测的方法及装置 |
CN103049788A (zh) * | 2012-12-24 | 2013-04-17 | 南京航空航天大学 | 基于计算机视觉的待过行人数目的检测***及方法 |
CN103177586A (zh) * | 2013-03-05 | 2013-06-26 | 天津工业大学 | 一种基于机器视觉的城市交叉路口多车道车流量检测方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5734736A (en) | 1994-06-17 | 1998-03-31 | Trw Inc. | Autonomous rendezvous and docking system and method therefor |
JP2713172B2 (ja) * | 1994-07-25 | 1998-02-16 | 日本電気株式会社 | 移動体の駐機誘導装置 |
US5675661A (en) * | 1995-10-12 | 1997-10-07 | Northrop Grumman Corporation | Aircraft docking system |
FR2763727B1 (fr) * | 1997-05-20 | 1999-08-13 | Sagem | Procede et systeme de guidage d'un avion vers un poste d'accostage |
US6542086B2 (en) | 1997-09-22 | 2003-04-01 | Siemens Aktiengesellschaft | Docking system for airport terminals |
JP3015875B2 (ja) * | 1998-05-19 | 2000-03-06 | 工業技術院長 | 自動車運転時の車線逸脱検出方法及び検出装置 |
US6564142B2 (en) * | 1999-02-01 | 2003-05-13 | Aero Modifications & Consulting, L.L.C. | System and apparatus for determining the center of gravity of an aircraft |
US6353793B1 (en) * | 1999-02-01 | 2002-03-05 | Aero Modifications & Consulting, Llc | System and apparatus for determining the center of gravity of an aircraft |
ES2223723T3 (es) * | 2001-12-20 | 2005-03-01 | Safegate International Aktiebolag | Identificacion de linea central en un sistema de guiado de atraque. |
ES2206016B1 (es) * | 2002-04-04 | 2005-07-16 | Team Tecnologia Europea Aplicada Al Movimiento, S.L. | Procedimiento y aparato para el control de la posicion de aeronaves en maniobras en tierra despues del aterrizaje. |
CN1300750C (zh) | 2005-03-07 | 2007-02-14 | 张积洪 | 飞机泊位机型自动识别与指示*** |
KR20140044871A (ko) * | 2011-07-27 | 2014-04-15 | 바스프 에스이 | 포름아미드 및 포름산 에스테르의 제조 방법 |
US9280155B2 (en) * | 2011-12-02 | 2016-03-08 | Borealis Technical Limited | Aircraft ground travel traction control system and method |
WO2013141605A1 (ko) * | 2012-03-21 | 2013-09-26 | (주)안세기술 | 항공기의 기종판별 및 주기유도를 위한 시스템 및 방법 |
-
2014
- 2014-08-01 CN CN201410378566.8A patent/CN105373135B/zh active Active
-
2015
- 2015-07-02 WO PCT/CN2015/083206 patent/WO2016015547A1/zh active Application Filing
- 2015-07-02 US US15/329,994 patent/US10290219B2/en active Active
- 2015-07-02 EP EP15828078.4A patent/EP3196853A4/en not_active Withdrawn
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0883873B1 (de) * | 1996-02-29 | 1999-12-22 | Siemens Aktiengesellschaft | Flughafen-leitsystem, insbesondere flughafen-bodenverkehrsleitsystem |
CN1399767A (zh) * | 1999-10-29 | 2003-02-26 | 安全门国际股份公司 | 飞机识别和入坞引导*** |
KR20090082546A (ko) * | 2008-01-28 | 2009-07-31 | 국방과학연구소 | 영상 내의 표적 인식 방법 |
CN101739694A (zh) * | 2010-01-07 | 2010-06-16 | 北京智安邦科技有限公司 | 基于图像分析的高压输电线的超高检测的方法及装置 |
CN103049788A (zh) * | 2012-12-24 | 2013-04-17 | 南京航空航天大学 | 基于计算机视觉的待过行人数目的检测***及方法 |
CN103177586A (zh) * | 2013-03-05 | 2013-06-26 | 天津工业大学 | 一种基于机器视觉的城市交叉路口多车道车流量检测方法 |
Non-Patent Citations (2)
Title |
---|
基于视觉的飞机泊位自动引导关键技术研究;郭艳颖;《中国优秀博士学位论文全文数据库信息科技辑》;20140615(第6期);摘要、第5-10、13-25、38、51-56、64-66页 * |
飞机泊位***中移动距离测量与显示的研究;张积洪,等;《机械设计》;20111231;第28卷(第12期);第90-92页 * |
Also Published As
Publication number | Publication date |
---|---|
CN105373135A (zh) | 2016-03-02 |
EP3196853A4 (en) | 2018-07-11 |
EP3196853A1 (en) | 2017-07-26 |
US20170263139A1 (en) | 2017-09-14 |
WO2016015547A1 (zh) | 2016-02-04 |
US10290219B2 (en) | 2019-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105373135B (zh) | 一种基于机器视觉的飞机入坞引导和机型识别的方法及*** | |
CN105302151B (zh) | 一种飞机入坞引导和机型识别的***及方法 | |
CN109949361A (zh) | 一种基于单目视觉定位的旋翼无人机姿态估计方法 | |
WO2018028103A1 (zh) | 一种基于人眼视觉特性的电力线路无人机巡检方法 | |
CN104183127B (zh) | 交通监控视频检测方法和装置 | |
CN110246130B (zh) | 基于红外和可见光图像数据融合的机场道面裂缝检测方法 | |
CN105158257B (zh) | 滑板测量方法及装置 | |
CN104637058B (zh) | 一种基于图像信息的客流量识别统计方法 | |
CN104166841A (zh) | 一种视频监控网络中指定行人或车辆的快速检测识别方法 | |
CN108230254A (zh) | 一种自适应场景切换的高速交通全车道线自动检测方法 | |
CN115439424A (zh) | 一种无人机航拍视频图像智能检测方法 | |
CN104063882B (zh) | 一种基于双目的车辆视频测速方法 | |
CN106570490B (zh) | 一种基于快速聚类的行人实时跟踪方法 | |
CN115311241B (zh) | 一种基于图像融合和特征增强的煤矿井下行人检测方法 | |
CN103593679A (zh) | 一种基于在线机器学习的视觉人手跟踪方法 | |
CN109086803A (zh) | 一种基于深度学习与个性化因子的雾霾能见度检测***及方法 | |
CN112541403B (zh) | 一种利用红外摄像头的室内人员跌倒检测方法 | |
CN110189375A (zh) | 一种基于单目视觉测量的图像目标识别方法 | |
CN105447431B (zh) | 一种基于机器视觉的入坞飞机跟踪定位方法及*** | |
CN112037252A (zh) | 基于鹰眼视觉的目标跟踪方法及*** | |
CN105335985B (zh) | 一种基于机器视觉的入坞飞机实时捕获方法及*** | |
CN113177439A (zh) | 一种行人翻越马路护栏检测方法 | |
CN105335764B (zh) | 一种入坞飞机机型识别验证***及方法 | |
CN112288682A (zh) | 基于图像配准的电力设备缺陷定位方法 | |
CN105447496B (zh) | 一种基于机器视觉的入坞飞机机型识别验证方法和*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20210913 Address after: 518103 No.9, Fuyuan 2nd Road, Fuyong street, Bao'an District, Shenzhen City, Guangdong Province Patentee after: SHENZHEN CIMC-TIANDA AIRPORT SUPPORT Co.,Ltd. Address before: Four No. four industrial road, Shekou Industrial Zone, Guangdong, Shenzhen 518067, China Patentee before: SHENZHEN CIMC-TIANDA AIRPORT SUPPORT Co.,Ltd. Patentee before: CHINA INTERNATIONAL MARINE CONTAINERS (GROUP) Ltd. |