CN113792623B - 安检ct目标物识别方法和装置 - Google Patents
安检ct目标物识别方法和装置 Download PDFInfo
- Publication number
- CN113792623B CN113792623B CN202110998653.3A CN202110998653A CN113792623B CN 113792623 B CN113792623 B CN 113792623B CN 202110998653 A CN202110998653 A CN 202110998653A CN 113792623 B CN113792623 B CN 113792623B
- Authority
- CN
- China
- Prior art keywords
- dimensional
- target object
- description set
- semantic description
- views
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 90
- 230000009467 reduction Effects 0.000 claims abstract description 38
- 239000011159 matrix material Substances 0.000 claims description 27
- 238000000605 extraction Methods 0.000 claims description 12
- 238000013507 mapping Methods 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 10
- 238000004891 communication Methods 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 8
- 238000013135 deep learning Methods 0.000 claims description 8
- 238000003672 processing method Methods 0.000 claims description 7
- 238000007689 inspection Methods 0.000 claims description 6
- 238000010801 machine learning Methods 0.000 claims description 6
- 238000000513 principal component analysis Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 5
- 238000003384 imaging method Methods 0.000 claims description 5
- 238000009877 rendering Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 description 12
- 230000000694 effects Effects 0.000 description 5
- 230000036544 posture Effects 0.000 description 5
- 239000000463 material Substances 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000002360 explosive Substances 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/84—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01V—GEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
- G01V5/00—Prospecting or detecting by the use of ionising radiation, e.g. of natural or induced radioactivity
- G01V5/20—Detecting prohibited goods, e.g. weapons, explosives, hazardous substances, contraband or smuggled objects
- G01V5/22—Active interrogation, i.e. by irradiating objects or goods using external radiation sources, e.g. using gamma rays or cosmic rays
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N23/00—Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
- G01N23/02—Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
- G01N23/04—Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material
- G01N23/046—Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material using tomography, e.g. computed tomography [CT]
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01V—GEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
- G01V5/00—Prospecting or detecting by the use of ionising radiation, e.g. of natural or induced radioactivity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/006—Inverse problem, transformation from projection-space into object-space, e.g. transform methods, back-projection, algebraic methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/457—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/48—Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N2223/00—Investigating materials by wave or particle radiation
- G01N2223/40—Imaging
- G01N2223/401—Imaging image processing
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N2223/00—Investigating materials by wave or particle radiation
- G01N2223/40—Imaging
- G01N2223/419—Imaging computed tomograph
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N23/00—Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
- G01N23/02—Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
- G01N23/04—Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2211/00—Image generation
- G06T2211/40—Computed tomography
- G06T2211/428—Real-time
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2211/00—Image generation
- G06T2211/40—Computed tomography
- G06T2211/441—AI-based methods, deep learning or artificial neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/05—Recognition of patterns representing particular kinds of hidden objects, e.g. weapons, explosives, drugs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/12—Acquisition of 3D measurements of objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Mathematical Optimization (AREA)
- General Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Algebra (AREA)
- Mathematical Analysis (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Pure & Applied Mathematics (AREA)
- High Energy & Nuclear Physics (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Geophysics (AREA)
- Probability & Statistics with Applications (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Pulmonology (AREA)
- Radiology & Medical Imaging (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Analysing Materials By The Use Of Radiation (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及安检CT目标物识别方法和装置,该方法包括:对三维CT数据进行降维来生成多个二维降维视图;针对多个二维视图进行目标物识别,获得目标物的二维语义描述集合,所述多个二维视图包含所述多个二维降维视图;以及对所述二维语义描述集合进行升维,获得所述目标物的三维识别结果。
Description
技术领域
本发明涉及安检CT领域,特别是涉及安检CT目标物识别方法和装置。
背景技术
目前,在安检领域中,CT设备经常用于例如违禁品等的目标物的识别中。在利用安检CT设备进行目标物识别时,传统技术主要是:利用CT重建技术得到包含物质属性信息的三维断层图像,将三维图像分割成若干个嫌疑物,对嫌疑物进行物质属性的统计和归类。
然而,如上所述的传统技术,虽然能够在***物、毒品等物质属性上具有较强可分性的违禁品识别上具有良好的性能,但对于具有较强的三维形状特征且物质组成和物理属性比较复杂的目标物的识别,表现出明显的局限性。
为了解决这样的局限性,专利文献1提出了一种CT检测方法及装置,其对物体的三维断层图像和二维图像分别进行了识别,并通过前者得到燃爆物的识别结果,通过后者得到其它违禁品的识别结果。
专利文献1:109975335A
发明内容
如上所述专利文献1虽然试图对上述的局限性进行改进,然而,本发明的发明人经过研究发现,专利文献1仍然存在如下的技术问题:
(1)只沿着检测过程中物体的行进方向(Z方向)的正交方向进行投影,在物体的某些摆放姿态下,会导致投影面积过小、形状信息表达不完整,从而无法准确识别目标物。另外,按照这种方式进行投影,还可能会导致该物体被其它物体遮挡,此时也会损失该物体的形状信息,从而无法准确识别目标物。
(2)该方法虽然在除了燃爆物之外的其它违禁品的识别中,也可以利用从三维断层图像得到的二维投影图像,但是,识别操作仅局限在二维平面,无法得到三维空间中的识别结果。由于二维图像的信息量显著低于三维数据,如果不能对二维识别结果进行有效整合,则不能充分发挥安检CT设备的优势。
本申请提出了一种能够提高对三维形状目标物的识别效果的安检CT目标物识别方法和装置。
本申请的第一个方式提供一种安检CT目标物识别方法,包括:对三维CT数据进行降维来生成多个二维降维视图;
针对多个二维视图进行目标物识别,获得目标物的二维语义描述集合,多个二维视图包含多个二维降维视图;以及对二维语义描述集合进行升维,获得目标物的三维识别结果。
在上述的安检CT目标物识别方法中,对二维语义描述集合进行升维,获得目标物的三维识别结果包括:将二维语义描述集合利用反投影法映射到三维空间,获得三维概率图;以及对三维概率图进行特征提取,获得目标物的三维识别结果。
在上述的安检CT目标物识别方法中,将二维语义描述集合利用反投影法映射到三维空间,获得三维概率图包括:通过体素驱动或像素驱动进行二维语义描述集合到三维空间的映射,获得语义特征矩阵,并将语义特征矩阵压缩为三维概率图。
在上述的安检CT目标物识别方法中,体素驱动包括:将三维CT数据中的每一个体素对应到每幅二维视图中的像素,查询并累积像素所对应的二维语义描述信息,生成语义特征矩阵,像素驱动包括:二维视图中的每个像素对应于三维CT数据中的一条直线,遍历每一幅二维视图中的每一个像素或感兴趣区域的每一个像素,沿直线向三维空间中传播该像素所对应的二维语义描述信息,生成语义特征矩阵,其中,感兴趣区域由二维语义描述集合给出。
在上述的安检CT目标物识别方法中,在体素驱动或像素驱动中,通过映射函数或查找表来获得体素和像素的对应关系。
在上述的安检CT目标物识别方法中,对三维概率图进行特征提取,获得目标物的三维识别结果包括:对三维概率图,采用图像处理方法、经典的机器学习方法、深度学习方法中的至少一种或者相结合的方式来进行特征提取,从而获得三维图像语义描述集合,作为三维识别结果。
在上述的安检CT目标物识别方法中,对三维概率图进行特征提取,获得目标物的三维识别结果包括:对三维概率图进行二值化,得到三维二值图;对三维二值图进行连通区域分析,获得连通区域;针对连通区域生成三维图像语义描述集合。
在上述的安检CT目标物识别方法中,连通区域分析包括:对三维二值图进行连通分量标记,针对每个标记区域,进行掩模操作,得到连通区域。
在上述的安检CT目标物识别方法中,针对连通区域生成三维图像语义描述集合包括:提取连通区域内的所有概率值,进行主成分分析得到分析集合,并将分析集合作为物体有效体素区域,统计出三维图像语义描述集合。
在上述的安检CT目标物识别方法中,三维图像语义描述集合以体素、三维感兴趣区域、三维CT图像中的一个或多个为单位,包含:类别信息和/或置信度;或者,三维图像语义描述集合以三维感兴趣区域和/或三维CT图像为单位,包含:类别信息、目标物的位置信息、置信度中的至少一个。
在上述的安检CT目标物识别方法中,位置信息包含三维包围盒。
在上述的安检CT目标物识别方法中,二维语义描述集合以像素、感兴趣区域、二维图像中的一个或多个为单位,包含类别信息和/或置信度,或者,二维语义描述集合以感兴趣区域和/或二维图像为单位,包含类别信息、置信度、目标物的位置信息中的至少一个。
在上述的安检CT目标物识别方法中,针对多个二维视图中的每一个进行目标物识别包括:采用用于二维图像的图像处理方法、经典机器学习方法、深度学习方法中的至少一种或者相结合的方式来进行目标物识别。
在上述的安检CT目标物识别方法中,对三维CT数据进行降维来生成多个二维降维视图包括:对三维CT数据设定多个方向;以及按照多个方向进行投影或渲染。
在上述的安检CT目标物识别方法中,多个方向为任意的方向,而不限于检测过程中物体行进方向的正交方向。
在上述的安检CT目标物识别方法中,多个二维视图还包含二维DR图,二维DR图是由DR成像装置得到的。
在上述的安检CT目标物识别方法中,把三维识别结果投影到二维DR图,再作为二维DR图的识别结果输出。
本申请的第二方式提供一种安检CT目标物识别装置,包括:降维模块,对三维CT数据进行降维来生成多个二维降维视图;二维识别模块,针对多个二维视图进行目标物识别,获得目标物的二维语义描述集合,多个二维视图包含多个二维降维视图;以及升维模块,对二维语义描述集合进行升维,获得目标物的三维识别结果。
本申请的第三方式提供一种计算机可读存储介质,存储有程序,该程序能够使计算机执行:对三维CT数据进行降维来生成多个二维降维视图;针对多个二维视图进行目标物识别,获得目标物的二维语义描述集合,多个二维视图包含多个二维降维视图;以及对二维语义描述集合进行升维,获得目标物的三维识别结果。
如上所述,在本申请中,通过从三维CT数据进行降维来生成多个二维降维视图,利用包含这些多个二维降维视图的多个二维视图进行目标物识别,获得二维语义描述集合,再对二维语义描述集合进行升维来获得三维识别结果,即,从三维先降维到二维进行识别后再升维生成三维结果,由此,既能够通过基于二维的识别,有效地识别出物质组成和物理属性比较复杂且具有形状特征的目标物,又能够有效整合二维识别结果,给出信息量丰富的三维识别结果。从而,能够提高对目标物的识别效果。另外,也能够满足安检的实时性要求。
附图说明
图1是示出第一实施方式所涉及的安检CT目标物识别方法的流程图;
图2是示出降维处理的具体示例的流程图;
图3是示出升维处理的具体示例的流程图;
图4是示出三维特征提取的具体示例的流程图;
图5是示出第二实施方式所涉及的安检CT目标物识别方法的流程图;
图6是示出第三实施方式所涉及的安检CT目标物识别装置的一个示例的示意图;
图7是示出第三实施方式所涉及的安检CT目标物识别装置的另一示例示意图。
具体实施方式
下面将参照附图更详细地描述本发明的示例性的实施方式或实施例。虽然附图中显示了本发明的示例性的实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施方式或实施例所限制。相反,提供这些实施方式或实施例是为了能够更清楚地理解本发明。
本申请的说明书和权利要求书中的术语“第一”、“第二”等是用于区别类似的对象,而不是用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施方式或实施例能够以除了图示或描述的以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备,不限于清楚地列出的步骤或单元,而是可以包括没有清楚地列出的其它步骤或单元。文中的相同或相似的标号表示具有相同或相似的功能的构成要素。
<第一实施方式>
作为本申请的第一实施方式,提供一种安检CT目标物识别方法。图1是示出第一实施方式所涉及的安检CT目标物识别方法的流程图。安检CT目标物识别方法应用于安检CT***,例如,可以在安检CT设备中或者与安检CT设备连接的服务器等中被执行。
如图1所示,在S10步骤中,进行降维处理。即,对三维CT数据进行降维来生成多个二维降维视图。
具体来说,如图2所示,S10步骤可以包括:S11步骤和S12步骤。
在S11步骤中,对三维CT数据设定多个方向。在这里,多个方向为任意的方向,而不限于检测过程中物体行进方向的正交方向这样的特定方向。
另外,在设定多个方向的同时,或者在设定多个方向前后,可选地,可以做一定的三维体数据的预处理操作,例如,过滤无效体素,预先计算投影或渲染所需的几何参数,由此,可以提高后续处理速度。
在S12步骤中,按照多个方向进行投影或渲染,得到多个二维降维视图。
作为一个示例,可以基于CT图像切片序列进行射线或光线投射,从图像的每一个像素,沿特定方向发射一条射线或光线,射线或光线穿越整个图像序列,并在这个过程中,对图像序列进行采样获取属性或颜色信息,同时依据一定的模型将属性或者颜色值进行累加,直至射线或光线穿越整个图像序列,最后得到的属性或者颜色值作为降维后的二维视图。
在本申请中,通过按照任意方向进行投影来获得二维降维视图,可以避免只沿着特定方向进行降维,例如,沿着检测过程中的物体的行进方向的正交方向进行降维,从而能够解决只沿着特定方向进行降维时存在的如下问题:(1)在物体的某些摆放姿态下,导致的物体降维后的面积过小、形状信息表达不完整,从而无法准确进行识别;(2)该物体因被其它物体遮挡而损失该物体的形状信息,从而无法准确识别目标物。
在S20步骤中,进行二维识别处理。即,针对多个二维视图进行目标物识别,获得目标物的二维语义描述集合。在这里,多个二维视图包含上述S10步骤中获得的多个二维降维视图。
具体来说,作为二维视图的目标物识别方法,可以采用用于二维图像的图像处理方法、经典机器学习方法、深度学习方法中的至少一种或者相结合的方式。
例如,将二维视图作为输入输入到神经网络模型中,并作为输出获得二维语义描述集合。
具体来说,可以使用基于深度学***移缩放不变性。在这里,二维语义描述集合以像素、感兴趣区域、二维图像中的一个或多个为单位,包含类别信息和/或置信度,或者,所述二维语义描述集合以感兴趣区域和/或二维图像为单位,包含类别信息、置信度、目标物的位置信息中的至少一个。其中,类别信息表示目标物所属的类别,比如,枪、刀等。位置信息可以包含中心坐标、包围盒等。置信度表示目标物存在的可能性大小,可以为归一化标量或向量。
换言之,二维语义描述集合包含:某像素属于目标物的类别信息、置信度等;某感兴趣区域所包含的目标物的类别信息、目标物的位置信息、置信度等;某幅二维图像所包含的目标物的类别信息、目标物的位置信息、置信度等中的至少一个信息。其中,至少一个信息可以是包含在一组中的信息,也可以是分别包含在不同组中的信息。
另外,二维语义信息的描述集合除了类别信息、置信度、位置信息之外,也可以包含目标物的姿态、目标物的数量等其他语义信息。
本申请的二维视图的目标物识别方法不做特别限定,只要是能够基于二维视图获得上述的二维语义描述集合的方法即可。
如上所述,在本申请中,以二维语义描述集合的方式来表示目标物的二维识别结果,这样的二维语义描述集合作为输入被输入到S30步骤中被升维成三维,从而能够做到将二维识别结果整合成三维。另外,由于二维语义描述集合的方式较为灵活,能够使得所包含的信息较为丰富。
在S30步骤中,进行升维处理。即,对二维语义描述集合进行升维,获得目标物的三维识别结果。
具体来说,如图3所示,S30步骤可以包括S31步骤和S32步骤。
在S31步骤中,将二维语义描述集合利用反投影法映射到三维空间,获得三维概率图。反投影可以认为是投影的逆过程。
可选地,反投影过程可以通过体素驱动或像素驱动等方式来实现。具体来说,可以通过体素驱动或像素驱动,获得语义特征矩阵,并将语义特征矩阵压缩为三维概率图。
在这里,体素驱动包括:将三维CT数据中的每一个体素对应到每幅二维视图中的像素,查询并累积像素所对应的二维语义描述信息,生成语义特征矩阵。
体素到像素的对应关系可以建立映射函数或查找表,以提高计算速度。
如上所述,按照体素驱动,遍历三维CT数据中的每一个体素,依次获得其语义特征矩阵,最后压缩语义特征矩阵获得三维概率图。
体素驱动针对每个体素能够并行运算,从而运算速度快,能够提高安检的实时性。
像素驱动包括:二维视图中的每个像素对应于三维CT数据中的一条直线,遍历每一幅二维视图中的每一个像素或感兴趣区域的每一个像素,沿直线向三维空间中传播该像素所对应的二维语义描述信息,并生成语义特征矩阵,其中,感兴趣区域由二维语义描述集合给出。其中,也可以通过映射函数或查找表来获得体素和像素的对应关系。
如上所述,按照像素驱动,多个二维视图中的每一个像素,依次获得其语义特征矩阵,最后压缩语义特征矩阵获得三维概率图。
像素驱动也可以按照像素进行并行运算,也有利于提高运算速度,提高安检的实时性。
根据如上所述的对体素驱动和像素驱动的说明可知,语义特征矩阵是由二维语义描述信息根据其空间对应关系生成的,是一种基于二维语义描述信息进行数字化和集约化得到的矩阵。例如,针对二维语义描述集合中的类别信息,可以按照每个目标物的类别,分别获得语义特征矩阵。例如,可以假设当属于该类别时语义特征矩阵中的对应的数值是1,当不属于该类别时语义特征矩阵中的对应的数值是0。另外,针对二维语义描述集合中的其他语义信息也可以用类似的方式获得语义特征矩阵。
压缩语义特征矩阵的典型方法有加权平均、主成分分析等。此时,输入是语义特征矩阵,输出是概率图。
作为一个示例,假设有两个二维视图,从而具有两个二维语义描述集合,其中某像素(或感兴趣区域或二维图像)上的语义信息用数值表示为1或0,则可以使用反投影法映射到三维空间,生成对应三维空间的语义特征矩阵,此矩阵中的值为由0或1组成的向量,可以使用加权平均方法,计算出对应三维空间中体素的概率图值,如某个体素的语义特征矩阵值为v=[0,1],在权数相同情况下,该体素的概率图值为0.5。在对对应于所有目标物类别的语义特征矩阵进行压缩时,输出的概率图值的维度由目标物类别数量来决定。在这里说明的获得概率图值的方式仅是一个示例,也可以通过其他方式获得概率图值。例如,权数可以不同,对语义特征矩阵值以不同的权数进行加权来获得概率图值。
作为另一个示例,也可以将三维语义特征矩阵中的一个或多个向量作为主成分分析中的输入变量,对这样的输入变量进行主成分分析,来获得作为主成分的输出变量,将该输出变量归一化作为对应体素的概率图值。
通过使用如上所述的运算方法,不仅能够保证运算的实时性,还能对二维识别结果进行有效整合,提升最终识别效果。
在S32步骤中,对三维概率图进行特征提取,获得目标物的三维识别结果。
具体来说,对三维概率图,采用图像处理方法、经典的机器学习方法、深度学习方法中的至少一种或者相结合的方式来进行特征提取,从而获得三维图像语义描述集合,作为所述三维识别结果。
作为一个示例,将三维概率图作为输入输入到深度学习模型中,作为输出获得置信度和三维包围盒等的三维识别结果。此处使用的深度学习模型可以采用层数较少的分类神经网络或目标检测网络等技术。通过采用这样的技术,原始的三维CT数据中蕴含的信息量经过上述步骤处理后得到了有效精简及抽象,更接近于违禁品识别的最终目标,应用简单的特征提取方法就可以快速准确地提取出三维语义描述集合。
在这里,三维图像语义描述集合以体素、三维感兴趣区域、三维CT图像中的一个或多个为单位,包含:类别信息和/或置信度;或者,三维图像语义描述集合以三维感兴趣区域和/或三维CT图像为单位,包含:类别信息、目标物的位置信息、置信度中的至少一个。三维CT图像中的目标物的位置信息可以包含三维包围盒。
换言之,三维图像语义描述集合包含:某体素属于目标物的类别信息、置信度等;某三维感兴趣区域(VOI)包含目标物的类别信息、目标物的位置信息、置信度等;某幅三维CT图像包含目标物的类别信息、目标物的位置信息、置信度等中的至少一个信息。其中,至少一个信息可以是包含在一组中的信息,也可以是分别包含在不同组中的信息。
由于三维图像语义描述集合是由从基于二维语义描述集合生成的三维概率图生成的,因此,三维图像语义描述集合所包含的语义信息的种类和二维语义描述集合所包含的语义信息的种类有一致性或相互转换性。
在本申请中,通过上述的升维处理,将二维语义描述集合进行升维,获得所述目标物的三维识别结果,由此解决了仅通过降维进行二维识别时信息量显著降低的问题,能够在采用二维识别的同时,减少信息量的损失,兼顾安检的实时性和准确性。
作为S32步骤的另一个示例,例如,可以采用图像处理方法,如图4所示,S32步骤可以包括S321~S323步骤。
在S321步骤中,对三维概率图进行二值化,得到三维二值图。
在S322步骤中,对三维二值图进行连通区域分析,获得连通区域。
作为一个示例,可以对三维二值图进行连通分量标记,针对每个标记区域,进行掩模操作,得到连通区域。
在S323步骤中,针对连通区域生成三维图像语义描述集合。
此时,三维图像语义描述集合可以包含三维包围盒,通过包含三维包围盒,能够给出目标物在三维图像上的空间边界,能够更直观地示出目标物的位置、范围、姿势、形状等,有利于安检员判断目标物是否为危险物品的准确度。
作为一个示例,可以提取连通区域内的所有概率值,进行主成分分析得到分析集合,并将分析集合作为物体有效体素区域。针对有效体素区域统计出三维图像语义描述集合。由此,能够进一步提高三维识别的准确度。
在第一实施方式中,通过从三维CT数据进行降维来生成多个二维降维视图,利用包含这些多个二维降维视图的多个二维视图进行目标物识别,获得二维语义描述集合,再对二维语义描述集合进行升维来获得三维识别结果,即,从三维先降维到二维进行识别后再升维生成三维结果,由此,既能够通过基于二维的识别,有效地识别出物质组成和物理属性比较复杂且具有形状特征的目标物,又能够有效整合二维识别结果,给出信息量丰富的三维识别结果。从而,能够提高对目标物的识别效果另外,也能够满足安检的实时性要求。
<第二实施方式>
作为本申请的第二实施方式,提供另一种安检CT目标物识别方法。图5是示出第一实施方式所涉及的安检CT目标物识别方法的流程图。
第二实施方式和第一实施方式的区别在于,在第二实施方式中,不仅利用从三维CT数据降维生成的二维降维图像,还利用二维DR数据进行目标物识别。
具体来说,在S20步骤中,多个二维视图还包括二维DR图,对该二维DR图也进行目标物识别,获得目标物的二维语义描述集合。在这里,该二维DR图是由与安检CT设备独立地另外配置的DR成像装置得到的。该二维DR图是针对与三维CT数据相同的安检对象的图像。
在第二实施方式中,如图5所示,在S20步骤之前,还可以具有S40步骤。在S40步骤中,从DR成像装置获得二维DR图,将其作为多个二维视图之一。该S40步骤可以与S10步骤并行地进行。
此时,在S30步骤中,不仅对二维降维图像的二维语义描述集合进行升维,还对二维DR图的二维语义描述集合也进行升维,由此获得三维识别结果。
二维DR图是与将三维CT数据降维生成的二维降维图像不同原理和性质的二维图像,通过将这样的二维DR图也用于目标物识别,能够增加用于识别的信息量,从而提高识别的准确度。
在第二实施方式中,如图5所示,在S30步骤之后,可选地,还可以具有S50步骤。在S50步骤中,把S30步骤生成的三维识别结果投影到二维DR图,再作为二维DR图的识别结果输出。
由于工作习惯和需求,有些安检人员想要在二维DR图上确认识别结果,然而,如果直接使用二维DR图的识别结果,当DR图上目标物被严重遮挡或存在特殊的摆放姿态时,目标物的信息呈现不完整进而影响识别精度,而三维识别结果有效整合了若干个二维视图的语义信息,从而更加精准可靠,因此,通过将三维识别结果投影到二维DR图上作为识别结果来输出,在满足安检人员通过二维DR图确认识别结果的工作需求的同时,也提高了识别结果的精确性。
另外,也可以将S30步骤的结果和S50步骤的结果同时输出。
此时可以通过三维识别结果和二维DR图上的识别结果互相进行比对和验证,从而有利于安检人员更加准确地判断目标物是否为危险物品。
<第三实施方式>
作为本申请的第三实施方式,提供一种安检CT目标物识别装置。图6是示出第一实施方式所涉及的安检CT目标物识别装置的示意图。
如图6所示,本实施方式的安检CT目标物识别装置100包括:降维模块10、二维识别模块20、升维模块30。
降维模块10对三维CT数据进行降维来生成多个二维降维视图。即,可执行上述第一、第二实施方式中的S10步骤的处理。
二维识别模块20针对多个二维视图进行目标物识别,获得目标物的二维语义描述集合。在这里,多个二维视图包含所述多个二维降维视图。即,可执行上述第一、第二实施方式中的S20步骤的处理。
升维模块30对二维语义描述集合进行升维,获得目标物的三维识别结果。即,可执行上述第一、第二实施方式中的S30步骤的处理。
降维模块10、二维识别模块20、升维模块30的具体处理可参考上述的第一、第二实施方式,因此,在这里不再重复。
另外,如图7所示,安检CT目标物识别装置100还可以包括:DR图获取模块40,该DR图获取模块40从DR成像装置获得二维DR图,将其作为多个二维视图之一。即,DR图获取模块40可执行第二实施方式中的S40步骤的处理。
安检CT目标物识别装置100还可以包括:DR输出模块50,DR输出模块50将升维模块30生成的三维识别结果投影到二维DR图,再作为二维DR图的识别结果输出。即,DR输出模块50可执行第二实施方式中的S50步骤的处理。
在本申请中,安检CT目标物识别装置100可以以硬件方式实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。
例如,安检CT目标物识别装置100可以由设置有处理器的台式计算机、平板电脑、智能电话、服务器等任何合适的电子设备,以软硬件相结合的方式实现。例如,安检CT目标物识别装置100可以是安检CT***的控制用计算机,或者在安检CT***中与安检CT扫描设备连接的服务器等。
另外,安检CT目标物识别装置100可以由台式计算机、平板电脑、智能电话、服务器等任何合适的电子设备上的软件模块的方式来实现。例如,安装在安检CT***的控制用计算机上的软件模块,或者是安装在在安检CT***中与安检CT扫描设备连接的服务器上的软件模块。
安检CT目标物识别装置100的处理器可以执行后述的安检CT目标物识别方法。
安检CT目标物识别装置100还可以包括存储器(未示出)和通信模块(未示出)等。
安检CT目标物识别装置100的存储器可以存储执行后述的安检CT目标物识别方法的步骤,以及与用于进行安检CT目标物识别相关的数据等。存储器可以是例如ROM(ReadOnly Memory image,只读存储器)、RAM(Random Access Memory,随机存取存储器)等。存储器具有用于执行上述安检CT目标物识别方法中的任何步骤的程序代码的存储空间。这些程序代码被处理器读取并执行时执行上述的安检CT目标物识别方法。这些程序代码可以从一个或者多个计算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。这些计算机程序产品包括诸如硬盘,光盘(CD)、存储卡或者软盘之类的程序代码载体。这样的计算机程序产品通常为便携式或者固定存储单元。用于执行上述方法中的任何步骤的程序代码也可以通过网络进行下载。程序代码可以例如以适当形式进行压缩。
安检CT目标物识别装置100中的通信模块可以支持在安检CT目标物识别装置100与外部电子装置之间建立直接(例如,有线)通信信道或无线通信信道,并经由建立的通信信道执行通信。例如,通信模块经由网络从CT扫描装置接收三维CT数据等。
此外,安检CT目标物识别装置100还可以包括显示器、麦克风、扬声器等输出部,以便输出目标物识别结果。
通过上述的安检CT目标物识别装置100能够获得与上述第一、第二实施方式相同的效果。
以上,虽然结合附图描述了本发明的实施方式和具体实施例,但是本领域技术人员可以在不脱落本发明的精神和范围的情况下做出各种修改和变形,这样的修改和变形均落入由所述权利要求所限定的范围之内。
Claims (18)
1.一种安检CT目标物识别方法,其特征在于,包括:
对三维CT数据进行降维来生成多个二维降维视图;
针对多个二维视图进行目标物识别,获得目标物的二维语义描述集合,所述多个二维视图包含所述多个二维降维视图;
将所述二维语义描述集合利用反投影法映射到三维空间,获得三维概率图;以及
对所述三维概率图进行特征提取,获得所述目标物的三维识别结果。
2.如权利要求1所述的安检CT目标物识别方法,其特征在于,
将所述二维语义描述集合利用反投影法映射到三维空间,获得三维概率图包括:
通过体素驱动或像素驱动进行二维语义描述集合到三维空间的映射,获得语义特征矩阵,并将语义特征矩阵压缩为三维概率图。
3.如权利要求2所述的安检CT目标物识别方法,其特征在于,
所述体素驱动包括:
将所述三维CT数据中的每一个体素对应到每幅所述二维视图中的像素,查询并累积所述像素所对应的二维语义描述信息,生成所述语义特征矩阵,
所述像素驱动包括:
所述二维视图中的每个像素对应于所述三维CT数据中的一条直线,遍历每一幅二维视图中的每一个像素或感兴趣区域的每一个像素,沿直线向三维空间中传播该像素所对应的二维语义描述信息,生成所述语义特征矩阵,其中,所述感兴趣区域由所述二维语义描述集合给出。
4.如权利要求3所述的安检CT目标物识别方法,其特征在于,
在所述体素驱动或所述像素驱动中,通过映射函数或查找表来获得所述体素和所述像素的对应关系。
5.如权利要求1所述的安检CT目标物识别方法,其特征在于,
对所述三维概率图进行特征提取,获得所述目标物的三维识别结果包括:
对所述三维概率图,采用图像处理方法、经典的机器学习方法、深度学习方法中的至少一种或者相结合的方式来进行特征提取,从而获得三维图像语义描述集合,作为所述三维识别结果。
6.如权利要求5所述的安检CT目标物识别方法,其特征在于,
对所述三维概率图进行特征提取,获得所述目标物的三维识别结果包括:
对三维概率图进行二值化,得到三维二值图;
对三维二值图进行连通区域分析,获得连通区域;
针对所述连通区域生成三维图像语义描述集合。
7.如权利要求6所述的安检CT目标物识别方法,其特征在于,
所述连通区域分析包括:
对所述三维二值图进行连通分量标记,针对每个标记区域,进行掩模操作,得到所述连通区域。
8.如权利要求6所述的安检CT目标物识别方法,其特征在于,
针对所述连通区域生成三维图像语义描述集合包括:
提取所述连通区域内的所有概率值,进行主成分分析得到分析集合,并将所述分析集合作为物体有效体素区域,统计出三维图像语义描述集合。
9.如权利要求5所述的安检CT目标物识别方法,其特征在于,
所述三维图像语义描述集合以体素、三维感兴趣区域、三维CT图像中的一个或多个为单位,包含:类别信息和/或置信度;
或者,所述三维图像语义描述集合以三维感兴趣区域和/或三维CT图像为单位,包含:类别信息、目标物的位置信息、置信度中的至少一个。
10.如权利要求9所述的安检CT目标物识别方法,其特征在于,
所述位置信息包含三维包围盒。
11.如权利要求1所述的安检CT目标物识别方法,其特征在于,
所述二维语义描述集合以像素、感兴趣区域、二维图像中的一个或多个为单位,包含类别信息和/或置信度,
或者,所述二维语义描述集合以感兴趣区域和/或二维图像为单位,包含类别信息、置信度、目标物的位置信息中的至少一个。
12.如权利要求1所述的安检CT目标物识别方法,其特征在于,
针对所述多个二维视图中的每一个进行目标物识别包括:
采用用于二维图像的图像处理方法、经典机器学习方法、深度学习方法中的至少一种或者相结合的方式来进行目标物识别。
13.如权利要求1所述的安检CT目标物识别方法,其特征在于,
对三维CT数据进行降维来生成多个二维降维视图包括:
对所述三维CT数据设定多个方向;以及
按照所述多个方向进行投影或渲染。
14.如权利要求13所述的安检CT目标物识别方法,其特征在于,
所述多个方向为任意的方向,而不限于检测过程中物体行进方向的正交方向。
15.如权利要求1至14中的任一项所述的安检CT目标物识别方法,其特征在于,
所述多个二维视图还包含二维DR图,
所述二维DR图是由DR成像装置得到的。
16.如权利要求15所述的安检CT目标物识别方法,其特征在于,
把所述三维识别结果投影到所述二维DR图,再作为二维DR图的识别结果输出。
17.一种安检CT目标物识别装置,其特征在于,包括:
降维模块,对三维CT数据进行降维来生成多个二维降维视图;
二维识别模块,针对多个二维视图进行目标物识别,获得目标物的二维语义描述集合,所述多个二维视图包含所述多个二维降维视图;以及
升维模块,将所述二维语义描述集合利用反投影法映射到三维空间,获得三维概率图,并对所述三维概率图进行特征提取,获得所述目标物的三维识别结果。
18.一种计算机可读存储介质,存储有程序,所述程序能够使计算机执行:
对三维CT数据进行降维来生成多个二维降维视图;
针对多个二维视图进行目标物识别,获得目标物的二维语义描述集合,所述多个二维视图包含所述多个二维降维视图;
将所述二维语义描述集合利用反投影法映射到三维空间,获得三维概率图;以及
对所述三维概率图进行特征提取,获得所述目标物的三维识别结果。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211300926.3A CN115661810A (zh) | 2021-08-27 | 2021-08-27 | 安检ct目标物识别方法和装置 |
CN202110998653.3A CN113792623B (zh) | 2021-08-27 | 2021-08-27 | 安检ct目标物识别方法和装置 |
EP22860072.2A EP4394696A1 (en) | 2021-08-27 | 2022-07-08 | Security check ct object recognition method and apparatus |
PCT/CN2022/104606 WO2023024726A1 (zh) | 2021-08-27 | 2022-07-08 | 安检ct目标物识别方法和装置 |
US18/293,704 US20240212336A1 (en) | 2021-08-27 | 2022-07-08 | Security check ct object recognition method and apparatus |
KR1020247003300A KR20240025683A (ko) | 2021-08-27 | 2022-07-08 | 보안검사 ct 목표물 식별 방법 및 장치 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110998653.3A CN113792623B (zh) | 2021-08-27 | 2021-08-27 | 安检ct目标物识别方法和装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211300926.3A Division CN115661810A (zh) | 2021-08-27 | 2021-08-27 | 安检ct目标物识别方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113792623A CN113792623A (zh) | 2021-12-14 |
CN113792623B true CN113792623B (zh) | 2022-12-13 |
Family
ID=79182374
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110998653.3A Active CN113792623B (zh) | 2021-08-27 | 2021-08-27 | 安检ct目标物识别方法和装置 |
CN202211300926.3A Pending CN115661810A (zh) | 2021-08-27 | 2021-08-27 | 安检ct目标物识别方法和装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211300926.3A Pending CN115661810A (zh) | 2021-08-27 | 2021-08-27 | 安检ct目标物识别方法和装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20240212336A1 (zh) |
EP (1) | EP4394696A1 (zh) |
KR (1) | KR20240025683A (zh) |
CN (2) | CN113792623B (zh) |
WO (1) | WO2023024726A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113792623B (zh) * | 2021-08-27 | 2022-12-13 | 同方威视技术股份有限公司 | 安检ct目标物识别方法和装置 |
CN116453063B (zh) * | 2023-06-12 | 2023-09-05 | 中广核贝谷科技有限公司 | 基于dr图像与投影图融合的目标检测识别方法及*** |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103901489B (zh) * | 2012-12-27 | 2017-07-21 | 清华大学 | 检查物体的方法、显示方法和设备 |
CN104658028B (zh) * | 2013-11-18 | 2019-01-22 | 清华大学 | 在三维图像中快速标记目标物的方法和装置 |
WO2017066248A1 (en) * | 2015-10-16 | 2017-04-20 | Varian Medical Systems, Inc. | Iterative image reconstruction in image-guided radiation therapy |
JP7005622B2 (ja) * | 2017-07-12 | 2022-01-21 | 株式会社ソニー・インタラクティブエンタテインメント | 認識処理装置、認識処理方法及びプログラム |
CN109166183B (zh) * | 2018-07-16 | 2023-04-07 | 中南大学 | 一种解剖标志点识别方法及识别设备 |
CN109446951B (zh) * | 2018-10-16 | 2019-12-10 | 腾讯科技(深圳)有限公司 | 三维图像的语义分割方法、装置、设备及存储介质 |
CN109493417B (zh) * | 2018-10-31 | 2023-04-07 | 深圳大学 | 三维物体重建方法、装置、设备和存储介质 |
CN109975335B (zh) | 2019-03-07 | 2024-01-12 | 北京航星机器制造有限公司 | 一种ct检测方法及装置 |
CN112444784B (zh) * | 2019-08-29 | 2023-11-28 | 北京市商汤科技开发有限公司 | 三维目标检测及神经网络的训练方法、装置及设备 |
CN111652966B (zh) * | 2020-05-11 | 2021-06-04 | 北京航空航天大学 | 一种基于无人机多视角的三维重建方法及装置 |
CN111968240B (zh) * | 2020-09-04 | 2022-02-25 | 中国科学院自动化研究所 | 基于主动学习的摄影测量网格的三维语义标注方法 |
CN112598619A (zh) * | 2020-11-23 | 2021-04-02 | 西安科锐盛创新科技有限公司 | 基于迁移学习的颅内血管模拟三维狭窄化模型的建立方法 |
CN113792623B (zh) * | 2021-08-27 | 2022-12-13 | 同方威视技术股份有限公司 | 安检ct目标物识别方法和装置 |
-
2021
- 2021-08-27 CN CN202110998653.3A patent/CN113792623B/zh active Active
- 2021-08-27 CN CN202211300926.3A patent/CN115661810A/zh active Pending
-
2022
- 2022-07-08 US US18/293,704 patent/US20240212336A1/en active Pending
- 2022-07-08 EP EP22860072.2A patent/EP4394696A1/en active Pending
- 2022-07-08 WO PCT/CN2022/104606 patent/WO2023024726A1/zh active Application Filing
- 2022-07-08 KR KR1020247003300A patent/KR20240025683A/ko unknown
Also Published As
Publication number | Publication date |
---|---|
WO2023024726A1 (zh) | 2023-03-02 |
EP4394696A1 (en) | 2024-07-03 |
KR20240025683A (ko) | 2024-02-27 |
US20240212336A1 (en) | 2024-06-27 |
CN115661810A (zh) | 2023-01-31 |
CN113792623A (zh) | 2021-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108875732B (zh) | 模型训练与实例分割方法、装置和***及存储介质 | |
CN110148130B (zh) | 用于检测零件缺陷的方法和装置 | |
US9349076B1 (en) | Template-based target object detection in an image | |
US20180336683A1 (en) | Multi-Label Semantic Boundary Detection System | |
CN113792623B (zh) | 安检ct目标物识别方法和装置 | |
CN112633297B (zh) | 目标对象的识别方法、装置、存储介质以及电子装置 | |
CN111353491B (zh) | 一种文字方向确定方法、装置、设备及存储介质 | |
CN112101386B (zh) | 文本检测方法、装置、计算机设备和存储介质 | |
Rahim et al. | Hand gesture recognition based on optimal segmentation in human-computer interaction | |
CN108876795A (zh) | 一种图像中物体的分割方法及*** | |
CN112001362A (zh) | 一种图像分析方法、图像分析装置及图像分析*** | |
Limper et al. | Mesh Saliency Analysis via Local Curvature Entropy. | |
CN109345460B (zh) | 用于矫正图像的方法和装置 | |
CN112149570B (zh) | 多人活体检测方法、装置、电子设备及存储介质 | |
CN111666813B (zh) | 基于非局部信息的三维卷积神经网络的皮下汗腺提取方法 | |
JP7364639B2 (ja) | デジタル化された筆記の処理 | |
WO2014188446A2 (en) | Method and apparatus for image matching | |
CN115240203A (zh) | 业务数据处理方法、装置、设备及存储介质 | |
CN110008922A (zh) | 用于终端设备的图像处理方法、设备、装置、介质 | |
CN113592807A (zh) | 一种训练方法、图像质量确定方法及装置、电子设备 | |
CN112784189A (zh) | 一种识别页面图像的方法和装置 | |
CN115424163A (zh) | 唇形修改伪造视频检测方法、装置、设备及存储介质 | |
CN116420176A (zh) | 基于对象的图像表示来区分对象的不同配置状态的方法和设备 | |
CN112330652A (zh) | 基于深度学习的染色体识别方法、装置和计算机设备 | |
CN110704153A (zh) | 界面逻辑解析方法、装置、设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |