WO2019010704A1 - 全景图像、视频的识别方法、分类器建立方法及电子装置 - Google Patents

全景图像、视频的识别方法、分类器建立方法及电子装置 Download PDF

Info

Publication number
WO2019010704A1
WO2019010704A1 PCT/CN2017/093011 CN2017093011W WO2019010704A1 WO 2019010704 A1 WO2019010704 A1 WO 2019010704A1 CN 2017093011 W CN2017093011 W CN 2017093011W WO 2019010704 A1 WO2019010704 A1 WO 2019010704A1
Authority
WO
WIPO (PCT)
Prior art keywords
feature value
degree panoramic
dimensional
column
panoramic image
Prior art date
Application number
PCT/CN2017/093011
Other languages
English (en)
French (fr)
Inventor
谢俊
卢启栋
Original Assignee
深圳市柔宇科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 深圳市柔宇科技有限公司 filed Critical 深圳市柔宇科技有限公司
Priority to PCT/CN2017/093011 priority Critical patent/WO2019010704A1/zh
Priority to CN201780004656.2A priority patent/CN108475338B/zh
Publication of WO2019010704A1 publication Critical patent/WO2019010704A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream

Definitions

  • step S121 Acquire gray values of pixel points of the first row C1, the last row Cm, the first column L1, and the last column Ln of the image file M1.
  • the grayscale values of all the pixel points of the first row C1, the last row Cm, the first column L1, and the last column Ln of the image file M1 are acquired in step S122.
  • the first row C1 may be the first row of the image file M1
  • the last row Cm may be the last row of the image file M1
  • the first column L1 may be the first column of the image file M1
  • the last column Ln may be the image file M1. last row.
  • S123 Extract the gray values of the plurality of row sampling points from the first row C1 and the last row Cm, and extract the gray values of the plurality of column sampling points from the first column L1 and the last column Ln, respectively.
  • the gray values of the first preset line sampling points are respectively extracted from the first row C1 and the last row Cm at even intervals; and the first column L1 and the last column Ln are separately extracted at even intervals.
  • if the pixel point of the image file M1 is too small, a portion of the pixel of the corresponding row or column of the copyable image file M1 is supplemented into a number of row or column sample points.
  • the number of the plurality of row sampling points and the column sampling points may be equal or unequal, for example, a plurality of row sampling points are 300, and a plurality of column sampling points are 150.
  • the variance of the gray value of the plurality of row sampling points of the first row C1 and the variance of the gray values of the plurality of row sampling points of the last row C1 are respectively calculated, and then the average of the two variances is averaged to obtain the first eigenvalue.
  • the variance of the gray value of several row sampling points of the first row C1 be F1
  • the variance of the gray value of several row sampling points of the last row Cm be F2
  • the first characteristic value (F1+F2)/ 2
  • the variance of the gray values of the plurality of row sampling points of the first row C1 represents the difference between the gray values of the plurality of row sampling points of the first row C1, and the variance of the gray values of the plurality of row sampling points of the last row Cm.
  • S66 determining a boundary value J1 of the feature value of the 360-degree panoramic image and the feature value of the non-360-degree panoramic image according to the feature value of the 360-degree panoramic image on the two-dimensional scattergram and the distribution of the feature values of the non-360-degree panoramic image, to Get a linear classifier.
  • the area where the feature value of the 360-degree panoramic image on one side of the boundary line is located is the first area, that is, the area A1 of the white point distribution as shown in FIG. 7, and the characteristic value of the non-360 degree panoramic image on the other side of the boundary line.
  • the area in which it is located is the second area, that is, the area A2 in which black dots are distributed as shown in FIG.
  • the two-dimensional feature value may be vector-multiplied with the point located in the first region or the second region of the linear classifier, and the cross-product is used to determine whether the two points are in the same by the principle of "same direction method" The same side of the boundary line J1, thereby judging whether the two-dimensional feature value is located in the first region or in the second region.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开一种360度全景图像的识别方法,包括:获取待识别的图像文件;将所述图像文件进行特征提取,得到三维特征值;将所述三维特征值变换成二维特征值;将所述二维特征值与一线性分类器定义的第一区域及第二区域进行比较,确定所述二维特征值所分布的区域,并根据二维特征值所分布的区域确定所述图像文件是否为360度全景图像。本申请还公开一种360度全景视频的识别方法、线性分类器的建立方法及电子装置。本申请的电子装置及360度全景视频、图像的识别方法,能够以更快速的方式更准确地识别出360度全景视频或360度全景图像。

Description

全景图像、视频的识别方法、分类器建立方法及电子装置 技术领域
本发明涉及一种视频图像识别方法,尤其涉及一种360度全景图像的识别方法及360度全景视频的识别方法,已经在所述360度全景图像以及360度全景视频的识别过程中用到的线性分类器的建立方法,以及应用所述识别方法以及建立方法的电子装置。
背景技术
目前,360度全景拍照技术已经较为广泛应用,通过360度全景拍照技术可以得到360度全景图像或360度全景视频。在一些情境下,当播放某一图像或视频文件时,通常需要识别是否为360度全景视频,以进行相应的播放设置,体现360度全景的效果。现有的识别方式通常为根据图像文件或视频文件中的图像帧的长宽比和/或RGB(红绿蓝三原色)值来进行判断识别,往往不够准确。
发明内容
本发明实施例公开一种360度全景图像及360度全景视频的识别方法、用于识别360度全景图像及360度全景视频的线性分类器的建立方法及电子装置,能够准确地识别出360度全景图像或360度全景视频。
本发明实施例公开的360度全景图像的识别方法,识别方法包括:获取待识别的图像文件;将图像文件进行特征提取,得到包括第一特征值、第二特征值及第三特征值的三维特征值;将三维特征值变换成二维特征值;将二维特征值与一线性分类器定义的第一区域及第二区域进行比较,确定二维特征值所分布的区域;当二维特征值分布的区域为第一区域时,确认待识别的图像文件为360度全景图像;以及当二维特征值分布的区域为第二区域时,确定待识别的图像文件不为360度全景图像。
本发明实施例公开的360度全景视频的识别方法,识别方法包括:获取待 识别的视频文件;从待识别的视频文件中提取至少一帧代表图像帧;对每一代表图像帧进行特征提取,得到每一代表图像帧的第一特征值、第二特征值及第三特征值的三维特征值;将每一代表图像帧的三维特征值变换成二维特征值;将每一代表图像帧的二维特征值与一线性分类器定义的第一区域及第二区域进行比较,确定二维特征值所分布的区域;当某一代表图像帧的二维特征值分布的区域为第一区域时,确认代表图像帧为360度全景图像;当某一代表图像帧的二维特征值分布的区域为第二区域时,确定代表图像帧不为360度全景图像;以及在至少一帧代表图像帧都识别完以后,根据至少一帧代表图像帧中的360度全景图像的比例确定待识别的视频文件是否为360度全景视频。
本发明实施例公开的线性分类器的建立方法,包括步骤:预先将第一预设数量的360度全景图像存储至第一文件夹以及第二预设数量的非360度全景图像存储至第二文件夹;将每一360度全景图像进行第一特征值、第二特征值及第三特征值的特征提取而形成每一360度全景图像的三维特征值并存储至第一文件夹;将每一非360度全景图像进行第一特征值、第二特征值及第三特征值的特征提取而形成每一非360度全景图像的三维特征值并存储至第二文件夹;根据第一预设数量的360度全景图像的三维特征值以及第二预设数量的非360度全景图像的三维特征值生成三维散点图,其中每一360度全景图像或一非360度全景图像的三维特征值对应为三维散点图中的一个特征点;将三维散点图转换成二维散点图;以及根据二维散点图上360度全景图像的特征值以及非360度全景图像的特征值的分布确定360度全景图像的特征值以及非360度全景图像的特征值的分界线,以得到线性分类器,其中,分界线一侧的360度全景图像的特征值所在区域为第一区域,分界线另一侧的非360度全景图像的特征值所在区域为第二区域。
本发明实施例公开的电子装置,包括处理器以及存储器,存储器中存储有待识别的图像文件、待识别的视频文件、若干已经识别出的360度全景图像和非360度全景图像,处理器用于执行前述的360度全景图像的识别方法来识别待识别的图像文件是否为360度全景图像,和/或用于执行前述的360度全景视频的识别方法来识别待识别的视频文件是否为360度全景图像,和/或用于 执行前述线性分类器的建立方法来建立线性分类器。
本发明的360度全景图像及360度全景视频的识别方法、线性分类器的建立方法及电子装置,通过得到待识别图像和/或待识别视频中的图像帧的二维特征值,然后与线性分类器定义的第一区域及第二区域进行比较,确定二维特征值位于的区域则可确定待识别图像是否为360度全景图像,或进一步确定待识别视频是否为360度视频,提高了识别的速度,并可有效提高识别准确度。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一实施例中的360度全景图像的识别方法的流程图。
图2为图1中步骤S12在本发明一实施例中的子流程图。
图3为本发明一实施例中的图像文件的示意图。
图4为本发明一实施例中的360度全景视频的识别方法的流程图。
图5为本发明一实施例中线性分类器的建立方法的流程图。
图6为本发明一实施例中的三维散点图的示意图。
图7为本发明一实施例中的二维散点图的示意图。
图8为本发明另一实施例中的二维散点图的示意图。
图9为本发明一实施例中的电子装置的结构框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性 劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,为本发明一实施例中的360度全景图像的识别方法的流程图。其中,360度全景图像的识别方法并不限于如下的执行顺序。360度全景图像的识别方法包括步骤:
S11:获取待识别的图像文件。
S12:将图像文件进行特征提取,得到包括第一特征值、第二特征值及第三特征值的三维特征值。
S13:将三维特征值变换成二维特征值。在一些实施例中,步骤S13具体包括:通过一预设的三维坐标变换矩阵将三维特征值变换成二维特征值。进一步的,通过将三维特征值与三维坐标变换矩阵相乘而得到对应的包括两个维度特征的二维特征值。
S14:将二维特征值与一线性分类器定义的第一区域及第二区域进行比较,确定二维特征值所分布的区域。在一些实施例中,二维特征值与线性分类器定义的第一区域及第二区域位于同一坐标体系中,线性分类器定义的第一区域对应一第一坐标集合,第二区域对应一第二坐标集合,二维特征值对应一坐标,通过将二维特征值的坐标与第一坐标集合以及第二坐标集合进行比较,判断二维特征值的坐标位于第一坐标集合还是第二坐标集合,当二维特征值对应的坐标位于第一坐标集合中时,确定二维特征值所处的区域为第一区域,以及当二维特征值对应的坐标位于第二坐标集合中时,确定二维特征值所处的区域为第二区域。
S15:当二维特征值分布的区域为第一区域时,确认待识别的图像文件为360度全景图像。
S16:当二维特征值分布的区域为第二区域时,确定待识别的图像文件不为360度全景图像。
其中,第一区域为线性分类器中定义的360度全景图像的二维特征值分布的区域,第二区域为线性分类器中定义的非360度全景图像的二维特征值分布的区域。
从而,本申请中,通过获取图像文件的二维特征值与一预先设定的线性分类器进行比较即可快速确定出图像文件是否为360度全景图像,识别过程更简 单且更准确。
请一并参阅图2及图3,图2为步骤S12在一实施例中的子流程图,图3为图像文件M1的示意图,如图3所示,图像文件M1包括m*n个像素点P1,即m行n列的像素点P1,其中m、n为大于1的正整数,m和n可相等或不相等。步骤S12包括:
S121:获取图像文件M1的第一行C1、最后一行Cm、第一列L1以及最后一列Ln的像素点的灰度值。在一些实施例中,步骤S122获取的为图像文件M1的第一行C1、最后一行Cm、第一列L1以及最后一列Ln的所有像素点的灰度值。其中,第一行C1可为图像文件M1第一行,最后一行Cm可为图像文件M1的最后一行,第一列L1可为图像文件M1的第一列,最后一列Ln可为图像文件M1的最后一列。
S123:从第一行C1、最后一行Cm分别提取若干个行采样点的灰度值,以及从第一列L1以及最后一列Ln分别提取若干个列采样点的灰度值。在一些实施例中,为从第一行C1、最后一行Cm以均匀间隔分别提取第一预设个行采样点的灰度值;以及从第一列L1以及最后一列Ln以均匀间隔分别提取第二预设个列采样点的灰度值。在一些实施例中,如果图像文件M1的像素点太少,则可复制图像文件M1的对应行或列的部分像素点补充至若干个行采样点或列采样点中。其中,在一些实施例中,若干个行采样点与列采样点的数量可相等或不相等,例如若干个行采样点为300个,若干个列采样点为150个。
S125:计算第一行C1及最后一行Cm的若干个行采样点的灰度值的方差的均值得到第一特征值。
具体的,为分别计算第一行C1的若干个行采样点的灰度值的方差以及最后一行Cm的若干个行采样点的灰度值的方差后对两个方差求均值得到第一特征值。设第一行C1的若干个行采样点的灰度值的方差为F1,最后一行Cm的若干个行采样点的灰度值的方差为F2,则第一特征值=(F1+F2)/2。第一行C1的若干个行采样点的灰度值的方差代表了第一行C1的若干个行采样点的灰度值之差,最后一行Cm的若干个行采样点的灰度值的方差代表了最后一行Cm的若干个行采样点的灰度值之差。第一行C1灰度值的方差与最后一行Cm的若干个行采样点的灰度值的方差的均值,即第一特征值代表了第一行C1与 最后一行Cm的所有行采样点的灰度值之差。其中,若图像文件M1为360度全景图像,一般第一行C1的若干行采样点的灰度值的方差与最后一行Cm的若干个行采样点的灰度值的方差均会很小,接近于零。
S127:计算第一列L1及最后一列Ln的若干个列采样点的灰度值的方差的均值得到第二特征值。具体的,为分别计算得到第一列L1的若干个列采样点的灰度值的方差以及最后一列Ln的若干个列采样点的灰度值的方差后,对两个方差求均值得到第二特征值。设第一列L1的若干个列采样点的灰度值的方差为F3,最后一列Ln的若干个列采样点的灰度值的方差为F4,第二特征值=(F3+F4)/2。
S129:分别计算第一列L1的若干个列采样点的灰度值与最后一列Ln对应位置的列采样点的灰度值的差值的平方得到若干差值的平方,然后计算得到的若干差值的平方的平均值得到第三特征值。
具体的,第一列L1中的若干个列采样点的位置与最后一列Ln的若干个列采样点的位置一一对应,通过分别计算第一列L1的列采样点与最后一列Ln对应位置处的列采样点之间的差值,然后对差值进行平方,分别得到第一列L1的各个列采样点与最后一列Ln对应位置处的列采样点的灰度值的差值的平方,从而得到若干个差值的平方。例如,计算第一列L1的第一个列采样点与最后一列Ln对应位置处的第一个列采样点之间的灰度值的差值然后进行平方,得到第一个差值的平方,计算第一列的L1的第二个列采样点与最后一列Ln对应位置处的第二个列采样点之间的灰度值的差值然后进行平方,得到第二个差值的平方等等,从而得到若干个差值的平方。其中,若图像文件M1为360度全景图像,若干个差值的平方都很小,接近于零。
请参阅图4,为本发明一实施例中的360度全景视频的识别方法的流程图。如图4所示,360度全景视频的识别方法包括步骤:
S31:获取待识别的视频文件。
S32:从待识别的视频文件中提取至少一帧代表图像帧。
在一些实施例中,代表图像帧至少基于以下选取原则中的至少一种进行选取:1、选取视频文件中的关键帧作为代表图像帧,一般关键帧包含一个完整的帧画面,比其他类型帧具有更高的图像质量,关键帧往往包括一个摄像镜头 的开始时段,相邻的关键帧之间有较大的差异,有利于提高识别样本的多样性;2、选取画面变化丰富的帧图像作为代表图像帧;3、选取多个位于视频文件中的时间轴的位置覆盖的时间段超过预设值的多个图像帧作为多个代表图像帧,例如,设视频文件时长为2小时,则尽可能从开始到最后的时间段内间隔性地选择多个图像帧作为代表图像帧,多个图像帧的时间跨度可以为1小时50分钟等。
S33:对每一代表图像帧进行特征提取,得到每一代表图像帧的第一特征值、第二特征值及第三特征值的三维特征值。
S34:将每一代表图像帧的三维特征值变换成二维特征值。
S35:将每一代表图像帧的二维特征值与一线性分类器定义的第一区域及第二区域进行比较,确定二维特征值所分布的区域。在一些实施例中,二维特征值与线性分类器定义的第一区域及第二区域位于同一坐标体系中,线性分类器定义的第一区域对应一第一坐标集合,第二区域对应一第二坐标集合。每一代表图像帧的二维特征值对应一坐标,通过将每一代表图像帧的二维特征值的坐标与第一坐标集合以及第二坐标集合进行比较,判断二维特征值的坐标位于第一坐标集合还是第二坐标集合,当二维特征值对应的坐标位于第一坐标集合中时,确定对应的代表图像帧的二维特征值所处的区域为第一区域,当二维特征值对应的坐标位于第二坐标集合中时,确定对应的代表图像帧的二维特征值所处的区域为第二区域。
S36:当某一代表图像帧的二维特征值分布的区域为第一区域时,确认代表图像帧为360度全景图像。
S37:当某一代表图像帧的二维特征值分布的区域为第二区域时,确定代表图像帧不为360度全景图像。
S38:在至少一帧代表图像帧都识别完以后,根据至少一帧代表图像帧中的360度全景图像的比例确定待识别的视频文件是否为360度全景视频。具体的,判断至少一帧代表图像帧中的360度全景图像的比例是否大于或等于一预设比例;如果是,则确定视频文件为360度全景视频,如果否,则确定视频文件不为360度全景视频。其中,预设比例可为80%、100%等。
其中,步骤S33-S37分别对应图1中的步骤S12-S16。步骤S33-S37的更 具体的步骤请参见前述对步骤S12-S16的具体描述。即,任一个代表图像帧相当于一个图像文件,图4中识别任一个代表图像帧是否为360度全景图像的方法与图1中识别图像文件是否为360度全景图像的方法相同,同时也进一步包括图1中针对每个步骤的具体描述,例如包括图2中描述的针对步骤S12的子步骤。
例如,步骤S33可具体包括:提取每一代表图像帧的第一行、最后一行、第一列以及最后一列的像素点的像素值;从每一代表图像帧的第一行、最后一行分别提取若干个数行采样点,以及从每一代表图像帧的第一列以及最后一列分别提取若干个数列采样点;计算每一代表图像帧的第一行及最后一行的若干个数行采样点的方差的均值得到每一代表图像帧的第一特征值;计算每一代表图像帧的第一列及最后一列的若干个数列采样点的方差的均值得到每一代表图像帧的第二特征值;以及分别计算每一代表图像帧的第一列的若干个数列采样点与最有一列对应位置的采样点的差值的平方得到每一代表图像帧的若干差值的平方,然后计算得到的若干差值的平方的平均值得到每一代表图像帧的第三特征值。
同样的,本申请中,通过获取视频文件中各个代表图像帧的二维特征值,并与一预先设定的线性分类器进行比较即可快速确定出各个代表图像帧是否为360度全景图像,然后根据各个代表图像帧的识别结果可快速确定视频文件是否为360度视频文件,识别过程更简单且更准确。
请一并参阅图5-图7,图5为本发明一实施例中的线性分类器的建立方法的流程示意图。其中,图5中所示步骤可执行于前述的360度视频识别方法或360度图像识别方法之前,用于预先建立用于360度视频识别以及360度图像识别的线性分类器。线性分类器的建立方法包括:
S61:预先将第一预设数量的360度全景图像存储至第一文件夹以及第二预设数量的非360度全景图像存储至第二文件夹。
S62:将每一360度全景图像进行第一特征值、第二特征值及第三特征值的特征提取而形成每一360度全景图像的三维特征值并存储至第一文件夹。
S63:将每一非360度全景图像进行第一特征值、第二特征值及第三特征值的特征提取而形成每一非360度全景图像的三维特征值并存储至第二文件 夹。
S64:根据第一预设数量的360度全景图像的三维特征值以及第二预设数量的非360度全景图像的三维特征值生成三维散点图,其中每一360度全景图像或一非360度全景图像的三维特征值对应为三维散点图中的一个特征点。
如图6所示,三维散点图T1的三维坐标分别为以第一特征值、第二特征值以及第三特征值作为维度的坐标,第一预设数量的360度全景图像的三维特征值以及第二预设数量的非360度全景图像的三维特征值的每一个构成了三维散点图T1中的点。例如,如图6所示,其中的黑色点为非360度全景图像的三维特征值对应的点,白色点为360度全景图像的三维特征值对应的点。
S65:将三维散点图转换成二维散点图。
在一些实施例中,为通过预设的三维坐标变换矩阵将三维散点图中的所有的三维特征值转换为二维特征值,而得到所有二维特征值形成的二维散点图。其中,三维坐标变换矩阵与前面识别过程中的三维坐标变换矩阵是一样的,从而,保证在识别过程中的转换标准完全一样。如图7所示,二维散点图T2可以视为三维散点图以预设角度旋转,并投影到一使得其中的特征点尽量不重叠的二维平面上得到的。如图所示,代表非360度全景图像的三维特征值的黑色点与代表360度全景图像的三维特征值的白色点在二维散点图上呈现二维分布,更加直观。
S66:根据二维散点图上360度全景图像的特征值以及非360度全景图像的特征值的分布确定360度全景图像的特征值以及非360度全景图像的特征值的分界线J1,以得到线性分类器。其中,分界线一侧的360度全景图像的特征值所在区域为第一区域,即为如图7所示的白色点分布的区域A1,分界线另一侧的非360度全景图像的特征值所在区域为第二区域,即为如图7所示的黑色点分布的区域A2。在一些实施例中,线性分类器即为通过分界线J1分成了第一区域和第二区域的二维图。在另一些实施例中,线性分类器可以视为一二维坐标系中,通过分界线J1定义的坐标集合所分成的两个坐标集合。
如图7所示,分界线J1为黑色点与白色点之间的曲线,即第一区域和第二区域之间通过曲线分隔。如图8所示,在另一实施例中,分界线J1还可为黑色点与白色点之间的多段直线构成,即第一区域和第二区域之间通过多段直 线进行分隔。
其中,步骤S62中的将每一360度全景图像进行第一特征值、第二特征值及第三特征值的特征提取而形成每一360度全景图像的三维特征值以及步骤S63中的将每一非360度全景图像进行第一特征值、第二特征值及第三特征值的特征提取而形成每一非360度全景图像的三维特征值与图1中步骤S12相同。例如,步骤S62或S63包括:提取360度全景图像或非360度全景图像的第一行、最后一行、第一列以及最后一列的像素点的灰度值;从第一行、最后一行分别提取若干个行采样点的灰度值,以及从第一列以及最后一列分别提取若干个列采样点的灰度值;计算第一行及最后一行的若干个行采样点的灰度值的方差的均值得到第一特征值;计算第一列及最后一列的若干个列采样点的灰度值的方差的均值得到第二特征值;以及分别计算第一列的若干个列采样点的灰度值与最后一列对应位置的采样点的灰度值的差值的平方得到若干差值的平方,然后计算得到的若干差值的平方的平均值得到第三特征值。更具体的步骤可参考图2所示的流程图及其相关描述。
其中,前述的360度全景图像的识别方法中的步骤S14还可为:通过预设的向量叉乘算法计算二维特征值在第一区域及第二区域的分界线的哪一侧,从而确定二维特征值所处的区域为第一区域还是第二区域。
前述的360度全景视频的识别方法中的步骤S35还可为:通过预设的向量叉乘算法计算每一代表图像帧的二维特征值在第一区域及第二区域的分界线的哪一侧,从而确定每一代表图像帧的二维特征值所处的区域为第一区域还是第二区域。
具体的,可以将二维特征值与位于线性分类器的第一区域或第二区域中的点进行向量叉乘,通过“同向法”的原理,利用叉积来判断这两个点是否在分界线J1的同一侧,从而判断二维特征值为位于第一区域中还是第二区域中。
请参阅图9,为本发明一实施例中的电子装置100的结构框图。如图1所示,电子装置100包括处理器10及存储器20。
存储器20存储有待识别的图像文件和/或视频文件。其中,存储器20中存储的图像文件和/或视频文件为预先存储于存储器20中的,也可为临时从服务器下载或者从其他电子装置100接收的。其中,前述的线性分类器也存储于 存储器20中,且前述的第一文件夹和第二文件夹均为存储器20中的文件夹。
在一些实施例中,电子装置100还包括通信单元30,处理器10可预先通过通信单元30与服务器或其他电子装置建立通信连接,而从服务器或其他电子装置接收待识别的图像文件和/或视频文件,并存储于存储器20中。通信单元30可为有线或无线通信模块,例如可为有线网络接口单元、WIFI模组、蓝牙模组等。
处理器10用于对存储器20存储的待识别的图像文件和/或视频文件进行分析,识别是否为360度全景图像和/或360度全景视频。
其中,处理器10用于至少执行如图1-2及图5所示的任一方法来识别待识别的图像文件是否为360度全景图像。
处理器10并用于至少执行如图4-5所示方法步骤及图2所示的相关方法步骤来识别待识别的视频文件是否为360度全景视频。
在一些实施例中,存储器20中存储有若干程序指令,处理器10调用执行若干程序指令后,执行如图1-2及图5所示的任一方法来识别待识别的图像文件是否为360度全景图像,和/或执行如图4-5所示的方法步骤及图2所示的相关方法步骤来识别待识别的视频文件是否为360度全景视频。
在一些实施例中,存储器20还存储有若干已经识别出的360度全景图像和非360度全景图像。处理器10还用于执行或者调用执行若干程序指令后执行如图5所示线性分类器的建立方法。
例如,处理器10执行如下方法识别待识别的图像文件是否为360度全景图像:获取待识别的图像文件;将图像文件进行特征提取,得到第一特征值、第二特征值及第三特征值的三维特征值;将三维特征值变换成二维特征值;将二维特征值与一线性分类器定义的第一区域及第二区域进行比较,确定二维特征值所分布的区域;当二维特征值分布的区域为第一区域时,确认待识别的图像文件为360度全景图像;以及当二维特征值分布的区域为第二区域时,确定待识别的图像文件不为360度全景图像。
又例如,处理器10执行如下方法识别待识别的视频文件是否为360度全景视频:获取待识别的视频文件;从待识别的视频文件中提取至少一帧代表图像帧;对每一代表图像帧进行特征提取,得到每一代表图像帧的第一特征值、 第二特征值及第三特征值的三维特征值;将每一代表图像帧的三维特征值变换成二维特征值;将每一代表图像帧的二维特征值与一线性分类器定义的第一区域及第二区域进行比较,确定二维特征值所分布的区域;当某一代表图像帧的二维特征值分布的区域为第一区域时,确认代表图像帧为360度全景图像;当某一代表图像帧的二维特征值分布的区域为第二区域时,确定代表图像帧不为360度全景图像;以及根据至少一帧代表图像帧中的360度全景图像的比例确定待识别的视频文件是否为360度全景视频。
又例如,处理器10执行如下方法建立线性分类器:预先将第一预设数量的360度全景图像存储至第一文件夹以及第二预设数量的非360度全景图像存储至第二文件夹;将每一360度全景图像进行第一特征值、第二特征值及第三特征值的特征提取而形成每一360度全景图像的三维特征值并存储至第一文件夹;将每一非360度全景图像进行第一特征值、第二特征值及第三特征值的特征提取而形成每一非360度全景图像的三维特征值并存储至第二文件夹;根据第一预设数量的360度全景图像的三维特征值以及第二预设数量的非360度全景图像的三维特征值生成三维散点图,其中每一360度全景图像或一非360度全景图像的三维特征值对应为三维散点图中的一个特征点;将三维散点图转换成二维散点图;根据二维散点图上360度全景图像的特征值以及非360度全景图像的特征值的分布确定360度全景图像的特征值以及非360度全景图像的特征值的分界线,以得到线性分类器,其中,分界线一侧的360度全景图像的特征值所在区域为第一区域,分界线另一侧的非360度全景图像的特征值所在区域为第二区域。
其中,处理器40可为微控制器、微处理器、单片机、数字信号处理器等。
存储器20可为存储卡、固态存储器、微硬盘、光盘等任意可存储信息的存储设备。
在一些实施例中,本发明还提供一种计算机可读存储介质,计算机可读存储介质中存储有若干程序指令,若干程序指令供处理器10调用执行后,执行图1、图3-7的任一方法步骤,从而识别图像文件是否为360度全景图像和/或识别视频文件是否为360度全景视频。在一些实施例中,计算机存储介质即为存储器20,可为存储卡、固态存储器、微硬盘、光盘等任意可存储信息的 存储设备。
电子装置100可为手机、平板电脑、笔记本电脑、桌面型电脑等,也可为智能头盔,智能眼镜等头戴式设备。
从而,通过本发明的360度全景图像及360度全景视频的识别方法及电子装置,通过确定目标图像帧,然后分析目标图像帧的第一列的像素点与最后一列的像素点之间的灰度差值以及分析目标图像帧的第一行的像素点之间的灰度差值以及最后一行的像素点之间的灰度差值来判断目标图像帧是否为360度全景图像帧,继而判断对应的图像或视频是否为360度全景图像或360度全景视频,可有效提高识别准确度。
以上是本发明的优选实施例,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。

Claims (19)

  1. 一种360度全景图像的识别方法,其特征在于,所述识别方法包括:
    获取待识别的图像文件;
    将所述图像文件进行特征提取,得到包括第一特征值、第二特征值及第三特征值的三维特征值;
    将所述三维特征值变换成二维特征值;
    将所述二维特征值与一线性分类器定义的第一区域及第二区域进行比较,确定所述二维特征值所分布的区域;
    当所述二维特征值分布的区域为所述第一区域时,确认所述待识别的图像文件为360度全景图像;以及
    当所述二维特征值分布的区域为所述第二区域时,确定所述待识别的图像文件不为360度全景图像。
  2. 如权利要求1所述的360度全景图像的识别方法,其特征在于,所述步骤“将所述图像文件进行特征提取,得到包括第一特征值、第二特征值及第三特征值的三维特征值”包括:
    提取所述图像文件的第一行、最后一行、第一列以及最后一列的像素点的灰度值;
    从第一行、最后一行分别提取若干个行采样点的灰度值,以及从第一列以及最后一列分别提取若干个列采样点的灰度值;
    计算所述第一行及最后一行的若干个行采样点的灰度值的方差的均值得到所述第一特征值;
    计算所述第一列及最后一列的若干个列采样点的灰度值的方差的均值得到所述第二特征值;以及
    分别计算第一列的若干个列采样点的灰度值与所述最后一列对应位置的采样点的灰度值的差值的平方得到若干差值的平方,然后计算所述得到的若干差值的平方的平均值得到所述第三特征值。
  3. 如权利要求2所述的360度全景图像的识别方法,其特征在于,所述步骤“从第一行、最后一行分别提取若干个行采样点的灰度值,以及从第一列 以及最后一列分别提取若干个列采样点的灰度值”包括:
    从第一行、最后一行分别以均匀间隔提取第一预设个行采样点的灰度值;以及
    从第一列以及最后一列分别以均匀间隔提取第二预设个列采样点的灰度值。
  4. 如权利要求1-3任一项所述的360度全景图像的识别方法,其特征在于,所述方法还包括:
    预先将第一预设数量的360度全景图像存储至第一文件夹以及第二预设数量的非360度全景图像存储至第二文件夹;
    将每一360度全景图像进行第一特征值、第二特征值及第三特征值的特征提取而形成每一360度全景图像的三维特征值并存储至所述第一文件夹;
    将每一非360度全景图像进行第一特征值、第二特征值及第三特征值的特征提取而形成每一非360度全景图像的三维特征值并存储至所述第二文件夹;
    根据所述第一预设数量的360度全景图像的三维特征值以及所述第二预设数量的非360度全景图像的三维特征值生成三维散点图,其中每一360度全景图像或一非360度全景图像的三维特征值对应为所述三维散点图中的一个特征点;
    将所述三维散点图转换成二维散点图;
    根据二维散点图上所述360度全景图像的特征值以及所述非360度全景图像的特征值的分布确定所述360度全景图像的特征值以及所述非360度全景图像的特征值的分界线,以得到所述线性分类器,其中,所述分界线一侧的所述360度全景图像的特征值所在区域为所述第一区域,所述分界线另一侧的所述非360度全景图像的特征值所在区域为所述第二区域。
  5. 如权利要求4所述的360度全景图像的识别方法,其特征在于,所述步骤“将所述三维特征值变换成二维特征值”包括:
    通过一预设的三维坐标变换矩阵将所述三维特征值变换成二维特征值;
    所述步骤“将所述三维散点图转换成二维散点图”包括:
    通过所述预设的三维坐标变换矩阵将所述三维散点图中的所有的三维特征值转换为二维特征值,而得到所有二维特征值形成的二维散点图。
  6. 如权利要求4所述的360度全景图像的识别方法,其特征在于,所述步骤“将所述二维特征值与一线性分类器定义的第一区域及第二区域进行比较,确定所述二维特征值所分布的区域”包括:
    通过预设的向量叉乘算法计算所述二维特征值在所述第一区域及第二区域的分界线的哪一侧,从而确定所述二维特征值所处的区域为第一区域还是第二区域。
  7. 如权利要求1-5任一项所述的360度全景图像的识别方法,其特征在于,所述步骤“将所述二维特征值与一线性分类器定义的第一区域及第二区域进行比较,确定所述二维特征值所分布的区域”包括:
    将所述二维特征值对应的坐标值与所述第一区域对应的第一坐标集合以及第二区域对应的第二坐标集合进行比较;
    当所述二维特征值对应的坐标值位于所述第一坐标集合中时,确定所述二维特征值所处的区域为所述第一区域,以及当所述二维特征值对应的坐标值位于所述第二坐标集合中时,确定所述二维特征值所处的区域为所述第二区域。
  8. 一种360度全景视频的识别方法,其特征在于,所述识别方法包括:
    获取待识别的视频文件;
    从所述待识别的视频文件中提取至少一帧代表图像帧;
    对每一代表图像帧进行360度图像识别处理,包括:
    对每一代表图像帧进行特征提取,得到每一代表图像帧的第一特征值、第二特征值及第三特征值的三维特征值;
    将每一代表图像帧的三维特征值变换成二维特征值;
    将每一代表图像帧的二维特征值与一线性分类器定义的第一区域及第二区域进行比较,确定所述二维特征值所分布的区域;
    当某一代表图像帧的二维特征值分布的区域为所述第一区域时,确认所述代表图像帧为360度全景图像;
    当某一代表图像帧的二维特征值分布的区域为所述第二区域时,确定所述代表图像帧不为360度全景图像;以及
    在所述至少一帧代表图像帧都识别完以后,根据所述至少一帧代表图像帧中的360度全景图像的比例确定所述待识别的视频文件是否为360度全景视 频。
  9. 如权利要求8所述的360度全景视频的识别方法,其特征在于,所述步骤“对每一代表图像帧进行特征提取,得到包括第一特征值、第二特征值及第三特征值的三维特征值”包括:
    提取每一代表图像帧的第一行、最后一行、第一列以及最后一列的像素点的灰度值;
    从每一代表图像帧的第一行、最后一行分别提取若干个行采样点的灰度值,以及从每一代表图像帧的第一列以及最后一列分别提取若干个列采样点的灰度值;
    计算每一代表图像帧的所述第一行及最后一行的若干个行采样点的灰度值的方差的均值得到每一代表图像帧的所述第一特征值;
    计算每一代表图像帧的所述第一列及最后一列的若干个列采样点的灰度值的方差的均值得到每一代表图像帧的所述第二特征值;以及
    分别计算每一代表图像帧的第一列的若干个列采样点的灰度值与所述最后一列对应位置的采样点的灰度值的差值的平方得到每一代表图像帧的若干差值的平方,然后计算所述得到的若干差值的平方的平均值得到每一代表图像帧的所述第三特征值。
  10. 如权利要求9所述的360度全景视频的识别方法,其特征在于,所述步骤“从每一代表图像帧的第一行、最后一行分别提取若干个行采样点的灰度值,以及从每一代表图像帧的第一列以及最后一列分别提取若干个列采样点的灰度值”包括:
    从每一代表图像帧的第一行、最后一行分别以均匀间隔提取每一代表图像帧的第一预设个行采样点的灰度值;以及
    从每一代表图像帧的第一列以及最后一列分别以均匀间隔提取每一代表图像帧的第二预设个列采样点的灰度值。
  11. 如权利要求8-10任一项所述的360度全景视频的识别方法,其特征在于,所述方法还包括:
    预先将第一预设数量的360度全景图像存储至第一文件夹以及第二预设数量的非360度全景图像存储至第二文件夹;
    将每一360度全景图像进行第一特征值、第二特征值及第三特征值的特征提取而形成每一360度全景图像的三维特征值并存储至所述第一文件夹;
    将每一非360度全景图像进行第一特征值、第二特征值及第三特征值的特征提取而形成每一非360度全景图像的三维特征值并存储至所述第二文件夹;
    根据所述第一预设数量的360度全景图像的三维特征值以及所述第二预设数量的非360度全景图像的三维特征值生成三维散点图,其中每一360度全景图像或一非360度全景图像的三维特征值对应为所述三维散点图中的一个特征点;
    将所述三维散点图转换成二维散点图;
    根据二维散点图上所述360度全景图像的特征值以及所述非360度全景图像的特征值的分布确定所述360度全景图像的特征值以及所述非360度全景图像的特征值的分界线,以得到所述线性分类器,其中,所述分界线一侧的所述360度全景图像的特征值所在区域为所述第一区域,所述分界线另一侧的所述非360度全景图像的特征值所在区域为所述第二区域。
  12. 如权利要求11所述的360度全景视频的识别方法,其特征在于,所述步骤“每一代表图像帧的三维特征值变换成二维特征值”包括:
    通过一预设的三维坐标变换矩阵将每一代表图像帧的所述三维特征值变换成二维特征值;
    所述步骤“将所述三维散点图转换成二维散点图”包括:
    通过所述预设的三维坐标变换矩阵将所述三维散点图中的所有的三维特征值转换为二维特征值,而得到所有二维特征值形成的二维散点图。
  13. 如权利要求11所述的360度全景视频的识别方法,其特征在于,所述步骤“将每一代表图像帧的所述二维特征值与一线性分类器定义的第一区域及第二区域进行比较,确定所述二维特征值所分布的区域”包括:
    通过预设的向量叉乘算法计算每一代表图像帧的所述二维特征值在所述第一区域及第二区域的分界线的哪一侧,从而确定每一代表图像帧的所述二维特征值所处的区域为第一区域还是第二区域。
  14. 如权利要求8-12任一项所述的360度全景视频的识别方法,其特征在于,所述步骤“将每一代表图像帧的所述二维特征值与一线性分类器定义的 第一区域及第二区域进行比较,确定所述二维特征值所分布的区域”包括:
    将每一代表图像帧的所述二维特征值对应的坐标值与所述第一区域对应的第一坐标集合以及第二区域对应的第二坐标集合进行比较;
    当所述二维特征值对应的坐标值位于所述第一坐标集合中时,确定所述二维特征值所处的区域为所述第一区域,以及当所述二维特征值对应的坐标值位于所述第二坐标集合中时,确定所述二维特征值所处的区域为所述第二区域。
  15. 如权利要求8所述的360度全景视频的识别方法,其特征在于,所述步骤“根据所述至少一帧代表图像帧中的360度全景图像的比例确定所述待识别的视频文件是否为360度全景视频”包括:
    判断所述至少一帧代表图像帧中的360度全景图像的比例是否大于或等于一预设比例;
    如果是,则确定所述视频文件为360度全景视频,如果否,则确定所述视频文件不为360度全景视频。
  16. 一种线性分类器的建立方法,包括步骤:
    预先将第一预设数量的360度全景图像存储至第一文件夹以及第二预设数量的非360度全景图像存储至第二文件夹;
    将每一360度全景图像进行第一特征值、第二特征值及第三特征值的特征提取而形成每一360度全景图像的三维特征值并存储至所述第一文件夹;
    将每一非360度全景图像进行第一特征值、第二特征值及第三特征值的特征提取而形成每一非360度全景图像的三维特征值并存储至所述第二文件夹;
    根据所述第一预设数量的360度全景图像的三维特征值以及所述第二预设数量的非360度全景图像的三维特征值生成三维散点图,其中每一360度全景图像或一非360度全景图像的三维特征值对应为所述三维散点图中的一个特征点;
    将所述三维散点图转换成二维散点图;以及
    根据二维散点图上所述360度全景图像的特征值以及所述非360度全景图像的特征值的分布确定所述360度全景图像的特征值以及所述非360度全景图像的特征值的分界线,以得到所述线性分类器,其中,所述分界线一侧的所述360度全景图像的特征值所在区域为所述第一区域,所述分界线另一侧的所述 非360度全景图像的特征值所在区域为所述第二区域。
  17. 如权利要求16所述的线性分类器的建立方法,其特征在于,所述步骤“将每一360度全景图像进行第一特征值、第二特征值及第三特征值的特征提取而形成每一360度全景图像的三维特征值”或所述步骤“将每一非360度全景图像进行第一特征值、第二特征值及第三特征值的特征提取而形成每一非360度全景图像的三维特征值”包括:
    提取所述360度全景图像或非360度全景图像的第一行、最后一行、第一列以及最后一列的像素点的灰度值;
    从第一行、最后一行分别提取若干个行采样点的灰度值,以及从第一列以及最后一列分别提取若干个列采样点的灰度值;
    计算所述第一行及最后一行的若干个行采样点的灰度值的方差的均值得到所述第一特征值;
    计算所述第一列及最后一列的若干个列采样点的灰度值的方差的均值得到所述第二特征值;以及
    分别计算第一列的若干个列采样点的灰度值与所述最后一列对应位置的采样点的灰度值的差值的平方得到若干差值的平方,然后计算所述得到的若干差值的平方的平均值得到所述第三特征值。
  18. 如权利要求16所述的线性分类器的建立方法,其特征在于,所述步骤“将所述三维散点图转换成二维散点图”包括:
    通过所述预设的三维坐标变换矩阵将所述三维散点图中的所有的三维特征值转换为二维特征值,而得到所有二维特征值形成的二维散点图。
  19. 一种电子装置,包括处理器以及存储器,所述存储器中存储有待识别的图像文件、待识别的视频文件、若干已经识别出的360度全景图像和非360度全景图像,其特征在于,所述处理器用于执行如权利要求1-7任一项所述的方法来识别所述待识别的图像文件是否为360度全景图像,和/或用于执行如权利要求8-15任一项所述的方法来识别所述待识别的视频文件是否为360度全景图像,和/或用于执行如权利要求16-18任一项所述的方法来建立线性分类器。
PCT/CN2017/093011 2017-07-14 2017-07-14 全景图像、视频的识别方法、分类器建立方法及电子装置 WO2019010704A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/CN2017/093011 WO2019010704A1 (zh) 2017-07-14 2017-07-14 全景图像、视频的识别方法、分类器建立方法及电子装置
CN201780004656.2A CN108475338B (zh) 2017-07-14 2017-07-14 全景图像、视频的识别方法、分类器建立方法及电子装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2017/093011 WO2019010704A1 (zh) 2017-07-14 2017-07-14 全景图像、视频的识别方法、分类器建立方法及电子装置

Publications (1)

Publication Number Publication Date
WO2019010704A1 true WO2019010704A1 (zh) 2019-01-17

Family

ID=63266491

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2017/093011 WO2019010704A1 (zh) 2017-07-14 2017-07-14 全景图像、视频的识别方法、分类器建立方法及电子装置

Country Status (2)

Country Link
CN (1) CN108475338B (zh)
WO (1) WO2019010704A1 (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101394573A (zh) * 2008-10-30 2009-03-25 清华大学 一种基于特征匹配的全景图生成方法及***
CN101894262A (zh) * 2009-05-20 2010-11-24 索尼株式会社 对图像进行分类的方法和设备
US20120045095A1 (en) * 2010-08-18 2012-02-23 Canon Kabushiki Kaisha Image processing apparatus, method thereof, program, and image capturing apparatus
CN102609713A (zh) * 2011-01-20 2012-07-25 索尼公司 对图像进行分类的方法和设备
CN106778762A (zh) * 2016-12-31 2017-05-31 歌尔科技有限公司 360度全景图片的特征向量提取方法、识别方法和相应装置
CN106815598A (zh) * 2016-12-15 2017-06-09 歌尔科技有限公司 一种360度全景图片的识别方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101394573A (zh) * 2008-10-30 2009-03-25 清华大学 一种基于特征匹配的全景图生成方法及***
CN101894262A (zh) * 2009-05-20 2010-11-24 索尼株式会社 对图像进行分类的方法和设备
US20120045095A1 (en) * 2010-08-18 2012-02-23 Canon Kabushiki Kaisha Image processing apparatus, method thereof, program, and image capturing apparatus
CN102609713A (zh) * 2011-01-20 2012-07-25 索尼公司 对图像进行分类的方法和设备
CN106815598A (zh) * 2016-12-15 2017-06-09 歌尔科技有限公司 一种360度全景图片的识别方法和装置
CN106778762A (zh) * 2016-12-31 2017-05-31 歌尔科技有限公司 360度全景图片的特征向量提取方法、识别方法和相应装置

Also Published As

Publication number Publication date
CN108475338A (zh) 2018-08-31
CN108475338B (zh) 2020-04-14

Similar Documents

Publication Publication Date Title
CN109359575B (zh) 人脸检测方法、业务处理方法、装置、终端及介质
US11475238B2 (en) Keypoint unwarping for machine vision applications
US10573018B2 (en) Three dimensional scene reconstruction based on contextual analysis
KR102281184B1 (ko) 영상 보정 방법 및 장치
US20200074646A1 (en) Method for obtaining image tracking points and device and storage medium thereof
US11263442B1 (en) Systems and methods for passive-subject liveness verification in digital media
WO2018082185A1 (zh) 图像处理方法和装置
KR20170019359A (ko) 국부적 적응형 히스토그램 등화
EP3644599B1 (en) Video processing method and apparatus, electronic device, and storage medium
WO2017054442A1 (zh) 一种图像信息识别处理方法及装置、计算机存储介质
WO2017215527A1 (zh) Hdr场景侦测方法、装置和计算机存储介质
US10429271B2 (en) Camera testing using reverse projection
US20220328019A1 (en) Display terminal adjustment method and display terminal
CN112241933A (zh) 人脸图像处理方法、装置、存储介质及电子设备
US11373449B1 (en) Systems and methods for passive-subject liveness verification in digital media
US11315360B2 (en) Live facial recognition system and method
CN106934595B (zh) 建筑工程管理***工程进度数据录入方法
KR20130120175A (ko) 캐리커처 자동 생성 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
WO2018147059A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
EP2423850B1 (en) Object recognition system and method
US10296806B2 (en) Recognition-based color corrections
WO2019010704A1 (zh) 全景图像、视频的识别方法、分类器建立方法及电子装置
WO2017101570A1 (zh) 照片的处理方法及处理***
JP2018147019A (ja) オブジェクト抽出装置、オブジェクト認識システム及びメタデータ作成システム
EP2932466B1 (en) Method and apparatus for segmentation of 3d image data

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17917490

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17917490

Country of ref document: EP

Kind code of ref document: A1