CN109146892A - 一种基于美学的图像裁剪方法及装置 - Google Patents
一种基于美学的图像裁剪方法及装置 Download PDFInfo
- Publication number
- CN109146892A CN109146892A CN201810813038.9A CN201810813038A CN109146892A CN 109146892 A CN109146892 A CN 109146892A CN 201810813038 A CN201810813038 A CN 201810813038A CN 109146892 A CN109146892 A CN 109146892A
- Authority
- CN
- China
- Prior art keywords
- image
- marking area
- cut
- aesthstic
- bounding box
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例提供了一种基于美学的图像裁剪方法及装置,属于计算机技术领域。所述方法包括:获取待裁剪图像;根据显著性检测算法,计算所述待裁剪图像对应的显著图,其中,所述显著图包括所述待裁剪图像对应的显著度图像,所述显著度图像是灰度图像;通过显著区域提取算法,在所述显著图中确定显著边界框;在所述待裁剪图像中,确定所述显著边界框对应的显著区域,其中,所述显著区域为所述待裁剪图像中所述显著边界框包含的图像区域;根据美学区域识别算法和所述显著区域,确定包含所述显著区域的美学区域边界框;基于所述美学区域边界框,对所述待裁剪图像进行裁剪,得到目标图像。采用本发明,可以提高确定裁剪框的效率。
Description
技术领域
本申请涉及计算机技术领域,特别是涉及一种基于美学的图像裁剪方法及装置。
背景技术
图像除了包含语义信息外,还具有美学质量。一张具有高美学质量的图像更能表达图像的语义信息,更受用户的喜欢。然而,随着数码相机和智能手机的普及,网络中的大部分图像均由不具备专业摄影知识的用户拍摄,图像的美学质量低。因此,基于网络中的图像,获取具有高美学质量的图像成为热点研究问题。
由于图像构图是影响图像美学质量的重要因素,因此,人们一般通过裁剪图像的方式改变图像构图,进而提高图像的美学质量。常用的图像裁剪方法的处理流程为:1、电子设备根据显著边界框获取算法以及待裁剪图像,获取待裁剪图像的显著边界框、以及显著边界框对应的坐标信息。2、电子设备以该显著边界框为基准,根据显著边界框的坐标信息以及预设的坐标间隔阈值,依次生成包含显著边界框的多个候选裁剪框、以及每个候选裁剪框对应的候选裁剪区域;然后,电子设备通过美学质量分类网络,得到每个候选裁剪区域的分类结果,分类结果是取值范围在0到1之间的概率值,再确定最大概率值;之后,电子设备将最大概率值对应的候选裁剪框作为裁剪框,裁剪框对应的图像区域为美学区域;3、电子设备基于裁剪框,对待裁剪图像进行裁剪,得到美学质量高的图像。其中,电子设备包括服务器与终端,美学区域是图像中具有高美学质量的区域。
然而,该图像裁剪方法需要生成数以千计的候选裁剪框,并逐一确定每个候选裁剪框对应的概率值,因此,对于单个待裁剪图像,确定裁剪框所需的时间长,确定裁剪框的效率低。
发明内容
本申请实施例的目的在于提供一种基于美学的图像裁剪方法及装置,以提高确定裁剪框的效率。具体技术方案如下:
第一方面,提供了一种基于美学的图像裁剪方法,所述方法包括:
获取待裁剪图像;
根据显著性检测算法,计算所述待裁剪图像对应的显著图,其中,所述显著图包括所述待裁剪图像对应的显著度图像,所述显著度图像是灰度图像;
通过显著区域提取算法,在所述显著图中确定显著边界框;
在所述待裁剪图像中,确定所述显著边界框对应的显著区域,其中,所述显著区域为所述待裁剪图像中所述显著边界框包含的图像区域;
根据美学区域识别算法和所述显著区域,确定包含所述显著区域的美学区域边界框;
基于所述美学区域边界框,对所述待裁剪图像进行裁剪,得到目标图像。
可选的,所述根据美学区域识别算法和所述显著区域,确定包含所述显著区域的美学区域边界框,包括:
获取所述显著区域对应的第一坐标信息,其中,所述第一坐标信息包括在预设的待裁剪图像坐标系中,所述显著边界框两个不相邻端点对应的像素点的坐标;
根据所述显著区域和美学区域识别算法,确定偏移比例向量,其中,所述偏移比例向量由所述显著区域上、下、左和右四个方向的坐标偏移量占美学区域边界框对应边长的百分比构成;
根据所述偏移比例向量和所述第一坐标信息,确定第二坐标信息,将所述第二坐标信息构成的边界框,作为美学区域边界框。
可选的,所述方法还包括:
获取预先存储的第一图像样本集,所述第一训练图像集包括多个第一图像样本,以及每个第一图像样本对应的显著图样本;
根据预设的第一初始神经网络、各所述第一图像样本、以及各所述第一图像样本对应的显著图样本,确定第一目标参数,其中,所述第一目标参数为所述第一初始神经网络包含的参数;
根据所述第一目标参数,确定所述显著性检测算法。
可选的,所述方法还包括:
获取预先存储的第二图像样本集,所述第二图像样本集包括多个第二图像样本,以及每个第二图像样本对应的显著区域样本、偏移比例向量样本;
基于所述第二图像样本集,对预设的第二初始神经网络进行训练,得到所述美学区域识别算法。
可选的,所述基于所述第二图像样本集,对预设的第二初始神经网络进行训练,得到所述美学区域识别算法,包括:
针对所述第二图像样本集,获取各所述第二图像样本对应的所述显著区域样本、以及所述偏移比例向量样本;
根据各所述第二图像样本的所述显著区域样本、所述偏移比例向量样本、以及预设的第二初始神经网络,确定第二目标参数,其中,所述第二目标参数为所述第二初始算法包含的参数;
根据所述第二目标参数和所述第二初始神经网络,确定所述美学区域识别算法。
第二方面,提供了一种基于美学的图像裁剪装置,所述装置包括:
第一获取模块,用于获取待裁剪图像;
计算模块,用于根据显著性检测算法,计算所述待裁剪图像对应的显著图,其中,所述显著图包括所述待裁剪图像对应的显著度图像,所述显著度图像是灰度图像;
第一确定模块,用于通过显著区域提取算法,在所述显著图中确定显著边界框;
第二确定模块,用于在所述待裁剪图像中,确定所述显著边界框对应的显著区域,其中,所述显著区域为所述待裁剪图像中所述显著边界框包含的图像区域;
第三确定模块,用于根据美学区域识别算法和所述显著区域,确定包含所述显著区域的美学区域边界框;
裁剪模块,用于基于所述美学区域边界框,对所述待裁剪图像进行裁剪,得到目标图像。
可选的,所述第三确定模块包括:
获取子模块,用于获取所述显著区域对应的第一坐标信息,其中,所述第一坐标信息包括在预设的待裁剪图像坐标系中,所述显著边界框两个不相邻端点对应的像素点的坐标;
第一确定子模块,用于根据所述显著区域和美学区域识别算法,确定偏移比例向量,其中,所述偏移比例向量由所述显著区域上、下、左和右四个方向的坐标偏移量占美学区域边界框对应边长的百分比构成;
第二确定子模块,用于根据所述偏移比例向量和所述第一坐标信息,确定第二坐标信息,将所述第二坐标信息构成的边界框,作为美学区域边界框。
可选的,所述装置还包括:
第二获取模块,用于获取预先存储的第二图像样本集,所述第二图像样本集包括多个第二图像样本,以及每个第二图像样本对应的显著区域样本、偏移比例向量样本;
第四确定模块,用于基于所述第二图像样本集,对预设的第二初始神经网络进行训练,得到所述美学区域识别算法。
第三方面,提供了一种电子设备,包括处理器和机器可读存储介质,所述机器可读存储介质存储有能够被所述处理器执行的机器可执行指令,所述处理器被所述机器可执行指令促使:实现第一方面所述的方法步骤。
第四方面,提供了一种机器可读存储介质,存储有机器可执行指令,在被处理器调用和执行时,所述机器可执行指令促使所述处理器:实现第一方面所述的方法步骤。
本发明实施例提供的一种基于美学的图像裁剪方法及装置,首先根据待裁剪图像和预先存储的显著性检测算法,获取待裁剪图像的显著图;再根据显著图和预先存储的显著区域提取算法,获取显著边界框;并根据显著边界框和待裁剪图像,确定显著区域。然后,根据显著区域和预先存储的美学区域识别算法,确定美学区域。之后,根据美学区域,对待裁剪图像进行裁剪,得到高美学质量图像。对于单个待裁剪图像,由于采用了美学区域识别算法确定显著区域对应的美学区域,能够提高确定裁剪框的效率。
当然,实施本申请的任一产品或方法必不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种基于美学的图像裁剪方法的方法流程图;
图2a为本发明实施例提供的一种待裁剪图像的示意图;
图2b为本发明实施例提供的一种待裁剪图像对应显著图的示意图;
图2c为本发明实施例提供的一种待裁剪图像对应显著区域的示意图;
图2d为本发明实施例提供的一种待裁剪图像对应美学区域边界框的示意图;
图2e为本发明实施例提供的一种待裁剪图像对应目标图像的示意图;
图3为本发明实施例提供的一种基于美学的图像裁剪方法的方法流程图;
图4为本发明实施例提供的一种待裁剪图像坐标系的示意图;
图5为本发明实施例提供的一种基于美学的图像裁剪方法的方法流程图;
图6为本发明实施例提供的一种基于美学的图像裁剪方法的方法流程图;
图7为本发明实施例提供的一种基于美学的图像裁剪方法的方法流程图;
图8为本发明实施例提供的一种基于美学的图像裁剪装置的结构示意图;
图9为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本发明实施例提供了一种基于美学的图像裁剪方法,可以应用于电子设备,比如图像搜索网站的服务器、智能手机、以及个人电脑。基于该方法,服务器可以对用户上传的图像进行裁剪,在保留原图像包含的语义信息的前提下,获得具有高美学质量的图像。智能手机可以在接收用户的拍照指令时,获取拍摄到的当前图像,然后,通过该方法计算当前图像的美学区域边界框,之后,在当前图像中显示该美学区域边界框,以便用户通过选取预设的裁剪功能,获得具有高美学质量的图像。
为了便于理解,将本发明实施例中的相关概念进行简要说明,具体如下:对于一个图像,显著对象是图像中占据面积较大且能够反映较大信息量的对象,也即,是用户看到该图像时的主要注意对象,比如,某用户针对一个建筑物进行拍摄得到一图像,该图像中还包括建筑物周围的树、汽车和垃圾箱等,则该图像中的显著对象为该建筑物。显著区域为包含了显著对象的区域,也是图像中用户最感兴趣,最能表现图像内容的区域。显著区域边界框是显著区域的边界框。
图像的显著图用于表示图像中所有像素点的显著概率,在显著图中,像素点的显著概率为0到1之间的数值,某一像素点的显著概率越大,该像素点的显著度越大,即该像素点更容易引起用户的关注。因此,显著图是图像对应的显著度图像。需要说明的是,某一图像的显著图与该图像的尺寸一致。
图像的美学质量代表一个图像具有的美感程度。美学区域为图像中具有美学质量的区域;相应的,美学区域边界框为美学区域的边界框。一般情况下,显著区域边界框与美学区域边界框均为矩形框。
如图1所示,该方法的具体处理流程如下:
步骤101,获取待裁剪图像。
在实施中,电子设备可以在接收到用户上传的图像后,将该图像作为待裁剪图像,获取待裁剪图像的图像数据。图像数据包括图像包含的多个像素点、以及各像素点在图像中的位置信息。位置信息包括某一像素点在图像中的相对位置。如图2a所示,本发明实施例提供了一个待裁剪图像的示意图。
电子设备也可以将该图像存储至预设的图像库中,当达到预设的处理周期时,电子设备根据预设的处理顺序,在图像库中获取某一图像作为待裁剪图像。例如,电子设备可以按照各图像上传时间的先后顺序,依次对各图像处理,或者,可以按照各图像的文件由大到小的顺序,依次对各图像处理,本实施例不做限定。
步骤102,根据显著性检测算法,计算待裁剪图像对应的显著图。
本发明实施例中,显著图是待裁剪图像对应的显著度图像,显著度图像可以是灰度图像,在显著图中,用白色表示具有最大显著概率的像素点,用黑色表示具有最小显著概率的像素点,某一像素点的显著概率越大,该像素点被显示为越接近于白色。因此,显著图中表示显著对象的多个像素点被显示为接近于白色。
在实施中,电子设备可以通过预设的显著性检测算法计算待裁剪图像的图像数据,得到待裁剪图像中各像素点的显著概率,然后,电子设备通过预设的线性映射算法,将各像素点的显著概率映射到图像的数值范围中,得到各像素点对应的图像数值,并基于各图像数值生成显著图。如图2b所示,本发明实施例提供了待裁剪图像对应显著图的示意图,在该显著图中,显著对象由被显示为接近于白色的多个像素点组成。
其中,电子设备通过显著性检测算法计算待裁剪图像的图像数据,得到待裁剪图像中各像素点显著概率的具体处理过程,以及电子设备通过预设的线性映射算法生成显著图的具体处理过程均为现有技术,此处不再赘述。
需要说明的是,显著性检测算法可以是任一能够将图像转换为显著图的算法,比如U-Net(U型网络)全卷积网络。
步骤103,通过显著区域提取算法,在显著图中确定显著边界框。
在实施中,电子设备可以存储预设的显著区域提取阈值,显著区域提取阈值为显著边界框包含的区域中各像素点的显著概率之和,占待裁剪图像中所有像素点的显著概率之和的比例,例如90%。
电子设备基于显著图中各像素点的显著概率,根据预设的显著区域提取算法,确定满足显著区域提取阈值的边界框,并将该边界框作为显著边界框。电子设备在显著图中,将显著边界框对应的像素点的位置信息,作为显著边界框的位置信息,进而将显著边界框的位置信息存储在预设的位置信息文件中。
需要说明的是,显著区域提取算法可以是任一能够基于显著图和显著区域提取阈值,确定显著图对应的边界框的算法,比如启发式裁剪算法。电子设备根据显著区域提取算法,获取显著图对应显著边界框的具体处理过程为现有技术,此处不再赘述。
步骤104,在待裁剪图像中,确定显著边界框对应的显著区域。
其中,显著区域为待裁剪图像中显著边界框包含的图像区域。
在实施中,由于显著图与待裁剪图像的尺寸相同,因此,电子设备可以根据显著边界框在显著图中的位置信息,确定显著边界框在待裁剪图像中的位置信息。然后,电子设备在待裁剪图像中,将显著边界框包含的图像区域作为显著区域。即,电子设备可以将位置信息文件中显著边界框在显著图中的位置信息,作为待裁剪图像中显著区域的位置信息。
如图2c所示,本发明实施例提供了待裁剪图像对应显著区域的示意图,其中,白色线框为显著边界框,白色线框包含的图像区域为显著区域。
步骤105,根据美学区域识别算法和显著区域,确定包含显著区域的美学区域边界框。
在实施中,电子设备可以通过预设的美学区域识别算法和显著区域,计算美学区域边界框的位置信息,然后电子设备通过美学区域边界框的位置信息,确定美学区域边界框。如图2d所示,本发明实施例提供了待裁剪图像对应美学区域边界框的示意图,其中,小的白色线框为显著边界框,大的白色线框为美学区域边界框。
需要说明的是,美学区域识别算法包括回归网络,美学区域边界框包含显著区域。
步骤106,基于美学区域边界框,对待裁剪图像进行裁剪,得到目标图像。
在实施中,电子设备根据美学区域边界框的位置信息,在待裁剪图像中,确定美学区域边界框包含的图像区域为待裁剪区域。然后,电子设备提取待裁剪区域包含的多个像素点、以及每个像素点的位置信息作为待裁剪区域的图像数据。之后,电子设备根据该图像数据,显示目标图像。
如图2e所示,本发明实施例提供了基于美学区域边界框对待裁剪图像进行裁剪,得到的目标图像的示意图。
具体的,如图3所示,根据美学区域识别算法和显著区域,确定包含显著区域的美学区域边界框的具体处理流程为:
步骤301,获取显著区域对应的第一坐标信息。
电子设备预设有待裁剪图像坐标系,待裁剪图像坐标系包括平面直角坐标系xOy。在待裁剪图像坐标系中,坐标零点为待裁剪图像的某一个端点,坐标单位为一个像素点。因此,像素点的位置信息包括坐标信息。电子设备将待裁剪图像x轴方向像素点的个数,作为待裁剪图像x轴方向的边长,相应的,将待裁剪图像y轴方向像素点的个数,作为待裁剪图像y轴方向的边长。
在实施中,电子设备在预设的位置信息文件中,获取显著边界框在显著图中的位置信息,并将该位置信息作为显著区域对应的第一坐标信息。其中,第一坐标信息包括在预设的待裁剪图像坐标系中,显著边界框两个不相邻端点对应的像素点的坐标。显著边界框中两个不相邻的端点包括显著边界框主对角线的两个端点。电子设备可根据第一坐标信息,确定显著区域在待裁剪图像坐标系中的位置。
例如,用表示显著区域对应的第一坐标信息,其中,s代表显著区域,和代表显著边界框某一端点的坐标,和代表显著边界框中与该端点不相邻的另一端点的坐标。当为{40,60,100,60}时,表示显著边界框的两个不相邻端点对应的像素点的坐标为(40,100)和(60,60),由于显著边界框为矩形框,可知显著边界框其他两个端点的坐标为(40,60)和(60,100)。
步骤302,根据显著区域和美学区域识别算法,确定偏移比例向量。
其中,偏移比例向量由显著区域上、下、左和右四个方向的坐标偏移量占美学区域边界框对应边长的百分比构成。本发明实施例中,偏移比例向量中的各百分比均为正数。
在实施中,电子设备在待裁剪图像中,根据显著区域的第一坐标信息,获取显著区域的图像数据。之后,电子设备通过美学区域识别算法计算显著区域的图像数据,得到的结果是由四个百分比组成的偏移比例向量。偏移比例向量包含的四个百分比分别代表显著区域上、下、左和右四个方向的坐标偏移量占美学区域边界框对应边长的百分比。待裁剪图像坐标系中上、下、左和右四个方向,可以分别代表y正轴、y负轴、x负轴和x正轴四个方向。
例如,用ha表示美学区域边界框y轴方向的边长,用wa表示美学区域边界框x轴方向的边长,ha为300,wa为400,当偏移比例向量中的第一个百分比为0.1时,待裁剪图像坐标系中向上方向,即y正轴方向,显著区域的坐标偏移量为美学区域边界框边长ha的0.1倍,则该坐标偏移量为30。其他三个方向以此类推,不再赘述。
步骤303,根据偏移比例向量和第一坐标信息,确定第二坐标信息,将第二坐标信息构成的边界框,作为美学区域边界框。
在实施中,电子设备根据显著区域的第一坐标信息,确定显著区域的边长,然后,通过偏移比例向量中各百分比和显著区域对应方向的边长,计算出美学区域边界框对应方向的边长。电子设备根据美学区域边界框对应边长、偏移比例向量,以及第一坐标信息,计算四个端点的坐标。电子设备基于四个端点的坐标构建边界框,并将该边界框作为美学区域边界框。
易知,本发明实施例中,美学区域边界框包括显著区域边界框。第二坐标信息包括在预设的待裁剪图像坐标系中,美学区域边界框两个不相邻端点对应的像素点的坐标。类似的,美学区域边界框的第二坐标信息,可以作为美学区域在待裁剪图像中的位置信息,美学区域边界框的边长与美学区域的对应边长相等。
本发明实施例提供了根据偏移比例向量和第一坐标信息,确定第二坐标信息的具体过程:
例如,如图4所示,在待裁剪图像坐标系xOy中,401表示待裁剪图像,待裁剪图像的尺寸为w*h,相应的,403表示显著区域对应的显著边界框,用ws表示显著区域x轴方向的边长,用hs表示显著区域y轴方向的边长;402表示美学区域边界框,用wa表示美学区域边界框x轴方向的边长,用ha表示美学区域边界框y轴方向的边长,a代表美学区域边界框对应的美学区域。
显著区域的第一坐标信息为用[Δyt,Δyb,Δxt,Δxb]表示偏移比例向量,其中,Δyt表示y正轴方向的坐标偏移量占ha的百分比,类似的,Δyb表示y负轴方向的坐标偏移量占ha的百分比;Δxt表示x负轴方向的坐标偏移量占wa的百分比;Δxb表示x正轴方向的坐标偏移量占wa的百分比。
电子设备根据第一坐标信息确定ws和hs,具体的计算方式为 然后,电子设备根据偏移比例向量和确定出的ws和hs,计算美学区域的wa和ha,具体的计算方式为:wa=ws/(1-Δxt-Δxb),ha=hs/(1-Δyt-Δyb)。之后,电子设备根据偏移比例向量、第一坐标信息和确定出的wa和ha,计算第二坐标信息,具体的计算方式如下:
如图5所示,本发明实施例还提供了一种显著性检测算法的训练方法,具体包括以下步骤:
步骤501,获取预先存储的第一图像样本集。
其中,电子设备中预先存储有第一图像样本集,第一训练图像集包括多个第一图像样本,以及每个第一图像样本对应的显著图样本。第一训练图像集包括SALICON(Saliency in Context,显著性)眼动数据集。
在实施中,电子设备可以在接收到预设的第一训练指令时,获取第一图像样本集。第一训练指令中可以包含第一图像样本集的标识,电子设备可以根据第一图像样本集的标识,获取第一图像样本集。
步骤502,根据预设的第一初始神经网络、各第一图像样本、以及各第一图像样本对应的显著图样本,确定第一目标参数。
其中,第一目标参数为第一初始神经网络包含的参数。第一初始神经网络包括多种全卷积神经网络,例如U-Net全卷积网络、SegNet(Semantic Image Segmentation Nets,图像语义分割)全卷积网络。
在实施中,电子设备针对第一图像样本集,将各第一图像样本以及各第一图像样本对应的显著图样本输入至预设的第一初始神经网络中,然后将第一初始神经网络的输出结果作为第一目标参数。
步骤503,根据第一目标参数,确定显著性检测算法。
如图6所示,本发明实施例还提供了一种美学区域识别算法的训练方法,具体包括以下步骤:
步骤601,获取预先存储的第二图像样本集。
在实施中,电子设备中预先存储有第二图像样本集,第二图像样本集包括多个第二图像样本,以及每个第二图像样本对应的显著区域样本、偏移比例向量样本。
第二图像样本包括AVA(Atomic Visual Action,原子视觉动作)数据集中分数超过6的高质量图像样本。
本发明实施例提供了一种电子设备确定第二图像样本集的方法,具体处理过程如下:
针对各第二图像样本,电子设备可以通过显著性检测算法获取该第二图像样本的显著图,通过显著区域提取算法获取该显著图对应的显著边界框,以及显著边界框的坐标信息。电子设备在第二图像样本中,根据显著边界框的坐标信息确定显著区域样本。由此,电子设备获得各第二图像样本对应的显著区域样本。
针对各第二图像样本,电子设备可以将该第二图像样本的坐标信息作为该第二图像样本对应的美学区域边界框的坐标信息,然后,通过美学区域边界框的坐标信息和显著边界框的坐标信息,确定该第二图像样本的偏移比例向量样本。由此,电子设备获得各第二图像样本对应的偏移比例向量样本。
电子设备通过各第二图像样本、以及每个第二图像样本对应的显著区域样本、偏移比例向量样本确定第二图像样本集。
电子设备可以在接收到预设的第二训练指令时,获取预先存储的第二图像样本集。电子设备也可以接收技术人员输入的第二图像样本集。
步骤602,基于第二图像样本集,对预设的第二初始神经网络进行训练,得到美学区域识别算法。
在实施中,电子设备将第二图像样本集作为训练样本,对预设的第二初始神经网络进行训练,将训练得到的神经网络作为美学区域识别算法。第二初始神经网络包括多种回归网络,多种回归网络的网络结构不同,网络结构包括回归网络中全连接层的摆放方式、神经元的个数。
具体的,如图7所示,基于第二图像样本集,对预设的第二初始神经网络进行训练,得到美学区域识别算法的具体处理过程为:
步骤701,针对第二图像样本集,获取各第二图像样本对应的显著区域样本、以及偏移比例向量样本。
在实施中,电子设备获取第二图像样本集包含的各第二图像样本,以及各第二图像样本对应的显著区域样本、以及偏移比例向量样本。
步骤702,根据各第二图像样本的显著区域样本、偏移比例向量样本、以及预设的第二初始神经网络,确定第二目标参数。
其中,第二目标参数为第二初始算法包含的参数。
在实施中,针对各第二图像样本,电子设备将该第二图像样本的显著区域样本输入到第二初始神经网络中,得到偏移比例向量。电子设备将某一第二图像样本的偏移比例向量与该第二图像样本对应的偏移比例向量样本,作为一组测试数据,由此,电子设备获得所有第二图像样本的测试数据。之后,电子设备通过误差反向传播算法和各第二图像样本的测试数据,确定第二初始神经网络的神经网络权值,并将得到的神经网络权值作为第二目标参数。
本发明实施例中,电子设备通过误差反向传播算法和各第二图像样本对应的测试数据,计算神经网络权值的具体过程为现有技术,此处不再赘述。
步骤703,根据第二目标参数和第二初始神经网络,确定美学区域识别算法。
本发明实施例提供的一种基于美学的图像裁剪方法及装置,首先根据待裁剪图像和预先存储的显著性检测算法,获取待裁剪图像的显著图;再根据显著图和预先存储的显著区域提取算法,获取显著边界框;并根据显著边界框和待裁剪图像,确定显著区域。然后,根据显著区域和预先存储的美学区域识别算法,确定美学区域。之后,根据美学区域,对待裁剪图像进行裁剪,得到高美学质量图像。对于单个待裁剪图像,由于采用了美学区域识别算法确定显著区域对应的美学区域,能够提高确定裁剪框的效率。
本发明实施例还提供了一种基于美学的图像裁剪装置,如图8所示,所述装置包括:
第一获取模块810,用于获取待裁剪图像;
计算模块820,用于根据显著性检测算法,计算所述待裁剪图像对应的显著图,其中,所述显著图包括所述待裁剪图像对应的显著度图像,所述显著度图像是灰度图像;
第一确定模块830,用于通过显著区域提取算法,在所述显著图中确定显著边界框;
第二确定模块840,用于在所述待裁剪图像中,确定所述显著边界框对应的显著区域,其中,所述显著区域为所述待裁剪图像中所述显著边界框包含的图像区域;
第三确定模块850,用于根据美学区域识别算法和所述显著区域,确定包含所述显著区域的美学区域边界框;
裁剪模块860,用于基于所述美学区域边界框,对所述待裁剪图像进行裁剪,得到目标图像。
可选的,所述第三确定模块包括:
获取子模块,用于获取所述显著区域对应的第一坐标信息,其中,所述第一坐标信息包括在预设的待裁剪图像坐标系中,所述显著边界框两个不相邻端点对应的像素点的坐标;
第一确定子模块,用于根据所述显著区域和美学区域识别算法,确定偏移比例向量,其中,所述偏移比例向量由所述显著区域上、下、左和右四个方向的坐标偏移量占美学区域边界框对应边长的百分比构成;
第二确定子模块,用于根据所述偏移比例向量和所述第一坐标信息,确定第二坐标信息,将所述第二坐标信息构成的边界框,作为美学区域边界框。
可选的,所述装置还包括:
第二获取模块,用于获取预先存储的第二图像样本集,所述第二图像样本集包括多个第二图像样本,以及每个第二图像样本对应的显著区域样本、偏移比例向量样本;
第四确定模块,用于基于所述第二图像样本集,对预设的第二初始神经网络进行训练,得到所述美学区域识别算法。
本发明实施例提供的一种基于美学的图像裁剪方法及装置,首先根据待裁剪图像和预先存储的显著性检测算法,获取待裁剪图像的显著图;再根据显著图和预先存储的显著区域提取算法,获取显著边界框;并根据显著边界框和待裁剪图像,确定显著区域。然后,根据显著区域和预先存储的美学区域识别算法,确定美学区域。之后,根据美学区域,对待裁剪图像进行裁剪,得到高美学质量图像。对于单个待裁剪图像,由于采用了美学区域识别算法确定显著区域对应的美学区域,能够提高确定裁剪框的效率。
本发明实施例还提供了一种电子设备,如图9所示,包括处理器901、通信接口902、存储器903和通信总线904,其中,处理器901,通信接口902,存储器903通过通信总线904完成相互间的通信,
存储器903,用于存放计算机程序;
处理器901,用于执行存储器903上所存放的程序时,以使该节点设备执行如下步骤,该步骤包括:
提供了一种基于美学的图像裁剪方法,所述方法包括:
获取待裁剪图像;
根据显著性检测算法,计算所述待裁剪图像对应的显著图,其中,所述显著图包括所述待裁剪图像对应的显著度图像,所述显著度图像是灰度图像;
通过显著区域提取算法,在所述显著图中确定显著边界框;
在所述待裁剪图像中,确定所述显著边界框对应的显著区域,其中,所述显著区域为所述待裁剪图像中所述显著边界框包含的图像区域;
根据美学区域识别算法和所述显著区域,确定包含所述显著区域的美学区域边界框;
基于所述美学区域边界框,对所述待裁剪图像进行裁剪,得到目标图像。
可选的,所述根据美学区域识别算法和所述显著区域,确定包含所述显著区域的美学区域边界框,包括:
获取所述显著区域对应的第一坐标信息,其中,所述第一坐标信息包括在预设的待裁剪图像坐标系中,所述显著边界框两个不相邻端点对应的像素点的坐标;
根据所述显著区域和美学区域识别算法,确定偏移比例向量,其中,所述偏移比例向量由所述显著区域上、下、左和右四个方向的坐标偏移量占美学区域边界框对应边长的百分比构成;
根据所述偏移比例向量和所述第一坐标信息,确定第二坐标信息,将所述第二坐标信息构成的边界框,作为美学区域边界框。
可选的,所述方法还包括:
获取预先存储的第一图像样本集,所述第一训练图像集包括多个第一图像样本,以及每个第一图像样本对应的显著图样本;
根据预设的第一初始神经网络、各所述第一图像样本、以及各所述第一图像样本对应的显著图样本,确定第一目标参数,其中,所述第一目标参数为所述第一初始神经网络包含的参数;
根据所述第一目标参数,确定所述显著性检测算法。
可选的,所述方法还包括:
获取预先存储的第二图像样本集,所述第二图像样本集包括多个第二图像样本,以及每个第二图像样本对应的显著区域样本、偏移比例向量样本;
基于所述第二图像样本集,对预设的第二初始神经网络进行训练,得到所述美学区域识别算法。
可选的,所述基于所述第二图像样本集,对预设的第二初始神经网络进行训练,得到所述美学区域识别算法,包括:
针对所述第二图像样本集,获取各所述第二图像样本对应的所述显著区域样本、以及所述偏移比例向量样本;
根据各所述第二图像样本的所述显著区域样本、所述偏移比例向量样本、以及预设的第二初始神经网络,确定第二目标参数,其中,所述第二目标参数为所述第二初始算法包含的参数;
根据所述第二目标参数和所述第二初始神经网络,确定所述美学区域识别算法。
机器可读存储介质可以包括RAM(Random Access Memory,随机存取存储器),也可以包括NVM(Non-Volatile Memory,非易失性存储器),例如至少一个磁盘存储器。另外,机器可读存储介质还可以是至少一个位于远离前述处理器的存储装置。
上述处理器可以是通用处理器,包括CPU(Central Processing Unit,中央处理器)、NP(Network Processor,网络处理器)等;还可以是DSP(Digital Signal Processing,数字信号处理器)、ASIC(Application Specific Integrated Circuit,专用集成电路)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
本发明实施例提供的一种基于美学的图像裁剪方法及装置,首先根据待裁剪图像和预先存储的显著性检测算法,获取待裁剪图像的显著图;再根据显著图和预先存储的显著区域提取算法,获取显著边界框;并根据显著边界框和待裁剪图像,确定显著区域。然后,根据显著区域和预先存储的美学区域识别算法,确定美学区域。之后,根据美学区域,对待裁剪图像进行裁剪,得到高美学质量图像。对于单个待裁剪图像,由于采用了美学区域识别算法确定显著区域对应的美学区域,能够提高确定裁剪框的效率。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的较佳实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本申请的保护范围内。
Claims (10)
1.一种基于美学的图像裁剪方法,其特征在于,所述方法包括:
获取待裁剪图像;
根据显著性检测算法,计算所述待裁剪图像对应的显著图,其中,所述显著图包括所述待裁剪图像对应的显著度图像,所述显著度图像是灰度图像;
通过显著区域提取算法,在所述显著图中确定显著边界框;
在所述待裁剪图像中,确定所述显著边界框对应的显著区域,其中,所述显著区域为所述待裁剪图像中所述显著边界框包含的图像区域;
根据美学区域识别算法和所述显著区域,确定包含所述显著区域的美学区域边界框;
基于所述美学区域边界框,对所述待裁剪图像进行裁剪,得到目标图像。
2.根据权利要求1所述的方法,其特征在于,所述根据美学区域识别算法和所述显著区域,确定包含所述显著区域的美学区域边界框,包括:
获取所述显著区域对应的第一坐标信息,其中,所述第一坐标信息包括在预设的待裁剪图像坐标系中,所述显著边界框两个不相邻端点对应的像素点的坐标;
根据所述显著区域和美学区域识别算法,确定偏移比例向量,其中,所述偏移比例向量由所述显著区域上、下、左和右四个方向的坐标偏移量占美学区域边界框对应边长的百分比构成;
根据所述偏移比例向量和所述第一坐标信息,确定第二坐标信息,将所述第二坐标信息构成的边界框,作为美学区域边界框。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取预先存储的第一图像样本集,所述第一训练图像集包括多个第一图像样本,以及每个第一图像样本对应的显著图样本;
根据预设的第一初始神经网络、各所述第一图像样本、以及各所述第一图像样本对应的显著图样本,确定第一目标参数,其中,所述第一目标参数为所述第一初始神经网络包含的参数;
根据所述第一目标参数,确定所述显著性检测算法。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取预先存储的第二图像样本集,所述第二图像样本集包括多个第二图像样本,以及每个第二图像样本对应的显著区域样本、偏移比例向量样本;
基于所述第二图像样本集,对预设的第二初始神经网络进行训练,得到所述美学区域识别算法。
5.根据权利要求4所述的方法,其特征在于,所述基于所述第二图像样本集,对预设的第二初始神经网络进行训练,得到所述美学区域识别算法,包括:
针对所述第二图像样本集,获取各所述第二图像样本对应的所述显著区域样本、以及所述偏移比例向量样本;
根据各所述第二图像样本的所述显著区域样本、所述偏移比例向量样本、以及预设的第二初始神经网络,确定第二目标参数,其中,所述第二目标参数为所述第二初始算法包含的参数;
根据所述第二目标参数和所述第二初始神经网络,确定所述美学区域识别算法。
6.一种基于美学的图像裁剪装置,其特征在于,所述装置包括:
第一获取模块,用于获取待裁剪图像;
计算模块,用于根据显著性检测算法,计算所述待裁剪图像对应的显著图,其中,所述显著图包括所述待裁剪图像对应的显著度图像,所述显著度图像是灰度图像;
第一确定模块,用于通过显著区域提取算法,在所述显著图中确定显著边界框;
第二确定模块,用于在所述待裁剪图像中,确定所述显著边界框对应的显著区域,其中,所述显著区域为所述待裁剪图像中所述显著边界框包含的图像区域;
第三确定模块,用于根据美学区域识别算法和所述显著区域,确定包含所述显著区域的美学区域边界框;
裁剪模块,用于基于所述美学区域边界框,对所述待裁剪图像进行裁剪,得到目标图像。
7.根据权利要求6所述的装置,其特征在于,所述第三确定模块包括:
获取子模块,用于获取所述显著区域对应的第一坐标信息,其中,所述第一坐标信息包括在预设的待裁剪图像坐标系中,所述显著边界框两个不相邻端点对应的像素点的坐标;
第一确定子模块,用于根据所述显著区域和美学区域识别算法,确定偏移比例向量,其中,所述偏移比例向量由所述显著区域上、下、左和右四个方向的坐标偏移量占美学区域边界框对应边长的百分比构成;
第二确定子模块,用于根据所述偏移比例向量和所述第一坐标信息,确定第二坐标信息,将所述第二坐标信息构成的边界框,作为美学区域边界框。
8.根据权利要求6所述的装置,其特征在于,所述装置还包括:
第二获取模块,用于获取预先存储的第二图像样本集,所述第二图像样本集包括多个第二图像样本,以及每个第二图像样本对应的显著区域样本、偏移比例向量样本;
第四确定模块,用于基于所述第二图像样本集,对预设的第二初始神经网络进行训练,得到所述美学区域识别算法。
9.一种电子设备,其特征在于,包括处理器和机器可读存储介质,所述机器可读存储介质存储有能够被所述处理器执行的机器可执行指令,所述处理器被所述机器可执行指令促使:实现权利要求1-5任一所述的方法步骤。
10.一种机器可读存储介质,其特征在于,存储有机器可执行指令,在被处理器调用和执行时,所述机器可执行指令促使所述处理器:实现权利要求1-5任一所述的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810813038.9A CN109146892B (zh) | 2018-07-23 | 2018-07-23 | 一种基于美学的图像裁剪方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810813038.9A CN109146892B (zh) | 2018-07-23 | 2018-07-23 | 一种基于美学的图像裁剪方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109146892A true CN109146892A (zh) | 2019-01-04 |
CN109146892B CN109146892B (zh) | 2020-06-19 |
Family
ID=64801470
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810813038.9A Active CN109146892B (zh) | 2018-07-23 | 2018-07-23 | 一种基于美学的图像裁剪方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109146892B (zh) |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109712164A (zh) * | 2019-01-17 | 2019-05-03 | 上海携程国际旅行社有限公司 | 图像智能剪裁方法、***、设备及存储介质 |
CN109886317A (zh) * | 2019-01-29 | 2019-06-14 | 中国科学院自动化研究所 | 基于注意力机制的通用图像美学评估方法、***及设备 |
CN110147833A (zh) * | 2019-05-09 | 2019-08-20 | 北京迈格威科技有限公司 | 人像处理方法、装置、***和可读存储介质 |
CN110456960A (zh) * | 2019-05-09 | 2019-11-15 | 华为技术有限公司 | 图像处理方法、装置及设备 |
CN110580678A (zh) * | 2019-09-10 | 2019-12-17 | 北京百度网讯科技有限公司 | 图像处理方法及装置 |
CN111199541A (zh) * | 2019-12-27 | 2020-05-26 | Oppo广东移动通信有限公司 | 图像质量评价方法、装置、电子设备及存储介质 |
CN111316319A (zh) * | 2019-03-15 | 2020-06-19 | 深圳市大疆创新科技有限公司 | 图像处理方法、电子设备及计算机可读存储介质 |
CN111461968A (zh) * | 2020-04-01 | 2020-07-28 | 北京字节跳动网络技术有限公司 | 图片处理方法、装置、电子设备和计算机可读介质 |
CN111461969A (zh) * | 2020-04-01 | 2020-07-28 | 北京字节跳动网络技术有限公司 | 用于处理图片的方法、装置、电子设备和计算机可读介质 |
CN111461964A (zh) * | 2020-04-01 | 2020-07-28 | 北京字节跳动网络技术有限公司 | 图片处理方法、装置、电子设备和计算机可读介质 |
CN111640123A (zh) * | 2020-05-22 | 2020-09-08 | 北京百度网讯科技有限公司 | 无背景图像的生成方法、装置、设备及介质 |
CN111696112A (zh) * | 2020-06-15 | 2020-09-22 | 携程计算机技术(上海)有限公司 | 图像自动裁剪方法、***、电子设备及存储介质 |
CN111768416A (zh) * | 2020-06-19 | 2020-10-13 | Oppo广东移动通信有限公司 | 照片裁剪方法及装置 |
CN112017193A (zh) * | 2020-08-24 | 2020-12-01 | 杭州趣维科技有限公司 | 一种基于视觉显著性和美学分数的图像裁切装置及方法 |
CN112541934A (zh) * | 2019-09-20 | 2021-03-23 | 百度在线网络技术(北京)有限公司 | 一种图像处理方法及装置 |
CN112700454A (zh) * | 2020-12-28 | 2021-04-23 | 北京达佳互联信息技术有限公司 | 图像裁剪方法、装置、电子设备及存储介质 |
CN113066008A (zh) * | 2020-01-02 | 2021-07-02 | 杭州喔影网络科技有限公司 | 一种拼图生成方法和设备 |
CN113205522A (zh) * | 2021-04-28 | 2021-08-03 | 华中科技大学 | 一种基于对抗域适应的图像智能裁剪方法及*** |
CN113538460A (zh) * | 2021-07-12 | 2021-10-22 | 中国科学院地质与地球物理研究所 | 一种页岩ct图像裁剪方法及*** |
CN113763291A (zh) * | 2021-09-03 | 2021-12-07 | 深圳信息职业技术学院 | 保持边界滤波算法的性能评价方法、智能终端及存储介质 |
CN114529715A (zh) * | 2022-04-22 | 2022-05-24 | 中科南京智能技术研究院 | 一种基于边缘提取的图像识别方法及*** |
WO2022127814A1 (zh) * | 2020-12-15 | 2022-06-23 | 影石创新科技股份有限公司 | 一种图像的显著性物体检测方法、装置、设备及存储介质 |
CN114911551A (zh) * | 2021-02-08 | 2022-08-16 | 花瓣云科技有限公司 | 显示方法及电子设备 |
WO2023093683A1 (zh) * | 2021-11-24 | 2023-06-01 | 北京字节跳动网络技术有限公司 | 图像剪裁方法、模型训练方法、装置、电子设备及介质 |
CN117152409A (zh) * | 2023-08-07 | 2023-12-01 | 中移互联网有限公司 | 基于多模态感知建模的图像裁剪方法、装置和设备 |
US11914850B2 (en) | 2019-06-30 | 2024-02-27 | Huawei Technologies Co., Ltd. | User profile picture generation method and electronic device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103544685A (zh) * | 2013-10-22 | 2014-01-29 | 华南理工大学 | 一种基于主体调整的图像构图美化方法及*** |
CN105100625A (zh) * | 2015-08-27 | 2015-11-25 | 华南理工大学 | 一种基于图像美学的人物图像辅助拍摄方法和*** |
CN105528757A (zh) * | 2015-12-08 | 2016-04-27 | 华南理工大学 | 一种基于内容的图像美学质量提升方法 |
CN107146198A (zh) * | 2017-04-19 | 2017-09-08 | 中国电子科技集团公司电子科学研究院 | 一种照片智能裁剪方法及装置 |
CN107392244A (zh) * | 2017-07-18 | 2017-11-24 | 厦门大学 | 基于深度神经网络与级联回归的图像美感增强方法 |
-
2018
- 2018-07-23 CN CN201810813038.9A patent/CN109146892B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103544685A (zh) * | 2013-10-22 | 2014-01-29 | 华南理工大学 | 一种基于主体调整的图像构图美化方法及*** |
CN105100625A (zh) * | 2015-08-27 | 2015-11-25 | 华南理工大学 | 一种基于图像美学的人物图像辅助拍摄方法和*** |
CN105528757A (zh) * | 2015-12-08 | 2016-04-27 | 华南理工大学 | 一种基于内容的图像美学质量提升方法 |
CN107146198A (zh) * | 2017-04-19 | 2017-09-08 | 中国电子科技集团公司电子科学研究院 | 一种照片智能裁剪方法及装置 |
CN107392244A (zh) * | 2017-07-18 | 2017-11-24 | 厦门大学 | 基于深度神经网络与级联回归的图像美感增强方法 |
Non-Patent Citations (1)
Title |
---|
WENGUAN WANG、JIANBING SHEN: "Deep Cropping via Attention Box Prediction and Aesthetics Assessment", 《2017 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 * |
Cited By (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109712164A (zh) * | 2019-01-17 | 2019-05-03 | 上海携程国际旅行社有限公司 | 图像智能剪裁方法、***、设备及存储介质 |
CN109886317A (zh) * | 2019-01-29 | 2019-06-14 | 中国科学院自动化研究所 | 基于注意力机制的通用图像美学评估方法、***及设备 |
CN109886317B (zh) * | 2019-01-29 | 2021-04-27 | 中国科学院自动化研究所 | 基于注意力机制的通用图像美学评估方法、***及设备 |
WO2020186385A1 (zh) * | 2019-03-15 | 2020-09-24 | 深圳市大疆创新科技有限公司 | 图像处理方法、电子设备及计算机可读存储介质 |
CN111316319A (zh) * | 2019-03-15 | 2020-06-19 | 深圳市大疆创新科技有限公司 | 图像处理方法、电子设备及计算机可读存储介质 |
EP3951574A4 (en) * | 2019-05-09 | 2022-06-01 | Huawei Technologies Co., Ltd. | IMAGE PROCESSING METHOD AND APPARATUS, AND DEVICE |
CN110456960A (zh) * | 2019-05-09 | 2019-11-15 | 华为技术有限公司 | 图像处理方法、装置及设备 |
CN110147833A (zh) * | 2019-05-09 | 2019-08-20 | 北京迈格威科技有限公司 | 人像处理方法、装置、***和可读存储介质 |
US12008761B2 (en) | 2019-05-09 | 2024-06-11 | Huawei Technologies Co., Ltd. | Image processing method and apparatus, and device |
WO2020224488A1 (zh) * | 2019-05-09 | 2020-11-12 | 华为技术有限公司 | 图像处理方法、装置及设备 |
US11914850B2 (en) | 2019-06-30 | 2024-02-27 | Huawei Technologies Co., Ltd. | User profile picture generation method and electronic device |
CN110580678A (zh) * | 2019-09-10 | 2019-12-17 | 北京百度网讯科技有限公司 | 图像处理方法及装置 |
CN112541934A (zh) * | 2019-09-20 | 2021-03-23 | 百度在线网络技术(北京)有限公司 | 一种图像处理方法及装置 |
CN112541934B (zh) * | 2019-09-20 | 2024-02-27 | 百度在线网络技术(北京)有限公司 | 一种图像处理方法及装置 |
CN111199541A (zh) * | 2019-12-27 | 2020-05-26 | Oppo广东移动通信有限公司 | 图像质量评价方法、装置、电子设备及存储介质 |
CN113066008A (zh) * | 2020-01-02 | 2021-07-02 | 杭州喔影网络科技有限公司 | 一种拼图生成方法和设备 |
CN111461968A (zh) * | 2020-04-01 | 2020-07-28 | 北京字节跳动网络技术有限公司 | 图片处理方法、装置、电子设备和计算机可读介质 |
CN111461964A (zh) * | 2020-04-01 | 2020-07-28 | 北京字节跳动网络技术有限公司 | 图片处理方法、装置、电子设备和计算机可读介质 |
CN111461968B (zh) * | 2020-04-01 | 2023-05-23 | 抖音视界有限公司 | 图片处理方法、装置、电子设备和计算机可读介质 |
CN111461964B (zh) * | 2020-04-01 | 2023-04-25 | 抖音视界有限公司 | 图片处理方法、装置、电子设备和计算机可读介质 |
CN111461969B (zh) * | 2020-04-01 | 2023-04-07 | 抖音视界有限公司 | 用于处理图片的方法、装置、电子设备和计算机可读介质 |
CN111461969A (zh) * | 2020-04-01 | 2020-07-28 | 北京字节跳动网络技术有限公司 | 用于处理图片的方法、装置、电子设备和计算机可读介质 |
CN111640123B (zh) * | 2020-05-22 | 2023-08-11 | 北京百度网讯科技有限公司 | 无背景图像的生成方法、装置、设备及介质 |
CN111640123A (zh) * | 2020-05-22 | 2020-09-08 | 北京百度网讯科技有限公司 | 无背景图像的生成方法、装置、设备及介质 |
KR20210047282A (ko) * | 2020-05-22 | 2021-04-29 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | 무배경 이미지의 생성 방법, 장치, 기기 및 매체 |
US11704811B2 (en) | 2020-05-22 | 2023-07-18 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for generating background-free image, device, and medium |
EP3846122A3 (en) * | 2020-05-22 | 2021-11-24 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for generating background-free image, device, and medium |
KR102466394B1 (ko) * | 2020-05-22 | 2022-11-11 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | 무배경 이미지의 생성 방법, 장치, 기기 및 매체 |
CN111696112B (zh) * | 2020-06-15 | 2023-04-07 | 携程计算机技术(上海)有限公司 | 图像自动裁剪方法、***、电子设备及存储介质 |
CN111696112A (zh) * | 2020-06-15 | 2020-09-22 | 携程计算机技术(上海)有限公司 | 图像自动裁剪方法、***、电子设备及存储介质 |
CN111768416B (zh) * | 2020-06-19 | 2024-04-19 | Oppo广东移动通信有限公司 | 照片裁剪方法及装置 |
CN111768416A (zh) * | 2020-06-19 | 2020-10-13 | Oppo广东移动通信有限公司 | 照片裁剪方法及装置 |
CN112017193A (zh) * | 2020-08-24 | 2020-12-01 | 杭州趣维科技有限公司 | 一种基于视觉显著性和美学分数的图像裁切装置及方法 |
WO2022127814A1 (zh) * | 2020-12-15 | 2022-06-23 | 影石创新科技股份有限公司 | 一种图像的显著性物体检测方法、装置、设备及存储介质 |
CN112700454B (zh) * | 2020-12-28 | 2024-05-14 | 北京达佳互联信息技术有限公司 | 图像裁剪方法、装置、电子设备及存储介质 |
CN112700454A (zh) * | 2020-12-28 | 2021-04-23 | 北京达佳互联信息技术有限公司 | 图像裁剪方法、装置、电子设备及存储介质 |
CN114911551A (zh) * | 2021-02-08 | 2022-08-16 | 花瓣云科技有限公司 | 显示方法及电子设备 |
CN113205522A (zh) * | 2021-04-28 | 2021-08-03 | 华中科技大学 | 一种基于对抗域适应的图像智能裁剪方法及*** |
CN113205522B (zh) * | 2021-04-28 | 2022-05-13 | 华中科技大学 | 一种基于对抗域适应的图像智能裁剪方法及*** |
CN113538460A (zh) * | 2021-07-12 | 2021-10-22 | 中国科学院地质与地球物理研究所 | 一种页岩ct图像裁剪方法及*** |
CN113538460B (zh) * | 2021-07-12 | 2022-04-08 | 中国科学院地质与地球物理研究所 | 一种页岩ct图像裁剪方法及*** |
CN113763291A (zh) * | 2021-09-03 | 2021-12-07 | 深圳信息职业技术学院 | 保持边界滤波算法的性能评价方法、智能终端及存储介质 |
CN113763291B (zh) * | 2021-09-03 | 2023-08-29 | 深圳信息职业技术学院 | 保持边界滤波算法的性能评价方法、智能终端及存储介质 |
WO2023093683A1 (zh) * | 2021-11-24 | 2023-06-01 | 北京字节跳动网络技术有限公司 | 图像剪裁方法、模型训练方法、装置、电子设备及介质 |
CN114529715A (zh) * | 2022-04-22 | 2022-05-24 | 中科南京智能技术研究院 | 一种基于边缘提取的图像识别方法及*** |
CN114529715B (zh) * | 2022-04-22 | 2022-07-19 | 中科南京智能技术研究院 | 一种基于边缘提取的图像识别方法及*** |
CN117152409A (zh) * | 2023-08-07 | 2023-12-01 | 中移互联网有限公司 | 基于多模态感知建模的图像裁剪方法、装置和设备 |
Also Published As
Publication number | Publication date |
---|---|
CN109146892B (zh) | 2020-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109146892A (zh) | 一种基于美学的图像裁剪方法及装置 | |
CN110163198B (zh) | 一种表格识别重建方法、装置和存储介质 | |
CN108520229B (zh) | 图像检测方法、装置、电子设备和计算机可读介质 | |
US9235759B2 (en) | Detecting text using stroke width based text detection | |
CN110738207A (zh) | 一种融合文字图像中文字区域边缘信息的文字检测方法 | |
CN110349082B (zh) | 图像区域的裁剪方法和装置、存储介质及电子装置 | |
CN109685055A (zh) | 一种图像中文本区域的检测方法及装置 | |
CN110163076A (zh) | 一种图像数据处理方法和相关装置 | |
CN111008935B (zh) | 一种人脸图像增强方法、装置、***及存储介质 | |
CN111738280A (zh) | 一种图像识别方法、装置、设备及可读存储介质 | |
Du et al. | Segmentation and sampling method for complex polyline generalization based on a generative adversarial network | |
CN109740585A (zh) | 一种文本定位方法及装置 | |
CN108021863B (zh) | 电子装置、基于图像的年龄分类方法及存储介质 | |
CN110414571A (zh) | 一种基于特征融合的网站报错截图分类方法 | |
CN112836625A (zh) | 人脸活体检测方法、装置、电子设备 | |
CN110147833A (zh) | 人像处理方法、装置、***和可读存储介质 | |
CN113837965B (zh) | 图像清晰度识别方法、装置、电子设备及存储介质 | |
CN111783561A (zh) | 审图结果修正方法、电子设备及相关产品 | |
CN113112511B (zh) | 试卷批改的方法、装置、存储介质及电子设备 | |
CN113570540A (zh) | 一种基于检测-分割架构的图像篡改盲取证方法 | |
CN113592720B (zh) | 图像的缩放处理方法、装置、设备、存储介质 | |
EP4174769A1 (en) | Method and apparatus for marking object outline in target image, and storage medium and electronic apparatus | |
CN110751004A (zh) | 二维码检测方法、装置、设备及存储介质 | |
CN114283431A (zh) | 一种基于可微分二值化的文本检测方法 | |
CN109635755A (zh) | 人脸提取方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |