CN115017418B - 基于强化学习的遥感影像推荐***及方法 - Google Patents
基于强化学习的遥感影像推荐***及方法 Download PDFInfo
- Publication number
- CN115017418B CN115017418B CN202210953208.XA CN202210953208A CN115017418B CN 115017418 B CN115017418 B CN 115017418B CN 202210953208 A CN202210953208 A CN 202210953208A CN 115017418 B CN115017418 B CN 115017418B
- Authority
- CN
- China
- Prior art keywords
- image
- recommendation
- reward
- user
- fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于强化学习的遥感影像推荐***及方法,涉及数据挖掘和推荐技术领域,所述***包括影像集获取模块、强化学习模块、用户反馈模块,其中,强化学习模块包括奖励模块、动作模块、状态模块、影像库模块、特征提取模块、特征融合模块。本发明结合强化学习和用户反馈,构建了合理的遥感影像反馈式推荐***,能够实现实时的反馈式遥感影像推荐,基于用户的反馈内容提供符合用户偏好的影像推荐。
Description
技术领域
本发明涉及数据挖掘和推荐技术领域,尤其涉及一种基于强化学习的遥感影像推荐***及方法。
背景技术
网络的普及给用户带来了大量的信息,满足了用户对信息的需求,但随着网络上信息的大幅增长,对于用户来说,这些信息中可能仅有小部分是需要的信息,很难从大量的信息中获取到所需的信息,这样就导致了信息超载的问题。为了解决信息超载的问题,推荐***应运而生,推荐***可以根据用户的需求和偏好给用户推荐感兴趣的信息、商品等。
在传统的推荐方式中,需要用户对商品的评价信息来体现用户对商品的偏好。而遥感影像与一般的商品或图片不同,遥感影像以景为单位,每景影像覆盖了大面积的真实地面,如资源三号卫星一景标准景面积是50公里×50公里幅宽、高分一号卫星一景标准景面积是32.5公里×32.5公里幅宽、高分二号卫星一景标准景面积是23.5公里×23.5公里幅宽。遥感影像包含的内容复杂繁多,对于整景遥感影像,用户难以给出一个完整客观且一致的评价,因而无法使用传统的推荐方式实现遥感影像推荐。目前在遥感领域尚未出现任何较为合理可行的推荐***。
发明内容
基于上述技术问题,本发明提供的基于强化学习的遥感影像推荐***能够根据用户的实时偏好进行推荐策略的调整,避免了冷启动问题;通过本发明的强化学习***实现了兼顾影像全局特征和局部特征的影像推荐。
为达到上述技术目的,本发明提供一种基于强化学习的遥感影像推荐***,所述***包括影像集获取模块、强化学习模块、用户反馈模块:
所述影像集获取模块用于获取推荐影像候选集和初始目标区域;
所述强化学习模块用于根据初始目标区域在推荐影像候选集中进行逐张影像选取,得到推荐影像集;
所述用户反馈模块用于获取用户对推荐影像集的用户反馈,基于用户反馈并结合推荐影像候选集得到筛选影像集或推荐结果;
所述强化学习模块和所述用户反馈模块在执行时为迭代过程,直至接收到用户停止推荐请求,停止迭代,所述用户反馈模块输出推荐结果,其中,所述用户停止推荐请求由所述用户反馈模块输出得到;
其中,所述强化学习模块包括:
奖励模块,用于构建强化学习的奖励项和回报函数;
动作模块,用于构建强化学习的动作空间,动作空间中的动作为从推荐影像候选集中逐个选取推荐影像;
状态模块,用于构建强化学习的状态空间,状态空间由已选取的推荐影像和未覆盖的目标区域经向量化后构成,其中,未覆盖的目标区域为从初始目标区域上去除已选取的推荐影像所覆盖的区域后的区域,输出推荐影像集;
影像库模块,用于存储筛选影像集并对其进行更新;
特征提取模块,用于对筛选影像集中的影像进行前景和后景特征提取,得到筛选影像集中的前景特征和后景特征;
特征融合模块,用于对筛选影像集中的单张影像的前景特征和后景特征进行特征融合,得到该单张影像的融合特征,进而得到筛选影像集中所有影像的融合特征集,对融合特征集进行聚类处理,得到的聚类中心作为融合聚类特征,并基于统计方法得到每个融合聚类特征对应的聚类程度值。
可选地,所述用户反馈模块,包括:
判定单元,用于接收用户的推荐请求并对其进行判定,所述用户的推荐请求为用户继续推荐请求或用户停止推荐请求,当推荐请求为用户继续推荐请求时跳转至影像筛选单元,当推荐请求为用户停止推荐请求时跳转至输出单元;
影像筛选单元,用于获取用户的影像筛选反馈,用户的影像筛选反馈为用户根据个人喜好从推荐影像集和推荐影像候选集中进行影像筛选,得到筛选影像集;
输出单元,用于输出用户停止推荐请求,所述用户停止推荐请求为第一停止推荐请求或第二停止推荐请求,所述第一停止推荐请求为停止推荐并输出推荐结果,所述第二停止推荐请求为停止推荐并进行替换后输出推荐结果。
可选地,所述特征提取模块,包括:
前景特征提取单元,用于对筛选影像集中的影像进行前景特征提取,得到每张影像的前景特征,所述前景特征的提取方法为使用显著性检测网络获取影像的前景掩膜,对前景掩膜进行特征提取;
后景特征提取单元,用于对筛选影像集中的影像进行后景特征提取,得到每张影像的后景特征;
所述前景特征和后景特征的提取方法包括HOG、SIFT、ORB、直方图、灰度共生矩阵、局部二值模式、Gabor、SURF、Harris和深度学习方法。
可选地,所述特征融合模块,包括:
融合单元,用于对筛选影像集中的每张影像的前景特征和后景特征进行特征融合,得到每张影像的融合特征;
聚类单元,用于对所述融合特征进行聚类处理,得到融合聚类特征和其对应的聚类程度值,其中,筛选影像集中的每张影像对每个融合聚类特征都有其相应的聚类程度值,即,其中,为聚类程度函数,为第i类融合聚类特征,I为影像,为影像I对应的第i类融合聚类特征的聚类程度值。
可选地,所述奖励模块,包括:
动态奖励更新单元,用于更新用户反馈奖励项的奖励值。
可选地,所述动态奖励更新单元,包括:
特征提取单元,用于对推荐影像候选集进行特征提取;
特征相似度计算单元,用于将推荐影像候选集中每张影像的特征分别与融合聚类特征一一进行相似度计算;
反馈奖励单元,用于根据相似度的计算结果选取与单张影像的特征的相似度最大的融合聚类特征,作为该单张影像的相似融合聚类特征,将相似融合聚类特征对应的聚类程度值以及最大相似度作为相应的该单张影像的用户反馈奖励。
可选地,所述各奖励项还对应其奖励值:
r(q)={(优,+1),(差,-3)},表示当前动作选取的推荐影像质量优时奖励值为+1,当前动作选取的推荐影像质量差时奖励值为-1;
r(c)={(大,+2),(小,-1)},表示当前动作选取的推荐影像对未覆盖的目标区域的覆盖率大于等于覆盖率阈值时奖励值为+1,当前动作选取的推荐影像对未覆盖的目标区域的覆盖率小于覆盖率阈值时奖励值为-1;
r(t)={(相近,+1),(不相近,-1)},表示当前动作选取的推荐影像与其余的已选取的推荐影像的时相相近时奖励值为+1,当前动作选取的推荐影像与其余的已选取的推荐影像的时相不相近时奖励值为-1;
另外,本发明还提供一种基于强化学习的遥感影像推荐方法,所述方法应用于上述所述的***中。
本发明提出了一种基于强化学习的遥感影像推荐***。该***包括影像集获取模块、强化学习模块、用户反馈模块,其中,强化学习模块包括奖励模块、动作模块、状态模块、影像库模块、特征提取模块、特征融合模块。相对于现有技术,本发明的有益效果至少包括:
(1)构建了一种反馈式的遥感影像推荐***,能够实现实时的推荐结果的更新;
(2)对用户反馈的内容进行特征分析并转换成奖励值,从而对回报函数进行更新,通过迭代执行上述过程来得到影像推荐结果,以此实现***根据用户的实时偏好进行推荐策略的调整,能够避免冷启动问题,实现精准的影像推荐;
(3)通过特征提取模块和特征融合模块对影像进行局部特征和全局特征的提取及融合,实现了兼顾影像全局特征和局部特征的影像推荐,充分利用了影像的特征进行推荐。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一实施例中基于强化学习的遥感影像推荐***的结构示意图;
图2为本发明一实施例中用户反馈模块展开后的基于强化学习的遥感影像推荐***的结构示意图;
图3为本发明一实施例的基于强化学习的遥感影像推荐方法的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。需要说明的是,只要不构成冲突,本发明中的各个实施例以及各实施例的各个特征可以相互结合,所形成的技术方案均在本发明的保护范围之内。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本发明的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
请参阅图1,本发明提供一种基于强化学习的遥感影像推荐***,所述***包括影像集获取模块、强化学习模块、用户反馈模块。
其中,影像集获取模块,用于获取推荐影像候选集和初始目标区域。
本实施例中,影像集获取模块用于根据用户的检索信息进行初步影像检索,检索信息可以为检索条件、样例图、语义信息,检索条件通常包括影像分辨率、星源、传感器、影像质量、影像等级、影像类型、目标区域。其中,目标区域可以为行政区划区域或用户指定的具体区域,作为初始目标区域。影像类型包括传统的以景为单位的影像和以可用域为单位的影像,可用域影像为去除影像质检缺陷区域的影像,相比传统的以整景为单位的影像,可用域影像的利用率高,在用于后续的镶嵌和解译场景时能够有更好的效果。获取满足上述检索信息的影像集,得到推荐影像候选集。
在另一实施例中,通过构建神经网络获得推荐影像候选集,神经网络的直接作用为对不同的影像进行评分。为避免输出过多类,将评分的范围设置为1-10,共输出10类分值的概率,最大概率的为最终得分。其中,由于一景遥感影像尺寸庞大,需要对影像按行和列进行固定步长滑动裁剪预处理,对裁剪后的影像分幅进行评分,将所有裁剪影像的评分进行加权求和,得到整张影像的评分。神经网络的输入层与裁剪后的影像尺寸相同为256*256,最后一层经过softmax层后输出10个节点对应1-10的10类分值概率。神经网络的结构为3个卷积层、3个最大池化层、2个全连接层、softmax层,激活函数使用ReLu。
根据所述影像的评分由大到小对影像进行排序,选取前预设数量影像,得到推荐影像候选集,在该实施例中预设数量设置为40。
强化学习模块,用于根据初始目标区域在推荐影像候选集中进行逐张影像选取,得到推荐影像集。
于本发明一具体实施例中,所述强化学习模块,包括:
奖励模块,用于构建强化学习的奖励项和回报函数。
动态奖励更新单元,用于更新用户反馈奖励项的奖励值。
于本发明一实施例中,动态奖励更新单元,包括:
特征提取单元,用于对推荐影像候选集进行特征提取。
其中,推荐影像候选集中每张影像的特征获取采用与所述后景特征提取相同的方法,保证特征的一致性。
特征相似度计算单元,用于将推荐影像候选集中每张影像的特征分别与融合聚类特征一一进行相似度计算。
其中,特征相似度计算的方式为:
(1)对于相同维度的特征,如同维度可解释特征或同样大小的特征图,使用欧式距离、巴氏距离、余弦相似度、杰卡得相似系数或皮尔森相关系数进行计算。其中,通过余弦相似度计算灰度直方图特征相似度的步骤为:
1)获得两张图像的灰度直方图;
2)将图像每4个灰度级划分成一个区,共64个区;
3)对每个区的4个值进行求和运算,得到64个值,以此作为该图像的向量;
4)计算两个向量的余弦相似度;
5)判断图像的相似性。
基于SIFT算法的相似度计算步骤为:
1)构建尺度空间
① 构建高斯金字塔
高斯卷积核是实现尺度变换的唯一线性核,一幅图像的尺度空间被定义为对其做可变尺度的高斯卷积:
其中,σ为尺度空间因子,表示图像被高斯平滑的程度;(x,y)代表图像像素的位置;m,n表示高斯模板的维度。
对于灰度图像,利用不同大小的σ做高斯平滑。同时,将采样图像划分为不同组,每组有若干图像。一般情况下,上一组图像的长宽取下一组的2倍。
② 构建高斯差分金字塔
③ 极值点检测
将待检测图像与前后两张图像共26个邻域像素点的灰度值逐一比较,检测极值。
2)关键点定位
离散空间的极值点并非真正的极值点,为提高关键点的稳定性,需拟合尺度空间函数。利用Taylor展开式求得极值偏移量。当任一维度的偏移量大于0.5时,改变当前关键点的位置,并在新的位置反复拟合直至收敛。若超出设定迭代次数或偏移量绝对值过小,存在不稳定点,可将该点视为非极值点。
此外,高斯差分函数的边缘效应使特征点在某方向上有较大的曲率,而在垂直方向的主曲率很小,可将该点删除。
3)方向分配
根据高斯差分金字塔中关键点的局部特性计算结果,可为每一点指定方向,使其具备旋转不变性。梯度模型和方向如下:
式中:x,y的正方向分别为右和上;L为关键点映射在尺度空间的灰度值;m(x,y)为梯度幅值;θ(x,y)为关键点所处梯度方向的弧度。按逆时针方向将360°依次划分为36个区域,获取不同方向的直方图。可按照σ=1.5_octv的高斯分布和3σ原则将m(x,y)加成,邻域窗口半径为3×1.5σ_octv。
为增强算法鲁棒性,只保留峰值大于主方向峰值80%的方向为关键点的辅方向。完成上述过程,即获得SIFT特征点。
4)关键点特征描述
在关键点尺度空间内4×4窗口中计算8个方向的梯度信息,共128维向量表征,即为关键点的描述子。具体步骤如下:
① 因划分的16个区域均为3σ_octv像素,则其半边长为2×3σ_octv,根据线性插值法,将半边长设为(4+1)×3σ_octv/2。考虑到旋转因素,实际计算区域半径为:
② 坐标轴旋转至关键点方向。
③ 计算三维坐标与邻域空间的距离,按距离的倒数求权重,并将梯度幅值按权重分配到邻域空间中。
④ 将128维向量归一化。同时,描述子按对应的高斯金字塔尺度大小排序。
5)特征向量匹配
采用最近邻距离法匹配特征向量。根据采样点与两个邻域点的特征向量,计算两者的欧氏距离之比,并同设定的阈值0.6进行比较。若比值小于该阈值,则认定特征向量匹配成功。
6)相似度计算
计算匹配成功的特征点个数占图像中总特征点个数的百分比,即为图像的相似度。
(2)对于不同维度的特征,如不同大小的特征图,先通过下采样或上采样使特征图尺寸一致,再通过方法(1)进行处理。其中,上采样使用双线性插值法:
首先在x方向进行线性插值,
然后在y方向进行线性插值,
反馈奖励单元,用于根据相似度的计算结果选取与单张影像的特征的相似度最大的融合聚类特征,作为该单张影像的相似融合聚类特征,将相似融合聚类特征对应的聚类程度值以及最大相似度作为相应的该单张影像的用户反馈奖励。
其中所述各奖励项还对应其奖励值。
r(q)={(优,+1),(差,-3)},表示当前动作选取的推荐影像质量优时奖励值为+1,当前动作选取的推荐影像质量差时奖励值为-1。
r(c)={(大,+2),(小,-1)},表示当前动作选取的推荐影像对未覆盖的目标区域的覆盖率大于等于覆盖率阈值时奖励值为+1,当前动作选取的推荐影像对未覆盖的目标区域的覆盖率小于覆盖率阈值时奖励值为-1。
r(t)={(相近,+1),(不相近,-1)},表示当前动作选取的推荐影像与其余的已选取的推荐影像的时相相近时奖励值为+1,当前动作选取的推荐影像与其余的已选取的推荐影像的时相不相近时奖励值为-1。
上述固定奖励项能够确保***推荐的方向为推荐高质量且时相相近的影像,并且目标为最大化覆盖目标区域。
通过上述方法能够获得根据具体的用户反馈进行动态调整且连续的用户反馈奖励值。使用该奖励对总奖励及回报函数进行更新并调整强化策略后,强化学习再次进行影像推荐,能够得到更符合用户当前偏好的推荐结果。
动作模块,用于构建强化学习的动作空间,动作空间中的动作为从推荐影像候选集中逐个选取推荐影像。
状态模块,用于构建强化学习的状态空间,状态空间由已选取的推荐影像和未覆盖的目标区域经向量化后构成,其中,未覆盖的目标区域为从初始目标区域上去除已选取的推荐影像所覆盖的区域后的区域。
其中,对推荐影像进行向量化的步骤为:将影像切分成不重叠的影像块,影像块的尺寸为,将每个影像块向量化为列向量,得到长度为的影像列向量,其中N为影像的通道数,将各个列向量按顺序进行拼接,得到整景影像的向量化格式。
于本发明一实施例中,通过构建DQN(深度Q网络)实现强化学习:
所述DQN为基于马尔可夫决策过程进行建模得到,使用DQN算法进行神经网络权值参数的更新,根据贪婪策略执行动作,执行动作at后得到下一个状态st+1和即时回报rt,并进行特征化,将放入经验池D。随机从经验池D采集一组数据,设定,利用梯度下降法,最小化损失函数,其中r为奖励,利用DQN的网络参数以设定周期更替其对应的目标网络的网络参数。
需要说明的是,整体来说,DQN与Q学习的目标价值以及价值的更新方式都非常相似,主要的不同点在于,DQN相较于Q学习有三大重要的改进:
(1)引入深度学习中的神经网络,利用神经网络去拟合Q-learning中的Q表,解决了Q-learning中,当状态维数过高时产生的“维数灾难”问题。
(2)引入目标网络,利用延后更新的目标网络计算目标Q值,极大的提高了网络训练的稳定性和收敛性。
(3)引入经验回放机制,使得在进行网络更新时输入的数据符合独立同分布,打破了数据间的相关性。
对于本发明的遥感影像推荐***,输入状态包括影像数据,状态维数很高,因而优先使用DQN完成Q值计算。
影像库模块,用于存储筛选影像集并对其进行更新。
于本发明一具体实施例中,每次迭代获得的筛选影像集都会存入影像库模块中,每次更新为直接使用新影像集扩充现有影像集。
特征提取模块,用于对筛选影像集中的影像进行前景和后景特征提取,得到筛选影像集中的前景特征和后景特征。
于本发明一实施例中,特征提取模块,包括:
前景特征提取单元,用于对筛选影像集中的影像进行前景特征提取,得到每张影像的前景特征,所述前景特征的提取方法为使用显著性检测网络获取影像的前景掩膜,对前景掩膜进行特征提取。
其中,显著性检测网络需要经过预训练,通过损失函数达到收敛:
其中,为显著性检测网络的损失函数,i为训练图像的索引,j为显著性图的索引,L()为交叉熵损失函数计算,N为训练图片的数量,M为每张图像上的M个前景图,为显著性检测网络的预测输出,为真值预测结果。其中,交叉熵损失函数为:
后景特征提取单元,用于对筛选影像集中的影像进行后景特征提取,得到每张影像的后景特征。
所述前景特征和后景特征的提取方法包括HOG、SIFT、ORB、直方图、灰度共生矩阵、局部二值模式、Gabor、SURF、Harris和深度学习方法。
于本发明一具体实施例中,使用HOG方法进行特征提取,步骤如下:
读取影像,创建高斯权值模板。将影像转换为灰度图。对灰度图像进行归一化大小之后,计算X方向和Y方向的梯度值。X方向使用[-1,0,1]模板;Y方向使用[-1,0,1]T进行梯度值计算。然后计算细胞单元的梯度方向直方图。细胞大小是8×8像素大小的区间,采用无符号的方向,每个方向的幅度是20度。然后将细胞单元组合成区间单元,每个区间单元的大小是16×16像素。每个区间包含4个细胞单元,每个区间生成一个36柱的直方图。接着,用前面生成的高斯权值模板计算加权之后的区间梯度直方图。然后做区间归一化操作。这里采用L1-sqrt进行区间归一化操作。
计算完区间的梯度方向直方图之后,以步幅8像素的大小,从左到右,从上到下,在每个窗口中移动,最后将所有区间的梯度方向直方图连接成窗口的梯度直方图,将每个窗口产生的梯度方向直方图连接在一起,组成一个高维特征向量。
于本发明另一具体实施例中,通过预训练的卷积神经网络提取影像的特征向量,卷积神经网络结构为:3个卷积层、3个最大池化层、2个全连接层。预训练中需要对影像进行去雾操作并对样本通过旋转进行数据增强,以增强模型的泛化能力。
其中,由于一景遥感影像尺寸庞大,需要对影像按行和列进行固定步长滑动裁剪预处理,对裁剪后的影像分幅进行特征提取。
特征融合模块,用于对筛选影像集中的单张影像的前景特征和后景特征进行特征融合,得到该单张影像的融合特征,进而得到筛选影像集中所有影像的融合特征集,对融合特征集进行聚类处理,得到的聚类中心作为融合聚类特征,并基于统计方法得到每个融合聚类特征对应的聚类程度值。
于本发明一实施例中,特征融合模块,包括:
融合单元,用于对筛选影像集中的每张影像的前景特征和后景特征进行特征融合,得到每张影像的融合特征。
本实施例中,特征融合的方法为通过构建特征融合网络实现,特征融合网络由六个卷积块构成,每个卷积块包括:一个卷积层、BatchNorm层、激活函数层和池化层,将前景特征和后景特征分别输入特征融合网络的前三个卷积块,对结果进行求和,将求和结果输入后三个卷积块,得到最终的融合特征。
聚类单元,用于对所述融合特征进行聚类处理,得到融合聚类特征和其对应的聚类程度值,其中,筛选影像集中的每张影像对每个融合聚类特征都有其相应的聚类程度值,即,其中,为聚类程度函数,为第i类融合聚类特征,I为影像,为影像I对应的第i类融合聚类特征的聚类程度值。
本实施例中使用的聚类程度函数为,其中p为融合聚类特征质心,为影像I对应的特征点,为该聚类内第j个特征点,为该聚类内第j个特征点到融合聚类特征质心的欧氏距离,该聚类内共有W个特征点。聚类程度值经过归一化得到,归一化方式为,其中为x的均值为x的方差,为归一化控制量。
通过前景和后景特征提取及融合,能够得到既能体现用户对影像全局特征的喜好也能体现用户对影像局部特征喜好的代表性特征。
用户反馈模块,用于获取用户对推荐影像集的用户反馈,基于用户反馈并结合推荐影像候选集得到筛选影像集或推荐结果。
于本发明一具体实施例中,所述用户反馈模块如图2所示,包括:
判定单元,用于接收用户的推荐请求并对其进行判定,所述用户的推荐请求为用户继续推荐请求或用户停止推荐请求,当推荐请求为用户继续推荐请求时跳转至影像筛选单元,当推荐请求为用户停止推荐请求时跳转至输出单元。
影像筛选单元,用于获取用户的影像筛选反馈,用户的影像筛选反馈为用户根据个人喜好从推荐影像集和推荐影像候选集中进行影像筛选,得到筛选影像集。
输出单元,用于输出用户停止推荐请求,所述用户停止推荐请求为第一停止推荐请求或第二停止推荐请求,所述第一停止推荐请求为停止推荐并输出推荐结果,所述第二停止推荐请求为停止推荐并进行替换后输出推荐结果。
其中,第一停止推荐请求所输出的推荐结果为推荐影像集。其中,第二停止推荐请求的应用场景为用户仅需要在推荐影像集上替换少量影像即能够得到满足用户需求的所有影像,此时用户在推荐影像集上选取待替换的影像,并从推荐影像候选集中选取替换影像用于替换,用户反馈模块输出经替换后的推荐影像集作为推荐结果。
于本发明一具体实施例中,用户能够在推荐影像集上通过点选的方式,选择需要的影像和不需要的影像。用户可以主动选择需要的影像,默认剩余未选择的影像为不需要的影像,并进行反馈提交,或者主动选择不需要的影像,默认剩余未选择的影像为需要的影像。获得的筛选影像集临时存储至影像库模块。
于本发明另一具体实施例中,用户在推荐影像候选集中进行影像选取,获得的筛选影像集临时存储至影像库模块。
所述强化学习模块和所述用户反馈模块在执行时为迭代过程,直至接收到用户停止推荐请求,停止迭代,所述用户反馈模块输出推荐结果,其中,所述用户停止推荐请求由所述用户反馈模块输出得到。
需要说明的是,在所述强化学习模块和所述用户反馈模块进行迭代执行时,在某一次迭代的过程中,未接收到用户停止推荐请求,则指的是用户反馈模块在该次迭代中输出的是筛选影像集,并将该筛选影像集存入强化学习模块的影像库模块中,进而执行接下来的推荐流程。因此,可以理解的是,在执行过程中,用户反馈模块对某一次强化学习模块输出的推荐影像集的用户反馈的结果是用户停止推荐请求,则***中的迭代过程停止,并由用户反馈模块输出推荐结果。
于本发明一具体实施例中,包括用户交互的整个***的运行流程为:
用户输入查询条件,查询条件包括影像的元数据以及需要限定的目标区域,***在遥感影像库中检索得到所有满足查询条件的与目标区域相交的影像,得到推荐影像候选集。基于推荐影像候选集,***构建强化学习框架,其中,动作空间为从推荐影像候选集中逐张选取推荐影像,已选取的推荐影像和未覆盖的目标区域的向量形式构成状态空间,每次动作都会改变状态空间的大小。根据奖励项和回报函数决定影像选取的策略,选取完毕得到推荐影像集。用户通过***界面能够得到所有推荐影像的信息,其中包括以列表的形式展示的每张推荐影像的缩略图和其基本信息以及在虚拟地球上展示每张推荐影像真实的地理覆盖区域和范围。用户可以通过点击按钮的方式选择是否结束推荐,若否,则可以通过点选列表中的项或虚拟地球上的影像来选取感兴趣影像集,确认后***将感兴趣影像集临时存储于影像库中,并自动完成影像特征提取和特征融合,得到融合聚类特征和其对应的聚类程度值,***根据融合聚类特征和其对应的聚类程度值更新用户反馈奖励项的奖励值,并重新开始新一轮的影像推荐,从影像候选集中逐张选取推荐影像。更新的奖励值能够改变影像选取的策略,使其反映用户的当前喜好。选取完毕后用户能再次进行反馈,迭代上述过程,直到用户认为当前的推荐影像已满足要求,则可通过点击结束推荐的按钮,得到最终的推荐影像集,完成整个***流程。
请参阅图3,同时,本发明还提供一种基于强化学习的遥感影像推荐方法,所述方法应用于上述所述的任一***中。
具体地,所述方法可以包括如下步骤:
S1 获取推荐影像候选集和初始目标区域,构建强化学习的动作空间、状态空间、奖励项和回报函数,通过动作空间中的动作从推荐影像候选集中逐个选取推荐影像,得到推荐影像集,其中,奖励项包括用户反馈奖励项。
S2 获取用户对推荐影像集的反馈,通过反馈结果从推荐影像集中获取筛选影像集。
S3 对筛选影像集中的影像进行前景和后景特征提取,得到每张影像的前景特征和后景特征,对每张影像的前景特征和后景特征进行特征融合,得到每张影像的融合特征,对融合特征进行聚类处理,得到融合聚类特征和其对应的聚类程度值。
S4 根据融合聚类特征和其对应的聚类程度值更新用户反馈奖励项的奖励值。
S5 通过用户反馈奖励更新回报函数,通过动作空间中的动作从推荐影像候选集中选取推荐影像。
S6 重复步骤S2-S5,直至获取用户的结束推荐请求,输出推荐结果。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (6)
1.一种基于强化学习的遥感影像推荐***,其特征在于,包括影像集获取模块、强化学习模块、用户反馈模块:
所述影像集获取模块用于获取推荐影像候选集和初始目标区域;
所述强化学习模块用于根据初始目标区域在推荐影像候选集中进行逐张影像选取,得到推荐影像集;
所述用户反馈模块用于获取用户对推荐影像集的用户反馈,基于用户反馈并结合推荐影像候选集得到筛选影像集或推荐结果;
所述强化学习模块和所述用户反馈模块在执行时为迭代过程,直至接收到用户停止推荐请求,停止迭代,所述用户反馈模块输出推荐结果,其中,所述用户停止推荐请求由所述用户反馈模块输出得到;
其中,所述强化学习模块包括:
奖励模块,用于构建强化学习的奖励项和回报函数;
所述奖励模块,包括:
动态奖励更新单元,用于更新用户反馈奖励项的奖励值;
所述动态奖励更新单元,包括:
特征提取单元,用于对推荐影像候选集进行特征提取;
特征相似度计算单元,用于将推荐影像候选集中每张影像的特征分别与融合聚类特征一一进行相似度计算;
反馈奖励单元,用于根据相似度的计算结果选取与单张影像的特征的相似度最大的融合聚类特征,作为该单张影像的相似融合聚类特征,将相似融合聚类特征对应的聚类程度值以及最大相似度作为相应的该单张影像的用户反馈奖励;
动作模块,用于构建强化学习的动作空间,动作空间中的动作为从推荐影像候选集中逐个选取推荐影像;
状态模块,用于构建强化学习的状态空间,状态空间由已选取的推荐影像和未覆盖的目标区域经向量化后构成,其中,未覆盖的目标区域为从初始目标区域上去除已选取的推荐影像所覆盖的区域后的区域,输出推荐影像集;
影像库模块,用于存储筛选影像集并对其进行更新;
特征提取模块,用于对筛选影像集中的影像进行前景和后景特征提取,得到筛选影像集中的前景特征和后景特征;
特征融合模块,用于对筛选影像集中的单张影像的前景特征和后景特征进行特征融合,得到该单张影像的融合特征,进而得到筛选影像集中所有影像的融合特征集,对融合特征集进行聚类处理,得到的聚类中心作为融合聚类特征,并基于统计方法得到每个融合聚类特征对应的聚类程度值。
2.根据权利要求1所述的基于强化学习的遥感影像推荐***,其特征在于,所述用户反馈模块,包括:
判定单元,用于接收用户的推荐请求并对其进行判定,所述用户的推荐请求为用户继续推荐请求或用户停止推荐请求,当推荐请求为用户继续推荐请求时跳转至影像筛选单元,当推荐请求为用户停止推荐请求时跳转至输出单元;
影像筛选单元,用于获取用户的影像筛选反馈,用户的影像筛选反馈为用户根据个人喜好从推荐影像集和推荐影像候选集中进行影像筛选,得到筛选影像集;
输出单元,用于输出用户停止推荐请求,所述用户停止推荐请求为第一停止推荐请求或第二停止推荐请求,所述第一停止推荐请求为停止推荐并输出推荐结果,所述第二停止推荐请求为停止推荐并进行替换后输出推荐结果。
3.根据权利要求1所述的基于强化学习的遥感影像推荐***,其特征在于,所述特征提取模块,包括:
前景特征提取单元,用于对筛选影像集中的影像进行前景特征提取,得到每张影像的前景特征,所述前景特征的提取方法为使用显著性检测网络获取影像的前景掩膜,对前景掩膜进行特征提取;
后景特征提取单元,用于对筛选影像集中的影像进行后景特征提取,得到每张影像的后景特征;
所述前景特征和后景特征的提取方法包括HOG、SIFT、ORB、直方图、灰度共生矩阵、局部二值模式、Gabor、SURF、Harris和深度学习方法。
5.根据权利要求1所述的基于强化学习的遥感影像推荐***,其特征在于,所述各奖励项还对应其奖励值:
r(q)={(优,+1),(差,-3)},表示当前动作选取的推荐影像质量优时奖励值为+1,当前动作选取的推荐影像质量差时奖励值为-1;
r(c)={(大,+2),(小,-1)},表示当前动作选取的推荐影像对未覆盖的目标区域的覆盖率大于等于覆盖率阈值时奖励值为+1,当前动作选取的推荐影像对未覆盖的目标区域的覆盖率小于覆盖率阈值时奖励值为-1;
r(t)={(相近,+1),(不相近,-1)},表示当前动作选取的推荐影像与其余的已选取的推荐影像的时相相近时奖励值为+1,当前动作选取的推荐影像与其余的已选取的推荐影像的时相不相近时奖励值为-1;
6.一种基于强化学习的遥感影像推荐方法,其特征在于,所述方法应用于上述所述权利要求1-5任一所述***中。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210953208.XA CN115017418B (zh) | 2022-08-10 | 2022-08-10 | 基于强化学习的遥感影像推荐***及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210953208.XA CN115017418B (zh) | 2022-08-10 | 2022-08-10 | 基于强化学习的遥感影像推荐***及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115017418A CN115017418A (zh) | 2022-09-06 |
CN115017418B true CN115017418B (zh) | 2022-11-01 |
Family
ID=83065725
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210953208.XA Active CN115017418B (zh) | 2022-08-10 | 2022-08-10 | 基于强化学习的遥感影像推荐***及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115017418B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115344729B (zh) * | 2022-10-18 | 2022-12-16 | 北京数慧时空信息技术有限公司 | 基于用户反馈的遥感影像统筹***及方法 |
CN115934990B (zh) * | 2022-10-24 | 2023-05-12 | 北京数慧时空信息技术有限公司 | 基于内容理解的遥感影像推荐方法 |
CN115797795B (zh) * | 2023-02-07 | 2023-04-25 | 北京数慧时空信息技术有限公司 | 基于强化学习的遥感影像问答式检索***及方法 |
CN115858840B (zh) * | 2023-02-28 | 2023-05-05 | 北京数慧时空信息技术有限公司 | 基于场景的遥感影像镶嵌方法 |
CN116628247B (zh) * | 2023-07-24 | 2023-10-20 | 北京数慧时空信息技术有限公司 | 基于强化学习和知识图谱的影像推荐方法 |
CN116740578B (zh) * | 2023-08-14 | 2023-10-27 | 北京数慧时空信息技术有限公司 | 基于用户选择的遥感影像推荐方法 |
CN117851650B (zh) * | 2024-03-05 | 2024-05-10 | 烟台大学 | 一种基于用户群和强化学习的项目推荐方法、***和设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111126282A (zh) * | 2019-12-25 | 2020-05-08 | 中国矿业大学 | 一种基于变分自注意力强化学习的遥感图像内容描述方法 |
WO2021184891A1 (zh) * | 2020-03-20 | 2021-09-23 | 中国科学院深圳先进技术研究院 | 遥感影像地物分类方法及*** |
CN113449183A (zh) * | 2021-06-18 | 2021-09-28 | 华中科技大学 | 基于离线用户环境和动态奖励的交互式推荐方法和*** |
CN114117220A (zh) * | 2021-11-26 | 2022-03-01 | 东北大学 | 基于知识增强的深度强化学习交互式推荐***及方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180374138A1 (en) * | 2017-06-23 | 2018-12-27 | Vufind Inc. | Leveraging delayed and partial reward in deep reinforcement learning artificial intelligence systems to provide purchase recommendations |
US20190114561A1 (en) * | 2017-10-13 | 2019-04-18 | Ca, Inc. | Reinforcement learning system for recommended associations |
CN111199458B (zh) * | 2019-12-30 | 2023-06-02 | 北京航空航天大学 | 一种基于元学习与强化学习的推荐*** |
CN111651679B (zh) * | 2020-07-09 | 2023-07-11 | 支付宝(杭州)信息技术有限公司 | 基于强化学习的推荐方法及装置 |
-
2022
- 2022-08-10 CN CN202210953208.XA patent/CN115017418B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111126282A (zh) * | 2019-12-25 | 2020-05-08 | 中国矿业大学 | 一种基于变分自注意力强化学习的遥感图像内容描述方法 |
WO2021184891A1 (zh) * | 2020-03-20 | 2021-09-23 | 中国科学院深圳先进技术研究院 | 遥感影像地物分类方法及*** |
CN113449183A (zh) * | 2021-06-18 | 2021-09-28 | 华中科技大学 | 基于离线用户环境和动态奖励的交互式推荐方法和*** |
CN114117220A (zh) * | 2021-11-26 | 2022-03-01 | 东北大学 | 基于知识增强的深度强化学习交互式推荐***及方法 |
Non-Patent Citations (2)
Title |
---|
基于双注意力机制的遥感图像目标检测;周幸等;《计算机与现代化》;20200815(第08期);第1-7页 * |
基于强化学习DQN的智能体信任增强;亓法欣等;《计算机研究与发展》;20200607(第06期);第1227-1238页 * |
Also Published As
Publication number | Publication date |
---|---|
CN115017418A (zh) | 2022-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115017418B (zh) | 基于强化学习的遥感影像推荐***及方法 | |
CN108132968B (zh) | 网络文本与图像中关联语义基元的弱监督学习方法 | |
CN106547880B (zh) | 一种融合地理区域知识的多维度地理场景识别方法 | |
US20190130232A1 (en) | Font identification from imagery | |
CN109993102B (zh) | 相似人脸检索方法、装置及存储介质 | |
CN112131978B (zh) | 一种视频分类方法、装置、电子设备和存储介质 | |
dos Santos et al. | A relevance feedback method based on genetic programming for classification of remote sensing images | |
Kim et al. | A shape-based approach for salient object detection using deep learning | |
CN111027563A (zh) | 一种文本检测方法、装置及识别*** | |
JP2021508123A (ja) | リモートセンシング画像認識方法、装置、記憶媒体及び電子機器 | |
WO2021129181A1 (en) | Portrait segmentation method, model training method and electronic device | |
CN111241992B (zh) | 人脸识别模型构建方法、识别方法、装置、设备及存储介质 | |
CN114283350B (zh) | 视觉模型训练和视频处理方法、装置、设备及存储介质 | |
CN116363374B (zh) | 图像语义分割网络持续学习方法、***、设备及存储介质 | |
CN113706551A (zh) | 一种图像分割方法、装置、设备及存储介质 | |
CN108765384B (zh) | 一种联合流形排序和改进凸包的显著性检测方法 | |
CN110866866A (zh) | 图像仿色处理方法、装置、电子设备及存储介质 | |
CN116958624A (zh) | 指定材质的识别方法、装置、设备、介质及程序产品 | |
CN115660069A (zh) | 一种半监督卫星影像语义分割网络构建方法、装置及电子设备 | |
Li et al. | Person re-identification using salient region matching game | |
CN116958615A (zh) | 图片识别方法、装置、设备和介质 | |
Alshahrani et al. | Optimal Deep Convolutional Neural Network for Vehicle Detection in Remote Sensing Images. | |
Tao et al. | Attention U-Net for Road Extraction in Remote Sensing Images | |
Yu et al. | Construction of garden landscape design system based on multimodal intelligent computing and deep neural network | |
Hu et al. | Prediction of broken areas in murals based on MLP-fused long-range semantics |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |