CN103500282A - 辅助观察方法及辅助观察装置 - Google Patents
辅助观察方法及辅助观察装置 Download PDFInfo
- Publication number
- CN103500282A CN103500282A CN201310462953.5A CN201310462953A CN103500282A CN 103500282 A CN103500282 A CN 103500282A CN 201310462953 A CN201310462953 A CN 201310462953A CN 103500282 A CN103500282 A CN 103500282A
- Authority
- CN
- China
- Prior art keywords
- comparison
- difference
- object observing
- described object
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/24—Character recognition characterised by the processing or recognition method
- G06V30/248—Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种辅助观察方法及辅助观察装置,涉及多媒体信息处理技术领域。所述方法包括步骤:根据观察目标的特征确定至少一个比较对象;确定所述观察目标与所述至少一个比较对象之间的特定差异。本发明实施例的方法及装置能够在避免出现漏看重要信息或冗余非重要信息的现象的同时,提高了观察信息尤其是重要信息的效率。
Description
技术领域
本发明涉及多媒体信息处理技术领域,尤其涉及一种辅助观察方法及辅助观察装置。
背景技术
研究表明,当人的眼睛观看某个对象(包括人、景物、文章、图片及计算机显示的图像等),即使给定足够的时间,在大部分情况下,人们也不会注意到这个对象中的所有细节,甚至容易忽略重要的内容。比如在看一个有很多数据的财务报表时,不容易注意到隐藏在大量数据中的某个关键数据。
现有技术中存在一种辅助观察的方式:通过比较两个观察对象并突出显示它们之间的差异性,使用户更容易注意到观察对象中的重要信息。例如,对缩略图进行比较,在选择的图像和一个或多个其它图像之间进行区分,并确定所选择的图像的与一个或多个其它图像不相同的部分的差别图像。而后,在显示器上显示差别图像的放大视图,该差别图像示出所选择的图像和一个或更多个其它图像之间的差别。
但是,现有方法存在两个主要问题:1)必须预先给定一个或多个比较对象;2)比较图像之间的不同都是基于图像的视觉特性本身实现的,这里指的视觉特性主要指颜色、形状、亮度、大小等,在很多的情况下,并不能有效地突出用户真正需要关心的内容。比如,在两份财务报表中,某些数据有所差异,但差异不大(比如0.9999999与1.0),用户不应该关心,但这些数据间的视觉特性却可能差异很大,在常规技术中它们的差异容易被突出显示出来,而另外一些数据数值差异很大(比如100000和1.00000),但其视觉特性却可能差异很小,在常规技术中它们的差异反而不容易被突出显示出来。
因此,现有技术的方法虽然能够一定程度上降低重要信息的漏看几率,但是仍会出现漏看重要信息或冗余非重要信息的现象,降低观察信息尤其是重要信息的效率。
发明内容
本发明要解决的技术问题是:提供一种辅助观察方法和辅助观察装置,能够提高观察信息尤其是重要信息的效率。
为实现上述目的,第一方面,本发明实施例提供了一种辅助观察方法,所述方法包括步骤:
根据观察目标的特征确定至少一个比较对象;
确定所述观察目标与所述至少一个比较对象之间的特定差异。
结合第一方面,在第一种可能的实现方式中,所述特征包括以下中的一个或多个:特定内容的上下文、元数据、视觉特征、语义、以及情境。
结合第一方面,在第二种可能的实现方式中,所述比较对象包括所述观察目标非当前时刻的图像。
结合第一方面,在第三种可能的实现方式中,在所述确定所述观察目标与所述至少一个比较对象之间的特定差异的步骤中:
根据与所述观察目标的所述特征的相似度确定所述至少一个比较对象。
结合第一方面,在第四种可能的实现方式中,所述确定所述观察目标与所述至少一个比较对象之间的特定差异的步骤进一步包括:
找出所述观察目标与所述至少一个比较对象的差异;
提醒用户所述观察目标上的特定差异。
结合第一方面的第四种可能的实现方式,在第五种可能的实现方式中,所述找出所述观察目标与所述至少一个比较对象的差异的步骤还包括:
采集用户对所述观察目标的感兴趣区域;
找出所述感兴趣区域内的差异。
结合第一方面的第四种可能的实现方式,在第六种可能的实现方式中,所述找出所述观察目标与所述至少一个比较对象的差异的步骤进一步包括:
提取所述观察目标中的特定内容;
分析所述特定内容与所述比较对象中对应内容之间的差异。
结合第一方面的第六种可能的实现方式,在第七种可能的实现方式中,所述特定内容包括文字、数字、特殊标识和/或图像。
结合第一方面的第四种可能的实现方式,在第八种可能的实现方式中,在所述提醒用户所述观察目标上的特定差异的步骤中:
通过以下方式中的一种或几种提醒用户:可视化提醒、声音提醒、触感提醒、震动提醒。
结合第一方面的第四种可能的实现方式,在第九种可能的实现方式中,在所述提醒用户所述观察目标上的特定差异的步骤中:
通过在所述观察目标上叠加可视化标识的方式提醒用户。
结合第一方面的第四至第九种可能的实现方式中的任一种,在第十种可能的实现方式中,所述特定差异包括内容、语义、以及视觉特征上的差异中的一种或几种。
结合第一方面或第一方面的上述任一种可能的实现方式,在第十一种可能的实现方式中,所述方法还包括步骤:
存储所述观察目标的图像。
结合第一方面或第一方面的上述任一种可能的实现方式,在第十二种可能的实现方式中,所述方法还包括步骤:
获取候选的比较对象。
第二方面,本发明实施例提供了一种辅助观察装置,所述装置包括:
比较对象确定模块,用于根据观察目标的特征确定至少一个比较对象;
辅助观察模块,用于确定所述观察目标与所述至少一个比较对象之间的特定差异。
结合第二方面,在第一种可能的实现方式中,所述特征包括以下中的一个或多个:特定内容的上下文、元数据、视觉特征、语义、以及情境。
结合第二方面,在第二种可能的实现方式中,所述比较对象确定模块所确定的所述比较对象包括所述观察目标非当前时刻的图像。
结合第二方面,在第三种可能的实现方式中,所述比较对象确定模块根据与所述观察目标的所述特征的相似度确定所述至少一个比较对象。
结合第二方面,在第四种可能的实现方式中,所述辅助观察模块进一步包括:
差异查找单元,用于找出所述观察目标与所述至少一个比较对象的差异;
提醒单元,用于提醒用户所述观察目标上的特定差异。
结合第二方面的第四种可能的实现方式,在第五种可能的实现方式中,所述差异查找单元包括:
采集子单元,用于采集用户对所述观察目标的感兴趣区域;
差异查找子单元,用于找出所述感兴趣区域内的差异。
结合第二方面的第五种可能的实现方式,在第六种可能的实现方式中,所述差异查找单元进一步包括:
内容提取子单元,用于提取所述观察目标中的特定内容;
所示差异查找子单元还用于找出所述特定内容与所述比较对象中对应内容之间的差异。
结合第二方面的第四种可能的实现方式,在第七种可能的实现方式中,所述提醒单元通过以下中的一种或几种提醒用户:可视化提醒、声音提醒、触感提醒、震动提醒。
结合第二方面的第四种可能的实现方式,在第八种可能的实现方式中,所述提醒模块通过在所述观察目标上叠加可视化标识的方式提醒用户。
结合第二方面或第二方面的上述任一种可能的实现方式,在第九种可能的实现方式中,所述装置还包括:
存储模块,用于存储所述观察目标的图像。
结合第二方面或第二方面的上述任一种可能的实现方式,在第十种可能的实现方式中,所述装置还包括:
比较对象获取模块,用于获取候选的比较对象。
本发明实施例的方法及装置能够在避免出现漏看重要信息或冗余非重要信息的现象的同时,提高了观察信息尤其是重要信息的效率。
附图说明
图1为本发明实施例的辅助观察方法的流程图;
图2为本发明实施例的辅助观察装置的第一种结构框图;
图3为本发明实施例的辅助观察装置的第二种结构框图;
图4为本发明实施例的辅助观察装置的第三种结构框图
图5为本发明实施例的辅助观察装置的第四种结构框图
图6为本发明实施例的辅助观察装置的另一种结构示意图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细说明。以下实施例用于说明本发明,但不用来限制本发明的范围。
在本发明各实施例中,观察目标可为人、景物、文章、图片、照片、以及具有显示功能的显示设备(例如,手机、平板电脑、电视、投影屏幕、照相机等)上所显示的图像等任意可视对象。
如图1所示,本发明实施例提供的辅助观察方法包括步骤:
S110.根据观察目标的特征确定至少一个比较对象。
在本发明实施例的方法中,作为确定比较对象的根据的所述“特征”可包括特定内容的上下文、元数据、视觉特征、语义、以及情境中的一种或几种。其中,特定内容为观察目标上的特定类型的内容或特定区域内的内容。特定内容的上下文尤其涉及观察目标为文章或截取于文章的情况;“上下文”也可指时间上的关联,此时,观察目标可为人,也可为物;元数据为描述数据及其环境的数据,例如,文章的名称,图片或照片的拍摄环境描述、拍摄参数描述、拍摄内容的描述,等等;视觉特征包括颜色、亮度、形状、大小、纹理、空间关系等;语义指文字、数字数据、甚至特殊标识(下划线、加粗、高亮等)所代表的意义。
根据观察目标不同可选择特定的特征或特定的特征的组合作为确定比较对象的根据。例如,当观察目标为人或景物时,该特征可为该观察目标所呈现的视觉特征:观察目标为家庭成员、同事、朋友等,为突出其当前穿戴的变化,选择该观察目标在最近一时间内的至少一个视觉特征与当前相似的影像作为比较对象;当该观察目标为景物,且为了突出其中某一物体的位置发生变化,则选择与观察目标中物体的空间关系最接近的某一时刻的图像作为比较对象;当观察对象为文章、图片、图像等时,可根据其元数据、视觉特征、上下文、语义以及情境等选择与其最接近的比较对象,例如,文章的名称接近或图片的拍摄时间和拍摄内容接近等等。
S120.确定所述观察目标与所述至少一个比较对象之间的特定差异。
在步骤S110中确定了至少一个比较对象后,可将观察目标与该至少一个比较对象作比较,找出二者间的特定差异。根据用户观察目的的不同,该特定差异可为二者之间的全部或部分差异。且在本发明实施例的方法中,该特定的差异指并非仅形式上存在的差异,而是例如在语义上存在的对用户的观察有意义的差异。例如0.9999999与1.0,二者之间在视觉特征上是有区别的,但语义上差异不大,甚至为对用户没有参考意义,可以忽略的差异,此种差异即为非特定差异。
综上,本发明实施例的方法能够根据观察目标的特定特征更有针对性且更智能地选择比较对象,从而通过比较二者之间的差异,将观察目标所载有的最重要的内容(包括观察目标中某一部分在时间上发生的显著变化,或其位置和环境发生的显著变化,或其内容上的差异)突出出来,在避免出现漏看重要信息或冗余非重要信息的现象的同时,提高了观察信息尤其是重要信息的效率。
需要说明的是,在步骤S110之前,还包括获取候选的比较对象的步骤,候选的比较对象可为至少一个观察目标的来自同一用户或不同用户的历史图像,且候选的比较对象可来自本地或可通过互联网等方式从外部设备获取。例如,当观察目标为用户初次见到的人的时候,可从外部设备获取该观察目标的非当前时刻的图像作为候选的比较对象。
优选地,在步骤S110中根据与所述观察目标的所述特征的相似度确定所述至少一个比较对象。例如,选择一个最相似的比较对象。当然,在本发明实施例的方法中可选择超过一个比较对象,且所选择的比较对象也不受限于与观察目标最接近,可自动或由用户从候选的比较对象中选择用户想要的比较对象,以根据用户需要更有针对性的突出重要信息。
此外,步骤S120进一步包括:
S121.找出所述观察目标与所述至少一个比较对象之间的差异。
在本步骤中,可找出观察目标与比较对象之间的全部差异,也可针对观察目标上特定区域和/或特定内容来找差异。该特定的区域和/或特定内容可为用户所感兴趣的区域和/或内容,相应地,步骤S121可进一步包括:
S1211.采集用户对所述观察目标的感兴趣区域;
S1212.找出所述感兴趣区域内的差异。
可采用本领域所熟知的各种可能的方式来采集用户对所述观察目标的感兴趣区域,例如,追踪用户的头部动作及视线,或检测用户的视线的对焦位置等等,在此不做赘述。
此外,该特定的区域和/或特定内容也可以为预设的区域和/或内容,例如,观察目标为账单时,预设的区域为金额部分,预设内容可为数字数据。特定的内容可为根据上下文、情境等所选择的内容,还可根据内容类型进行选择,例如,特定的内容可为图像、文字、数字、以及特殊标识这样的内容中的一种或几种。由于观察目标在用户的观察角度均可视为图像,因此,为了查找差异,可先对特定的内容进行提取。相应地,步骤S121还可进一步包括:
S1213.提取所述观察目标中的特定内容;
S1214.找出所述特定内容与所述比较对象中对应内容之间的差异。
该特定的内容也可为位于特定区域内的特定类型的内容,例如,用户感兴趣区域内的上述特定内容。
S122.提醒用户所述观察目标上的特定差异。
在找出观察目标与所述至少一个比较对象之间存在的差异后,进一步根据用户的需要找出特定的差异,并提醒用户需要那些特定的差异需要重点关注。当然,特定差异也可指全部差异。
需要说明的是,在步骤S121、S1212、S1214中,根据查找目标的不同,找出差异的方法也不尽相同。具言之:
对于观察目标为图像或待查找的特定内容为图像时,找出差异的方法可为:从图像主体的颜色、形状、纹理、位置、姿态、方向等特征或特征分布等特性比较两幅图像的差异。比较的区域可以是整幅图像,也可以是图像中的一部分,比如一定大小的图像块(block)。特征或特征分布等特性之间的差异可以是以像素为单位,逐像素比较计算出来的差异,也可以是以一定大小的图像块(有多个像素构成)为单位进行比较得出的差异值。该差异值可以是特征数值的直接比较,也可以是特征的统计分布之间的比较(比如直方图统计)。
相应地,在步骤S122中,对应于观察目标为图像或待查找的特定内容为图像的情况,在确定两幅图像之间的哪些差异需要作为特定差异提醒用户时,可以通过预先设置提醒阈值来实现,比如:
-设定单位比较区域大小(例如,16*16像素);
-比较该单位比较区域内或该单位比较区域的局部范围内的对象直方图(例如,颜色分布直方图、灰度直方图、傅里叶变换系数等)特征值之间的差异超过预设阈值时,该区域内的差异为特定差异;
-比较该单位比较区域内或该单位比较区域的局部范围内的形状(例如,矩形度、圆形度、傅里叶描述符、不变距、骨架等)特征值之间的差异超过预设阈值时,该区域内的差异为特定差异;
-比较该单位比较区域内或该单位比较区域的局部范围内的对象的综合特征值(例如,颜色、纹理、形状及位置)之间的差异超过预设阈值时,该区域内的差异为特定差异;
-图像中某一特征对象之间的距离(例如,物体与地面、物体与另外一个物体之间的相对距离和方位)在两幅图中的差异超过预设阈值时,该区域内的差异为特定差异;
-综合考虑一副图像中的多个比较区域的差异;
对于观察目标为文字或待查找的特定内容为文字(由于用户所观察的是图像,查找差异时,需通过光学字符识别(Optical CharacterRecognition,OCR)将图像中的文字内容提取出来)时,找出差异的方法可为:比较语义相似度,也即计算该观察目标或待查找的特定内容中的文字与比较对象中的对应文字之间的语义相似度,且将相似度低于提醒阈值的差异作为特定差异提醒用户。其中,语义之间的相似度的计算方法有以下几种:
-根据某种世界知识(Ontology)或分类体系(Taxonomy)来计算。该方法又称为基于树的语义相似度研究方法。基于树的语义相似度计算的算法大体上有可以分为两种:一是基于距离的语义相似性测度;二是基于信息内容的语义相似性测度。一般是利用一部语义词典(如Wordnet,Hownet),语义词典都是将所有的词组织在一棵或几棵树状的层次结构中(参见:李鹏,陶兰,王弼佐.一种改进的本体语义相似度计算及其应用[J].计算机工程与设计,2007(1):227—229.);
-利用大规模的语料库进行统计。基于语料库的词语相似度研究大都采用了上下文语境的统计描述方法,即认同这样一个论断:词语的上下文可以为词语定义提供足够信息。词语向量空间模型是目前基于统计的词语相似度计算策略使用比较广泛的一种,算法复杂度也能够实现的模型(参见:夏天.汉语词语语义相似度计算研究[J].计算机工程,2007(6):191—194.);
-其它:例如,基于树状结构中两个结点所含的信息量的大小来计算语义相似度,其基本思想是利用信息理论来进行研究(参见:Doan A,MadhavanJ.Learning to Match Ontologies on the SemanticWeb[J].The VLDB Journal,2003,12(4):116—120.)。
需要说明的是,如果语言不同(比如汉语和英语),则可先翻译之后再进行语义相似度分析。
对于观察目标为数字或待查找的特定内容为数字(由于用户所观察的是图像,在进行查找时同样需通过光学字符识别(OpticalCharacter Recognition,OCR)来将图像中的数字内容提取出来)时,找出差异可通过区分数字(包括小数点)、度量方法(二、八、十进制、十六进制、时间进制、角度、温度、距离、分/角/元等)、表示方法(自然计数法、科学计数法、对数计数法等)、度量单位(米、尺、顿、度、平方米、立方米等)来实现。如果度量单位不同,则进行统一后在比较。然后转换成统一计数方法,进行比较。如果比较结果不同或差异超过提醒阈值,则作为特定差异提醒用户。
对于观察目标为特殊标识或待查找的特定内容为特殊标识时,由于通常特殊标识的作用即为强调,因此,本发明实施例的方法中将带有特殊标识的对象均作为特殊差异提醒用户。
此外,在本发明实施例的方法的步骤S122中,可通过以下方式中的一种或几种提醒用户:可视化提醒、声音提醒、触感提醒、震动提醒。例如,通过在所述观察目标上叠加可视化标识的方式提醒用户。若所示观察目标上相应位置已存在可视化标识,则用于该标识不同的可视化标识来提醒用户,该可视化标识还可直观的为用户可见的一段提示文字。声音提醒可跟随用户当前注视的内容来同步进行,例如,当用户观察到某些特定差异上时,用声音提醒用户。触感提醒指当用户触摸到特定差异上时,通过触感反馈对用户进行提醒,震动提醒类似。
本发明实施例的方法还包括步骤:
S130.存储所述观察目标的图像,以供作为当前用户或其他用户的候选的比较对象。
综上,本发明实施例的方法在避免出现漏看重要信息或冗余非重要信息的现象的同时,提高了观察信息尤其是重要信息的效率。
本发明实施例还提供了一种辅助观察装置,该装置可为用户可佩戴眼镜(框架眼镜、隐形眼镜等)、具有显示功能的设备(例如,手机、平板电脑、电视、投影屏幕、照相机等)、或作为眼镜或上述设备的一部分。如图2所示,本发明实施例的辅助观察装置200包括:
比较对象确定模块210,用于根据观察目标的特征确定至少一个比较对象。
在本发明实施例的装置中,作为比较对象确定模块210确定比较对象的根据的所述“特征”可包括特定内容的上下文、元数据、视觉特征、语义、以及情境中的一种或几种。其中,特定内容的上下文尤其涉及观察目标为文章或截取于文章的情况;“上下文”也可指时间上的关联,此时,观察目标可为人,也可为物;元数据为描述数据及其环境的数据,例如,文章的名称,图片或照片的拍摄环境描述、拍摄参数描述、拍摄内容的描述,等等;视觉特征包括颜色、亮度、形状、大小、纹理、空间关系等;语义指文字、数字数据、甚至特殊标识(下划线、加粗、高亮等)所代表的意义。
根据观察目标不同可选择特定的特征或特定的特征的组合作为确定比较对象的根据。例如,当观察目标为人或景物时,该特征可为该观察目标所呈现的视觉特征:观察目标为家庭成员、同事、朋友等,为突出其当前穿戴的变化,选择该观察目标在最近一时间内的至少一个视觉特征与当前相似的影像作为比较对象;当该观察目标为景物,且为了突出其中某一物体的位置发生变化,则选择与观察目标中物体的空间关系最接近的某一时刻的图像作为比较对象;当观察对象为文章、图片、图像等时,可根据其元数据、视觉特征、上下文、语义以及情境等选择与其最接近的比较对象,例如,文章的名称接近或图片的拍摄时间和拍摄内容接近等等。
辅助观察模块220,用于确定所述观察目标与所述至少一个比较对象之间的特定差异。
在比较对象确定模块210确定了至少一个比较对象后,辅助观察模块220可将观察目标与该至少一个比较对象作比较,找出二者间的特定差异。根据用户观察目的的不同,该特定差异可为二者之间的全部或部分差异。且在本发明实施例的装置中,该特定的差异指并非仅形式上存在的差异,而是例如在语义上存在的对用户的观察有意义的差异,例如0.9999999与1.0,二者之间在视觉特征上是有区别的,但语义上差异不大,甚至为对用户没有参考意义,可以忽略的差异,此种差异即为非特定差异。
综上,本发明实施例的装置能够根据观察目标的特定特征更有针对性且更智能地选择比较对象,从而通过比较二者之间的差异,将观察目标所载有的最重要的内容(包括观察目标中某一部分在时间上发生的显著变化,或其位置和环境发生的显著变化,或其内容上的差异)突出出来,在避免出现漏看重要信息或冗余非重要信息的现象的同时,提高了观察信息尤其是重要信息的效率。
本发明实施例的装置200还包括比较对象获取模块230,用于在比较对象确定模块210确定至少一个比较对象之前,获取候选的比较对象的步骤,候选的比较对象可为至少一个观察目标的来自同一用户或不同用户的历史图像,且候选的比较对象可来自本地或可通过互联网等方式从外部设备获取,相应地,本发明实施例的装置200还可包括通信模块,以实现与外部设备的通信。例如,当观察目标为用户初次见到的人的时候,可从外部设备获取该观察目标的非当前时刻的图像作为候选的比较对象。
优选地,比较对象确定模块210根据与所述观察目标的所述特征的相似度确定所述至少一个比较对象。例如,选择一个最相似的比较对象。当然,在本发明实施例的方法中可选择超过一个比较对象,且所选择的比较对象也不受限于与观察目标最接近,可自动或由用户从候选的比较对象中选择用户想要的比较对象,以根据用户需要更有针对性的突出重要信息。
此外,辅助观察模块220可进一步包括:
差异查找单元221,用于找出所述观察目标与所述至少一个比较对象的差异。
差异查找单元221可找出观察目标与比较对象之间的全部差异,也可针对观察目标上特定区域和/或特定内容来找差异。该特定的区域和/或特定内容可为用户所感兴趣的区域和/或内容,相应地,如图3所示,差异查找单元221可进一步包括:
采集子单元2211,用于采集用户对所述观察目标的感兴趣区域;
差异查找子单元2212,用于找出所述感兴趣区域内的差异。
采集子单元2211可采用本领域所熟知的各种可能的方式来采集用户对所述观察目标的感兴趣区域,例如,追踪用户的头部动作及视线,或检测用户的视线的对焦位置等等,在此不做赘述。
此外,该特定的区域和/或特定内容也可以为预设的区域和/或内容,例如,观察目标为账单时,预设的区域为金额部分,预设内容可为数字数据。特定的内容可为根据上下文、情境等所选择的内容,还可根据内容类型进行选择,例如,特定的内容可为图像、文字、数字、以及特殊标识这样的内容中的一种或几种。由观察目标在用户的观察角度均可视为图像,因此,为了查找差异,可先对特定的内容进行提取。相应地,如图4所示,差异查找单元221还可包括:
内容提取子单元2213,用于提取所述观察目标中的特定内容;
所示差异查找子单元2212还用于找出所述特定内容与所述比较对象中对应内容之间的差异。
该特定的内容也可为位于特定区域内的特定类型的内容,例如,用户感兴趣区域内的上述特定内容,也即如图5所示,该差异查找单元221同时包括采集子单元2211、差异查找子单元2212、以及内容提取子单元2213。
如图2至图5所示的,辅助观察模块220还包括:提醒单元222,用于提醒用户所述观察目标上的特定差异。
在差异查找单元221找出观察目标与所述至少一个比较对象之间存在的差异后,进一步根据用户的需要找出特定的差异,并提醒用户需要那些特定的差异需要重点关注。当然,特定差异也可指全部差异。
需要说明的是,根据查找目标的不同,差异查找单元221找出差异的方法也不尽相同。具言之:
对于观察目标为图像或待查找的特定内容为图像时,找出差异的方法可为:从图像主体的颜色、形状、纹理、位置、姿态、方向等特征或特征分布等特性比较两幅图像的差异。比较的区域可以是整幅图像,也可以是图像中的一部分,比如一定大小的图像块(block)。特征或特征分布等特性之间的差异可以是以像素为单位,逐像素比较计算出来的差异,也可以是以一定大小的图像块(有多个像素构成)为单位进行比较得出的差异值。该差异值可以是特征数值的直接比较,也可以是特征的统计分布之间的比较(比如直方图统计)。
相应地,对应于观察目标为图像或待查找的特定内容为图像的情况,在确定两幅图像之间的哪些差异需要作为特定差异提醒用户时,可以通过预先设置提醒阈值来实现,比如:
-设定单位比较区域大小(例如,16*16像素);
-比较该单位比较区域内或该单位比较区域的局部范围内的对象直方图(例如,颜色分布直方图、灰度直方图、傅里叶变换系数等)特征值之间的差异超过预设阈值时,该区域内的差异为特定差异;
-比较该单位比较区域内或该单位比较区域的局部范围内的形状(例如,矩形度、圆形度、傅里叶描述符、不变距、骨架等)特征值之间的差异超过预设阈值时,该区域内的差异为特定差异;
-比较该单位比较区域内或该单位比较区域的局部范围内的对象的综合特征值(例如,颜色、纹理、形状及位置)之间的差异超过预设阈值时,该区域内的差异为特定差异;
-图像中某一特征对象之间的距离(例如,物体与地面、物体与另外一个物体之间的相对距离和方位)在两幅图中的差异超过预设阈值时,该区域内的差异为特定差异;
-综合考虑一副图像中的多个比较区域的差异;
对于观察目标为文字或待查找的特定内容为文字(由于用户所观察的是图像,查找差异时,需通过光学字符识别(Optical CharacterRecognition,OCR)将图像中的文字内容提取出来)时,找出差异的方法可为:比较语义相似度,也即计算该观察目标或待查找的特定内容中的文字与比较对象中的对应文字之间的语义相似度,并将相似度低于提醒阈值的差异作为特定差异提醒用户。其中,语义之间的相似度的计算方法有以下几种:
-根据某种世界知识(Ontology)或分类体系(Taxonomy)来计算。该方法又称为基于树的语义相似度研究方法。基于树的语义相似度计算的算法大体上有可以分为两种:一是基于距离的语义相似性测度;二是基于信息内容的语义相似性测度。一般是利用一部语义词典(如Wordnet,Hownet),语义词典都是将所有的词组织在一棵或几棵树状的层次结构中(参见:李鹏,陶兰,王弼佐.一种改进的本体语义相似度计算及其应用[J].计算机工程与设计,2007(1):227—229.);
-利用大规模的语料库进行统计。基于语料库的词语相似度研究大都采用了上下文语境的统计描述方法,即认同这样一个论断:词语的上下文可以为词语定义提供足够信息。词语向量空间模型是目前基于统计的词语相似度计算策略使用比较广泛的一种,算法复杂度也能够实现的模型(参见:夏天.汉语词语语义相似度计算研究[J].计算机工程,2007(6):191—194.);
-其它:例如,基于树状结构中两个结点所含的信息量的大小来计算语义相似度,其基本思想是利用信息理论来进行研究(参见:DoanA,MadhavanJ.Learnir~gtOMatchOntolo#esontheSe.manticWeb[J].TheⅥDB Journal,2003,12(4):116—120.)。
需要说明的是,如果语言不同(比如汉语和英语),则可先翻译之后再进行语义相似度分析。
对于观察目标为数字或待查找的特定内容为数字(由于用户所观察的是图像,在进行查找时同样需通过光学字符识别(OpticalCharacter Recognition,OCR)来将图像中的数字内容提取出来)时,找出差异可通过区分数字(包括小数点)、度量方法(二、八、十进制、十六进制、时间进制、角度、温度、距离、分/角/元等)、表示方法(自然计数法、科学计数法、对数计数法等)、度量单位(米、尺、顿、度、平方米、立方米等)来实现。如果度量单位不同,则进行统一后在比较。然后转换成统一计数方法,进行比较。如果比较结果不同或差异超过提醒阈值,则作为特定差异提醒用户。
对于观察目标为特殊标识或待查找的特定内容为特殊标识时,由于通常特殊标识的作用即为强调,因此,本发明实施例的装置中将带有特殊标识的对象均作为特殊差异提醒用户。
此外,在本发明实施例的装置中,提醒单元222可通过以下方式中的一种或几种提醒用户:可视化提醒、声音提醒、触感提醒、震动提醒。例如,通过在所述观察目标上叠加可视化标识的方式提醒用户。若所示观察目标上相应位置已存在可视化标识,则用于该标识不同的可视化标识来提醒用户,该可视化标识还可直观的为在图像上叠加的用户可见的一段虚拟的提示文字。声音提醒可跟随用用户前注视的内容来同步进行,例如,当用户观察到某些特定差异上时,用声音提醒用户。触感提醒指当用户触摸到特定差异上时,通过触感反馈对用户进行提醒,震动提醒类似。
本发明实施例的装置还包括:
存储模块240,用于存储所述观察目标的图像,以供作为当前用户或其他用户的候选的比较对象。
综上,本发明实施例的装置在避免出现漏看重要信息或冗余非重要信息的现象的同时,提高了观察信息尤其是重要信息的效率。
图6为本发明实施例提供的一种辅助观察装置600的结构示意图,本发明具体实施例并不对辅助观察装置600的具体实现做限定。如图6所示,该辅助观察装置600可以包括:
处理器(processor)610、通信接口(Communications Interface)620、存储器(memory)630、以及通信总线640。其中:
处理器610、通信接口620、以及存储器630通过通信总线640完成相互间的通信。
通信接口620,用于与比如客户端等的网元通信。
处理器610,用于执行程序632,具体可以执行上述图1所示的方法实施例中的相关步骤。
具体地,程序632可以包括程序代码,所述程序代码包括计算机操作指令。
处理器610可能是一个中央处理器CPU,或者是特定集成电路ASIC(Application Specific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。
存储器630,用于存放程序632。存储器630可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。程序632具体可以包括:
比较对象确定模块,用于根据观察目标的特征确定至少一个比较对象;
辅助观察模块,用于确定所述观察目标与所述至少一个比较对象之间的特定差异。
程序632中各单元的具体实现可以参见图2至图5所示实施例中的相应单元,在此不赘述。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的设备和模块的具体工作过程,可以参考前述方法实施例中的对应过程描述,在此不再赘述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及方法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上实施方式仅用于说明本发明,而并非对本发明的限制,有关技术领域的普通技术人员,在不脱离本发明的精神和范围的情况下,还可以做出各种变化和变型,因此所有等同的技术方案也属于本发明的范畴,本发明的专利保护范围应由权利要求限定。
Claims (24)
1.一种辅助观察方法,其特征在于,所述方法包括步骤:
根据观察目标的特征确定至少一个比较对象;
确定所述观察目标与所述至少一个比较对象之间的特定差异。
2.根据权利要求1所述的方法,其特征在于,所述特征包括以下中的一个或多个:特定内容的上下文、元数据、视觉特征、语义、以及情境。
3.根据权利要求1所述的方法,其特征在于,所述比较对象包括所述观察目标非当前时刻的图像。
4.根据权利要求1所述的方法,其特征在于,在所述确定所述观察目标与所述至少一个比较对象之间的特定差异的步骤中:
根据与所述观察目标的所述特征的相似度确定所述至少一个比较对象。
5.根据权利要求1所述的方法,其特征在于,所述确定所述观察目标与所述至少一个比较对象之间的特定差异的步骤进一步包括:
找出所述观察目标与所述至少一个比较对象的差异;
提醒用户所述观察目标上的特定差异。
6.根据权利要求5所述的方法,其特征在于,所述找出所述观察目标与所述至少一个比较对象的差异的步骤还包括:
采集用户对所述观察目标的感兴趣区域;
找出所述感兴趣区域内的差异。
7.根据权利要求5所述的方法,其特征在于,所述找出所述观察目标与所述至少一个比较对象的差异的步骤进一步包括:
提取所述观察目标中的特定内容;
分析所述特定内容与所述比较对象中对应内容之间的差异。
8.根据权利要求7所述的方法,其特征在于,所述特定内容包括文字、数字、特殊标识和/或图像。
9.根据权利要求5所述的方法,其特征在于,在所述提醒用户所述观察目标上的特定差异的步骤中:
通过以下方式中的一种或几种提醒用户:可视化提醒、声音提醒、触感提醒、震动提醒。
10.根据权利要求5所述的方法,其特征在于,在所述提醒用户所述观察目标上的特定差异的步骤中:
通过在所述观察目标上叠加可视化标识的方式提醒用户。
11.根据权利要求5至10中任一项所述的方法,其特征在于,所述特定差异包括内容、语义、以及视觉特征上的差异中的一种或几种。
12.根据权利要求1至11中任一项所述的方法,其特征在于,所述方法还包括步骤:
存储所述观察目标的图像。
13.根据权利要求1至12中任一项所述的方法,其特征在于,所述方法还包括步骤:
获取候选的比较对象。
14.一种辅助观察装置,其特征在于,所述装置包括:
比较对象确定模块,用于根据观察目标的特征确定至少一个比较对象;
辅助观察模块,用于确定所述观察目标与所述至少一个比较对象之间的特定差异。
15.根据权利要求14所述的装置,其特征在于,所述特征包括以下中的一个或多个:特定内容的上下文、元数据、视觉特征、语义、以及情境。
16.根据权利要求14所述的装置,其特征在于,所述比较对象确定模块所确定的所述比较对象包括所述观察目标非当前时刻的图像。
17.根据权利要求14所述的装置,其特征在于,所述比较对象确定模块根据与所述观察目标的所述特征的相似度确定所述至少一个比较对象。
18.根据权利要求14所述的装置,其特征在于,所述辅助观察模块进一步包括:
差异查找单元,用于找出所述观察目标与所述至少一个比较对象的差异;
提醒单元,用于提醒用户所述观察目标上的特定差异。
19.根据权利要求18所述的装置,其特征在于,所述差异查找单元包括:
采集子单元,用于采集用户对所述观察目标的感兴趣区域;
差异查找子单元,用于找出所述感兴趣区域内的差异。
20.根据权利要求19所述的装置,其特征在于,所述差异查找单元进一步包括:
内容提取子单元,用于提取所述观察目标中的特定内容;
所示差异查找子单元还用于找出所述特定内容与所述比较对象中对应内容之间的差异。
21.根据权利要求18所述的装置,其特征在于,所述提醒单元通过以下中的一种或几种提醒用户:可视化提醒、声音提醒、触感提醒、震动提醒。
22.根据权利要求18所述的装置,其特征在于,所述提醒模块通过在所述观察目标上叠加可视化标识的方式提醒用户。
23.根据权利要求14至22中任一项所述的装置,其特征在于,所述装置还包括:
存储模块,用于存储所述观察目标的图像。
24.根据权利要求14至23中任一项所述的装置,其特征在于,所述装置还包括:
比较对象获取模块,用于获取候选的比较对象。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310462953.5A CN103500282A (zh) | 2013-09-30 | 2013-09-30 | 辅助观察方法及辅助观察装置 |
PCT/CN2014/071133 WO2015043128A1 (zh) | 2013-09-30 | 2014-01-22 | 辅助观察方法及辅助观察装置 |
US14/787,234 US10198664B2 (en) | 2013-09-30 | 2014-01-22 | Auxiliary observing method and auxiliary observing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310462953.5A CN103500282A (zh) | 2013-09-30 | 2013-09-30 | 辅助观察方法及辅助观察装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103500282A true CN103500282A (zh) | 2014-01-08 |
Family
ID=49865490
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310462953.5A Pending CN103500282A (zh) | 2013-09-30 | 2013-09-30 | 辅助观察方法及辅助观察装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10198664B2 (zh) |
CN (1) | CN103500282A (zh) |
WO (1) | WO2015043128A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015043128A1 (zh) * | 2013-09-30 | 2015-04-02 | 北京智谷睿拓技术服务有限公司 | 辅助观察方法及辅助观察装置 |
CN109426810A (zh) * | 2017-08-30 | 2019-03-05 | 精工爱普生株式会社 | 处理装置、处理***、处理方法以及计算机可读记录介质 |
CN115460358A (zh) * | 2022-09-20 | 2022-12-09 | 亿慧云智能科技(深圳)股份有限公司 | 一种显示方法、显示装置及显示用屏 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230012173A1 (en) * | 2021-07-08 | 2023-01-12 | Hitachi High-Tech Corporation | Process recipe search apparatus, etching recipe search method and semiconductor device manufacturing system |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1610522A (zh) * | 2001-12-28 | 2005-04-27 | 皇家飞利浦电子股份有限公司 | 具有图像调节装置的医用观察*** |
CN1740970A (zh) * | 2004-08-27 | 2006-03-01 | 微软公司 | 无缝地比较对象的***和方法 |
CN101246517A (zh) * | 2007-02-16 | 2008-08-20 | 东芝医疗***株式会社 | 图像诊断支持装置 |
CN201278180Y (zh) * | 2008-05-28 | 2009-07-22 | 丁国锋 | 一种自动追踪识别*** |
CN101527135A (zh) * | 2008-03-04 | 2009-09-09 | 株式会社东芝 | 医用信息显示装置及医用信息显示方法 |
CN101542520A (zh) * | 2007-03-09 | 2009-09-23 | 欧姆龙株式会社 | 识别处理方法及使用该方法的图像处理装置 |
US20110135154A1 (en) * | 2009-12-04 | 2011-06-09 | Canon Kabushiki Kaisha | Location-based signature selection for multi-camera object tracking |
CN103327235A (zh) * | 2012-03-21 | 2013-09-25 | 卡西欧计算机株式会社 | 图像处理装置以及图像处理方法 |
CN104462083A (zh) * | 2013-09-13 | 2015-03-25 | 佳能株式会社 | 用于内容比较的方法、装置和信息处理*** |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5915250A (en) * | 1996-03-29 | 1999-06-22 | Virage, Inc. | Threshold-based comparison |
US6847892B2 (en) * | 2001-10-29 | 2005-01-25 | Digital Angel Corporation | System for localizing and sensing objects and providing alerts |
US8553949B2 (en) * | 2004-01-22 | 2013-10-08 | DigitalOptics Corporation Europe Limited | Classification and organization of consumer digital images using workflow, and face detection and recognition |
US20070009136A1 (en) * | 2005-06-30 | 2007-01-11 | Ivan Pawlenko | Digital imaging for vehicular and other security applications |
US8107541B2 (en) * | 2006-11-07 | 2012-01-31 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for video segmentation |
DE112008001380T5 (de) * | 2007-05-22 | 2010-04-15 | Trimble Navigation Ltd., Sunnyvale | Handhabung von Rasterbild-3D-Objekten |
JP4636064B2 (ja) * | 2007-09-18 | 2011-02-23 | ソニー株式会社 | 画像処理装置および画像処理方法、並びにプログラム |
US8724909B2 (en) * | 2008-06-03 | 2014-05-13 | Kooaba Ag | Method and system for generating a pictorial reference database using geographical information |
EP2284797B1 (en) * | 2009-07-16 | 2018-09-05 | Olympus Corporation | Image processing apparatus and image processing method |
US8396269B2 (en) * | 2010-04-08 | 2013-03-12 | Digital Pathco LLC | Image quality assessment including comparison of overlapped margins |
US9767668B2 (en) * | 2013-03-14 | 2017-09-19 | International Business Machines Corporation | Automatic adjustment of metric alert trigger thresholds |
CN103500282A (zh) * | 2013-09-30 | 2014-01-08 | 北京智谷睿拓技术服务有限公司 | 辅助观察方法及辅助观察装置 |
-
2013
- 2013-09-30 CN CN201310462953.5A patent/CN103500282A/zh active Pending
-
2014
- 2014-01-22 US US14/787,234 patent/US10198664B2/en active Active
- 2014-01-22 WO PCT/CN2014/071133 patent/WO2015043128A1/zh active Application Filing
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1610522A (zh) * | 2001-12-28 | 2005-04-27 | 皇家飞利浦电子股份有限公司 | 具有图像调节装置的医用观察*** |
CN1740970A (zh) * | 2004-08-27 | 2006-03-01 | 微软公司 | 无缝地比较对象的***和方法 |
CN101246517A (zh) * | 2007-02-16 | 2008-08-20 | 东芝医疗***株式会社 | 图像诊断支持装置 |
CN101542520A (zh) * | 2007-03-09 | 2009-09-23 | 欧姆龙株式会社 | 识别处理方法及使用该方法的图像处理装置 |
CN101527135A (zh) * | 2008-03-04 | 2009-09-09 | 株式会社东芝 | 医用信息显示装置及医用信息显示方法 |
CN201278180Y (zh) * | 2008-05-28 | 2009-07-22 | 丁国锋 | 一种自动追踪识别*** |
US20110135154A1 (en) * | 2009-12-04 | 2011-06-09 | Canon Kabushiki Kaisha | Location-based signature selection for multi-camera object tracking |
CN103327235A (zh) * | 2012-03-21 | 2013-09-25 | 卡西欧计算机株式会社 | 图像处理装置以及图像处理方法 |
CN104462083A (zh) * | 2013-09-13 | 2015-03-25 | 佳能株式会社 | 用于内容比较的方法、装置和信息处理*** |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015043128A1 (zh) * | 2013-09-30 | 2015-04-02 | 北京智谷睿拓技术服务有限公司 | 辅助观察方法及辅助观察装置 |
US10198664B2 (en) | 2013-09-30 | 2019-02-05 | Beijing Zhigu Rui Tuo Tech Co., Ltd. | Auxiliary observing method and auxiliary observing apparatus |
CN109426810A (zh) * | 2017-08-30 | 2019-03-05 | 精工爱普生株式会社 | 处理装置、处理***、处理方法以及计算机可读记录介质 |
CN115460358A (zh) * | 2022-09-20 | 2022-12-09 | 亿慧云智能科技(深圳)股份有限公司 | 一种显示方法、显示装置及显示用屏 |
CN115460358B (zh) * | 2022-09-20 | 2023-06-20 | 亿慧云智能科技(深圳)股份有限公司 | 一种显示方法、显示装置及显示用屏 |
Also Published As
Publication number | Publication date |
---|---|
US20160078315A1 (en) | 2016-03-17 |
WO2015043128A1 (zh) | 2015-04-02 |
US10198664B2 (en) | 2019-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chum | Large-scale discovery of spatially related images | |
Tian et al. | Bayesian visual reranking | |
CN114612759B (zh) | 视频处理方法、查询视频的方法和模型训练方法、装置 | |
CN102629261A (zh) | 由钓鱼网页查找目标网页的方法 | |
CN104537341A (zh) | 人脸图片信息获取方法和装置 | |
CN104463177A (zh) | 相似人脸图片获取方法和装置 | |
CN111444387A (zh) | 视频分类方法、装置、计算机设备和存储介质 | |
CN103500282A (zh) | 辅助观察方法及辅助观察装置 | |
Wang et al. | A new sketch-based 3D model retrieval approach by using global and local features | |
CN103440262A (zh) | 基于相关反馈和Bag-of-Features的图像检索***及方法 | |
CN108572992A (zh) | 一种商品排序的方法及装置 | |
Zhou et al. | Automatic image–text alignment for large-scale web image indexing and retrieval | |
CN112241704A (zh) | 一种判定肖像侵权的方法、装置、电子设备及存储介质 | |
Yan et al. | Shared-private information bottleneck method for cross-modal clustering | |
Zhang et al. | Fusing cross-media for topic detection by dense keyword groups | |
CN111275683B (zh) | 图像质量评分处理方法、***、设备及介质 | |
Abdulmunem et al. | Semantic based video retrieval system: survey | |
He et al. | Fully convolution neural network combined with K-means clustering algorithm for image segmentation | |
CN113157908B (zh) | 一种展示社交媒体热点子话题的文本可视化方法 | |
Cho et al. | Recognizing human–human interaction activities using visual and textual information | |
Huang et al. | An integrated scheme for video key frame extraction | |
CN103164504A (zh) | 一种智能手机精细化图片搜索***及方法 | |
US10176176B2 (en) | Assistance for video content searches over a communication network | |
Joseph et al. | Contextual feature discovery and image ranking for image object retrieval and tag refinement | |
Lu et al. | Complementary pseudolabel based on global-and-channel information for unsupervised person reidentification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20140108 |