CN102959549A - 分类装置及分类方法 - Google Patents

分类装置及分类方法 Download PDF

Info

Publication number
CN102959549A
CN102959549A CN2012800017088A CN201280001708A CN102959549A CN 102959549 A CN102959549 A CN 102959549A CN 2012800017088 A CN2012800017088 A CN 2012800017088A CN 201280001708 A CN201280001708 A CN 201280001708A CN 102959549 A CN102959549 A CN 102959549A
Authority
CN
China
Prior art keywords
thing
select target
associated objects
association
target thing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012800017088A
Other languages
English (en)
Other versions
CN102959549B (zh
Inventor
银杏圭司
川西亮一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of CN102959549A publication Critical patent/CN102959549A/zh
Application granted granted Critical
Publication of CN102959549B publication Critical patent/CN102959549B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/435Filtering based on additional data, e.g. user or group profiles
    • G06F16/436Filtering based on additional data, e.g. user or group profiles using biological or physiological data of a human being, e.g. blood pressure, facial expression, gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/438Presentation of query results
    • G06F16/4387Presentation of query results by the use of playlists
    • G06F16/4393Multimedia presentations, e.g. slide shows, multimedia albums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Physiology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明的分类装置具备:选择目标物位置决定部(114),决定由用户选择的选择目标物中的第1区域内的第1位置;识别部(103),识别与选择目标物相关联的关联目标物;以及参数赋予部(117),根据与选择目标物的关联度,对关联目标物设定贡献于预定的关系的参数,该预定的关系规定选择目标物从第1位置移动时的与选择目标物的关联度相对应的跟随性。由此,能够根据用户操作来直观地对用户期望的分类进行编排。

Description

分类装置及分类方法
技术领域
本发明涉及分类装置及分类方法,尤其涉及能够将电子化的图像、数据及图标等内容直观地重新编排的分类装置及分类方法。
背景技术
电子化的图像、数据及图标等内容可以采用各种形态。近年来,用户所持有的内容数量越来越多,将内容分类为期望的类别需要花费时间和精力。在此,作为对内容进行分类的技术,提出了例如基于面部、物体辨认或特征量提取的自动分类技术(例如专利文献1)。
在先技术文献
专利文献
专利文献1:美国专利申请公开2008/0089591号说明书
发明的概要
发明所要解决的课题
但是,在上述专利文献1那样的自动分类技术中,无法得到与用户个人的特性和喜好一致的分类结果。因此,为了得到与用户个人的特性和喜好一致的分类结果,需要将各个内容逐一地重新映射等,将自动分类的内容逐一地重新编辑,存在对用户来说利用性较低的课题。
发明内容
在此,本发明鉴于上述问题而做出,其目的在于,提供一种分类装置及分类方法,能够按照用户操作来直观地对用户期望的分类进行编排。
解决课题所采用的手段
为达成上述目的,本发明的一个方式的分类装置,具备:位置决定部,决定配置于显示画面的第1区域内的多个目标物中的、由用户选择的选择目标物在所述第1区域内的第1位置;识别部,在所述多个目标物中,识别与所述选择目标物关联的关联目标物;以及参数赋予部,根据与所述选择目标物的关联度,对所述关联目标物设定贡献于预定的关系的参数,该预定的关系规定所述选择目标物从所述第1位置移动时的向所述选择目标物的跟随性。
另外,这些全部或具体的形态可以通过***、方法、集成电路、计算机程序或记录介质来实现,也可以通过***、方法、集成电路、计算机程序及记录介质的任意组合来实现。
发明的效果
根据本发明,能够实现一种分类装置及分类方法等,能够根据用户操作来直观地对用户期望的分类进行编排。
附图说明
图1是表示实施方式中的显示画面的一例的图。
图2是表示实施方式中的显示装置的构成的一例的图。
图3是表示实施方式中的分类装置的构成的一例的框图。
图4是表示实施方式中的功能追加部的详细构成的例子的框图。
图5是表示实施方式中的跟随动作部还具备的构成要素的例子的框图。
图6是用于说明实施方式中的显示画面的一例的构成的图。
图7A是用于说明实施方式中的分类装置的跟随动作处理的图。
图7B是用于说明实施方式中的分类装置的跟随动作处理的图。
图8是用于说明用于实现向选择目标物拉拽的关联目标物的数量的控制的模型的图。
图9是实施方式中的分类装置对关联目标物分别赋予与关联度对应的拉伸力的情况的流程图。
图10是用于说明用户能够控制向选择目标物拉拽的关联目标物的数量的情况的其他例的图。
图11是用于说明实施方式中的分类装置的处理的一例的流程图。
图12是用于说明使用实施方式中的分类装置所提示的显示画面来对新的类别组进行编排的情况例子的图。
图13是用于说明使用实施方式中的分类装置所提示的显示画面来对新的类别组进行编排的情况的例子的图。
图14A是用于说明使用实施方式中的分类装置所提示的显示画面来对新的类别组进行编排的情况的例子的图。
图14B是用于说明使用实施方式中的分类装置所提示的显示画面来对新的类别组进行编排的情况的例子的图。
图15是用于说明使用实施方式中的分类装置所提示的显示画面来对新的类别组进行编排的例子的图。
图16A是用于说明实施方式的变形例1中的分类装置的跟随动作处理的图。
图16B是用于说明实施方式的变形例1中的分类装置的跟随动作处理的图。
图17是用于说明用于实现图16A及图16B所示的控制的模型的图。
图18是表示能够由用户控制向选择目标物拉拽的关联目标物的数量的情况的例子的图。
图19是用于说明实施方式的变形例2中的分类装置的跟随动作处理的图。
具体实施方式
(得到本发明的一个方式的过程)
作为一般的内容,例如有照片数据、影像数据、文本数据等。例如,照片数据通常作为原图像数据或压缩图像数据(例如JPEG形式)来保存。此外,例如影像通常作为使用适当的编解码器编码后的图像帧的集合(例如MPEG形式)来保存。此外,例如,文本数据作为一般的文本文件、应用特有的文件(例如微软word的doc或docx形式)、或可印刷的文件(例如PDF)来保存。在内容中有时包含文本及图像数据的双方。在这样的内容中,有通过幻灯片软件应用(例如微软PowerPoint)处理的文件等。此外,在数据库等中,作为内容,通常不仅保存文本数据及数值数据,有时还能够按照对保存的数据赋予意义的规定的数据结构来保存图像数据。还有作为内容的图标的配置和可编辑的应用。在这样的应用中,能够将图标作为图像数据保存,将或图标与追加的元数据一起保存。
用户希望对上述内容进行分类(配置)的情况下,以往该操作比较麻烦,而且远远不是直观的过程。此外,在通过以往的软件等实现的分类技术中,用户为了选择期望的内容,必须通过复杂的***菜单、对话框、或指令来进行中断等操作。此外,内容包含照片、图像、电影等非文本的情况下,文本检索技术的性能的效果并不太高,有时无法通过软件等进行自动分类,所以操作更加繁杂。
此外,在较多保存有照片图像等、内容容量较大的情况下,对内容进行分类的操作是非常麻烦的操作。
将这样的分类操作自动化的工具(技术),例如如专利文献1所公开,有若干个,使用该工具,能够基于图像特征提取及面部或目标物辨认等来对图像等的内容进行分类。
但是,在这些工具(以往的自动分类技术)中,检测到的命中数经常过多,用户必须从命中的内容中将大量内容手动地除去。此外,在上述专利文献1那样的自动分类技术中,无法得到与用户自身的特性和喜好一致的分类结果,所以为了得到与用户自身的特性和喜好一致的分类结果,需要将各个内容逐一重新映射等,将自动分类的内容逐一重新编辑。
这样,存在对用户来说利用性较低的问题。
在此,本发明的一个方式是基于上述问题而做出的,其目的在于,提供一种分类装置及分类方法,能够根据用户操作来直观地对用户期望的分类进行编排。
为了解决上述问题,本发明的一个方式的分类装置,具备:位置决定部,决定配置于显示画面的第1区域内的多个目标物中的、由用户选择的选择目标物在所述第1区域内的第1位置;识别部,在所述多个目标物中,识别与所述选择目标物关联的关联目标物;以及参数赋予部,根据与所述选择目标物的关联度,对所述关联目标物设定贡献于预定的关系的参数,该预定的关系规定所述选择目标物从所述第1位置移动时的向所述选择目标物的跟随性。
由此,能够实现一种分类装置,能够根据用户操作来直观地对用户期望的分类进行编排。
在此,例如也可以是,所述分类装置还具备跟随动作处理部,由所述用户使所述选择目标物从所述第1位置移动到所述显示画面的与所述第1区域不同的第2区域中包含的第2位置时,基于所述预定的关系,使所述关联目标物跟随所述选择目标物而移动到所述第2区域的所述第2位置的周围位置。
此外,例如也可以是,所述预定的关系是至少规定位置、速度、加速度的某1个的函数。
在此,例如也可以是,所述预定的关系规定一种算法,该算法根据所述关联度,作为所述跟随性而对所述关联目标物和所述选择目标物之间的引力的运动进行模拟。
此外,例如也可以是,所述预定的关系规定一种算法,该算法根据所述关联度,作为所述跟随性而对将所述关联目标物向所述选择目标物拉拽的弹簧力的运动进行模拟。
此外,例如也可以是,所述预定的关系还规定一种算法,该算法对摩擦力进行模拟,该摩擦力使由所述弹簧力产生的运动根据所述关联度而延迟。
此外,例如也可以是,所述跟随动作处理部使所述关联目标物移动到离开了与所述关联度相应的距离的所述第2位置的周围位置。
此外,例如也可以是,所述关联度是所述选择目标物和所述关联目标物的类似度。
此外,例如也可以是,所述分类装置还具备连结线生成部,在所述选择目标物和所述关联目标物之间生成连结线,并基于所述关联度,将生成的所述连结线以视觉上可辨认的特征显示在所述显示画面上。
此外,例如也可以是,所述参数赋予部仅对于所述关联目标物中的、与所述选择目标物的关联度为第1关联度以上的关联目标物,根据与选择目标物的关联度来设定所述预定的关系的参数。
此外,例如也可以是,所述跟随动作处理部还具备:旋转检测部,检测由所述用户对从所述第1位置移动到所述第2位置的所述选择目标物施加的旋转;以及移动部,由所述旋转检测部检测到的所述旋转的角速度的大小为第1阈值以上的情况下,使所述关联目标物中的、与所述选择目标物的关联度为第1关联度以下的关联目标物回到所述第1区域的原来的位置。
此外,例如也可以是,所述跟随动作处理部还具备:速度检测部,检测由所述用户使所述选择目标物从所述第1位置移动到所述第2位置时的速度;以及移动部,由所述速度检测部检测到的所述速度的大小为第1阈值以上的情况下,使所述关联目标物中的、与所述选择目标物的关联度为第1关联度以下的关联目标物回到所述第1区域的原来的位置。
此外,例如也可以是,所述分类装置还具备:显示控制部,将配置在所述第1区域内的多个目标物中的、由用户指定的指定目标物显示在与所述第1区域及所述第2区域不同的第3区域中;特征部分检测部,检测构成所述第3区域所显示的所述指定目标物的多个特征部分中的、由用户指定的第1特征部分;以及提示部,提示由所述识别部识别的目标物且所述多个目标物中的与所述第1特征部分关联的特征关联目标物;所述位置决定部将所述特征关联目标物中的、由用户选择的特征关联目标物作为所述选择目标物,决定该选择的特征关联目标物中的所述第1区域内的第1位置。
此外,例如也可以是,所述选择目标物由多个目标物构成,所述识别部在所述多个目标物中,将所述多个目标物所具有的特征平均,并将与平均后的目标物相关联的多个关联目标物识别为所述关联目标物。
此外,例如也可以是,所述分类装置还具备附加信息赋予部,对于由所述第2位置的所述选择目标物和所述周围位置的所述关联目标物编排而成的编排组,接受从所述用户输入的附加信息,将接受的所述附加信息赋予所述编排组。
此外,例如也可以是,所述识别部在所述多个目标物中,将与所述选择目标物关联的第1关联目标物和与所述第1关联目标物关联的第2关联目标物识别为所述关联目标物。
在此,例如所述目标物是用于将应用起动的图标。
此外,例如所述目标物是内容。
此外,为解决上述课题,本发明的一个方式的分类方法,包括以下步骤:位置决定步骤,决定配置于显示画面的第1区域内的多个目标物中的、由用户选择的选择目标物在所述第1区域内的第1位置;识别步骤,在所述多个目标物中,识别与所述选择目标物关联的关联目标物;以及参数赋予步骤,根据与所述选择目标物的关联度,对所述关联目标物设定贡献于预定的关系的参数,该预定的关系规定所述选择目标物从所述第1位置移动时的向所述选择目标物的跟随性。
另外,以下说明的实施方式都只示出本发明的一具体例。以下的实施方式所示的数值、形状、材料、构成要素、构成要素的配置位置及连接形态、步骤、步骤的顺序等只是一例,并不意图限定本发明。此外,对于以下的实施方式的构成要素中的、未记载于表示最上位概念的独立权利要求的构成要素,作为任意的构成要素来说明。
此外,以下示出的附图不是设想的全部实施方式,而是仅为了例示所选择的实施方式,不意图限定本公开的范围。相同的参照符号在附图的若干图中表示对应的部分。
(实施方式)
在本实施方式中,说明一种分类装置及分类方法,基于对象内容(选择目标物)和与对象内容类似的其他关联内容(关联目标物)的关联度,对规定由计算机生成的跟随性的参数赋予关联性,由此能够通过对用户友好的、且对用户来说自然的方法,将图像或图标等内容(目标物)的分类重新编排。
此外,本实施方式中的分类装置及分类方法,对关联内容设定上述参数,以根据内容的关联度来表示能够由计算机模拟的例如物理的运动特性。在此,例如用户在显示画面等的由计算机生成的图像空间中,通过适当的手势触摸或定点设备等,选择期望的对象内容并使其移动。这样,关联内容在显示画面等的由计算机生成的图像空间中,一边跟随对象内容,一边作为表示物理的运动特性的可动目标物(物理目标物)而被描绘。更具体地说,关联内容以像被看不见的引力(例如看不见的弹簧的力、重力等物理的力)拉拽到所选择的对象内容那样移动的方式被描绘。
因此,用户在显示画面等图像空间中对选择的对象内容进行例如拖放时,关联内容表现出仿佛由于看不见的引力而移动那样的运动学的运动,同时跟随所选择的对象内容而被描绘。
另外,该看不见的引力的强弱根据与对象内容的关联度来定义。即,定义为关联度较高的关联内容与关联度较低的关联内容相比,被更强的力拉拽。
此外,该看不见的引力的强弱也可以定义为,反映到跟随对象内容的速度上。即定义为,关联度越高的关联内容,越快地跟随所选择的对象内容而移动。
通过这样定义看不见的引力的强弱,与关联度较低的关联内容相比,关联度较高的关联内容集中在离对象内容更近的位置。
因此,用户通过观察跟随对象内容的关联内容的运动和关联内容被描绘的位置,直观地知道关联内容和对象内容的关联度。
此外,在由计算机生成的图像空间中,由用户移动对象内容时,该关联内容伴随着模拟物理目标物的运动而移动。因此,用户仅通过触摸&拖放(或点击&拖放)等操作来使对象内容移动,就能够将关联内容重新编排,所以能够迅速且自然地学习重新编排的操作方法。
另外,规定跟随性的参数典型地是与对象内容及其关联内容的关联度相应的某种物理参数。作为物理参数的例,可以举出以下的(a)~(d),但不限于此。
(a)在关联内容(关联目标物)和对象内容(选择目标物)之间作用的拉伸力及/或引力等的力
(b)关联内容(关联目标物)接近对象内容(选择目标物)的速度
(c)关联内容(关联目标物)相对于对象内容(选择目标物)的最终相对位置
(d)(a)~(d)的组合
另外,规定跟随性的参数不限于物理参数。将对象内容移动时,关联内容只要是能够规定表示伴随着物理运动的模仿的移动等跟随性的运动的参数,可以是任何形式。
以下,参照附图来具体说明示例性的实施方式。
使用规定跟随性的参数来定义选择目标物(对象内容)与关联目标物(关联内容)之间的关联度。以下,作为例示而说明将力、速度或相对位置等与运动学相关联的物理参数作为规定上述跟随性的参数来使用的情况。
首先,对使用物理参数来定义在关联目标物和选择目标物之间作用的拉伸力及引力等的力的情况进行说明。这样的力例如按照由(式1)定义的关系式而由计算机生成(模拟)。
【数1】
F → = k i ( x → i - x → T ) (式1)
在此,
【数2】
F →
表示在关联目标物i和选择目标物T之间作用的力。此外,ki是依存于关联目标物i和选择目标物T(ki>0)的关联性(关联度)的参数。此外,
【数3】
x → i
表示关联目标物i的位置。此外,
【数4】
x → T
表示选择目标物T位置。
接下来,作为另一例,对使用物理参数来定义关联目标物被向选择目标物拉拽的速度的情况进行说明。这样的速度例如按照由(式2)定义的关系式而由计算机生成(模拟)。
【数5】
x → i ( t ) = x → i ( t - Δt ) + x → i ( t - Δt ) - x → T ( t - Δt ) l i (式2)
在此,
【数6】
x → i ( t )
表示时间t的关联目标物i的位置。此外,
【数7】
x → T ( t )
表示时间t的选择目标物T的位置。li是依存于关联目标物i和选择目标物T(li>1)之间的关联性(关联度)的参数。
接下来,作为又一其他例,对使用物理参数来定义关联目标物相对于选择目标物的最终位置(相对位置)的情况进行说明。这样的相对位置例如按照由(式3)定义的关系性而由计算机生成。
【数8】
r → i = x → i , FINAL - x → T , FINAL (式3)
在此,
【数9】
r → i
表示关联目标物i的最终相对位置。
此外,(式3)依存于关联目标物i和选择目标物T之间的关联性(关联度)而设定。例如,选择目标物T移动的情况下,关联目标物i按照与选择目标物T的关联度从高到低的顺序,以表1或表2所示的选择目标物T的周围位置的顺序移动到最终相对位置。
【表1】
【表2】
Figure BDA00002598133100104
另外,目标物的配置方法当然不限于表1、表2的例子。例如,也可以在画面的规定的区域中将选择目标物作为开头,按照关联度从高到低的顺序配置为一列。此外,也可以按照与关联度的大小对应的距离,将关联目标物配置在选择目标物的周围。
在此,关联目标物接近位置
【数10】
x → T + r → i
的速度能够通过以下的例如(式4)来计算。
【数11】
x → i ( t ) = x → i ( t - Δt ) + x → i ( t - Δt ) - { x → T ( t - Δt ) + r → i } l (式4)
在此,
【数12】
x → i ( t )
表示时间t的关联目标物i的位置。
【数13】
x → T ( t )
表示时间t的选择目标物T的位置。此外,l是一定的参数(l>1)。
此外,作为其他例,也可以使用将在关联目标物与选择目标物之间作用的拉伸力及引力等的力和关联目标物相对于选择目标物的最终位置(相对位置)组合而成的物理参数,来定义关联目标物和选择目标物之间的关联度。
这种情况下,关联目标物接近
【数14】
位置 x → T + r → i
在此,
【数15】
r → i
如上述那样,根据关联目标物i和选择目标物T之间的关联性来设定。
因此,在关联目标物i和
【数16】
位置 x → T + r → i
之间作用的力能够通过以下的例如(式5)来表示。
【数17】
F → = k i ( x → i - ( x → T + r → i ) ) (式5)
在此,ki是依存于关联目标物i和对象选择目标物T(ki>0)之间的关联性的参数。
此外,作为其他例,也可以使用将关联目标物被向选择目标物拉拽的速度和关联目标物相对于选择目标物的最终位置(相对位置)组合而成的物理参数,来定义关联目标物和选择目标物之间的关联度。
这种情况下,关联目标物i接近
【数18】
位置 x → T + r → i
因此,关联目标物i接近
【数19】
位置 x → T + r → i
的速度能够通过以下的例如(式6)来表示。
【数20】
x → i ( t ) = x → i ( t - Δt ) + x → i ( t - Δt ) - { x → T ( t - Δt ) + r → i } l i (式6)
在此,
【数21】
x → i ( t )
表示时间t处的关联目标物i的位置。此外,
【数22】
x → T ( t )
表示时间t处的选择目标物T的位置。此外,li是依存于关联目标物i和选择目标物T(li>1)的关联性的参数。
接着,说明本实施方式中的分类装置及分类方法如何设定规定跟随性的参数并使用关联目标物和选择目标物。
图1是表示本实施方式中的显示画面22的一例的图。
图1所示的显示画面22兼做可进行触摸操作的用户接口,在以下的说明中,具有用户能够使用手势触摸(touch gesture)来进行中断的多个不同的区域。另外,将显示画面22说明为能够进行触摸操作,但是当然也可以对应于其他种类的用户中断。例如,也可以使用通过鼠标或触摸笔来驱动的计算机设备来控制显示画面22。
在图1中,例示了用于字体库内容等的图像内容的管理的情况。另外,在本实施方式中管理的内容当然不限于图像内容。也可以是影像内容、文本内容、超文本内容、数据库内容、图标等,只要是能够在显示画面22上多个显示的目标物即可。
图2是表示本实施方式中的显示装置20的构成的一例的图。
在此,图2所示的显示装置20具备:触摸屏显示器24、CPU26、总线28、存储器30、存储装置32、I/O34、显示器驱动器36。总线28与CPU26、可随机访问的存储器30、及存储装置32连接。CPU26是与总线28连接的中央运算处理装置。I/O34是与总线28连接的输入输出部,能够经由有线连接或无线连接等任意的适当手段来容易地与外部装置进行通信。
显示器驱动器36与总线28连接,对触摸屏显示器24进行支援。例如,显示器驱动器36具备在用户对触摸屏显示器24进行手势触摸时用于使显示装置20驱动而接收触摸输入指令所需的电路。此外,例如显示器驱动器36在图1所示的显示画面22中,对用于使用户能够选择图像内容的触摸&拖放等操作进行支援。
另外,图2所示的显示装置20也可以经由I/O34与以下说明的分类装置进行通信,还可以构成在以下说明的分类装置中。
图3是表示本实施方式中的分类装置100的构成的一例的框图。图4是表示本实施方式中的功能追加部127的详细构成的例子的框图。图3所示的分类装置100具备:类别重新编排用户接口102、识别部103、综合分类部104、选择目标物位置决定部114、参数赋予部117、附加信息赋予部112、跟随动作处理部121、类别重新编排部126、功能追加部127。
类别重新编排用户接口102是依次使用若干软件组件来对与用户的对话进行支援、或对用户与显示器等显示画面的进行中的对话进行处理的接口部。与图2的显示装置20相联动的情况下,类别重新编排用户接口102一边与显示装置20的I/O34进行通信,一边对与用户的对话进行支援。
综合分类部104与识别部103相联动,即使用户未进行任何动作,也在必要时工作。综合分类部104基于周知的自动分类技术,将管理对象的多个目标物综合地自动分类为不同的类别。
识别部103具备:面部辨认部106、目标物辨认部108、特征提取部110、目标物关联性分析部116。识别部103在多个目标物中识别与选择目标物相关联的关联目标物。
在此,目标物典型地是表示图像、影像等的内容的内容,但也可以是用于启动应用的图标。
特征提取部110通过周知的特征提取技术,提取例如图像等目标物内潜在的特征。
面部辨认部106在多个目标物是拍摄有人物的照片等内容(例如图像)的情况下,对多个内容分别进行分析,辨认内容内的表示面部的区域。例如,面部辨认部106使用适当的面部辨认算法来辨认表示面部的区域,该面部辨认算法检测与用户所选择的选择目标物(例如图像中包含的对象者)的面部对应的眼睛、鼻子、颧骨、下巴等特征。
目标物辨认部108像面部辨认部106那样,辨认对象目标物内的特征。在此,将面部辨认部106设计为识别在人的面部能够看到的特征,但是为了将目标物辨认部108设计为辨认更综合的特征,使其辨认建筑物、地理特征、家具等目标物。另外,面部辨认部106和目标物辨认部108可以使用能够从已知的面部及已知的物体等提取特征并进行学习的学习***来实现。另外,面部辨认部106和目标物辨认部108的识别能力依存于特征提取部110的综合特征提取能力。
另外,面部辨认部106及目标物辨认部108尤其适于视觉图像处理。这些原本是通用的技术,但适于体现出独创性的特征的提取。不仅应用于从视觉的内容(照片、运动图像等)提取的特征,还应用于其他数据的种类,例如应用于更通用的数据采集应用。
目标物关联性分析部116与选择目标物位置决定部114及综合分类部104相联动地动作,判定处于第1区域的多个目标物与用户选择的选择目标物是否相关联。该判定包括对选择目标物的关联目标物赋予关联度。例如,作为关联度,可以赋予数值,也可以赋予从0%到100%的得分。另外,100%的得分表示与选择目标物相同或与选择目标物的类似度非常大。另一方面,0%的得分表示与选择目标物无关联。
选择目标物位置决定部114是位置决定部的一例,决定配置于显示画面的第1区域内的多个目标物中的、由用户选择的选择目标物中的第1区域内的第1位置。具体地说,选择目标物位置决定部114依次决定由用户选择的选择目标物的位置。
参数赋予部117具备连结线生成部118和参数计算部120。参数赋予部117根据与选择目标物的关联度,对关联目标物设定如下参数:该参数由参数计算部120计算,并且贡献于预定的关系,该预定的关系规定将选择目标物从所述第1位置移动时的向选择目标物的跟随性。在此,关联度例如是选择目标物和关联目标物的类似度。此外,该关联度例如也可以是选择目标物和关联目标物分别具有的特征量的类似度,还可以是颜色、像素值、运动矢量(motion vector)等的类似度。例如,选择目标物和关联目标物具有记述目标物的说明的元数据部的情况下,也可以是元数据部的类似度。此外,在选择目标物是用于启动应用的图标的情况下,该关联度也可以是与图标建立了关联的应用的名称的类似度、与图标建立了关联的应用的种类的类似度、图标图像的作为图像的类似度等。此外,跟随性是指伴随着物理运动的模仿的移动等跟随动作的性质。
另外,也可以是,参数赋予部117仅对于关联目标物中的、与选择目标物的关联度为第1关联度以上的关联目标物,根据与选择目标物的关联度来设定预定的关系的参数。
参数计算部120对每个关联目标物计算规定跟随性的参数,该跟随性对应于与选择目标物的关联度。在此,也可以是,参数计算部120作为跟随性而计算贡献于预定的关系的参数(预定的关系的参数),该预定的关系是根据关联度对各个该关联目标物和选择目标物之间的引力的运动进行模拟的算法。此外,也可以是,参数计算部120作为跟随性而计算贡献于预定的关系的参数(预定的关系的参数),该预定的关系规定根据关联度对将关联目标物向选择目标物拉拽的弹簧力的运动进行模拟的算法。另外,参数计算部120还可以是,作为跟随性而计算贡献于预定的关系的参数(预定的关系的参数),该预定的关系规定根据关联性来对使由弹簧力产生的运动延迟的摩擦力进行模拟的算法。
在此,预定的关系可以通过预定的函数这样的数式来表现,也可以是例如将关联度和各种数值建立了对应的表这样的、无法由数式表现的形式。预定的函数至少规定目标物移动时的位置、速度、加速度的某1个。作为这样的预定的函数的一例,有规定物理现象的函数。但是,预定的函数不限于该例,只要是规定目标物的曲线或直线的运动的函数,则可以是任何函数。另外,在以下说明的实施方式中,使用具体例来说明在关联目标物和选择目标物之间作用的力的关系式、将关联目标物向选择目标物拉拽的速度的关系式、关联目标物相对于选择目标物的最终位置(相对位置)的关系式,但当然不限于该例。
参数计算部120计算物理参数,该物理参数进行处理,以使得关联目标物仿佛被例如产生牵引力的看不见的弹簧连结。由此,能够对关联目标物规定如下性质:每当用户使选择目标物移动时,使关联目标物跟随该选择目标物等,对物理的运动进行模仿(跟随性)。
连结线生成部118在选择目标物和关联目标物之间生成连结线,并基于关联度,将生成的连结线以视觉上可辨认的特征显示在显示画面上。具体地说,连结线生成部118基于目标物关联性分析部116的分析结果,在选择目标物和关联目标物之间生成连结线。在此,连结线生成部118也可以根据与选择目标物的关联度,对关联目标物生成将粗细或颜色等调整后的连结线。
附加信息赋予部112对于由第2位置的选择目标物和周围位置的关联目标物编排而成的编排组,接受由用户输入的附加信息,并将接受的附加信赋予给该编排组。
在此,附加信息例如是标签或元数据等。用户也可以经由附加信息赋予部112,对属于所编排的编排组的多个目标物赋予标签。例如可以是,如果属于编排组的多个目标物是与用户的女儿的面部对应的目标物,则将女儿的名字作为附加信息来赋予。
类别重新编排部126将第2位置的选择目标物和周围位置的关联目标物编排为新的类别的组(编排组)。具体地说,类别重新编排部126将选择目标物和关联目标物汇总为1个编排组,将新制作的辨认信息与编排组建立关联。由此,为了对编排组追加类别名等附加信息,能够在之后调回。此外,用户再次进行目标物重新编排时,还能够将构成编排组的目标物作为开始地点(选择目标物)来使用。
跟随动作处理部121具备跟随动作部122和关联目标物位置决定部124。
跟随动作部122在由用户将选择目标物从第1位置移动到与显示画面的第1区域不同的第2区域所包含的第2位置时,使关联目标物跟随选择目标物而移动到第2区域的第2位置的周围位置。此外,跟随动作部122使关联目标物伴随着基于上述参数(预定的关系)的运动而跟随选择目标物。此外,跟随动作部122使关联目标物移动到离开与关联度对应的距离的第2位置的周围位置。例如,跟随动作部122使多个关联目标物通过由规定跟随性的参数赋予特征的力,一边向选择目标物拉拽一边跟随,或移动到具有与关联度对应的距离的第2位置的周围位置。
具体地说,跟随动作部122使用规定对应于与选择目标物的关联度的跟随性的参数,使关联目标物伴随着用例如拉伸力或弹簧力模拟的物理运动的模仿(同时示出用拉伸力或弹簧力模拟的动作轨道),向选择目标物跟随移动。更具体地说,跟随动作部122沿着选择目标物的轨道所示的大致的移动方向,一边伴随着物理的运动的模仿,一边使关联目标物跟随移动等,提供用户友好且自然的视觉显示。
图5是表示本实施方式中的跟随动作部122还具备的构成要素的例子的框图。即,跟随动作部122也可以还具备检测部1211和移动部1212。在此,检测部1211是旋转检测部或速度检测部的一例。检测部1211检测由用户对从第1位置移动到第2位置的选择目标物施加的旋转。或者,检测部1211检测由用户将选择目标物从第1位置移动到第2位置时的速度。移动部1212在由检测部1211检测到的旋转的角速度的大小为第1阈值以上的情况下,使关联目标物中的、与选择目标物的关联度为第1关联度以下的关联目标物回到第1区域的原来的位置。或者,移动部1212在由检测部1211检测到的速度的大小为第1阈值以上的情况下,使关联目标物中的、与选择目标物的关联度为第1关联度以下的关联目标物回到第1区域的原来的位置。
关联目标物位置决定部124通过划定各关联目标物的边界等,决定关联目标物的位置。例如,关联目标物位置决定部124在关联目标物向选择目标物跟随移动的情况下,基于关联度,以相对于选择目标物放射状地邻接的方式决定关联目标物的位置。在此,关联目标物位置决定部124决定将关联目标物以各个关联目标物互不重复的方式重新配置的位置。
功能追加部127例如像图4所示那样,具备显示控制部128、特征部分检测部129、提示部130,使分类装置100发挥追加功能。例如,功能追加部127与选择目标物位置决定部114相联动,使选择目标物位置决定部114将多个特征关联目标物中的、由用户选择的特征关联目标物作为选择目标物,并决定该选择的特征关联目标物中的第1区域内的第1位置。
显示控制部128将配置在第1区域内的多个目标物中的、由用户指定的指定目标物显示在与第1区域及第2区域不同的第3区域中。特征部分检测部129检测构成第3区域所显示的指定目标物的多个特征部分中的、由用户指定的第1特征部分。提示部130提示由识别部103识别并与多个目标物中的第1特征部分相关联的多个特征关联目标物。
如以上那样构成分类装置100。
以下,举出图1所示的显示画面22的一例来说明分类装置100的运动。
图6是用于说明本实施方式中的显示画面的一例的构成的图。
如图6所示,显示画面22由综合分类区域40、区域44、窗口区域48、区域50构成。
在此,在显示画面22中,配置并显示用户的个人照片集中的照片等多个内容。这种情况下,综合分类部104使用自动分类技术,将多个内容分类为多个种类或组(类别组)。然后,分类装置100将表示综合地分类的类别组的缩略图像或图标等显示在综合分类区域40中。用户能够通过适当的手势触摸来从综合分类区域40所示出的类别组中选择期望的类别组。在图6所示的例子中,由用户选择了选择类别42。
用户在综合分类区域40中选择期望的类别组后,分类装置100在综合分类区域40中显示表示属于所选择的类别组(例如选择类别42)的多个目标物(内容)的缩略图像或图标等。用户通过在区域44内进行适当的手势触摸,能够从区域44所示的多个目标物中选择1以上的目标物。在图6中,示出由用户选择了目标物46的例子。在此,区域44例如是上述第1区域的一例。
此外,分类装置100将由用户选择的目标物46的内容(例如将选择目标物扩大的图像等)显示在窗口区域48中。在此,窗口区域48是上述第3区域的一例,窗口区域48所显示的目标物46是上述指定目标物的一例。
另外,窗口区域48所显示的目标物46的内容(指定目标物)也可以包括可识别的副组件。即,窗口区域48所显示的目标物46也可以包括例如建筑物、地理特征、动物、人的面部等能够单独识别的特征部分。在图6中,在窗口区域48中示出例如包括3人的面部等特征部分48a、特征部分48b、特征部分48c的照片等的目标物46的内容。这种情况下,功能追加部127与识别部103相联动,对可识别的特征部分检索追加的关联目标物,发挥提示与特征部分相关联的特征关联目标物等的追加功能。
例如,用户通过手势触摸来选择窗口区域48所显示的照片中包含的人的面部的1个,由此,功能追加部127使用选择的人物进行例如询问检索,取得并提示特征关联目标物(例如所选择的人物所出现的其他图像)。此外,目标物关联性分析部116对属于所选择的类别组的多个目标物中的、被提示的特征关联目标物和被选择的特征部分的关联度(类似性)进行分析,并赋予表示判定的类似度的得分等关联度。目标物关联性分析部116例如基于识别算法的结果,对所提示的图像分别赋予类似度(得分)。对被选择的人所出现的图像赋予较高的关联度,对被选择的人未出现的图像赋予较低的关联度。
另外,计算关联度时使用的算法当然依存于分析对象的目标物的种类。分析对象的目标物为照片内容及视频内容等内容的情况下,可以使用辨认面部和目标物的算法及图像特征提取技术来分析关联度。此外,分析对象的目标物为启动数据库的应用的图标等的情况下,可以使用询问检索技术来分析它们的关联度。
此外,在图5所示的显示画面22中显示有区域50。区域50是用户为了将多个目标物的类别重新编排而使用的空间区域。例如,将从属于用户期望的类别组的多个目标物中选择的目标物(选择目标物)拖放到区域50中。这样,关联目标物跟随选择目标物而移动到区域50。另外,跟随动作在后面详细说明,所以在此省略。然后,用户可以进行如下处理等:将跟随移动到区域50中的关联目标物和选择目标物归入属于新的类别的族(编排组)中。
图7A及图7B是用于说明本实施方式中的分类装置100的跟随动作处理的图。
图7A及图7B表示,用户从区域44所显示的多个目标物中选择目标物46a,并进行将选择的目标物46a(选择目标物)拖放到区域44的范围外的位置(例如区域50内的位置)的拖放操作时的跟随动作。
具体地说,首先,用户选择图7A所示的目标物46a时,分类装置100将与目标物46a关联的关联目标物例如进行高亮显示。在此,分类装置100优选为以使类似度较高的关联目标物更加醒目的方式进行高亮显示。此外,例如也可以是,分类装置100为了使用户视觉地辨认到关联目标物而进行高亮显示,同时显示表示与关联度对应的连结性的连结线等。在图7A中,目标物52a、目标物54a、及目标物56a作为关联度较高的关联目标物的例子示出。另一方面,对于关联度较低的关联目标物,为了示出较低的关联度,通过与表现出较高的关联度的关联目标物不同的方法来描绘。作为该方法,例如施加阴影以使关联目标物不那么醒目,或者虽然进行高亮显示,但显示不如关联度较高的关联目标物所使用的连结线醒目的连结线等。在图7A中,目标物58a、目标物60a、及目标物62a作为关联度较低的关联目标物的例子示出。
即,分类装置100为了表示对关联目标物赋予的关联度的等级,如图7A所示,使用不同的粗细或不同的明度的值来将连结线视觉地描绘。例如可以是,对于75%到100%的类似度(关联度)的关联目标物使用较粗的线,对于50%到74%之间的类似度(关联度)的关联目标物使用比其细的粗线。并且,对于25%到49%之间的类似度(关联度)的关联目标物使用较淡的线或虚线等。另外,根据用途不同,对于例如低于25%的阈值等、低于特定的阈值的类似度(关联度)的关联目标物,可以不进行连结线的视觉化。由此,能够使用户视觉地理解关联度。此外,也可以不控制连结线的醒目度或粗细,而使用不同的颜色来表示关联度的等级。
这样,分类装置100能够将表示对关联目标物赋予的关联度的信息与各种关联度的等级相对应地显示。具体地说,在图7A中,目标物64a及目标物66a所示的关联目标物以较淡的阴影表示。由此,能够向用户直观地表示如下情况:目标物64a及目标物66a所示的关联目标物与其他关联目标物相比,与作为选择目标物的目标物46a的关联度较低。另外,表示关联度的信息的显示方法不限于上述例子。例如也可以是,为了表示关联度较低这一情况,使用较淡的阴影来描绘连结线。
接着,如图7B所示,用户将图7A所示的目标物46a从区域44的静止位置拖放时,多个关联目标物跟随目标物46a的轨道70。在图7B中,选择目标物(目标物46a)移动到区域44的范围外的位置所示的目标物46b。
更具体地说,通过拖放操作使选择目标物(在此为目标物46a)移动时,关联目标物与选择目标物沿着大致同一轨道70跟随,在沿着轨道70跟随的期间,空间地重新编排。即,如图B所示,赋予了较高的关联度的关联目标物与赋予了较低的关联度的关联目标物相比,配置于被移动的作为选择目标物的目标物46b的附近。
在此,各关联目标物一边仿佛被看不见的弹簧连结那样动作,一边跟随选择目标物,上述看不见的弹簧具有例如与关联度成比例的弹簧力。具体地说,目标物52b、目标物54b及目标物56b等被赋予较高的关联度的关联目标物与目标物58b、目标物60b及目标物62b等关联度较低的关联目标物相比,表现出被较强的看不见的弹簧的力向目标物46b拉拽的动作。换言之,在图7A中,目标物52a、目标物54a及目标物56a等被赋予较高的关联度的关联目标物和目标物58a、目标物60a及目标物62a等被赋予较低的关联度的关联目标物都分散地配置在区域44的最初的位置。但是,在图7B中,各关联目标物在跟随选择目标物的基于用户的移动时,按照关联度(关联度的强弱)而按顺序排列配置。
另外,在分类装置100中,为了提高对于用户的视觉效果,除了抑制拉拽的弹簧的力等、对跟随时的移动速度(速度)产生影响的参数之外,也可以缓和或降低引力(看不见的弹簧的力)。例如也可以是,在选择目标物及关联目标物之间的相互连结线上,分别构成对速度造成影响的缓冲装置,并计算对跟随时的速度造成影响的参数。在此,将对弹簧力和速度造成影响的延迟力作为上述参数使用的情况下,对各关联目标物作用的力能够以F=kdx/dt-cdv/dt来表示。
以延迟力表现的参数带来的效果为,使各关联目标物的跟随时的运动稍微延迟。即,通过该参数,对于看不见的弹簧的力的运动和响应不再是瞬间的。
这样,分类装置100在选择目标物停止移动后,为了使关联目标物到达最终的目的地,可以使用参数,该参数对各关联目标物赋予受到速度的影响的运动耐性反力或缓冲装置。由此,分类装置100能够给用户带来能够看见关联目标物受到速度的影响的运动的视觉效果。
另外,也可以考虑使各关联目标物在具有粘性的介质中移动来表现该各参数。这种情况下,即使选择目标物(例如目标物46b)的位置变化,关联目标物的位置也不会瞬间变化等,即不会瞬间跟随。但是,这种情况下,各关联目标物在选择目标物停止后,以较短的时间在移动后的位置圆滑地继续运动。
这样,分类装置100能够使用使关联目标物经由粘性介质向选择目标物移动的参数。由此,分类装置100例如在选择目标物移动时拉伸,在选择目标物停止后,像使关联目标物继续向选择目标物移动的橡胶的弹簧那样,进行模拟的跟随动作处理。因此,分类装置100能够给用户带来关联选择目标物仿佛经由粘性介质被拉伸的视觉效果。
通过这样的参数,能够使跟随选择目标物的关联目标物的运动减速。由此,用户在各关联目标物移动到最终配置的位置时,能够看到关联度较高的关联目标物超越关联度较低的关联目标物的运动。在此,如上述那样,拉拽关联目标物的看不见的弹簧的力根据选择目标物和各关联目标物的关联度的大小(高度)来决定,所以关联度越高的关联目标物,被越快地拉拽。因此,关联度较高的关联目标物在选择目标物最终停止时,配置为位于离选择目标物最近(最近的周围位置)。
另外,在上述中,说明了与选择目标物关联的关联目标物全部跟随选择目标物,但不限于此。以下说明该情况的例子。
例如,检测部1211检测由用户使选择目标物从第1位置移动到第2位置时的速度。这种情况下,也可以是,移动部1212在由检测部1211检测到的速度的大小为第1阈值以上的情况下,使多个关联目标物中的、与选择目标物的关联度为第1关联度以下的关联目标物回到第1区域的原来的位置。这样,关联目标物也可以伴随着表现出复杂的运动学关系性的运动来跟随选择目标物。
由此,用户根据以多快的程度使选择目标物移动,能够控制在选择目标物移动的期间被拉拽的关联目标物的总数。使用图7A及图7B进行说明,用户使目标物46a较慢地移动而移动到目标物46b所示的位置的情况下,即使是关联度较低的关联目标物也跟随轨道70。另一方面,用户使目标物46a较快地移动而移动到目标物46b所示的位置的情况下,仅超过规定的阈值(第1阈值)的关联目标物跟随。该效果为,若选择目标物的运动的速度超过某阈值(第1阈值),则将(具备看不见的弹簧的力的)较弱的相互连结线切断。详细情况在后面说明,该第1阈值可以依存于速度而决定。由此,仅通过控制用户使选择目标物移动的速度,能够由用户实际控制从区域44拉拽的关联目标物的数量。
如以上那样,用户能够通过使选择目标物移动的速度来控制向选择目标物拉拽(捕捉)的关联目标物的数量。具体地说,由分类装置100设定规定摩擦力的参数,该摩擦力表示与向关联目标物拉拽的方向反向作用的运动。由此,多个关联目标物在跟随时,横切摩擦面而拉伸。在此,表示拉伸力的连结线设定为容易破坏(可拉伸,但是如果拉拽的力过强则切断)。即,对于关联度较低的关联目标物,生成更易破坏的连结线。由此,关联度性较低的关联目标物由于使选择目标物移动的速度而连结线破坏,连结线破坏时,不会被选择为关联目标物。以下,使用图8说明怎样实现该控制。
图8是用于说明用于实现向选择目标物拉拽的关联目标物的数量的控制的模型的图。
分类装置100如图8所示,对关联目标物分别设定基于关联度的大小而计算的物理参数。即,分类装置100确立选择目标物与关联目标物的类似度(关联度)和物理参数的关联性。
在图8所示的例子中,将关联度较低的(类似性较低的)关联目标物设为较重,将关联度较高的(类似性较高的)关联目标物设为较轻,设定目标物的重量等的规定运动学动作的物理参数。用户将选择目标物TD向某个特定方向拉拽时,显示的目标物83a~85a移动。较重的关联目标物(例如85a)由于预定的摩擦力(例如F4)而运动变慢,或完全不动。相反,较轻的关联目标物能够自由移动,所以选择目标物TD移动时,沿着该选择对象目标物的轨道跟随。
另外,在图8中示出了赋予与关联度对应的摩擦力的情况的例子,但不限于此。例如,也可以对关联目标物分别设定表示与关联度对应的拉伸力的物理参数。这种情况下,对关联度较低的(例如类似性较低的)关联目标物赋予较弱的拉伸力,对关联度较高的关联目标物赋予较强的拉伸力。这样,通过对关联目标物赋予与关联度对应的拉伸力,由用户拉拽选择目标物时,关联度越高的关联目标物,越被向选择目标物较强地拉拽。
此外,作为另一方法,也可以对关联目标物分别赋予具有与关联度对应的脆弱值的连结线。这种情况下,对关联度较低的(例如没有类似性的)关联目标物赋予脆弱的连结线,对关联度较高的关联目标物赋予不脆弱的连结线。这样,通过对关联目标物赋予具有与关联度对应的脆弱值的连结线,在由用户拉拽选择目标物时,脆弱值越低的连结线越容易破坏。即,在该方法中,即使用户拉拽选择目标物TD,关联度较低的关联目标物与选择目标物的连结线破坏(将关联性断开),不会跟随选择目标物。例如,由F4表示的连结线为了表示脆弱值较低的情况而用淡颜色(细的)示出。
另外,图8所示的例当然只是一例,也可以使用其他模型。
图9是表示本实施方式中的分类装置100对关联目标物分别赋予与关联度对应的拉伸力的情况的流程图。
首先,在S106中,用户从区域44所显示的多个目标物中选择期望的目标物(选择目标物)。
然后,在S108中,分类装置100识别与选择目标物关联的关联目标物。
接着,在S110中,用户使选择目标物从区域44移动到例如区域50。
在此,在S112中,分类装置100检测选择目标物移动的速度,基于检测到的速度,决定跟随选择目标物的运动的关联选择目标物。另外,S112对应于图8中说明的速度的设定。此外,在S114中,分类装置100计算对关联目标物规定例如拉伸力的物理参数,并对各关联目标物设定。
接着,在S116中,分类装置100使用设定的拉伸力Fn使关联目标物移动,以跟随选择目标物的移动。
图10是用于说明能够由用户控制向选择目标物拉拽的关联目标物数量的情况的另一例的图。对于与图7B同样的要素赋予同一符号,并省略详细说明。
图10表示能够进行如下控制的例子:用户通过使移动后的选择目标物(在此为目标物46b)移动,对选择目标物来说,具有怎样程度的关联度的关联目标物会被拉拽。
具体地说,如图10所示,用户通过手势触摸等操作73a,对目标物46b沿顺时针施加旋转,从而能够增加关联目标物的数量。此外,用户通过手势触摸等对目标物46b沿逆时针施加旋转,从而能够减少关联目标物的数量。
更具体地说,用户若使旋转控制部72沿顺时针或逆时针旋转,则旋转控制部72在从低的值到高的值的范围内生成变动的数值的阈值。由旋转控制部72生成的值用于由分类装置100设定用于判定是否是与选择目标物关联的关联目标物的阈值(第1关联度)。例如,由用户对旋转控制部72进行操作而设定了较高的阈值的情况下,例如仅将类似度(关联度)超过75%的目标物作为关联目标物捕捉(拉拽)。相反,由用户对旋转控制部72进行操作而设定了较低的阈值的情况下,例如仅将类似度(关联度)超过25%的目标物作为关联目标物捕捉。
另外,该动作由构成跟随动作处理部121的检测部1211和移动部1212实现。在此,检测部1211检测由用户对选择目标物从第1位置移动到第2位置的选择目标物施加的旋转。移动部1212在由检测部1211检测到的旋转的角速度的大小为第1阈值以上的情况下,使多个关联目标物中的、与选择目标物的关联度为第1关联度以下的关联目标物返回所述第1区域的原来的位置。
图11是用于说明本实施方式中的分类装置100的处理的一例的流程图。图11表示,如上述那样,将选择目标物和跟随来的关联目标物重新映射,并重新编排为新的类别的组的方法的一例。
首先,在S150中,依次决定选择目标物在第1区域44内的位置。另外,该处理由选择目标物位置决定部114进行。
接着,在S152中,关联目标物位置决定部124决定由识别部103识别的关联目标物在区域44内的各自的位置。另外,关联目标物位置决定部124按照由识别部103识别关联目标物的顺序,进行决定其位置的处理。
接着,在S154中,参数计算部120计算规定与选择目标物的关联度对应的跟随性的参数,并对关联目标物设定。
例如,参数计算部120依次计算对于各关联目标物的拉伸力(看不见的弹簧的力)。另外,拉伸力作为弹簧力能够使用式F=kx来计算。在此,k是与关联目标物和选择目标物之间的关联度成比例的值。由用户使选择目标物移动而选择目标物和关联目标物的位移(x)变更的情况下,基于上述线性关系F=kx,选择目标物和关联目标物的拉伸力不再是零,并计算出拉伸力。另外,各关联目标物可以单独处理,并具有与特定的关联度对应的拉伸力值。
另外,可以使用这样的表示线性关系的式子来计算拉伸力,但也可以使用非线性关系的式子来计算张力,该非线性关系表示在选择目标物和关联目标物之间实现不同的引力形态。
此外,在S154中,分类装置100在用户使选择目标物移动的情况下,计算用来决定使关联目标物怎样移动的跟随动作。
例如,关联目标物的运动能够通过式F=ma来计算。在此,m表示基准化的集合(对于所有关联目标物可以是同一值),a表示由力F生成的加速度。另外,全部关联目标物的集合可以是同等的,所以应用的力(对于个别的关联目标物的拉伸力)与生成的加速度成比例。
这样,通过进行各关联目标物的跟随动作处理,能够决定加速值。加速值用于计算关联目标物所表现出的运动。这样的运动当然是矢量。具体地说,关联目标物的运动是指,朝向通过由跟随动作部122执行的跟随动作模型指示的特定的方向前进。另外,该跟随动作模型是基于各关联目标物与被选择目标物之间的看不见的弹簧的力(拉伸力)向选择目标物拉拽的运动学的关系性而模拟出的。因此,关联目标物的运动的矢量方向朝向选择目标物的中心。
接着,在S156及S158中,由用户使选择目标物移动时,伴随着各关联目标物被拉拽的动作,根据选择目标物的轨道而移动。
另外,为了使视觉的外观更真实(临场感),在跟随动作的计算时,对于运动的瞬间的变更也可以具有耐性。即,如上述那样计算上述物理参数时,也可以包括具有作为缓冲装置的作用的项,该缓冲装置对速度产生影响。由此,关联目标物看起来仿佛浸在粘性介质中移动。此外,在跟随动作的计算时,也可以包括具有对速度造成影响的作用的项来计算上述物理参数。由此,能够使关联目标物的运动比选择目标物的运动延迟。即,用户使选择目标物的运动停止时,关联目标物朝向最终目的地继续惰走,最终目的地是拉伸力回到零的地点,或者通过已配置的其他关联目标物,将妨碍运动的结果的地点作为最终配置地点。
接着,在S160中,分类装置100除了计算关联目标物的运动之外,在关联目标物和选择目标物之间生成连结线。具体地说,分类装置100在各关联目标物(例如缩略图像)的中心间划定并描绘连结线。另外,分类装置100像上述那样,基于关联度,生成调整后的粗细或颜色的连结线。
接着,在S164中,分类装置100将移动的关联目标物和选择目标物编排为具有新的类别的组。在此,用户也可以对编排的组赋予表示类别的标识。
另外,在分类装置100中,能够将1以上的类别标签或表示标识的附加信息与各目标物建立关联。因此,各目标物能够属于超过1的类别。
(实施例)
接着,说明上述分类装置100提示的显示画面22的使用例(use case)。
图12~图15是用于说明使用本实施方式中的分类装置100提示的显示画面来编排新的类别组的情况的例子的图。另外,对于与图1及图6相同的要素赋予同一符号,并省略详细说明。
说明图12所示的使用例。图12表示显示画面22的迁移画面例。在此,首先,用户在迁移画面22a中,通过手势触摸操作73b从区域44所显示的多个目标物中选择目标物47a(选择目标物)。接着,用户在迁移画面22b中,通过手势触摸操作73d将目标物47a(选择目标物)从区域44拖放到区域50所示的目标物47b的位置。这样,如迁移画面22e所示,关联目标物被拽到目标物47b的周围位置。接着,用户将这些汇集起来的目标物群(目标物47b及其周围位置的多个关联目标物)作为一个编排组来赋予标识[Fido]。另外,赋予了标识的对象物组(属于编排组的多个目标物)能够作为新的类别组显示。
接着,说明图13所示的使用例。在图13中,与图12同样地示出了代表性的使用例,但是在迁移画面22e中,具体地选择了窗口区域48所显示的拍摄有狗的照片的部分。即,在迁移画面22e中,用户通过手势触摸操作73c,选择窗口区域48所显示的包含狗的图像49d(指定目标物)中的一部分(在此为狗自身)。为了寻找同样拍摄有狗的其他图像,将选择的部分作为特征部分使用。后面与上述相同,所以省略说明。
接着,说明图14A及图14B所示的使用例。图14A及图14B示出了与图12类似的使用例,但是在图14A及图14B中,在迁移画面22f中,示出了在窗口区域48所显示的图像(指定目标物)内选择不同的特征部分的情况。
即,在图14A中,在迁移画面22f中,用户通过手势触摸操作73e,选择窗口区域48所显示的图像内的富士山49e。用户在迁移画面22g中选择包含富士山49e的关联图像(目标物47c),通过手势触摸操作73f使其从区域44移动到区域50的目标物47d的位置。
另一方面,在图14B中,在迁移画面22f中,用户通过手势触摸操作73g,在窗口区域48所显示的图像内选择樱花f。然后,用户在迁移画面22h中,选择包含樱花49f的关联图像(目标物47e),通过手势触摸操作73h,使其从区域44移动到区域50的目标物47f的位置。
接着,说明图15所示的使用例。图15表示基于以前制作的类别来制作更复杂的类别的例子。即,首先,用户选择1个以前定义的类别(编排组)内的图像(目标物)。选择的图像(目标物)在窗口区域48内作为扩大图像49g显示。接着,在迁移画面22i中,用户选择1个图像49g中包含的人物(未图示),在区域44中作为被选择的人物示出的目标物中,选择期望的目标物47g。然后,用户通过手势触摸操作73i,使目标物47g从区域44移动到区域50的目标物47i的位置。由此,与目标物47i关联的目标物群作为新的类别而被拉拽到区域50。接着,在迁移画面22i中,选择在图像49g中被选择的人物的其他特征部分。在与区域44所示的特征部分关联的目标物中,选择期望的目标物47i。然后,用户通过手势触摸操作73j,使目标物47i从区域44移动到区域50的目标物47j的位置。由此,与目标物47j关联的目标物群作为新的类别被拉拽到域50。接着,在迁移画面22k中,将汇集的2个目标物群作为一个编排组50a来附加附加信息。另外,也可以包含编排组50a的原来的类别群及新制作的类别群的双方。也可以新拉拽2个编排组并将2个编排组结合,作为1个编排组。
以上,根据本实施方式,能够实现一种分类制作,能够根据用户操作来直观地对用户期望的分类进行编排。
以下说明变形例。
(变形例1)
图16A及图16B是用于说明本实施方式的变形例1中的分类装置的跟随动作处理的图。另外,对于与图7A及图7B相同的要素,赋予相同符号并省略详细说明。
如图16B所示,与选择目标物(目标物56a)关联的关联目标物可以按照树构造配置。
具体地说,可以是,例如将由目标物52a、目标物54a及目标物56a表示的关联目标物直接拉拽到选择目标物(目标物46a)。此外,例如由目标物58a、目标物60a、目标物62a、目标物64a及目标物66a表示的关联目标物被直接拉拽,作为关联目标物的孙而被拉拽。
更具体地说,在图16A中,用户将目标物46a作为选择目标物选择,使选择的目标物46a如图16B所示,沿着轨道70移动到目标物46b的位置。在此,目标物52a、目标物54a、及目标物56a相对于目标物46a具有较高的关联度类似性,被赋予直接连结线。然后,赋予了直接连结线的关联目标物(子)也同样,具有相对于其他目标物的关联度。利用该子关联度定义父―子―孙等的树构造。在图16A所示的例中,目标物52a与目标物58a类似。因此,如图16B所示,目标物46a沿着轨道70移动到目标物46b的位置的情况下,目标物52a的子的目标物58a及孙的目标物64a也跟随移动。结果,被拉拽到目标物52b、目标物58b及目标物64b的位置。
另外,由识别部103在多个目标物中将与选择目标物关联的第1关联目标物和与第1关联目标物关联的第2关联目标物识别为关联目标物,从而实现该动作。
图17是用于说明用于实现图16A及图16B所示的控制的模型的图。另外,对于与图8同样的要素赋予同一符号,并省略详细说明。分类装置100如图17所示,目标物能够相互拉拽(或相互拉伸),被各目标物间的看不见的拉伸力捕捉。具体地说,目标物Am被力F4向目标物Ao拉拽,目标物An被力F5向目标物Ao拉拽。即,引力也可以存在于最接近的各目标物间,而不被选择目标物TD直接拉拽。
另外,在图8中,说明了全部力向同一选择目标物TD拉拽的情况的模型。在图17中,除了由于各目标物不同而具有父、子或孙的关系之外,能够与图8所说明同样地计算。这样,力的计算可以按照树构造来递归。
在此,图18是表示用户能够控制向选择目标物的关联目标物拉拽的数量的情况的例子。另外,对于与图10及图16B相同的要素赋予同一符号,并省略详细说明。
即,在图16A及图16B所示的例子中,与图10所说明的同样,用户如图18所示,通过手势触摸等操作73a对目标物46b施加旋转,从而使关联目标物的数量增减。
(变形例2)
图19是用于说明本实施方式的变形例2中的分类装置的跟随动作处理的图。
如图19所示,例如也可以是,将目标物46b、目标物46c及目标物46d作为选择目标物选择,与该选择目标物关联的关联目标物被向选择目标物(目标物46b~46d)拉拽。
该动作如下实现。即,选择目标物由多个目标物构成的情况下,识别部103在多个目标物中,将多个目标物所具有的特征平均,并将与平均后的目标物相关联的多个关联目标物识别为多个关联目标物,从而实现上述动作。
以上基于实施方式说明了本发明的一个或多个方式的分类装置及分类方法,但是本发明不限于该实施方式。在不脱离本发明的主旨的范围内,对本实施方式施以本领域技术人员能够想到的各种变形的方式、以及将不同的实施方式中的构成要素组合而构筑的形态也包含在本发明的一个或多个方式的范围内。
例如,本实施方式是为了完全且充分地向本领域技术人员说明该范围而例示的。为了能够充分理解本发明的内容,示出了特定的部件、装置、及方法的例子等大量具体内容。另外,不需要使用这些具体内容,可以通过各种形态来使用例示的实施方式,不应解释为限制本公开的范围,这对本领域技术人员来说是显而易见的。此外,在例示的一部分实施方式中,周知的工序、周知的装置的构造、及周知的技术的详细情况未作记载。
另外,在上述各实施方式中,各构成要素由专用的硬件构成,也可以通过执行适于各构成要素的软件程序来实现。各构成要素可以通过由CPU或处理器等程序执行部读出并执行记录在硬盘或半导体存储器等记录介质中的软件程序来实现。在此,实现上述各实施方式的图像解码装置等的软件是如下的程序。
即,该程序使计算机执行如下步骤:位置决定步骤,决定配置于显示画面的第1区域内的多个目标物中的、由用户选择的选择目标物在所述第1区域内的第1位置;识别步骤,在所述多个目标物中,识别与所述选择目标物关联的关联目标物;以及参数赋予步骤,根据与所述选择目标物的关联度,对所述关联目标物赋予贡献于预定的关系的参数,该预定的关系规定所述选择目标物从所述第1位置移动时的向所述选择目标物的跟随性。
工业实用性
本发明能够用于分类装置及分类装置方法,尤其能够应用在用于在地图上阅览及确认信息的便携电话、数字电视机、车载终端、触摸屏显示器等。
符号的说明
20显示装置
22显示画面
22a、22b、22e、22f、22h、22i、22k迁移画面
24触摸屏显示器
26CPU
28总线
30存储器
32存储装置
34I/O
36显示器驱动器
40综合分类区域
42选择类别
44、50区域
46、46a、46b、46c、46d、47a、47b、47c、47d、47e、47f、47i、47j、52a、52b、54a、54b、56a、56b、58a、58b、60a、60b、62a、62b、64a、64b、66a、目标物
48窗口区域
48a、48b、48c特征部分
49d图像
49e富士山
49f樱花
50a编排组
70轨道
72旋转控制部
73a操作
73b、73c、73d、73e、73f、73h、73i、73j手势触摸操作
83a目标物
100分类装置
102类别重新编排用户接口
103识别部
104综合分类部
106面部辨认部
108目标物辨认部
110特征提取部
112附加信息赋予部
114选择目标物位置决定部
116目标物关联性分析部
117参数赋予部
118连结线生成部
120参数计算部
121跟随动作处理部
122跟随动作部
124关联目标物位置决定部
126类别重新编排部
127功能追加部
128显示控制部
129特征部分检测部
130提示部
1211检测部
1212移动部
权利要求书(按照条约第19条的修改)
1.(修改后)一种分类装置,具备:
位置决定部,决定配置于显示画面的第1区域内的多个目标物中的、由用户选择的选择目标物在所述第1区域内的第1位置;
识别部,在所述多个目标物中,识别与所述选择目标物关联的关联目标物;
参数赋予部,根据与所述选择目标物的关联度,对所述关联目标物设定贡献于预定的关系的参数,该预定的关系规定所述选择目标物从所述第1位置移动时的向所述选择目标物的跟随性;以及
跟随动作处理部,由所述用户使所述选择目标物从所述第1位置移动到所述显示画面的与所述第1区域不同的第2区域中包含的第2位置时,基于所述预定的关系,使所述关联目标物跟随所述选择目标物,而移动到以所述第2位置为基点的、与所述关联度对应的预定的位置;
所述选择目标物及所述关联目标物在所述第1区域中,分散地配置在不取决于所述关联度的位置,
所述跟随动作处理部在使所述关联目标物跟随所述选择目标物而移动到所述预定的位置的期间,以使所述关联目标物配置于所述预定的位置的方式,对所述关联目标物的配置在空间上进行重新编排。
2.(删除)
3.(修改后)如权利要求1所述的分类装置,
所述预定的关系是至少规定位置、速度、加速度的某1个的函数。
4.如权利要求3所述的分类装置,
所述预定的关系规定一种算法,该算法根据所述关联度,模拟所述关联目标物和所述选择目标物之间的引力的运动作为所述跟随性。
5.如权利要求3所述的分类装置,
所述预定的关系规定一种算法,该算法根据所述关联度,模拟将所述关联目标物向所述选择目标物拉拽的弹簧力的运动作为所述跟随性。
6.如权利要求5所述的分类装置,
所述预定的关系还规定一种算法,该算法对摩擦力进行模拟,该摩擦力使由所述弹簧力产生的运动根据所述关联度而延迟。
7.(修改后)如权利要求1所述的分类装置,
所述跟随动作处理部使所述关联目标物移动到离开了与所述关联度相应的距离的所述第2位置的周围位置。
8.(修改后)如权利要求1~7中任一项所述的分类装置,
所述关联度是所述选择目标物和所述关联目标物的类似度。
9.(修改后)如权利要求1~8中任一项所述的分类装置,
所述分类装置还具备连结线生成部,该连结线生成部在所述选择目标物和所述关联目标物之间生成连结线,并基于所述关联度,将生成的所述连结线以视觉上可辨认的特征显示在所述显示画面上。
10.(修改后)如权利要求1~9中任一项所述的分类装置,
所述参数赋予部仅对于所述关联目标物中的、与所述选择目标物的关联度为第1关联度以上的关联目标物,根据与选择目标物的关联度来设定所述预定的关系的参数。
11.(修改后)如权利要求1~9中任一项所述的分类装置,
所述跟随动作处理部还具备:
旋转检测部,检测由所述用户对从所述第1位置移动到所述第2位置的所述选择目标物施加的旋转;以及
移动部,由所述旋转检测部检测到的所述旋转的角速度的大小为第1阈值以上的情况下,使所述关联目标物中的、与所述选择目标物的关联度为第1关联度以下的关联目标物回到所述第1区域的原来的位置。
12.(修改后)如权利要求1~9中任一项所述的分类装置,
所述跟随动作处理部还具备:
速度检测部,检测由所述用户使所述选择目标物从所述第1位置移动到所述第2位置时的速度;以及
移动部,由所述速度检测部检测到的所述速度的大小为第1阈值以上的情况下,使所述关联目标物中的、与所述选择目标物的关联度为第1关联度以下的关联目标物回到所述第1区域的原来的位置。
13.如权利要求1~12中任一项所述的分类装置,
所述分类装置还具备:
显示控制部,将配置在所述第1区域内的多个目标物中的、由用户指定的指定目标物显示在与所述第1区域及所述第2区域不同的第3区域中;
特征部分检测部,检测构成所述第3区域所显示的所述指定目标物的多个特征部分中的、由用户指定的第1特征部分;以及
提示部,提示由所述识别部识别的目标物且所述多个目标物中的与所述第1特征部分关联的特征关联目标物;
所述位置决定部将所述特征关联目标物中的、由用户选择的特征关联目标物作为所述选择目标物,决定该选择的特征关联目标物中的所述第1区域内的第1位置。
14.如权利要求1~13中任一项所述的分类装置,
所述选择目标物由多个目标物构成,
所述识别部在所述多个目标物中,将所述多个目标物所具有的特征平均,并将与平均后的目标物相关联的多个关联目标物识别为所述关联目标物。
15.如权利要求1~14中任一项所述的分类装置,
所述分类装置还具备附加信息赋予部,对于由所述第2位置的所述选择目标物和所述周围位置的所述关联目标物编排而成的编排组,接受从所述用户输入的附加信息,将接受的所述附加信息赋予所述编排组。
16.如权利要求1~15中任一项所述的分类装置,
所述识别部在所述多个目标物中,将与所述选择目标物关联的第1关联目标物和与所述第1关联目标物关联的第2关联目标物识别为所述关联目标物。
17.如权利要求1~16中任一项所述的分类装置,
所述目标物是用于将应用起动的图标。
18.如权利要求1~16中任一项所述的分类装置,
所述目标物是内容。
19.(修改后)一种分类方法,包括以下步骤:
位置决定步骤,决定配置于显示画面的第1区域内的多个目标物中的、由用户选择的选择目标物在所述第1区域内的第1位置;
识别步骤,在所述多个目标物中,识别与所述选择目标物关联的关联目标物;
参数赋予步骤,根据与所述选择目标物的关联度,对所述关联目标物设定贡献于预定的关系的参数,该预定的关系规定所述选择目标物从所述第1位置移动时的向所述选择目标物的跟随性;以及
跟随动作处理步骤,由所述用户使所述选择目标物从所述第1位置移动到所述显示画面的与所述第1区域不同的第2区域中包含的第2位置时,基于所述预定的关系,使所述关联目标物跟随所述选择目标物,而移动到以所述第2位置为基点的、与所述关联度对应的预定的位置;
所述选择目标物及所述关联目标物在所述第1区域中,分散地配置在不取决于所述关联度的位置,
在所述跟随动作处理步骤中,在使所述关联目标物跟随所述选择目标物而移动到所述预定的位置的期间,以使所述关联目标物配置于所述预定的位置的方式,对所述关联目标物的配置在空间上进行重新编排。
20.(修改后)一种程序,使计算机执行以下步骤:
位置决定步骤,决定配置于显示画面的第1区域内的多个目标物中的、由用户选择的选择目标物在所述第1区域内的第1位置;
识别步骤,在所述多个目标物中,识别与所述选择目标物关联的关联目标物;
参数赋予步骤,根据与所述选择目标物的关联度,对所述关联目标物设定贡献于预定的关系的参数,该预定的关系规定所述选择目标物从所述第1位置移动时的向所述选择目标物的跟随性;以及
跟随动作处理步骤,由所述用户使所述选择目标物从所述第1位置移动到所述显示画面的与所述第1区域不同的第2区域中包含的第2位置时,基于所述预定的关系,使所述关联目标物跟随所述选择目标物,而移动到以所述第2位置为基点的、与所述关联度对应的预定的位置;
所述选择目标物及所述关联目标物在所述第1区域中,分散地配置在不取决于所述关联度的位置,
在所述跟随动作处理步骤中,在使所述关联目标物跟随所述选择目标物而移动到所述预定的位置的期间,以使所述关联目标物配置于所述预定的位置的方式,对所述关联目标物的配置在空间上进行重新编排。
21.(修改后)一种集成电路,具备:
位置决定部,决定配置于显示画面的第1区域内的多个目标物中的、由用户选择的选择目标物在所述第1区域内的第1位置;
识别部,在所述多个目标物中,识别与所述选择目标物关联的关联目标物;
参数赋予部,根据与所述选择目标物的关联度,对所述关联目标物赋予贡献于预定的关系的参数,该预定的关系规定所述选择目标物从所述第1位置移动时的向所述选择目标物的跟随性;以及
跟随动作处理部,由所述用户使所述选择目标物从所述第1位置移动到所述显示画面的与所述第1区域不同的第2区域中包含的第2位置时,基于所述预定的关系,使所述关联目标物跟随所述选择目标物,而移动到以所述第2位置为基点的、与所述关联度对应的预定的位置;
所述选择目标物及所述关联目标物在所述第1区域中,分散地配置在不取决于所述关联度的位置,
所述跟随动作处理部在使所述关联目标物跟随所述选择目标物而移动到所述预定的位置的期间,以使所述关联目标物配置于所述预定的位置的方式,对所述关联目标物的配置在空间上进行重新编排。

Claims (21)

1.一种分类装置,具备:
位置决定部,决定配置于显示画面的第1区域内的多个目标物中的、由用户选择的选择目标物在所述第1区域内的第1位置;
识别部,在所述多个目标物中,识别与所述选择目标物关联的关联目标物;以及
参数赋予部,根据与所述选择目标物的关联度,对所述关联目标物设定贡献于预定的关系的参数,该预定的关系规定所述选择目标物从所述第1位置移动时的向所述选择目标物的跟随性。
2.如权利要求1所述的分类装置,
还具备跟随动作处理部,由所述用户使所述选择目标物从所述第1位置移动到与所述显示画面的所述第1区域不同的第2区域中包含的第2位置时,基于所述预定的关系,使所述关联目标物跟随所述选择目标物而移动到所述第2区域的所述第2位置的周围位置。
3.如权利要求2所述的分类装置,
所述预定的关系是至少规定位置、速度、加速度的某1个的函数。
4.如权利要求3所述的分类装置,
所述预定的关系规定一种算法,该算法根据所述关联度,模拟所述关联目标物和所述选择目标物之间的引力的运动作为所述跟随性。
5.如权利要求3所述的分类装置,
所述预定的关系规定一种算法,该算法根据所述关联度,模拟将所述关联目标物向所述选择目标物拉拽的弹簧力的运动作为所述跟随性。
6.如权利要求5所述的分类装置,
所述预定的关系还规定一种算法,该算法对摩擦力进行模拟,该摩擦力使由所述弹簧力产生的运动根据所述关联度而延迟。
7.如权利要求2所述的分类装置,
所述跟随动作处理部使所述关联目标物移动到离开了与所述关联度相应的距离的所述第2位置的周围位置。
8.如权利要求2~7中任一项所述的分类装置,
所述关联度是所述选择目标物和所述关联目标物的类似度。
9.如权利要求2~8中任一项所述的分类装置,
所述分类装置还具备连结线生成部,该连结线生成部在所述选择目标物和所述关联目标物之间生成连结线,并基于所述关联度,将生成的所述连结线以视觉上可辨认的特征显示在所述显示画面上。
10.如权利要求2~9中任一项所述的分类装置,
所述参数赋予部仅对于所述关联目标物中的、与所述选择目标物的关联度为第1关联度以上的关联目标物,根据与选择目标物的关联度来设定所述预定的关系的参数。
11.如权利要求2~9中任一项所述的分类装置,
所述跟随动作处理部还具备:
旋转检测部,检测由所述用户对从所述第1位置移动到所述第2位置的所述选择目标物施加的旋转;以及
移动部,由所述旋转检测部检测到的所述旋转的角速度的大小为第1阈值以上的情况下,使所述关联目标物中的、与所述选择目标物的关联度为第1关联度以下的关联目标物回到所述第1区域的原来的位置。
12.如权利要求2~9中任一项所述的分类装置,
所述跟随动作处理部还具备:
速度检测部,检测由所述用户使所述选择目标物从所述第1位置移动到所述第2位置时的速度;以及
移动部,由所述速度检测部检测到的所述速度的大小为第1阈值以上的情况下,使所述关联目标物中的、与所述选择目标物的关联度为第1关联度以下的关联目标物回到所述第1区域的原来的位置。
13.如权利要求1~12中任一项所述的分类装置,
所述分类装置还具备:
显示控制部,将配置在所述第1区域内的多个目标物中的、由用户指定的指定目标物显示在与所述第1区域及所述第2区域不同的第3区域中;
特征部分检测部,检测构成所述第3区域所显示的所述指定目标物的多个特征部分中的、由用户指定的第1特征部分;以及
提示部,提示由所述识别部识别的目标物且所述多个目标物中的与所述第1特征部分关联的特征关联目标物;
所述位置决定部将所述特征关联目标物中的、由用户选择的特征关联目标物作为所述选择目标物,决定该选择的特征关联目标物中的所述第1区域内的第1位置。
14.如权利要求1~13中任一项所述的分类装置,
所述选择目标物由多个目标物构成,
所述识别部在所述多个目标物中,将所述多个目标物所具有的特征平均,并将与平均后的目标物相关联的多个关联目标物识别为所述关联目标物。
15.如权利要求1~14中任一项所述的分类装置,
所述分类装置还具备附加信息赋予部,对于由所述第2位置的所述选择目标物和所述周围位置的所述关联目标物编排而成的编排组,接受从所述用户输入的附加信息,将接受的所述附加信息赋予所述编排组。
16.如权利要求1~15中任一项所述的分类装置,
所述识别部在所述多个目标物中,将与所述选择目标物关联的第1关联目标物和与所述第1关联目标物关联的第2关联目标物识别为所述关联目标物。
17.如权利要求1~16中任一项所述的分类装置,
所述目标物是用于将应用起动的图标。
18.如权利要求1~16中任一项所述的分类装置,
所述目标物是内容。
19.一种分类方法,包括以下步骤:
位置决定步骤,决定配置于显示画面的第1区域内的多个目标物中的、由用户选择的选择目标物在所述第1区域内的第1位置;
识别步骤,在所述多个目标物中,识别与所述选择目标物关联的关联目标物;以及
参数赋予步骤,根据与所述选择目标物的关联度,对所述关联目标物设定贡献于预定的关系的参数,该预定的关系规定所述选择目标物从所述第1位置移动时的向所述选择目标物的跟随性。
20.一种程序,使计算机执行以下步骤:
位置决定步骤,决定配置于显示画面的第1区域内的多个目标物中的、由用户选择的选择目标物在所述第1区域内的第1位置;
识别步骤,在所述多个目标物中,识别与所述选择目标物关联的关联目标物;以及
参数赋予步骤,根据与所述选择目标物的关联度,对所述关联目标物设定贡献于预定的关系的参数,该预定的关系规定所述选择目标物从所述第1位置移动时的向所述选择目标物的跟随性。
21.一种集成电路,具备:
位置决定部,决定配置于显示画面的第1区域内的多个目标物中的、由用户选择的选择目标物在所述第1区域内的第1位置;
识别部,在所述多个目标物中,识别与所述选择目标物关联的关联目标物;以及
参数赋予部,根据与所述选择目标物的关联度,对所述关联目标物设定贡献于预定的关系的参数,该预定的关系规定所述选择目标物从所述第1位置移动时的向所述选择目标物的跟随性。
CN201280001708.8A 2011-04-21 2012-04-20 分类装置及分类方法 Active CN102959549B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/091,620 2011-04-21
US13/091,620 US20120272171A1 (en) 2011-04-21 2011-04-21 Apparatus, Method and Computer-Implemented Program for Editable Categorization
PCT/JP2012/002738 WO2012144225A1 (ja) 2011-04-21 2012-04-20 分類装置および分類方法

Publications (2)

Publication Number Publication Date
CN102959549A true CN102959549A (zh) 2013-03-06
CN102959549B CN102959549B (zh) 2017-02-15

Family

ID=47022238

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280001708.8A Active CN102959549B (zh) 2011-04-21 2012-04-20 分类装置及分类方法

Country Status (4)

Country Link
US (2) US20120272171A1 (zh)
JP (1) JP5982363B2 (zh)
CN (1) CN102959549B (zh)
WO (1) WO2012144225A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105488067A (zh) * 2014-09-19 2016-04-13 中兴通讯股份有限公司 幻灯片生成方法和装置
CN105528166A (zh) * 2014-09-28 2016-04-27 联想(北京)有限公司 一种控制方法及装置

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130318479A1 (en) * 2012-05-24 2013-11-28 Autodesk, Inc. Stereoscopic user interface, view, and object manipulation
WO2011092793A1 (ja) * 2010-01-29 2011-08-04 パナソニック株式会社 データ処理装置
JP5645530B2 (ja) * 2010-07-29 2014-12-24 キヤノン株式会社 情報処理装置及びその制御方法
JP2012244526A (ja) * 2011-05-23 2012-12-10 Sony Corp 情報処理装置、情報処理方法及びコンピュータプログラム
US20120304090A1 (en) * 2011-05-28 2012-11-29 Microsoft Corporation Insertion of picture content for use in a layout
US9600176B2 (en) * 2011-06-16 2017-03-21 Nokia Technologies Oy Method and apparatus for controlling a spatial relationship between at least two groups of content during movement of the content
US9235317B2 (en) 2012-02-01 2016-01-12 Facebook, Inc. Summary and navigation of hierarchical levels
US9645724B2 (en) 2012-02-01 2017-05-09 Facebook, Inc. Timeline based content organization
US9557876B2 (en) 2012-02-01 2017-01-31 Facebook, Inc. Hierarchical user interface
KR20130097266A (ko) * 2012-02-24 2013-09-03 삼성전자주식회사 휴대 단말기의 콘텐츠 뷰 편집 방법 및 장치
JP5929356B2 (ja) * 2012-03-15 2016-06-01 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
JP5502943B2 (ja) * 2012-06-29 2014-05-28 楽天株式会社 情報処理装置、認証装置、情報処理方法及び情報処理プログラム
US20140082530A1 (en) * 2012-09-14 2014-03-20 Joao Batista S. De OLIVEIRA Document layout
US9282200B2 (en) * 2012-09-28 2016-03-08 Interactive Memories Inc. Methods for dynamic stylization and size editing of fonts associated with images and theme-based graphics arranged in a layout viewed through an electronic interface
JP5895828B2 (ja) * 2012-11-27 2016-03-30 富士ゼロックス株式会社 情報処理装置及びプログラム
EP2767953A1 (en) * 2013-02-13 2014-08-20 BlackBerry Limited Device with enhanced augmented reality functionality
US9208583B2 (en) 2013-02-13 2015-12-08 Blackberry Limited Device with enhanced augmented reality functionality
JP6188370B2 (ja) * 2013-03-25 2017-08-30 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation オブジェクト分類方法、装置及びプログラム。
USD771084S1 (en) * 2013-06-05 2016-11-08 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphic user interface
US20150100453A1 (en) * 2013-10-09 2015-04-09 Ebay Inc. Color indication
KR102076076B1 (ko) * 2013-10-11 2020-02-12 (주)휴맥스 구간 알림 방식을 사용한 컨텐츠 정보 표현 방법 및 장치
US10318572B2 (en) * 2014-02-10 2019-06-11 Microsoft Technology Licensing, Llc Structured labeling to facilitate concept evolution in machine learning
US10747416B2 (en) 2014-02-13 2020-08-18 Samsung Electronics Co., Ltd. User terminal device and method for displaying thereof
US10866714B2 (en) * 2014-02-13 2020-12-15 Samsung Electronics Co., Ltd. User terminal device and method for displaying thereof
US20150268825A1 (en) * 2014-03-18 2015-09-24 Here Global B.V. Rendering of a media item
JP6476574B2 (ja) * 2014-03-28 2019-03-06 富士通株式会社 生産計画作成支援プログラム、生産計画作成支援方法および生産計画作成支援装置
US20160134667A1 (en) * 2014-11-12 2016-05-12 Tata Consultancy Services Limited Content collaboration
US10739939B2 (en) * 2015-04-28 2020-08-11 International Business Machines Corporation Control of icon movement on a graphical user interface
US20160364266A1 (en) * 2015-06-12 2016-12-15 International Business Machines Corporation Relationship management of application elements
DE102015212223B3 (de) * 2015-06-30 2016-08-11 Continental Automotive Gmbh Verfahren zur Ansteuerung eines Anzeigegeräts für ein Fahrzeug
US10269387B2 (en) * 2015-09-30 2019-04-23 Apple Inc. Audio authoring and compositing
US10726594B2 (en) 2015-09-30 2020-07-28 Apple Inc. Grouping media content for automatically generating a media presentation
JP6586857B2 (ja) * 2015-10-26 2019-10-09 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
WO2017120300A1 (en) * 2016-01-05 2017-07-13 Hillcrest Laboratories, Inc. Content delivery systems and methods
KR102317619B1 (ko) * 2016-09-23 2021-10-26 삼성전자주식회사 전자 장치 및 이의 제어 방법
KR101944112B1 (ko) * 2016-12-22 2019-04-17 주식회사 시어스랩 사용자 저작 스티커를 생성하는 방법 및 장치, 사용자 저작 스티커 공유 시스템
EP3399733A1 (en) * 2017-05-02 2018-11-07 OCE Holding B.V. A system and a method for dragging and dropping a digital object onto a digital receptive module on a pixel display screen
CN110062269A (zh) 2018-01-18 2019-07-26 腾讯科技(深圳)有限公司 附加对象显示方法、装置及计算机设备
JP7035662B2 (ja) * 2018-03-15 2022-03-15 京セラドキュメントソリューションズ株式会社 携帯端末装置および携帯端末装置の表示制御方法
JP7329957B2 (ja) * 2019-04-25 2023-08-21 東芝テック株式会社 仮想オブジェクト表示装置、及びプログラム
JP7095002B2 (ja) * 2020-02-19 2022-07-04 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、コンピュータプログラム及び記憶媒体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09288556A (ja) * 1996-04-23 1997-11-04 Atsushi Matsushita ハイパーメディアの視覚化システム
CN1904897A (zh) * 2005-07-27 2007-01-31 索尼株式会社 信息处理装置、信息处理方法及程序
US20080147488A1 (en) * 2006-10-20 2008-06-19 Tunick James A System and method for monitoring viewer attention with respect to a display and determining associated charges
US20080229222A1 (en) * 2007-03-16 2008-09-18 Sony Computer Entertainment Inc. User interface for processing data by utilizing attribute information on data

Family Cites Families (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0685144B2 (ja) * 1990-11-15 1994-10-26 インターナショナル・ビジネス・マシーンズ・コーポレイション オーバレイ及びアンダレイの選択的制御装置
EP0955591A3 (en) * 1992-04-30 2004-05-12 Apple Computer, Inc. Method and apparatus for organizing information in a computer system
US5715416A (en) * 1994-09-30 1998-02-03 Baker; Michelle User definable pictorial interface for a accessing information in an electronic file system
US5754179A (en) * 1995-06-07 1998-05-19 International Business Machines Corporation Selection facilitation on a graphical interface
US6263507B1 (en) * 1996-12-05 2001-07-17 Interval Research Corporation Browser for use in navigating a body of information, with particular application to browsing information represented by audiovisual data
US6188405B1 (en) * 1998-09-14 2001-02-13 Microsoft Corporation Methods, apparatus and data structures for providing a user interface, which exploits spatial memory, to objects
US6594673B1 (en) * 1998-09-15 2003-07-15 Microsoft Corporation Visualizations for collaborative information
GB9908631D0 (en) * 1999-04-15 1999-06-09 Canon Kk Search engine user interface
US7139421B1 (en) * 1999-06-29 2006-11-21 Cognex Corporation Methods and apparatuses for detecting similar features within an image
JP4325075B2 (ja) * 2000-04-21 2009-09-02 ソニー株式会社 データオブジェクト管理装置
US7308140B2 (en) * 2000-05-31 2007-12-11 Samsung Electronics Co., Ltd. Method and device for measuring similarity between images
US6950989B2 (en) 2000-12-20 2005-09-27 Eastman Kodak Company Timeline-based graphical user interface for efficient image database browsing and retrieval
US6826316B2 (en) * 2001-01-24 2004-11-30 Eastman Kodak Company System and method for determining image similarity
US6816176B2 (en) * 2001-07-05 2004-11-09 International Business Machines Corporation Temporarily moving adjacent or overlapping icons away from specific icons being approached by an on-screen pointer on user interactive display interfaces
JP4096541B2 (ja) * 2001-10-01 2008-06-04 株式会社日立製作所 画面表示方法
US20040201702A1 (en) 2001-10-23 2004-10-14 White Craig R. Automatic location identification and categorization of digital photographs
US20030160824A1 (en) * 2002-02-28 2003-08-28 Eastman Kodak Company Organizing and producing a display of images, labels and custom artwork on a receiver
US7043474B2 (en) * 2002-04-15 2006-05-09 International Business Machines Corporation System and method for measuring image similarity based on semantic meaning
WO2004008348A1 (en) * 2002-07-16 2004-01-22 Horn Bruce L Computer system for automatic organization, indexing and viewing of information from multiple sources
US20040090460A1 (en) * 2002-11-12 2004-05-13 Hideya Kawahara Method and apparatus for updating a User Interface for a computer system based on a physics model
US7117453B2 (en) * 2003-01-21 2006-10-03 Microsoft Corporation Media frame object visualization system
US7231609B2 (en) * 2003-02-03 2007-06-12 Microsoft Corporation System and method for accessing remote screen content
US7627552B2 (en) * 2003-03-27 2009-12-01 Microsoft Corporation System and method for filtering and organizing items based on common elements
US8312049B2 (en) * 2003-06-24 2012-11-13 Microsoft Corporation News group clustering based on cross-post graph
US7356778B2 (en) * 2003-08-20 2008-04-08 Acd Systems Ltd. Method and system for visualization and operation of multiple content filters
US8600920B2 (en) * 2003-11-28 2013-12-03 World Assets Consulting Ag, Llc Affinity propagation in adaptive network-based systems
US7383503B2 (en) * 2005-02-23 2008-06-03 Microsoft Corporation Filtering a collection of items
US8732175B2 (en) * 2005-04-21 2014-05-20 Yahoo! Inc. Interestingness ranking of media objects
US10210159B2 (en) * 2005-04-21 2019-02-19 Oath Inc. Media object metadata association and ranking
US7925985B2 (en) * 2005-07-29 2011-04-12 Sap Ag Methods and apparatus for process thumbnail view
US20070100798A1 (en) * 2005-10-31 2007-05-03 Shyam Kapur Community built result sets and methods of using the same
US7542951B1 (en) * 2005-10-31 2009-06-02 Amazon Technologies, Inc. Strategies for providing diverse recommendations
US7664760B2 (en) * 2005-12-22 2010-02-16 Microsoft Corporation Inferred relationships from user tagged content
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
WO2007121557A1 (en) * 2006-04-21 2007-11-01 Anand Agarawala System for organizing and visualizing display objects
US7907755B1 (en) * 2006-05-10 2011-03-15 Aol Inc. Detecting facial similarity based on human perception of facial similarity
US7627831B2 (en) * 2006-05-19 2009-12-01 Fuji Xerox Co., Ltd. Interactive techniques for organizing and retrieving thumbnails and notes on large displays
US8966389B2 (en) * 2006-09-22 2015-02-24 Limelight Networks, Inc. Visual interface for identifying positions of interest within a sequentially ordered information encoding
US7546545B2 (en) * 2006-09-27 2009-06-09 International Business Machines Corporation Emphasizing drop destinations for a selected entity based upon prior drop destinations
US8031914B2 (en) * 2006-10-11 2011-10-04 Hewlett-Packard Development Company, L.P. Face-based image clustering
US20080089591A1 (en) 2006-10-11 2008-04-17 Hui Zhou Method And Apparatus For Automatic Image Categorization
JP2008108200A (ja) * 2006-10-27 2008-05-08 Canon Inc 情報抽出装置及び方法、並びにプログラム及び記憶媒体
US7992097B2 (en) * 2006-12-22 2011-08-02 Apple Inc. Select drag and drop operations on video thumbnails across clip boundaries
EP2122574A4 (en) * 2007-02-27 2012-06-13 Quotidian Inc 3D DISPLAY FOR TIME INFORMATION
US7680882B2 (en) * 2007-03-06 2010-03-16 Friendster, Inc. Multimedia aggregation in an online social network
US7895533B2 (en) * 2007-03-13 2011-02-22 Apple Inc. Interactive image thumbnails
US8667418B2 (en) * 2007-06-08 2014-03-04 Apple Inc. Object stack
US20080307330A1 (en) * 2007-06-08 2008-12-11 Apple Inc. Visualization object divet
US20080307359A1 (en) * 2007-06-08 2008-12-11 Apple Inc. Grouping Graphical Representations of Objects in a User Interface
JP2009080580A (ja) * 2007-09-25 2009-04-16 Toshiba Corp 映像表示装置及び方法
JP2009087057A (ja) * 2007-09-28 2009-04-23 Sharp Corp ベクトルデータをクラスタリングするクラスタリング装置、クラスタリング方法、プログラムおよび記録媒体
US8220022B1 (en) * 2007-12-12 2012-07-10 Google Inc. Traversing video recommendations
US8254684B2 (en) * 2008-01-02 2012-08-28 Yahoo! Inc. Method and system for managing digital photos
US20090204915A1 (en) * 2008-02-08 2009-08-13 Sony Ericsson Mobile Communications Ab Method for Switching Desktop Panels in an Active Desktop
US20090228830A1 (en) * 2008-02-20 2009-09-10 Herz J C System and Method for Data Analysis and Presentation
JP4675995B2 (ja) * 2008-08-28 2011-04-27 株式会社東芝 表示処理装置、プログラムおよび表示処理方法
US8683390B2 (en) * 2008-10-01 2014-03-25 Microsoft Corporation Manipulation of objects on multi-touch user interface
US8099419B2 (en) * 2008-12-19 2012-01-17 Sap Ag Inferring rules to classify objects in a file management system
US8774498B2 (en) * 2009-01-28 2014-07-08 Xerox Corporation Modeling images as sets of weighted features
US8175376B2 (en) * 2009-03-09 2012-05-08 Xerox Corporation Framework for image thumbnailing based on visual similarity
US10504197B2 (en) * 2009-04-15 2019-12-10 Koninklijke Philips N.V. Clinical decision support systems and methods
US20100333140A1 (en) * 2009-06-29 2010-12-30 Mieko Onodera Display processing apparatus, display processing method, and computer program product
US9009622B2 (en) * 2009-06-30 2015-04-14 Verizon Patent And Licensing Inc. Media content instance search methods and systems
US20110029904A1 (en) * 2009-07-30 2011-02-03 Adam Miles Smith Behavior and Appearance of Touch-Optimized User Interface Elements for Controlling Computer Function
US8429565B2 (en) * 2009-08-25 2013-04-23 Google Inc. Direct manipulation gestures
US8577887B2 (en) * 2009-12-16 2013-11-05 Hewlett-Packard Development Company, L.P. Content grouping systems and methods
US8468465B2 (en) * 2010-08-09 2013-06-18 Apple Inc. Two-dimensional slider control

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09288556A (ja) * 1996-04-23 1997-11-04 Atsushi Matsushita ハイパーメディアの視覚化システム
CN1904897A (zh) * 2005-07-27 2007-01-31 索尼株式会社 信息处理装置、信息处理方法及程序
US20080147488A1 (en) * 2006-10-20 2008-06-19 Tunick James A System and method for monitoring viewer attention with respect to a display and determining associated charges
US20080229222A1 (en) * 2007-03-16 2008-09-18 Sony Computer Entertainment Inc. User interface for processing data by utilizing attribute information on data

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105488067A (zh) * 2014-09-19 2016-04-13 中兴通讯股份有限公司 幻灯片生成方法和装置
CN105488067B (zh) * 2014-09-19 2020-04-21 中兴通讯股份有限公司 幻灯片生成方法和装置
CN105528166A (zh) * 2014-09-28 2016-04-27 联想(北京)有限公司 一种控制方法及装置

Also Published As

Publication number Publication date
JPWO2012144225A1 (ja) 2014-07-28
CN102959549B (zh) 2017-02-15
US9348500B2 (en) 2016-05-24
US20120272171A1 (en) 2012-10-25
JP5982363B2 (ja) 2016-08-31
US20130097542A1 (en) 2013-04-18
WO2012144225A1 (ja) 2012-10-26

Similar Documents

Publication Publication Date Title
CN102959549A (zh) 分类装置及分类方法
US20240013669A1 (en) Predictive virtual training systems, apparatuses, interfaces, and methods for implementing same
US9690982B2 (en) Identifying gestures or movements using a feature matrix that was compressed/collapsed using principal joint variable analysis and thresholds
US20160328604A1 (en) Systems and methods of monitoring activities at a gaming venue
US20150147728A1 (en) Self Organizing Maps (SOMS) for Organizing, Categorizing, Browsing and/or Grading Large Collections of Assignments for Massive Online Education Systems
CN110431567A (zh) 用于提高神经网络的预测准确度的***和方法
CN101667245A (zh) 基于支持向量新颖检测分类器级联的人脸检测方法
CN109961093A (zh) 一种基于众智集成学习的图像分类方法
JP6810048B2 (ja) モバイル機器のバーチャルボールのシミュレーションおよびコントロールの方法
US6332040B1 (en) Method and apparatus for sorting and comparing linear configurations
Bhuyan et al. Motion recognition in Bharatanatyam dance
Bankar et al. Real time sign language recognition using deep learning
Zhang et al. Dynamic gesture recognition based on fusing frame images
Bohari et al. To draw or not to draw: recognizing stroke-hover intent in non-instrumented gesture-free mid-air sketching
CN111860086A (zh) 基于深度神经网络的手势识别方法、装置及***
Heer et al. An improved hand gesture recognition system based on optimized msvm and sift feature extraction algorithm
Bohari et al. Stroke-hover intent recognition for mid-air curve drawing using multi-point skeletal trajectories
Pawar et al. Deep learning based glance of real world scenes through decision tree
JP6796015B2 (ja) シーケンス生成装置およびその制御方法
CN110458237A (zh) 语义识别方法和装置、电子设备及存储介质
Sonia et al. An improved hand gesture recognition system based on optimized msvm and sift feature extraction algorithm
CN110765809A (zh) 一种面部表情分类方法、装置和情感智能机器人
Li et al. Efficientnet Model Based Gesture Recognition Method Research
Suresh Air Canvas: Expressing Creativity in the Real World with OpenCV and Python
Tiwari et al. Volume Controller using Hand Gestures

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: MATSUSHITA ELECTRIC (AMERICA) INTELLECTUAL PROPERT

Free format text: FORMER OWNER: MATSUSHITA ELECTRIC INDUSTRIAL CO, LTD.

Effective date: 20141009

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20141009

Address after: Seaman Avenue Torrance in the United States of California No. 2000 room 200

Applicant after: PANASONIC INTELLECTUAL PROPERTY CORPORATION OF AMERICA

Address before: Osaka Japan

Applicant before: Matsushita Electric Industrial Co.,Ltd.

C53 Correction of patent of invention or patent application
CB02 Change of applicant information

Address after: Seaman Avenue Torrance in the United States of California No. 20000 room 200

Applicant after: PANASONIC INTELLECTUAL PROPERTY CORPORATION OF AMERICA

Address before: Seaman Avenue Torrance in the United States of California No. 2000 room 200

Applicant before: PANASONIC INTELLECTUAL PROPERTY CORPORATION OF AMERICA

COR Change of bibliographic data

Free format text: CORRECT: ADDRESS; FROM:

C14 Grant of patent or utility model
GR01 Patent grant