CN102591451B - 影像处理装置和影像显示装置 - Google Patents

影像处理装置和影像显示装置 Download PDF

Info

Publication number
CN102591451B
CN102591451B CN201110386052.3A CN201110386052A CN102591451B CN 102591451 B CN102591451 B CN 102591451B CN 201110386052 A CN201110386052 A CN 201110386052A CN 102591451 B CN102591451 B CN 102591451B
Authority
CN
China
Prior art keywords
hand
user
posture
image
mentioned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201110386052.3A
Other languages
English (en)
Other versions
CN102591451A (zh
Inventor
B·塞蒂亚万
松原孝志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Hitachi Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Maxell Ltd filed Critical Hitachi Maxell Ltd
Priority to CN201510783622.0A priority Critical patent/CN105224090B/zh
Publication of CN102591451A publication Critical patent/CN102591451A/zh
Application granted granted Critical
Publication of CN102591451B publication Critical patent/CN102591451B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明提供一种影像处理装置和影像显示装置,具有可以进行能够用姿势少的模式对应多种操作的输入操作的输入装置以及输入***。为了实现上述目的,上述输入装置中包括:检测手的位置的手检测单元;检测例如脸等用户的身体的部位的位置的身体的部位检测单元;根据上述手检测单元的检测结果即手的位置信息和上述身体部位检测单元的检测结果即身体部位的位置信息算出手与该身体部位的相对位置的相对位置算出单元;以及基于上述手检测单元的检测结果即手的位置信息的变化识别手的姿势的姿势识别单元。在识别出手的姿势时,根据上述手与身体部位的相对位置,切换作为该用户的姿势的对象的输入装置的操作。

Description

影像处理装置和影像显示装置
技术领域
本发明涉及电子机器的操作。
背景技术
作为本技术领域的背景技术,有日本特开2003-233452号公报(专利文献1)。在该公报中记载了,发明目的是“提供利用性良好的姿势命令输入装置,能够与应用程序或其它用户任意注册的姿势命令无关,用户使用自己习惯使用的姿势进行命令输入,并且能够识别哪个用户在对输入单元进行姿势输入,多个用户能够用各自的姿势进行命令输入”(参照专利文献1[0013]段)等,其解决方案是“一种姿势命令输入装置,用用户身体的一部分或专用指示介质把对输入单元进行的姿势输入变换成命令,该姿势命令输入装置包括:预先针对各用户注册了该用户固有的姿势命令的存储单元;识别对上述输入单元进行姿势输入的用户的用户识别单元;以及如果上述用户识别单元识别了对上述输入单元进行上述姿势输入的用户,则基于与该被识别了的用户对应地、在上述存储单元中注册的用户固有的姿势命令,把该用户从上述输入单元输入的姿势变换成命令的控制单元”(参照专利文献1[0025]段)等。
<专利文献1>日本特开2003-233452号公报
发明内容
(发明要解决的问题)
但是,在专利文献1的技术构思中,必须存储向各电子机器预先注册的姿势,用户使用不方便。
(用来解决问题的方案)
为了解决上述问题,采用例如权利要求中记载的构成。
本申请包含多个解决上述问题的手段,如果举出一例,则有一种输出影像信号的影像处理装置,其特征在于:具有:拍摄影像的相机、和基于用相机拍摄的影像控制影像处理装置的控制部;控制部从用相机拍摄的影像检测用户的身体的多个部位,基于该被检测到的多个部位的位置选择针对影像处理装置的操作的种类,如果从用相机拍摄的影像识别出用户的预定的姿势,则执行被选择的种类的操作。
(发明的效果)
根据上述方案,可以效率良好地利用姿势进行电子机器的操作,可以提高该电子机器的用户使用方便性。
附图说明
图1是示出实施例1的输入装置的概貌图。
图2是示出实施例1的输入装置的构成的框图。
图3是示出操作实施例1的输入装置时用户的手和脸的位置的概貌图。
图4是说明实施例1的输入装置的用户的手的位置与显示画面的对应关系的概貌图。
图5是说明实施例1的输入装置的动作的流程图。
图6是示出实施例2的输入装置的概貌图。
图7是示出实施例2的输入装置的用户的姿势操作的区域的概貌图。
图8是说明实施例2的输入装置的、用户的手的动作与显示画面的对应关系的概貌图。
图9是示出实施例3的输入装置的、以用户的躯干轴为基准的用户的手的操作区域的概貌图。
图10是示出实施例3的输入装置的、以用户的躯干的中心点的纵位置为基准的用户的手的操作区域的概貌图。
图11是示出实施例3的输入装置的、以用用户的脸的位置信息制作的假想边界线为基准的操作区域的概貌图。
图12是说明实施例3的输入装置的动作的流程图。
图13是示出实施例4的输入装置的用户的姿势操作的区域的概貌图。
图14是说明实施例4的输入装置的动作的流程图。
图15是说明实施例4的输入装置的、用户的手的位置与显示画面的对应关系的概貌图。
图16是示出实施例5的输入装置的用户的姿势的概貌图。
(附图标记说明)
100:输入装置;101:拍摄部;110:显示部;111:第一菜单;112:第二菜单;120:用户;131:用户的手;122:用户的脸;200:***控制部;201:身体的部位检测部;202:姿势识别部;210:影像处理部;300:脸的横位置;301:脸的纵位置;302:手的横位置;303:手的纵位置;310:脸的中心点;320:手的中心点;304、305、902、903、1000、1001、1101、1102、1302、1303、1304:个别操作区域;600:操作区域显示;601:手的位置显示;602:操作区域显示的中间线;700、700-b操作区域范围;900:躯干的中心点;901、901-b、901-c、901-d:操作边界线;1600:姿势操作
具体实施方式
下面,用附图说明实施例。
(实施例1)
本实施例的输入装置100是,可以从拍摄了用户的动态图像检测用户身体的部位的位置,可以检测用户的动作(以下也称为“姿势”),根据该动作执行预定的处理,并且变更GUI(图形用户界面的英文缩写)的显示的装置。
图1示出用户使用输入装置100时的动作环境的概貌。
拍摄部101是用来向输入装置100输入动态图像的相机。显示部110是输入装置具有的显示装置,由例如液晶显示器、等离子体显示器等的显示装置构成。显示部110由显示屏、屏控制电路和屏控制驱动器构成,在显示屏上显示由从后述的影像处理部210供给的数据构成的影像。
第一菜单111和第二菜单112是显示部110上示出的GUI,与预定的用户操作对应。另外,本实施例中,第一菜单111是音量调整的GUI,第二菜单112是频道切换的GUI,但与各菜单对应的操作也可以是其它的操作。
用户120是对输入装置100进行操作的用户。用户的操作是,例如,在将用户的脸122面对输入装置100时,用户做出在横方向上或者在纵方向上晃动用户的手121,或者用户的手121从某一预定的位置向上、下、左或右拂动(以下记为挥动,swipe)、或者使手转动的姿势,输入装置100识别上述姿势,根据上述姿势的识别结果执行预定的处理。
图2是示出输入装置100的构成的一例的框图。输入装置100例如像图2所示的那样,具有:拍摄部101、***控制部200、影像处理部210、显示部110。***控制部200具有实现部位检测部201、姿势识别部202的功能的部分。
部位检测部201利用例如形状检测算法等的处理,从由拍摄部101得到的动态图像检测手、脸、躯干等用户的各身体部位的位置。姿势识别部202是利用由部位检测部201检测到的用户的手的位置信息识别操作输入装置100的预定姿势的部分。另外,本实施例中,说明了识别手的姿势的例子,但本发明不限于此。例如,也可以是识别脸、脚的姿势或把多个身体部位组合得到的姿势的构成。
***控制部200是进行部位检测部201的输出、针对姿势识别部202的输出等的数据进行数据处理的部分。***控制部200可以通过由CPU执行在存储器上存储的软件模块来实现,也可以通过专用的硬件电路来实现。
影像处理部210由例如ASIC、FPGA、MPU等的处理装置构成。影像处理部210根据***控制部200的控制把GUI的影像数据变换成可用显示部110处理的方式后输出。
输入装置100通过搭载在具有显示器的电视机、监视器上,可以利用用户的姿势操作这些装置。另外,在图2中是输入装置100包括显示部110的构成,但不是必须要包括显示部110。例如,也可以构成为,搭载在不包括显示装置的光盘播放器等上,利用与该光盘播放器连接的外部的显示装置向用户提供影像。另外,使例如具有拍摄部的摄像机与显示装置、光盘播放器等连接,基于由摄像机拍摄的影像在显示装置、光盘播放器等中进行处理。
另外,图2示出在本实施例和本实施例以外的实施例中的说明中使用的构成,但根据需要可以追加其它构成,这是不言而喻的。例如,在接收播送的电视机上搭载了输入装置100时,在该电视机上也可以包括接收播送、显示用的显像管和多路解调器、解码器、输出声音的扬声器等。
图3示出用户利用姿势操作本实施例的输入装置的样子。用户的手121的位置例如由被检测到的手的形状区域的中心点320的横位置302和该中心点320的纵位置303构成的坐标表示。另外,用户的脸122的位置例如由被检测到的脸的中心点310的横位置300和脸的中心点310的纵位置301构成的坐标表示。
本实施例中,说明把检测用户的手121的范围分成位于通过用户的脸的横位置300的线的右侧的操作区域304和位于左侧的操作区域305的方法。
在此,根据***控制部200的数据处理,有用户做出姿势时的手121的位置在用户的脸122的横位置300右侧的区域(操作区域304)中被检测的状态和在脸122的横位置300左侧的区域(操作区域305)中被检测的状态。在本实施例的输入装置100中,根据这两种状态对用户进行的预定姿势分配不同的操作。
图4示出使用输入装置100的用户的手121在操作区域304中被检测到时和在操作区域305中被检测到时的显示部110的概貌图。图4(A)中示出用户的手在操作区域304中被检测到时用户120与输入装置100的显示画面的状态。输入装置100通过在显示部110中对第一菜单111的显示进行加强等,如果在该状态下用户做出预定的姿势则执行与第一菜单111有关的操作(在本实施例中是音量调整),向用户120示出。
图4(B)中示出用户的手在操作区域305中(脸的左侧)被检测到时用户120与输入装置100的显示画面的状态。输入装置100,通过在显示部110中对第二菜单112的显示进行加强等,向用户120示出:如果在该状态下用户做出预定的姿势则执行与第二菜单112有关的操作(在本实施例中是频道切换)。
下面,用图5的流程图说明利用根据实施例1的输入装置100的姿势进行的操作。用户的姿势的检测处理是图2所示的***控制部200进行的处理。
首先,在***控制部200中检测用户的手121和脸122的位置,计算相对于脸的位置的手的位置(步骤500)。
根据上述步骤500的结果,根据检测到的手相对于脸的位置变更GUI显示(步骤501)。像图4所示的那样,在脸的右侧检测到手时加强第一菜单111,在脸的左侧检测到手时加强第二菜单112。通过本步骤用户自己可以据此了解利用姿势执行了哪种操作。
在本实施例中构成为加强显示与被检测到的手的位置对应的菜单,但只要是用户可以识别利用姿势执行了哪种操作的显示,则对显示的方法没有限制。例如,也可以构成为,在脸的右侧检测到手时只显示第一菜单111,不显示第二菜单112。
另外,如果因不能检测手或脸时等而不存在手或脸的位置信息,则例如在显示部110上不显示第一菜单111和第二菜单112。
然后,在***控制部200中进行姿势的识别(步骤502),如果未识别出预先注册的姿势,则就这样结束处理(步骤503:否)。如果识别出预先注册的姿势,则进入步骤504(步骤503:是)。
然后,判断手是在脸的右侧,还是左侧(步骤504)。
检查作为步骤504的判断结果的手相对于脸的位置是否与上述步骤501中加强显示的GUI的位置匹配(步骤505和步骤506)。如果不匹配,则不接受利用姿势进行的操作,结束处理(步骤505:否,和步骤506:否)。如果匹配,则根据步骤504的结果进入步骤507和步骤508(步骤505:是,和步骤506:是)。
虽然在显示部110上加强显示第一菜单111(右侧的菜单),但如果根据步骤504的结果判断为识别了姿势时手的位置在左侧(步骤504:左),则由于GUI的显示与输入装置100据此执行的操作不匹配,所以视为发生了姿势识别的错误,不接收用户的姿势。
在判断为识别了姿势时手的位置在脸的右侧的情况下、即在图3所示的操作区域304中检测到手的位置的情况下(步骤504:右),且该判断结果与显示中的GUI匹配的情况下(步骤505:是),输入装置100执行与第一菜单111有关的操作(在本实施例中是音量调整)(步骤507)。
同样地,在判断为识别了姿势时手的位置在脸的左侧的情况下、即在图3所示的操作区域305中检测到手的位置的情况下(步骤504:左),且该判断结果与显示中的GUI匹配的情况下(步骤506:是),输入装置100执行与第二菜单112有关的操作(在本实施例中是频道切换)(步骤508)。
这样,在输入装置100中,通过识别手相对于脸的位置,可以对多个操作分配用户的预定的姿势,用户无须存储多个姿势就可以进行多个操作。另外,通过在脸的右侧检测到手的位置时加强第一菜单111的显示,在脸的左侧检测到手的位置时加强第二菜单112的显示,用户可以据此明白所做的姿势对应于哪种操作。而且,还具有在操作机器的过程中减少进行菜单切换所需的麻烦的效果,可以更快地执行用户所期望的操作。
另外,与可以利用姿势操作的现有的装置相比,还可以减轻利用姿势进行的操作的处理负担。
另外,在上述实施例中说明了用手相对于脸的位置在右或左两种状态对两种操作分配用户的姿势,但也可以用手相对于脸的位置在上或下的状态等。另外,也可以通过用相对于脸的位置在左上、右上、右下、左下的状态等,对三种以上的操作分配用户的姿势。
(实施例2)
以下,用图6~图8说明实施例2。
实施例1的输入装置100在脸的右侧或左侧检测到手的位置时加强显示对应的第一菜单111或第二菜单112。在本实施例中,除了实施例1的操作方法以外,还用GUI显示用户的手位于脸的位置的哪边。
图6示出用户120操作输入装置100的概貌图。输入装置100的显示部110,除了显示实施例1中的第一菜单111和第二菜单112以外,还显示示出检测用户的手的区域的操作区域显示600和示出检测用户的手的位置的手的位置显示601的GUI。输入装置100用操作区域显示600和手的位置显示601的组合,显示在相对于脸的哪个位置上检测到用户的手。中间线602是把操作区域显示600左右分开的中间的边界线。用户一边确认输入装置100的显示部110的画面,一边做出手势,操作输入装置100。
图7示出根据本实施例的用户和在显示部110上显示的画面的关系。操作区域范围700是可以识别姿势的范围。在本实施例中,操作区域范围700的中间点与脸的横位置300对应。在显示部110上显示的操作区域显示600的横方向长度表示该操作区域范围700,中间线602与脸的横位置300对应。
图8是说明根据本实施例的输入装置100的、用户的手的位置与显示画面的对应关系的概貌图。图7的操作区域范围700中的手的位置与操作区域显示600中的手的位置显示601的位置对应。即,如果在该操作区域范围700中用户的手121移动到右侧,则像图8(A)所示的那样,手的位置显示601的位置移动到操作区域显示600的右侧。同样地,如果在该操作区域范围700中用户的手121移动到左侧,则像图8(B)所示的那样,手的位置显示601的位置移动到操作区域显示600的左侧。
通过上述的构成,除了实施例1的效果以外,还有用户可以看到操作区域显示600中的手的位置显示601的位置来确认自己的手的位置的效果。
(实施例3)
以下,用图9~图12说明实施例3。
实施例1和实施例2的输入装置100用脸的位置信息设定预定基准的位置,根据相对于该基准的位置的手的相对位置,分配不同的操作。在本实施例中说明用手与用户的身体的其它部位的相对位置分配利用姿势进行的操作的方法。
首先,以用户的身体的各部位的位置为基准,用纵、横或预定的倾角制作假想的某一边界线。通过制作边界线生成两个以上的操作区域。在本实施例中说明根据在哪个操作区域中检测到用户的手来对预定的姿势分配操作的方法。下面,说明用假想的边界线制作操作区域的例子。
图9是示出根据本实施例的、以用户的躯干轴为基准时的用户的手的操作区域的概貌图。输入装置100用例如部位检测部201检测用户的躯干的中心点900和躯干的倾角。边界线901通过检测到的躯干的中心点900,其倾角与检测到的躯干的倾角相同。
通过制作边界线901,生成操作区域902和操作区域903这两个手的操作区域。然后,关于用户的利用姿势进行的输入装置100的操作,分配在操作区域902中检测到手的位置时的操作和在操作区域903中检测到手的位置时的操作这两种操作。
由此,可以根据用户的姿势,更合适地对多个操作分配利用姿势对输入装置100进行的操作,可以提高用户使用方便性。另外,也可以用例如通过脸的中心点310和躯干的中心点900的线定义等其它方法制作假想线901。
图10是示出根据本实施例的、以用户的躯干的中心点的纵位置为基准时用户利用姿势进行操作的操作区域的概貌图。如果在上述躯干的中心点900的纵位置处沿横方向制作假想的边界线901-b,则生成图10所示的操作区域1000和操作区域1001。然后,关于用户的利用姿势进行的输入装置100的操作,分配在操作区域1000中检测到手的位置时的操作和在操作区域1001中检测到手的位置时的操作这两种操作。
由此,可以使用手在身体的中心点以上的状态下的姿势或以下的状态下的姿势,对输入装置分配多个操作。
图11是示出以用用户的脸的位置信息制作的边界线为基准的操作区域的概貌图。如果在利用右手的姿势进行的输入装置100的操作中,把通过脸和躯干的中心的线作为假想的边界线,则与分配给右侧的操作相比,分配给左侧的操作难以进行。于是,如果在离用户的脸的横位置300有一定距离的1100处制作纵向的假想的边界线901-c,则生成图11所示的操作区域1001和操作区域1002。关于用户的利用姿势进行的输入装置100的操作,分配在操作区域1101中检测到手的位置时的操作和在操作区域1102中检测到手的位置时的操作这两种操作。
这样,通过在脸的纵位置的右侧(在用左手做出姿势时则是左侧)设定假想的边界线901-c,与把通过脸和躯干的中心的线作为假想的边界线时相比,用户容易进行用右手的姿势分配给左侧的区域的操作。
另外,用例如部位检测部201判断做出姿势的手是右手还是左手,在判断为用户用左手做出姿势时,通过在脸的左侧设定上述边界线901-c,容易进行用左手的姿势进行的操作。
下面,用图12的流程图说明根据本实施例的针对预定的姿势,对输入装置100分配两种操作的方法。
输入操作的检测处理是图2所示的***控制部200进行的处理。首先,在***控制部200中检测用户的手121和作为制作操作区域的基准的身体的部位的位置(步骤1200)。
用步骤1200的输出即用户的身体的部位的位置信息制作例如像图9~图11那样的假想的边界线,生成两个操作区域(步骤1201)。
然后,与图5的流程图的步骤501同样地,根据在哪个操作区域中检测到手而变更GUI显示(步骤1202)。
然后,与图5的流程图的步骤502同样地,进行姿势的识别(步骤1203)。如果未识别出预先注册的姿势,则就这样结束处理(步骤1204:否)。如果识别出预先注册的姿势,则进入步骤1205(步骤1204:是)。
然后,判断是在第一操作区域检测到手还是在第二操作区域检测到手(步骤1205)。
然后,检查步骤1205的判断结果是否与上述步骤1202中处理的GUI匹配(步骤1206和步骤1207)。如果不匹配,则不接受利用姿势进行的操作,结束处理(步骤1206:否,和步骤1207:否)。如果匹配,则根据步骤1205的结果进入步骤1208和步骤1209(步骤1206:是,和步骤1207:是)。
例如,虽然通过上述步骤1202在显示部110上加强显示第一菜单111(右侧的菜单),但如果根据步骤1205的结果判断为识别了姿势时手在用户左侧的操作区域中,则由于用户看到的GUI显示与输入装置据此执行的操作不匹配,所以视为发生了姿势识别的错误,不接收用户利用姿势进行的操作。
在做出了姿势时,在手在第一操作区域中的情况下(步骤1205:第一操作区域)且该判断结果与显示中的GUI匹配的情况下(步骤1206:是),输入装置100执行第一用户操作(步骤1208)。同样地,在做出了姿势时,在手在第二操作区域中的情况下(步骤1205:第二操作区域),且该判断结果与显示中的GUI匹配的情况下(步骤1207:是),输入装置100执行第二用户操作(步骤1209)
这样,用身体的部位的位置信息定义假想的边界线和操作区域,如果用手的位置在哪个操作区域中这两种状态,则在做出预定姿势时,可以分配两种用户操作。另外,假想的边界线也可以构成为根据识别用户的手的位置的区域的划分方法适当设定。例如,在把识别用户的手的位置的区域沿左右划分时,可以像上述那样用通过用户的脸的中心点310和躯干的中心点900的线定义;在把识别用户的手的位置的区域沿上下划分时,也可以用连接用户的双肩的线定义。进而,也可以使假想的边界线为两条以上,使识别用户的手的位置的区域为三个以上,从而对三种以上的用户操作分配预定的姿势。
(实施例4)
以下,用图13~图15说明实施例4。
在上述实施例1、实施例2和实施例3中说明了用相对于预定的基准位置手在右、左、上、下等的状态,对输入装置100分配多个操作的方法。在本实施例中,说明用手到预定的基准位置的距离对输入装置100分配多个操作的方法。
图13示出操作本实施例中的输入装置100时的用户的样子。操作的边界线901-d是例如从预先确定的身体的部位(脸、肩等)的位置设定的假想的操作的边界线。在此,把假想的边界线(用户右边的边界线1300,左侧的边界线1301)设定成,从操作的边界线901-d向左右两侧以某预定的距离生成第一操作区域1302、第二操作区域1303和第三操作区域1304。在用户利用姿势对输入装置100进行操作时,用手的位置是在第一操作区域1302中检测出、还是在第二操作区域1303中检测出、或者还是在第三操作区域1304中检测出这三个条件,对输入装置100分配不同的操作。另外,操作区域范围700-b与图7所示的操作区域范围700相同。
图14示出在上述三个操作区域中检测到了用户的手时用户的手的位置和输入装置100的显示部110的显示画面。
图14(A)示出在第一操作区域1302中检测到了用户的手时用户与显示部110画面的关系。虽然在显示部110上显示第一菜单111和第二菜单112,但也可以浅浅地显示这些显示,以表示哪个菜单都不能操作。操作区域显示600中的手的位置显示601在操作区域显示600的正中显示。在本实施例中,由于不对该区域分配操作,所以用户即使做出姿势,也不能操作输入装置100。
图14(B)示出在第二操作区域1303中检测到了用户的手时用户与显示部110画面的关系。在显示部110中第一菜单111比第二菜单112加强显示,向用户示出可以用预定的姿势进行第一菜单111所示的操作。在操作区域显示600中,手的位置显示601的显示位置设在右侧。此时,如果用户做出姿势则对输入装置100执行第一操作(在本实施例中是音量调整)。
图14(C)示出在第三操作区域1304中检测到了用户的手时用户与显示部110画面的关系。在显示部110中第二菜单112比第一菜单111加强显示,向用户示出可以用预定的姿势进行第二菜单112所示的操作。在操作区域显示600中,手的位置显示601的显示位置设在左侧。此时,如果用户做出姿势则对输入装置100执行第二操作(在本实施例中是频道切换)。
下面,用图15的流程图说明根据本实施例的对多个操作分配预定的姿势操作的方法。
首先,在***控制部200中检测用户的手121和作为制作操作区域的基准的身体的部位的位置(步骤1500)。在图13的情况下,用户的肩是设定操作区域的基准。
用上述步骤1500的输出即用户的身体的部位的位置信息,例如像图13所示的那样确定假想的边界线,用离该边界线的预定的距离定义三种操作区域(步骤1501)。
然后,根据在哪个操作区域中检测到手而变更GUI显示(步骤1502)。像图14所示的那样,根据在哪个操作区域中检测到用户的手而变更GUI显示。
在本实施例中构成为加强显示与被检测到的手的位置对应的菜单,但只要是用户可以识别利用姿势执行了哪种操作的显示,则对显示的方法没有限制。例如,也可以构成为,在操作区域1303中检测到手时只显示第一菜单111,不显示第二菜单112;或者在操作区域1302中检测到手时不显示菜单。另外,也可以构成为不显示操作区域显示600和手的位置显示601。
然后,进行姿势的识别处理(步骤1503)。如果未识别出预先注册的姿势,则就这样结束处理(步骤1504:否)。如果识别出预先注册的姿势,则进入步骤1505(步骤1504:是)。
然后,判断是在第一操作区域检测到手,还是在第二操作区域检测到手,或者还是在第三操作区域中检测到手(步骤1505)。
然后,检查步骤1505的判断结果是否与通过上述步骤1502的处理所显示的GUI匹配(步骤1506、步骤1507和步骤1508)。如果不匹配,则不接受利用姿势进行的操作,结束处理(步骤1506:否,步骤1507:否,和步骤1508:否)。如果匹配,则根据步骤1505的结果进入步骤1509、步骤1510或步骤1511。
例如,虽然利用上述步骤1502在显示部110上加强显示第一菜单111(右侧的菜单),但在步骤1505中判断的手的检测位置是左侧的区域1304时,不接收用户利用姿势进行的操作。
在做出了姿势时,在判断为在第一区域中检测到用户的手(步骤1505:第一操作区域)且该判断结果与通过上述步骤1502的处理所显示的GUI匹配的情况下(步骤1506:是),输入装置100执行第一用户操作(步骤1509)。
在做出了姿势时,在判断为在第二区域中检测到用户的手时和判断为在第三区域中检测到用户的手时也是一样的(步骤1507、1510、1508、1511)。
这样,通过根据从基于用户的身体的预定部位的位置设定的边界线算起的距离定义多个操作区域,可以根据检测到用户的手的位置对输入装置100分配多个操作。
另外,在本实施例中以三个操作区域为例,但也可以通过减少或增加边界线的数目来减少或增加操作区域。另外,在本实施例中基于预定部位设定边界线,通过根据从该边界线算起的距离设定多个操作区域,但也可以构成为不设定边界线,根据从预定部位算起的距离设定多个操作区域。
(实施例5)
以下,用图16说明实施例5。
在本实施例中,用预定的身体的部位的位置定义操作输入装置100的用户的姿势的方法。
在现有技术中,为了定义摆动姿势,在某时间范围内,在相机的拍摄范围内,手的位置从某一位置到另一位置连续地向右或左运动时进行定义。但是,由于使用相机的拍摄范围的信息,因用户的身高差、用户操作位置到输入装置的距离等,有时即使用户做出了相同的摆动姿势也不能被识别。
在本实施例中,取代相机的拍摄范围,而以实际拍摄的用户的身体的部位的位置为基准,定义摆动姿势。
图16是示出根据本实施例的用户对输入装置100做出的姿势的概貌图。例如,姿势1600定义为,在用户的手从上述操作区域1302运动到上述操作区域1304时成立。由于边界线1201的位置基于被检测到的用户的身体的部位的位置信息而设定,所以操作区域1302和操作区域1304的大小与被检测到的用户的身体的大小和位置对应地变化。由此,即使在身高或体格不同的多个用户操作时或同一用户从不同的位置操作时,也都能够适当地操作输入装置。
这样,通过用身体的部位的位置信息定义姿势,可以实现能够与用户、操作位置的变化相对应的输入装置100的利用姿势的操作。
另外,也可以把上述输入装置100检测到的脸、躯干的中心点等的身体的部位的位置作为定义其它姿势(手晃动、手旋转等)的基准。例如也可以构成为,用户的手动是以躯干的中心点的位置为中心旋转时,把用户的手的旋转半径在从躯干的横向宽度算出的预定范围时等情形判断为使手旋转的姿势。
以包括显示影像的显示部110、影像处理部210的装置为前提说明了上述实施例1~5,但本发明不限于此,只要是具有拍摄影像的相机和基于该相机拍摄的影像控制装置的控制部的装置,则可以基于由相机拍摄的用户的影像进行上述实施例1~5说明过的利用姿势操作装置。此时,虽然不能加强显示菜单等,但可以对同一姿势分配多个操作。另外,也可以构成为,取代菜单的加强显示,通过使装置包括的LED(发光二极管)等的发光元件发光(利用发光元件的位置、光的颜色等),向用户示出用姿势进行了何种操作。
另外,在上述实施例中说明过的处理也可以构成为用软件执行。只要是具有相机等的拍摄元件的装置,则可以通过由该装置的CPU执行可以进行上述实施例中说明过的处理的软件,实现与上述实施例相同的作用、效果。

Claims (6)

1.一种输出影像信号的影像处理装置,其特征在于,
具有:
拍摄包括用户的影像的相机;以及
控制部,基于用上述相机拍摄的影像识别用户的姿势,对上述影像处理装置输出的不包括用上述相机拍摄的影像的操作用影像,执行与该姿势对应的操作,
上述控制部从用上述相机拍摄的影像检测用户的身体的部位,设定以一个部位的位置为基准的边界线,基于该检测到的部位相对于该边界线的相对位置,从上述影像处理装置输出的操作用影像所包含的多个菜单中决定成为与上述姿势对应的操作的对象的菜单。
2.如权利要求1所述的影像处理装置,其特征在于:
还具有:处理输出的影像信号的影像处理部,
上述影像处理部对影像信号进行处理,以表示由上述控制部决定了成为操作的对象的菜单。
3.如权利要求1或2所述的影像处理装置,其特征在于:
上述控制部从用上述相机拍摄的影像检测用户的脸的位置和手的位置,设定以检测到的脸的位置为基准的边界线,在由该边界线划分出的第一区域中检测到的检测出的手的位置的情况下,决定成为第一操作的对象的菜单,在由该边界线划分出的第二区域中检测到检测出的手的位置的情况下,决定成为第二操作的对象的菜单。
4.如权利要求1或2所述的影像处理装置,其特征在于:
上述控制部从用上述相机拍摄的影像检测用户的手和手以外的预定的部位,根据检测到的手的位置与上述边界线的距离决定成为针对上述影像处理装置的操作的对象的菜单。
5.如权利要求3所述的影像处理装置,其特征在于:
上述操作用影像中包含与示出由上述控制部检测到的用户的手的位置的操作区域显示有关的影像信号。
6.如权利要求4所述的影像处理装置,其特征在于:
上述操作用影像中包含与示出由上述控制部检测到的用户的手的位置的操作区域显示有关的影像信号。
CN201110386052.3A 2010-12-27 2011-11-29 影像处理装置和影像显示装置 Active CN102591451B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510783622.0A CN105224090B (zh) 2010-12-27 2011-11-29 图像显示装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-289122 2010-12-27
JP2010289122A JP5653206B2 (ja) 2010-12-27 2010-12-27 映像処理装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201510783622.0A Division CN105224090B (zh) 2010-12-27 2011-11-29 图像显示装置

Publications (2)

Publication Number Publication Date
CN102591451A CN102591451A (zh) 2012-07-18
CN102591451B true CN102591451B (zh) 2015-12-02

Family

ID=46316214

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201510783622.0A Active CN105224090B (zh) 2010-12-27 2011-11-29 图像显示装置
CN201110386052.3A Active CN102591451B (zh) 2010-12-27 2011-11-29 影像处理装置和影像显示装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201510783622.0A Active CN105224090B (zh) 2010-12-27 2011-11-29 图像显示装置

Country Status (3)

Country Link
US (2) US9086726B2 (zh)
JP (1) JP5653206B2 (zh)
CN (2) CN105224090B (zh)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5865615B2 (ja) * 2011-06-30 2016-02-17 株式会社東芝 電子機器および制御方法
US9170674B2 (en) * 2012-04-09 2015-10-27 Qualcomm Incorporated Gesture-based device control using pressure-sensitive sensors
KR20140005688A (ko) * 2012-07-06 2014-01-15 삼성전자주식회사 사용자 인터페이스 방법 및 장치
KR20140014548A (ko) * 2012-07-24 2014-02-06 삼성전자주식회사 전자 장치, 그 제어 방법, 및 컴퓨터 판독가능 기록매체
CN104395875A (zh) * 2012-08-06 2015-03-04 株式会社尼康 电子设备、方法及程序
KR102035134B1 (ko) * 2012-09-24 2019-10-22 엘지전자 주식회사 영상표시장치, 및 그 동작방법
CN104813258B (zh) * 2012-11-22 2017-11-10 夏普株式会社 数据输入装置
US11137832B2 (en) 2012-12-13 2021-10-05 Eyesight Mobile Technologies, LTD. Systems and methods to predict a user action within a vehicle
US9274608B2 (en) 2012-12-13 2016-03-01 Eyesight Mobile Technologies Ltd. Systems and methods for triggering actions based on touch-free gesture detection
JP6198187B2 (ja) * 2012-12-27 2017-09-20 三星電子株式会社Samsung Electronics Co.,Ltd. 信号処理装置及び信号処理方法
CN104010125B (zh) * 2013-02-22 2017-11-28 联想(北京)有限公司 电子设备和方法
GB2513200A (en) * 2013-04-21 2014-10-22 Biogaming Ltd Kinetic user interface
JP6207240B2 (ja) * 2013-06-05 2017-10-04 キヤノン株式会社 情報処理装置及びその制御方法
KR20150031384A (ko) * 2013-09-13 2015-03-24 현대자동차주식회사 맞춤형 인터페이스 시스템 및 그 동작 방법
US20150277570A1 (en) * 2014-03-31 2015-10-01 Google Inc. Providing Onscreen Visualizations of Gesture Movements
US20150309681A1 (en) * 2014-04-23 2015-10-29 Google Inc. Depth-based mode switching for touchless gestural interfaces
KR102337682B1 (ko) * 2014-10-01 2021-12-09 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법
KR101754126B1 (ko) * 2015-06-10 2017-07-19 주식회사 브이터치 사용자 기준 공간좌표계 상에서의 제스처 검출 방법 및 장치
KR102530219B1 (ko) * 2015-10-30 2023-05-09 삼성전자주식회사 동작 인식의 오류를 검출하는 방법 및 장치
WO2018033137A1 (zh) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 在视频图像中展示业务对象的方法、装置和电子设备
WO2018042751A1 (ja) 2016-09-01 2018-03-08 三菱電機株式会社 ジェスチャー判定装置、ジェスチャー操作装置、及びジェスチャー判定方法
JP6293953B1 (ja) * 2017-04-04 2018-03-14 京セラ株式会社 電子機器、プログラムおよび制御方法
CN108573216A (zh) * 2018-03-20 2018-09-25 浙江大华技术股份有限公司 一种肢体姿态判断方法及装置
US20200012350A1 (en) * 2018-07-08 2020-01-09 Youspace, Inc. Systems and methods for refined gesture recognition
US20200142495A1 (en) * 2018-11-05 2020-05-07 Eyesight Mobile Technologies Ltd. Gesture recognition control device
CN110427826B (zh) * 2019-07-04 2022-03-15 深兰科技(上海)有限公司 一种手掌识别方法、装置、电子设备及存储介质
WO2021107186A1 (ko) * 2019-11-28 2021-06-03 엘지전자 주식회사 스마트 월 및 그 제어 방법
US11991469B2 (en) 2020-06-30 2024-05-21 Snap Inc. Skeletal tracking for real-time virtual effects
CN116114258A (zh) * 2020-08-13 2023-05-12 斯纳普公司 用于位姿驱动的虚拟效果的用户界面
US20220244791A1 (en) * 2021-01-24 2022-08-04 Chian Chiu Li Systems And Methods for Gesture Input

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101344816A (zh) * 2008-08-15 2009-01-14 华南理工大学 基于视线跟踪和手势识别的人机交互方法及装置
CN101393477A (zh) * 2007-09-19 2009-03-25 索尼株式会社 图像处理设备和方法及其程序

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
JP4031255B2 (ja) 2002-02-13 2008-01-09 株式会社リコー ジェスチャコマンド入力装置
DE602004006190T8 (de) 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
JP4153818B2 (ja) * 2003-03-31 2008-09-24 本田技研工業株式会社 ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム
JP2006209563A (ja) 2005-01-31 2006-08-10 Victor Co Of Japan Ltd インターフェース装置
JP2007072564A (ja) 2005-09-05 2007-03-22 Sony Computer Entertainment Inc マルチメディア再生装置、メニュー操作受付方法およびコンピュータプログラム
JP4711885B2 (ja) * 2006-05-25 2011-06-29 三菱電機株式会社 遠隔操作装置及び方法
KR100776801B1 (ko) * 2006-07-19 2007-11-19 한국전자통신연구원 화상 처리 시스템에서의 제스처 인식 장치 및 방법
JP4267648B2 (ja) * 2006-08-25 2009-05-27 株式会社東芝 インターフェース装置及びその方法
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
JP5559691B2 (ja) * 2007-09-24 2014-07-23 クアルコム,インコーポレイテッド 音声及びビデオ通信のための機能向上したインタフェース
JP2009251702A (ja) * 2008-04-02 2009-10-29 Hiroyuki Hosoda 情報処理装置、情報処理方法及び情報処理プログラム
JP2009265709A (ja) * 2008-04-22 2009-11-12 Hitachi Ltd 入力装置
JP2010009558A (ja) * 2008-05-28 2010-01-14 Oki Semiconductor Co Ltd 画像認識装置、電装機器動作制御ユニット、電化製品、画像認識プログラム、半導体装置
JP4221445B1 (ja) 2008-06-11 2009-02-12 株式会社ベイビッグ テレビ電話端末、テレビ電話端末制御方法及びプログラム
JP5183398B2 (ja) * 2008-09-29 2013-04-17 株式会社日立製作所 入力装置
CN103392163B (zh) * 2008-10-10 2016-10-26 高通股份有限公司 单相机***
CN101729808B (zh) * 2008-10-14 2012-03-28 Tcl集团股份有限公司 一种电视遥控方法及用该方法遥控操作电视机的***
CN101437124A (zh) * 2008-12-17 2009-05-20 三星电子(中国)研发中心 面向电视控制的动态手势识别信号处理方法
JP5706340B2 (ja) * 2009-01-21 2015-04-22 トムソン ライセンシングThomson Licensing 顔検出及びホットスポットの動きによりメディアを制御する方法
WO2010087796A1 (en) * 2009-01-30 2010-08-05 Thomson Licensing Method for controlling and requesting information from displaying multimedia
JP2010283549A (ja) * 2009-06-04 2010-12-16 ▲世▼榮科技股▲分▼有限公司 ジェスチャに基づく遠隔制御システム
GB2483168B (en) * 2009-10-13 2013-06-12 Pointgrab Ltd Computer vision gesture based control of a device
EP2620849B1 (en) * 2010-09-22 2019-08-28 Shimane Prefectural Government Operation input apparatus, operation input method, and program
US8872762B2 (en) * 2010-12-08 2014-10-28 Primesense Ltd. Three dimensional user interface cursor control

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101393477A (zh) * 2007-09-19 2009-03-25 索尼株式会社 图像处理设备和方法及其程序
CN101344816A (zh) * 2008-08-15 2009-01-14 华南理工大学 基于视线跟踪和手势识别的人机交互方法及装置

Also Published As

Publication number Publication date
CN105224090B (zh) 2018-05-25
JP2012137899A (ja) 2012-07-19
CN105224090A (zh) 2016-01-06
US20150301612A1 (en) 2015-10-22
US9746931B2 (en) 2017-08-29
CN102591451A (zh) 2012-07-18
JP5653206B2 (ja) 2015-01-14
US9086726B2 (en) 2015-07-21
US20120162409A1 (en) 2012-06-28

Similar Documents

Publication Publication Date Title
CN102591451B (zh) 影像处理装置和影像显示装置
US8523358B2 (en) Information processing apparatus, method, and storage medium storing program
US20140344750A1 (en) Display device and display method
US20220148337A1 (en) Living body detection method and apparatus, electronic device, and storage medium
US11017739B2 (en) Method for supporting user input and electronic device supporting the same
US11579904B2 (en) Learning data collection device, learning data collection system, and learning data collection method
CN107077258B (zh) 投射型影像显示装置以及影像显示方法
CN110175995B (zh) 一种基于病理图像的图像状态确定方法、装置以及***
CN103425481B (zh) 向菜单项和动作动态分配快捷方式
CN100399247C (zh) 一种显示设备的光标的控制***及方法
JP2013069224A (ja) 動作認識装置、動作認識方法、操作装置、電子機器、及び、プログラム
US11163516B2 (en) Electronic apparatus, display apparatus, and multivision setting method
GB2448034A (en) System and method for tracking an input device using a display screen in captured frames of image data
CN106462227A (zh) 投影型影像显示装置及其控制方法
US20190205079A1 (en) Resource sharing device and control method thereof
CN112463097B (zh) 信息显示方法及其***
US20160313960A1 (en) Control Method, Control Apparatus, And Electronic Device
US9449583B2 (en) Control method and electronic apparatus
US10861169B2 (en) Method, storage medium and electronic device for generating environment model
KR100828624B1 (ko) 입출력수단의 공유장치 및 이를 포함하는 디스플레이시스템
US9443138B2 (en) Apparatus and method for recognizing hand shape using finger pattern
CN104808900B (zh) 一种控制方法及电子设备
KR20150006382A (ko) 디스플레이 장치의 선택된 키 식별 방법 및 디스플레이 장치
US11457275B2 (en) Display apparatus and control method thereof
US10969865B2 (en) Method for transmission of eye tracking information, head mounted display and computer device

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: HITACHI MAXELL LTD.

Free format text: FORMER OWNER: HITACHI LTD.

Effective date: 20150403

TA01 Transfer of patent application right

Effective date of registration: 20150403

Address after: Osaka, Japan

Applicant after: Hitachi Maxell, Ltd.

Address before: Tokyo, Japan

Applicant before: Hitachi Consumer Electronics Co.,Ltd.

C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20171222

Address after: Kyoto Japan

Patentee after: MAXELL, Ltd.

Address before: Osaka, Japan

Patentee before: Hitachi Maxell, Ltd.

CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: Kyoto Japan

Patentee after: MAXELL, Ltd.

Address before: Kyoto Japan

Patentee before: MAXELL HOLDINGS, Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20220616

Address after: Kyoto Japan

Patentee after: MAXELL HOLDINGS, Ltd.

Address before: Kyoto, Japan

Patentee before: MAXELL, Ltd.