CN102196176A - 信息处理设备、信息处理方法和程序 - Google Patents

信息处理设备、信息处理方法和程序 Download PDF

Info

Publication number
CN102196176A
CN102196176A CN2011100577104A CN201110057710A CN102196176A CN 102196176 A CN102196176 A CN 102196176A CN 2011100577104 A CN2011100577104 A CN 2011100577104A CN 201110057710 A CN201110057710 A CN 201110057710A CN 102196176 A CN102196176 A CN 102196176A
Authority
CN
China
Prior art keywords
image
graph image
graph
messaging device
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2011100577104A
Other languages
English (en)
Inventor
笠原俊一
高冈绫
簗奏子
松谷笃志
成田智也
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN102196176A publication Critical patent/CN102196176A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • G03B17/20Signals indicating condition of a camera member or suitability of light visible in viewfinder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)

Abstract

提供了一种信息处理设备、信息处理方法和程序,所述信息处理设备包括:图像获得部件,用于获得捕获的图像;产生部件,用于产生图形图像以便促使在由所述图像获得部件获得的捕获图像内的对象改变状态;和发射控制部件,用于控制把由所述产生部件产生的图形图像发射到所述对象上。

Description

信息处理设备、信息处理方法和程序
技术领域
本发明涉及一种信息处理设备、信息处理方法和程序。
背景技术
近来在市场上已经浮现出一种兼有投影仪和照相机功能的设备,并且建议当利用照相机拍摄相片时使用投影仪的功能。例如,日本专利申请已公开号2008-129120描述了一种用于把摄影信息投射到对象上而使得所述对象可以发现关于摄影的信息的照相机。
发明内容
然而,当使用在日本专利申请已公开号2008-129120中描述的照相机时,对象可以发现关于摄影的信息,诸如照相机可以拍摄的范围,但是所述对象并不知道用它做什么。因此,所述对象他自己/她自己必须根据给定信息来进行判断。
考虑到上述内容,希望提供一种新颖的和改进的信息处理设备、信息处理方法和程序,其能够提供用于促使对象改变状态的信息。
依照本发明的一个实施例,提供了一种信息处理设备,其包括:图像获得部件,用于获得捕获图像;产生部件,用于产生促使在由所述图像获得部件获得的捕获图像内的对象改变状态的图形图像;和发射控制部件,用于控制把由所述产生部件产生的图形图像发射到所述对象上。
信息处理设备可以进一步包括分析部件,用于分析由图像获得部件所获得的捕获图像,产生部件可以根据由所述分析部件提供的分析结果来产生图形图像。
依照本发明的一个实施例,提供了一种信息处理设备,其包括:图像获得部件,用于获得捕获图像;产生部件,用于产生促使在由所述图像获得部件获得的捕获图像内的对象改变状态的图形图像;和发射控制部件,用于控制把由所述产生部件产生的图形图像发射到所述对象上。
信息处理设备可以进一步包括分析部件,用于分析由图像获得部件所获得的捕获图像,产生部件可以根据由所述分析部件提供的分析结果来产生图形图像。
信息处理设备可以进一步包括操作信息获得部件,用于获得关于由操作者执行的操作的信息,产生部件可以根据操作信息来产生图形图像。
产生部件可以根据关于对产生的图形图像执行的操作的信息来产生校正的图形图像,并且发射控制部件可以控制把校正的图形图像发射到对象上。
分析部件可以输出包括差异信息的分析结果,所述差异信息表示在期望的状态和捕获图像中对象的状态之间的差异,并且产生部件可以根据所述差异信息产生用于促使所述对象改变状态的图形图像,使得所述对象达到更接近于所期望状态的状态。
当确定差异信息等于或小于阈值时,发射控制部件可以停止图形图像的发射。
依照本发明另一实施例,提供了一种通过使信息处理设备的计算处理装置执行预定处理过程来实现的信息处理方法,所述处理过程包括步骤:获得捕获图像,产生用于促使在获得的捕获图像内的对象改变状态的图形图像;并且控制把所述图形图像发射到所述对象上。
依照本发明另一实施例,提供了一种用于使计算机作为以下部件起作用的程序:图像获得部件,用于获得捕获图像;产生部件,用于产生促使在由图像获得部件获得的捕获图像内的对象改变状态的图形图像;和发射控制部件,用于控制把由产生部件产生的图形图像发射到所述对象上。
如上所述,依照本发明,可以提供用于促使对象改变状态的信息。
附图说明
图1是用于图示依照本发明一个实施例的信息处理设备的外部视图;
图2是用于图示依照该实施例的信息处理设备的硬件配置图;
图3是用于图示利用依照该实施例的信息处理设备实现的使用者体验例子的说明图;
图4是用于图示依照该实施例的信息处理设备的功能框图;
图5是用于图示依照该实施例的信息处理设备的操作的流程图;
图6是用于图示依照使用者操作产生图形图像的例子的说明图;
图7是用于图示当摄影区域和发射区域不同时的显示例子的说明图;
图8是用于图示使用者操作和产生的图形图像的一个例子的说明图;
图9是用于图示使用者操作和产生的图形图像的另一例子的说明图;
图10是图示了使用者操作和产生的图形图像的另一例子的说明图;
图11是图示了使用者操作和产生的图形图像的另一例子的说明图;
图12是图示了使用者操作和产生的图形图像的另一例子的说明图;
图13是图示了使用者操作和产生的图形图像的另一例子的说明图;
图14是图示了使用者操作和产生的图形图像的另一例子的说明图;
图15是图示了使用者操作和产生的图形图像的另一例子的说明图;
图16是图示了产生校正的图形图像的一个例子的说明图;
图17是图示了产生校正的图形图像的另一例子的说明图;
图18是图示了根据分析结果产生的图形图像的一个例子的说明图;
图19是图示了根据分析结果产生的图形图像的另一例子的说明图;
图20是图示了根据分析结果产生的图形图像的另一例子的说明图;和
图21是图示了根据分析结果产生的图形图像的另一例子的说明图。
具体实施方式
以下,将参考附图详细地描述本发明的优选实施例。注意,在此说明书和附图中,利用相同的附图标记标示具有基本上相同的功能和结构的结构元件,并且省略了对这些结构元件的重复解释。
下面的解释将依照下列次序进行。
1.概述
2.功能配置
3.操作
4.依照使用者操作产生图形图像的例子
5.依照分析结果自动产生图形图像的例子
<1.概述>
首先,将参考图1解释本实施例的概述。依照本实施例的信息处理设备10主要包括用于捕获对象的图像的摄像装置(照相机)、用于把视频图像投射到所述对象上的发射装置(投影仪)、用于显示由所述照相机拍摄的捕获图像的显示装置(显示器)等。如图1所示,信息处理设备10的一个面(正面)配置有显示器11。信息处理设备10的其它面(背面)配置有照相机镜头12和投影仪镜头13。在以下解释中,包括照相机镜头12的照相机被称为摄像装置12或照相机12。包括投影仪镜头13的投影仪被称为发射装置13或投影仪13。
在信息处理设备10中,照相机12和投影仪13被布置在信息处理设备10的外壳的固定位置上。在显示器11上显示由照相机12拍摄的对象的图像。投影仪13把投影图像投射到对象上。然后,显示器11显示其上投射有投影图像的对象。
随后,将参考图2解释信息处理设备10的硬件配置。图2是用于图示信息处理设备10的硬件配置的框图。如图2所示,信息处理设备10包括显示装置(显示器)11、摄像装置(照相机)12、发射装置(投影仪)13、CPU 14、输入装置15、RAM(随机存取存储器)16、非易失性存储器17等。
CPU 14作为计算处理部件和控制装置起作用,以便依照各种程序控制信息处理设备10中的整个操作。CPU 14可以是微处理器。RAM 16临时存储在CPU 14执行期间使用的程序以及在执行期间根据需要改变的参数等。这些通过由CPU总线等构成的主机总线互相连接。非易失性存储器17存储由CPU 14使用的程序、计算参数等。非易失性存储器17例如可以是ROM(只读存储器)、闪速存储器等。
显示装置11是用于输出信息的输出装置的例子。显示装置11例如可以是液晶显示器(LCD)装置和OLED(有机发光二极管)装置。
摄像装置12具有用于使CCD把通过摄像镜头获得的光转换为电信号以便把模拟信号转换为数字信号的功能,从而捕获对象的图像。在显示装置11上显示由摄像装置12拍摄的图像。
发射装置13具有通过发射镜头把光发射到对象上的功能。发射装置13依照CPU 14的控制把投影图像投射到对象上。
输入装置15例如包括使用者用于输入信息的输入装置,诸如触摸面板、按钮、开关和手柄,还包括用于根据使用者输入产生输入信号并且把所述输入信号输出到CPU 14的输入控制电路。在下面的解释中,输入装置15被称为触摸面板15,这是因为此解释主要涉及所述输入装置15是在显示装置11上层压的触摸面板的情况。
随后,将参考图3解释利用信息处理设备10实现的使用者体验的例子。图3是用于图示利用信息处理设备10实现的使用者体验例子的说明图。
在此说明书和附图中,基本上起相同作用的元件可以利用借助连字符成为相同附图标记的后缀的不同数字来标示而加以区分。例如,根据需要,起基本上相同作用的多个元件通过利用诸如对象20-1、对象20-2和对象20-3之类的附图标记来标示而加以区分。然而,当不必特别区分起基本上相同作用的元件时,它们利用相同的附图标记来标示。例如,当不必特别区分诸如对象20-1和对象20-2之类的元件时,它们中的每个被简称为对象20。
信息处理设备10产生图形图像102,用于促使对象20改变在捕获图像202中的对象状态,即对象20的布置、面部表情、姿势,并且使用发射装置13把图形图像102投射到对象20上。对象可以看见图形图像102以便发现请求对象执行的状态变化。据此,对象20依照图形图像102改变状态,例如移动、改变他/她的面部表情或者改变姿势。从而,可以把对象20的状态改变为请求的状态。
在这种情况下,当投射的图形图像102是随时间改变的动态图形图像时,与使用静态图形图像来促使对象20改变状态的情况相比较,对象20可以依照更准确的方式发现信息的内容。例如,在图3的例子中,当请求对象20整体移到右侧时,使用包括一系列多个小型指向右的箭头的图形图像102来促使所述对象20改变状态。在此场合下,投射动态图形图像102以致构成图形图像102的一些小型箭头丢失,并且丢失的小型箭头的位置随时间流逝连续地在右方向上改变。在这种情况下,与简单地投射包括静态右向箭头的静态图形图像的情况相比较,对象20可以直观地理解箭头的方向。
请求的状态例如可以是由信息处理设备10的操作者所请求的状态。在这种情况下,当操作者观看在显示装置11上显示的捕获图像时,操作者使用触摸面板15输入信息以便产生用于把对象20引导到所请求状态的图形图像。或者,请求的状态例如可以是在信息处理设备10中预先存储的优选状态。例如,当信息处理设备10预先存储关于捕获图像的优选构图的信息时,所述信息处理设备10分析所述捕获图像,由此产生用于促使对象改变到状态的图形图像,使得所述构图变得更接近于优选构图。或者,在信息处理设备10中预先存储的优选状态并不限于构图,并且可以是面部表情。
在上面已经解释了依照本实施例的信息处理设备10和利用所述信息处理设备10实现的使用者体验的概述。随后,参考图4将解释用于实现这些功能的信息处理设备10的功能配置。
<2.功能配置>
图4是用于图示信息处理设备10的CPU 14的功能框图。信息处理设备10的CPU 14主要包括图像获得部件141、分析部件142、产生部件143、发射控制部件144、操作信息获得部件145和显示控制部件146的功能。
图像获得部件141通过控制摄像装置12来获得捕获图像。图像获得部件141向分析部件142和显示控制部件146提供这样获得的捕获图像。
分析部件142分析由图像获得部件141获得的捕获图像。在信息处理设备10的操作模式被设置为其中使用图形图像向对象提供信息的辅助模式的情况下,分析部件142执行分析,并且在辅助模式中进一步选择用于借助分析来自动产生图形图像的自动分析模式。当操作模式不是自动分析模式时,分析部件142在不执行捕获图像分析的情况下向产生部件143提供所述捕获图像。
在这种情况下,将解释在自动分析模式的操作期间分析部件142的功能。分析部件142依照预定分析准则分析捕获图像,由此向产生部件143输出分析结果。分析结果包括如下信息:捕获图像中的对象20的状态依照预定的分析准则来看是否处于优选状态,以及在捕获图像中的对象20的状态与优选状态之间的差异度。稍后将使用具体例子详细地解释由分析部件142执行的具体分析内容。
产生部件143产生用于促使在由图像获得部件141获得的捕获图像中的对象改变状态的图形图像。在此场合下,产生部件143产生用于促使对象达到更接近于期望状态的状态的图形图像。当信息处理设备10在分析模式下操作时,产生部件143根据由分析部件142产生的分析结果来产生图形图像。当信息处理设备10以辅助模式中依照操作者的输入来产生图形图像的输入模式来操作时,产生部件143根据由操作信息获得部件145提供的操作信息来产生图形图像。即便在输入模式的操作中,在需要使图形图像不仅基于操作信息而且基于分析结果的情况下,在使分析部件142分析捕获图像时,产生部件143可以根据操作信息和分析信息来产生图形图像。稍后将解释在这种情况下的具体例子。然后,产生部件143向发射控制部件144和显示控制部件146提供所产生的图形图像。
此外,产生部件143可以根据与对所产生的图形图像执行的操作有关的信息,通过校正投射的图形图像来产生校正的图形图像。在此场合下,例如,关于操作的信息可以是与由操作者使用触摸面板15对在显示装置11上显示的图形图像执行的操作有关的信息。或者,关于操作的信息可以是与由对象对通过发射装置13投射到对象20上的图形图像执行的操作有关的信息。
发射控制部件144控制用于投射图形图像的发射装置13。发射控制部件144控制把由产生部件143产生的图形图像或校正的图形图像投射到对象20上。例如,当发射控制部件144从操作信息获得部件145获得用于表明摄像装置12的快门按钮被按下的信息时,所述发射控制部件144可以停止图形图像的发射。或者,当由分析部件142提供的分析结果表明对象20的状态达到请求的状态时,发射控制部件144可以停止图形图像的发射。
操作信息获得部件145获得关于在信息处理设备10上执行的操作的操作者操作信息。操作信息获得部件145获得关于利用输入装置15执行的操作的操作者操作信息。在这种情况下,输入装置15例如可以是触摸面板。输入装置15可以是诸如快门按钮之类的输入装置。
显示控制部件146控制显示装置11的屏幕显示。显示控制部件146通过把由产生部件143提供的图形图像放到由图像获得部件141获得的捕获图像上来产生显示图像,并且使显示装置11显示所述显示图像。
在上面已经解释了信息处理设备10的CPU 14的功能配置。实际上通过使CPU 14从诸如RAM 16之类的存储介质中读取控制程序以及分析并执行所述程序来实现在上面解释的各部件的这些功能,所述存储介质用于存储包括用于实现这些功能的处理过程的控制程序。随后,将参考图5的流程图解释由以上解释的各功能部件执行的信息处理设备10的操作。
<3.操作>
图5是用于图示在辅助模式中信息处理设备10的操作流程图。首先,信息处理设备10的CPU 14确定信息处理设备10的操作模式是否被设置为辅助模式(S102)。当在步骤S102的确定中确定操作模式不是辅助模式时,终止处理,这是由于这里解释的操作与除辅助模式之外的那些模式无关。另一方面,当操作模式被确定为辅助模式时,CPU 14随后确定发射装置13是否正在操作(S104)。
当在步骤S104的确定中发射装置13被确定为没有操作时,发射装置开始发射(S106),并且随后图像获得部件141从摄像装置12获得捕获图像(S108)。然后,当图像获得部件141向分析部件142和显示控制部件146提供这样获得的捕获图像时,所述显示控制部件146使显示装置11显示所接收的捕获图像。另一方面,分析部件142确定信息处理设备10的操作模式是否是其中依照操作者操作信息来产生投射的图形图像的辅助模式的输入模式(S110)。在本实施例中,辅助模式的操作模式包括输入模式和分析模式。
当在步骤S110中操作模式被确定为输入模式时,CPU 14随后控制信息处理设备10的操作以便处于等待操作者的操作输入的状态中(S112)。然后,根据操作者操作信息来确定它是否是需要分析捕获图像的操作(S114)。当在步骤S114的确定中确定是需要分析捕获图像的操作时,产生部件143使分析部件142分析所述捕获图像(S116)。当在步骤S114的确定中确定不是需要分析的操作时,省略步骤S116的分析处理。另一方面,当在步骤S110中操作模式被确定为不是输入模式而被确定是分析模式时,省略步骤S112和步骤S114的操作,并且在步骤S116中分析部件142分析捕获图像。
然后,产生部件143随后根据操作信息和分析信息中的至少一个来确定是否存在要提示给对象的信息(S118)。当在步骤S118的确定中确定不存在要提示的信息时,CPU 14返回到步骤S108以便获得捕获图像。另一方面,当在步骤S118的确定中确定存在要提示给对象的信息时,产生部件143根据操作信息和分析信息中的至少一个来产生要投射到对象20上的图形图像(S120)。
然后,发射控制部件144使发射装置13投射在步骤S120中由产生部件142产生的图形图像(S122)。对象20观看投射的图形图像,并且改变状态以便达到更接近于所请求状态的状态。更具体地说,状态的改变包括诸如移动对象20站的位置、改变面部表情和改变姿势之类的行为。
然后,CPU 14确定操作者是否已经执行要拍摄相片的操作,诸如向下半按快门按钮以便调整聚焦(S124)。当步骤S124的确定结果表明快门按钮尚未被按下时,CPU 14再次返回到步骤S108以便获得捕获图像。另一方面,当步骤S124的确定结果表明快门按钮已经被按下时,发射控制部件144停止图形图像的投射(S126)以便使摄像装置12拍摄相片(S128)。在步骤S128中拍摄相片之后,CPU 14返回到步骤S102的确定以便重复以上操作,直到关闭辅助模式。
在图5的例子中,当检测到快门按钮被按下时停止图形图像的投射。然而,用于停止投射图形图像的确定并不限于这种例子。例如,当由分析部件142提供的分析结果表明对象20的状态达到请求的状态时,发射控制部件144可以停止图形图像的投射。或者,发射控制部件144可以根据由操作者或对象执行的停止操作来停止图形图像的投射。
在上面已经解释了信息处理设备10的操作。随后,将参考图6到17解释由信息处理设备10的产生部件143产生的图形图像的具体例子。在图6到15中所示出的图形图像是依照操作者操作信息产生的图形图像的例子。图16和17是用于校正产生的图形图像的操作的例子。
<4.依照使用者操作产生图形图像的例子>
信息处理设备10依照操作者操作信息产生图形图像。在这种情况下,当预先使针对触摸面板15执行的操作和在那时产生的图形图像关联时,可以根据操作信息产生所述图形图像。可以依照各种方式定义此关联。例如,下面示出了关联的例子。
首先,将说明图6的例子。假定当操作者观看在显示装置11的显示屏幕上显示的捕获图像204时所述操作者期望对象20移到右侧的情况。在这种情况下,操作者可以通过在触摸面板15上把手指移动到右侧来产生图形图像,以便告诉对象20移到右侧。在此场合下,产生部件143产生在与操作者已经在触摸面板上移动手指的方向相同的方向上移动的图形图像。此外,产生部件143产生图形图像,使得所述图形图像被投射到由操作者在触摸面板上表明的位置上。
当在此场合下触摸面板上的显示范围和发射装置11的发射范围被同步并且一致时,操作者可以把图形图像投射到由操作者在所述触摸面板上表明的位置。当如图7所示显示范围51(在这种情况下这也是摄影范围)大于发射范围52时,在显示装置11的屏幕上示出所述发射范围52,使得操作者可以发现屏幕上的可操作范围。
如图8所示,在与图6相同的状态下,操作者还可以清楚地表明预计对象移动到的目的地。在触摸面板15上,操作者向右移动手指,并且此后所述操作者执行在手指移动的终点绘制竖直线的操作。于是,在包括右向箭头的图形图像106的末端产生包括竖直条的图形图像108。
将考虑另一情况。在这种情况下,如图9所示,操作者观看在显示装置11的显示屏幕上显示的捕获图像208,并且所述操作者发现对象20-1和对象20-2在屏幕的相对端而相互站得太远。操作者想要对象20-1和对象20-2移得彼此更加接近。操作者在触摸面板上执行使两个手指彼此相向移动的操作(收缩操作),使得产生包括指向对应于显示装置11的屏幕中心点的位置的箭头的图形图像,并且可以把所产生的图形图像搜射到对象上。在这种情况下产生的图形图像不限于指向对应于屏幕中心的位置的箭头。例如,如图10所示,可以把包括随时间推移逐渐缩小的圈的图形图像112投射到对象上,以促使所述对象移到中心。在此场合下,在显示图形图像112-3之后,可以再次返回显示图形图像112-1,使得重复地投射这些图形图像。
将考虑另一情况。与图9和10的例子对比,如图11所示操作者观看在显示装置11的显示屏幕上显示的捕获图像210,并且所述操作者想要对象20彼此移开而站在彼此远离的位置。在这种情况下,操作者在触摸面板15上执行把手指彼此移开的操作(扩大操作)。然后,产生包括从显示装置11的屏幕中心指向外侧的箭头的图形图像,并且可以把所产生的图形图像投射到对象上。或者,尽管未在图中示出,不过可以把包括随时间推移逐渐放大的圈的图形图像投射到对象上,像图10一样。
将考虑另一情况。在这种情况下,操作者想要对象20-1和对象20-2交换站立的位置。在这种情况下,如图12所示,操作者在触摸面板15上用手指着对象20-1和对象20-2并且执行交换手指位置的操作。然后,把用于促使对象20-1移到右侧的图形图像118投射到当从操作者看来站立在左侧的对象20-1上。把用于促使对象20-2移到左侧的图形图像116投射到当从操作者看来站立在右侧的对象20-2上。
将考虑另一情况。在这种情况下,如图13所示,操作者观看在显示装置11的显示屏幕上显示的捕获图像214,并且操作者发现除对象20之外在屏幕中还出现了一个陌生人30。在这种情况下,操作者执行在显示屏幕上显示的捕获图像214中利用擦除器擦掉陌生人30的操作。然后,图形图像120被投射到陌生人30上以便告诉陌生人移开。
将考虑另一情况。在这种情况下,如图14所示,操作者观看在显示装置11的显示屏幕上显示的捕获图像216,并且操作者发现除对象20-1和对象20-2之外在屏幕中还出现了陌生人30。在这种情况下,操作者在触摸面板15执行利用手指画出围绕对象20-1和对象20-2的面部的圈的操作。然后,图形图像122被投射到对象20-1和对象20-2上以便促使他们彼此移得更近。图形图像123被投射到陌生人30-1和陌生人30-2上以便告诉他们移开。在这种情况下,操作者执行用于在对象20的面部周围画圈的操作。然而,所述操作并不局限于此。例如,操作者可以通过在触摸面板上触摸对象20的面部部分来指定对象。
或者,如图15所示,操作者可以通过利用工具箱选择预先准备的图形图像来执行输入。例如,当操作者想要改变对象20的面部表情时,更具体地说,当操作者想要拍摄正在微笑的对象20的相片时,所述操作者触摸在显示装置11的显示屏幕上显示的工具箱中的图标402,并且把所述图标402拖放到接近于对象20面部的位置,使得接近于所述对象20的面部投射图形图像124。在此场合下,可以采用依照对象20的面部表情的颜色来投射图形图像124。例如,当对象20微笑的程度少时,用冷色投射所述图像。当对象20更接近微笑时,可以用暖色来投射图像。分析部件142分析捕获图像,以便执行这种颜色调整。
此外,可以组合在此工具箱中预先准备的图形图像,来产生要投射的图形图像。或者,可以准备界面以便允许操作者制作工具箱中的图形图像模板。
在上面已经解释了根据使用者操作信息产生的图形图像的例子。随后,将解释用于调整产生的图形图像的操作。例如,图16是用于调整在图8的例子中产生的图形图像106和图形图像108的例子。例如,如左图所示,依照由使用者在触摸面板15上执行的操作来产生图形图像106和图形图像108。操作者触摸图形图像108并且把所述图形图像108拖放到左侧。然后,依照放下图形图像108的位置来改变图形图像106的长度。应当注意,例如,可以在操作者把模式切换为调整模式之后执行此调整操作。或者,可以根据操作者手指的位置来自动地区分给定操作是已产生的图形图像的调整操作还是用于产生新的图形图像的输入操作。
例如,图17是用于调整在图10的例子中产生的图形图像112的例子。例如,如中间的图所示,操作者执行用于缩放在显示装置11的显示屏幕上显示的捕获图像222上显示的图形图像112-1的操作以便调整所述图形图像112-1的尺寸。例如,图17示出了用于减小圈尺寸的操作。然后,把已经依照操作者执行的操作调整了其尺寸的校正的图形图像112-2投射到对象20上。
<5.依照分析结果自动产生图形图像的例子>
在上面已经解释了根据使用者操作信息产生图形图像的例子。随后,将解释根据由分析部件142提供的捕获图像的分析结果来自动产生图形图像的例子。
图18是用于分析对象20的面部表情的例子。当对象20没有微笑时,用暗色来投射图形图像126-1。当对象20微笑时,可以用较亮的颜色来投射图形图像126-2。在此场合下,分析部件142可以使用可用的面部识别技术和笑脸检测技术。
图19是用于检测对象的出帧(frame-out)的例子。当存在对象20出了摄影区域的可能时,把示出移动方向的图形图像投射到对象20上。
图20是用于检测在其他人后面的面部的例子。当对象20-1的面部在另一对象20-2后面而无法被看见时,图形图像130被投射到对象20-1上以便促使对象20-1在一个方向上移动面部位置,使得所述对象20-1的面部不在其它对象20-2、20-3和20-4的后面。在此场合下,分析部件142依照可用的面部识别技术来检测对象20的面部,并且当检测的面部无法被看见时,分析部件142确定该面部在其他人后面。
图21是用于把在过去拍摄的相片220投射到对象上的例子,使得考虑作为参考的构图信息来促使对象移动。在这种情况下,分析部件142可以检测在过去拍摄的图片220和对象的当前位置之间的差异,并且产生部件143可以产生包括箭头的图形图像,所述箭头表明消除由所述分析部件142检测的差异的方向。
当可以根据由分析部件142提供的分析结果来识别与所期望状态的差异时,此信息可以用来确定图形图像的投射的停止。在图5的流程图中,当发射控制部件144检测到操作者向下半按快门按钮时,发射控制部件144停止图形图像的投射。然而,本发明并不局限于此。例如,当分析信息表明不再与期望的状态具有任何差异或者所述差异非常小时,可以停止图形图像的投射。例如,在图18的例子中,当对象20被确定为微笑时,可以停止图形图像的投射。在图20的例子中,当正确地识别所有人的面部时,可以停止图形图像的投射。
那些本领域技术人员应当理解,取决于设计要求及其它因素,可以进行各种修改、组合、子组合和改变,只要它们落入所附权利要求或其等同物的范围内。
例如,在以上实施例中,信息处理设备10是包括摄像装置12和发射装置13的设备。然而,本发明并不局限于此。例如,信息处理装置10可以从分开的摄像装置获得捕获图像并且产生要投射的图形图像,并且此后可以把要投射的图形图像输出到分开的发射装置。
在此说明书中,对于在流程图中描述的步骤,应当理解,以依照所描述次序的时间顺序执行的处理不必依照所述时间顺序处理,而是包括并行或个别执行的处理。即便在依照时间顺序处理的步骤中,也应当理解在一些情况下可以根据需要改变所述次序。
本申请包含与在2010年3月15日向日本专利局提交的日本在先专利申请JP 2010-057817中公开的主题相关的主题,在此通过引用结合其全部内容。

Claims (8)

1.一种信息处理设备,包括:
图像获得部件,用于获得捕获图像;
产生部件,用于产生促使在由图像获得部件获得的捕获图像内的对象改变状态的图形图像;和
发射控制部件,用于控制把由所述产生部件产生的图形图像发射到所述对象上。
2.如权利要求1所述的信息处理设备,进一步包括:
分析部件,用于分析由所述图像获得部件获得的捕获图像,
其中所述产生部件根据由所述分析部件提供的分析结果来产生所述图形图像。
3.如权利要求2所述的信息处理设备,进一步包括:
操作信息获得部件,用于获得与由操作者执行的操作有关的信息,
其中所述产生部件根据操作信息产生所述图形图像。
4.如权利要求3所述的信息处理设备,
其中所述产生部件根据与对产生的图形图像执行的操作有关的信息来产生校正的图形图像,并且
所述发射控制部件控制把所述校正的图形图像发射到所述对象上。
5.如权利要求2所述的信息处理设备,
其中所述分析部件输出包括差异信息的分析结果,所述差异信息表示在期望的状态和所述捕获图像中的对象的状态之间的差异,并且
所述产生部件根据所述差异信息产生用于促使所述对象改变状态的图形图像,使得所述对象达到更接近于期望状态的状态。
6.如权利要求5所述的信息处理设备,
其中当确定差异信息等于或小于阈值时,所述发射控制部件停止所述图形图像的发射。
7.一种通过使信息处理设备的计算处理装置执行预定处理过程来实现的信息处理方法,所述处理过程包括步骤:
获得捕获图像;
产生用于促使在获得的捕获图像内的对象改变状态的图形图像;并且
控制把所述图形图像发射到所述对象上。
8.一种用于使计算机作为以下部件起作用的程序:
图像获得部件,用于获得捕获图像;
产生部件,用于产生促使在由所述图像获得部件获得的捕获图像内的对象改变状态的图形图像;和
发射控制部件,用于控制把由所述产生部件产生的图形图像发射到所述对象上。
CN2011100577104A 2010-03-15 2011-03-08 信息处理设备、信息处理方法和程序 Pending CN102196176A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010057817A JP5648298B2 (ja) 2010-03-15 2010-03-15 情報処理装置、情報処理方法、およびプログラム
JP2010-057817 2010-03-15

Publications (1)

Publication Number Publication Date
CN102196176A true CN102196176A (zh) 2011-09-21

Family

ID=44559614

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2011100577104A Pending CN102196176A (zh) 2010-03-15 2011-03-08 信息处理设备、信息处理方法和程序

Country Status (3)

Country Link
US (1) US8531576B2 (zh)
JP (1) JP5648298B2 (zh)
CN (1) CN102196176A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102438430A (zh) * 2011-09-29 2012-05-02 东莞汉旭五金塑胶科技有限公司 附热管散热器及其散热片
CN103365400A (zh) * 2012-03-26 2013-10-23 联想(北京)有限公司 一种手势识别操作的反馈方法、装置
CN104243777A (zh) * 2013-06-12 2014-12-24 索尼公司 显示控制装置、显示控制方法、程序和图像拾取装置
CN106134190A (zh) * 2013-12-27 2016-11-16 索尼公司 显示控制装置、显示控制方法和程序
CN108027903A (zh) * 2015-11-10 2018-05-11 日本电气株式会社 信息处理设备、控制方法和程序

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013214858A (ja) * 2012-04-02 2013-10-17 Sony Corp 撮像装置、撮像装置の制御方法およびコンピュータプログラム
US9823824B2 (en) * 2013-08-19 2017-11-21 Kodak Alaris Inc. Context sensitive adaptable user interface
KR20150027449A (ko) * 2013-09-03 2015-03-12 에스케이하이닉스 주식회사 이미지센서 및 그의 제조 방법
US9497384B2 (en) * 2013-11-26 2016-11-15 Kathleen Panek-Rickerson Template photography and methods of using the same
CN105120144A (zh) * 2015-07-31 2015-12-02 小米科技有限责任公司 图像拍摄方法和装置
JP6790223B2 (ja) * 2017-02-24 2020-11-25 ソニーモバイルコミュニケーションズ株式会社 情報処理装置、情報処理方法、及びプログラム
WO2019064804A1 (ja) * 2017-09-27 2019-04-04 パナソニックIpマネジメント株式会社 荷物認識装置、荷物仕分けシステムおよび荷物認識方法
CN114327175B (zh) * 2020-09-29 2022-10-28 荣耀终端有限公司 一种信息分享方法及设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006106388A (ja) * 2004-10-06 2006-04-20 Olympus Corp 撮影範囲投影表示装置及び電子機器
JP2008129120A (ja) * 2006-11-17 2008-06-05 Nikon Corp カメラ
CN101370087A (zh) * 2007-04-02 2009-02-18 三星Techwin株式会社 数字图像处理装置中提供构图信息的方法和设备

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPO918697A0 (en) * 1997-09-15 1997-10-09 Canon Information Systems Research Australia Pty Ltd Enhanced information gathering apparatus and method
JP3863327B2 (ja) * 1999-03-15 2006-12-27 富士フイルムホールディングス株式会社 構図アドバイス機能付きディジタル・スチル・カメラおよびその動作制御方法
JP4521071B2 (ja) * 1999-03-15 2010-08-11 富士フイルム株式会社 構図補助機能付きディジタル・スチル・カメラおよびその動作制御方法
JP4242533B2 (ja) * 1999-12-27 2009-03-25 オリンパス株式会社 バーコード読取装置
JP2002281356A (ja) * 2001-03-21 2002-09-27 Minolta Co Ltd 撮影装置、情報提供装置及び情報提供システム
JP4314567B2 (ja) * 2003-12-04 2009-08-19 カシオ計算機株式会社 撮影装置および撮影プログラム
JP2007027945A (ja) * 2005-07-13 2007-02-01 Konica Minolta Holdings Inc 撮影情報提示システム
JP2007243634A (ja) * 2006-03-09 2007-09-20 Seiko Epson Corp 画像生成装置及び画像生成装置の撮影方法
JP2008244804A (ja) * 2007-03-27 2008-10-09 Fujifilm Corp 撮像装置及び撮像方法並びに制御プログラム
JP4973427B2 (ja) * 2007-10-05 2012-07-11 株式会社ニコン プロジェクタ付きカメラ
JP4894712B2 (ja) * 2007-10-17 2012-03-14 ソニー株式会社 構図判定装置、構図判定方法、プログラム
JP4904243B2 (ja) * 2007-10-17 2012-03-28 富士フイルム株式会社 撮像装置及び撮像制御方法
US8059183B2 (en) * 2007-11-16 2011-11-15 Canon Kabushiki Kaisha Image sensing apparatus and method for controlling the same
JP5040760B2 (ja) * 2008-03-24 2012-10-03 ソニー株式会社 画像処理装置、撮像装置、表示制御方法およびプログラム
US20110096137A1 (en) * 2009-10-27 2011-04-28 Mary Baker Audiovisual Feedback To Users Of Video Conferencing Applications

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006106388A (ja) * 2004-10-06 2006-04-20 Olympus Corp 撮影範囲投影表示装置及び電子機器
JP2008129120A (ja) * 2006-11-17 2008-06-05 Nikon Corp カメラ
CN101370087A (zh) * 2007-04-02 2009-02-18 三星Techwin株式会社 数字图像处理装置中提供构图信息的方法和设备

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102438430A (zh) * 2011-09-29 2012-05-02 东莞汉旭五金塑胶科技有限公司 附热管散热器及其散热片
CN103365400A (zh) * 2012-03-26 2013-10-23 联想(北京)有限公司 一种手势识别操作的反馈方法、装置
CN104243777A (zh) * 2013-06-12 2014-12-24 索尼公司 显示控制装置、显示控制方法、程序和图像拾取装置
CN104243777B (zh) * 2013-06-12 2018-12-14 索尼公司 显示控制装置、显示控制方法和图像拾取装置
CN106134190A (zh) * 2013-12-27 2016-11-16 索尼公司 显示控制装置、显示控制方法和程序
CN108027903A (zh) * 2015-11-10 2018-05-11 日本电气株式会社 信息处理设备、控制方法和程序
CN108027903B (zh) * 2015-11-10 2021-11-23 日本电气株式会社 信息处理设备、控制方法和程序

Also Published As

Publication number Publication date
JP5648298B2 (ja) 2015-01-07
US8531576B2 (en) 2013-09-10
US20110221918A1 (en) 2011-09-15
JP2011193240A (ja) 2011-09-29

Similar Documents

Publication Publication Date Title
CN102196176A (zh) 信息处理设备、信息处理方法和程序
US10649313B2 (en) Electronic apparatus and method for controlling same
WO2019033957A1 (zh) 交互位置确定方法、***、存储介质和智能终端
CN106462240A (zh) 用于提供触觉反馈以辅助捕获图像的***和方法
CN108650457A (zh) 自动拍照方法、装置、存储介质及移动终端
US20150331491A1 (en) System and method for gesture based touchscreen control of displays
CN111601039A (zh) 视频拍摄方法、装置及电子设备
EP2648402A1 (en) Photography control method, photography control device, and photographic device
CN110268703A (zh) 成像方法和成像控制装置
CN112492215B (zh) 拍摄控制方法、装置和电子设备
CN112738402A (zh) 拍摄方法、装置、电子设备及介质
JP2012238293A (ja) 入力装置
CN112333382B (zh) 拍摄方法、装置及电子设备
CN111669495B (zh) 拍照方法、拍照装置和电子设备
CN112954214A (zh) 拍摄的方法、装置、电子设备及存储介质
US10216381B2 (en) Image capture
US8970479B1 (en) Hand gesture detection
CN112486394A (zh) 信息处理方法、装置、电子设备及可读存储介质
CN107797748B (zh) 虚拟键盘输入方法和装置及机器人
JP2011095985A (ja) 画像表示装置
CN112788244B (zh) 拍摄方法、拍摄装置和电子设备
US8866921B2 (en) Devices and methods involving enhanced resolution image capture
CN112437231B (zh) 图像拍摄方法和装置、电子设备及存储介质
CN103379263A (zh) 摄像装置以及摄像处理方法
CN113260942A (zh) 手持云台控制方法、手持云台、***及可读存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C12 Rejection of a patent application after its publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20110921