CN111294507A - 拍摄控制装置、拍摄***和拍摄控制方法 - Google Patents
拍摄控制装置、拍摄***和拍摄控制方法 Download PDFInfo
- Publication number
- CN111294507A CN111294507A CN201911157791.8A CN201911157791A CN111294507A CN 111294507 A CN111294507 A CN 111294507A CN 201911157791 A CN201911157791 A CN 201911157791A CN 111294507 A CN111294507 A CN 111294507A
- Authority
- CN
- China
- Prior art keywords
- image
- photographing
- index
- degree
- evaluation value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000011156 evaluation Methods 0.000 claims abstract description 79
- 238000004458 analytical method Methods 0.000 claims abstract description 41
- 238000004364 calculation method Methods 0.000 claims abstract description 36
- 238000001514 detection method Methods 0.000 claims abstract description 22
- 230000000694 effects Effects 0.000 claims description 54
- 230000006872 improvement Effects 0.000 claims description 49
- 238000012545 processing Methods 0.000 description 50
- 230000008921 facial expression Effects 0.000 description 30
- 238000010586 diagram Methods 0.000 description 26
- 230000008569 process Effects 0.000 description 26
- 238000010191 image analysis Methods 0.000 description 21
- 230000001133 acceleration Effects 0.000 description 18
- 238000003384 imaging method Methods 0.000 description 18
- 230000035900 sweating Effects 0.000 description 16
- 230000006870 function Effects 0.000 description 13
- 230000005540 biological transmission Effects 0.000 description 10
- 230000000875 corresponding effect Effects 0.000 description 10
- 230000008451 emotion Effects 0.000 description 7
- 230000001965 increasing effect Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000036772 blood pressure Effects 0.000 description 5
- 230000001276 controlling effect Effects 0.000 description 5
- 238000004091 panning Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 210000004243 sweat Anatomy 0.000 description 2
- 206010026749 Mania Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005281 excited state Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00127—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
- H04N1/00132—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture in a digital photofinishing system, i.e. a system where digital photographic images undergo typical photofinishing processing, e.g. printing ordering
- H04N1/00183—Photography assistance, e.g. displaying suggestions to the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
本发明涉及拍摄控制装置、拍摄***和拍摄控制方法。提供了一种拍摄控制装置,其能够在适当的定时处存储要存储的图像。分析结果获取单元获取通过由拍摄装置拍摄对象而获得的图像的分析结果。状态获取单元获取通过由传感器检测所述对象的状态而获得的检测结果。指标确定单元基于所述图像的分析结果和所述对象的状态的检测结果、针对包括与所述对象相关的指标的多个指标中的每个指标来确定这些指标的程度。估计值计算单元使用所述指标程度来计算用于估计所述图像的存储值的估计值。当所述估计值超过预定第一阈值时图像存储控制单元进行控制以存储图像。
Description
相关申请的交叉引用
于2018年12月7日提交的日本专利申请第2018-229813号的公开内容,包括说明书、附图和摘要,通过引用全部并入本文。
技术领域
本发明涉及一种拍摄控制装置、拍摄***和拍摄控制方法。
背景技术
为了在诸如相机的拍摄装置捕获对象的图像时节省用于存储图像的装置的存储容量,存在一种用于控制捕获图像的定时的技术。关于该技术,日本未经审查的专利申请公开2008-288945(专利文献1)公开了一种视频信息处理装置。根据专利文献1的视频信息处理装置通过在摄像机启动时或者当对象的位置丢失时使用无线电标签检测对象的位置来搜索对象。此外,根据专利文献1的视频信息处理装置通过识别对象在检测到面部时执行拍摄和记录,并且在未检测到面部时停止拍摄和记录。
日本未经审查的专利申请公开2017-104598(专利文献2)公开了一种拍摄***,包括拍摄装置和用于检测对象的运动状态的运动状态检测装置。根据专利文献2的运动状态检测装置输出拍摄控制信号,用于根据检测到的检测信号等是否满足预定拍摄条件来控制拍摄装置中的拍摄处理。拍摄装置基于拍摄控制信号开始或结束拍摄处理。
发明内容
即使在控制拍摄的定时的情况下,当拍摄对象时,也希望拍摄和存储要存储的图像,即包括感兴趣的关键时刻的图像。另一方面,如果拍摄和存储图像的定时不合适,则要存储的图像可能无法存储。这里,根据专利文献1的技术中,由于仅在检测到面部时执行拍摄和记录并且如果未检测到面部则停止拍摄和记录,因此担心不能执行对包括感兴趣的关键时刻的图像的拍摄和记录。此外,在专利文献2中,由于仅根据运动状态开始或结束拍摄处理,因此存在不能拍摄包括感兴趣的关键时刻的图像的可能性。
其它目的和新颖特征将从本说明书和附图的描述中变得显而易见。
根据一个实施例,一种拍摄控制装置,包括:分析结果获取单元,被配置成获取通过拍摄装置拍摄对象而获得的图像的分析结果;状态获取单元,被配置成获取通过传感器检测所述对象的状态而获得的检测结果;指标确定单元,被配置成针对与所述对象相关的多个指标中的每个指标、基于所述图像的分析结果和所述对象的状态的检测结果来确定指标程度;估计值计算单元,被配置成使用所述指标程度来计算用于估计所述图像的存储值的估计值,以及图像存储控制单元,被配置成当所述估计值超过预定第一阈值时进行控制以存储所述图像。
根据一个实施例,一种拍摄控制***,包括:至少一个拍摄装置,拍摄至少一个对象;至少一个传感器,检测所述至少一个对象的状态;以及拍摄控制装置,控制由所述至少一个拍摄装置进行的拍摄。所述拍摄控制装置包括:分析结果获取单元,被配置成获取通过所述至少一个拍摄装置拍摄所述至少一个对象而获得的图像的分析结果;状态获取单元,被配置成获取通过所述至少一个传感器检测所述至少一个对象的状态而获得的检测结果;指标确定单元,被配置成针对与所述至少一个对象相关的多个指标中的每个指标、基于所述图像的分析结果和所述至少一个对象的状态的检测结果来确定指标程度;估计值计算单元,被配置成使用所述指标程度来计算用于估计所述图像的存储值的估计值;以及图像存储控制单元,被配置成当所述估计值超过预定第一阈值时进行控制以存储所述图像。
根据一个实施例,一种拍摄控制方法包括:获取通过使用拍摄装置拍摄对象而获得的图像的分析结果;获取通过使用传感器检测所述对象的状态而获得的检测结果;针对与所述对象相关的多个指标中的每个指标、基于所述图像的分析结果和所述对象的状态的检测结果来确定指标程度;使用所述指标程度来计算用于估计所述图像的存储值的估计值;以及当所述估计值超过预定第一阈值时进行控制以存储所述图像。
根据本实施例,可以提供能够在适当的定时处存储要存储的图像的拍摄控制装置、拍摄***和拍摄控制方法。
附图说明
图1是示出根据本实施例的拍摄***的概要的图。
图2是示出由本实施例的拍摄控制装置实现的拍摄控制方法的概要的流程图。
图3是示出与第一实施例相关的拍摄***的配置的图。
图4是示出第一实施例的拍摄控制装置的配置的功能图。
图5是将图像指标与程度匹配的图像指标表的示例。
图6是示出对对象状态指标的程度进行匹配的对象状态指标表的示例的图。
图7是示出图像指标的程度和对象的对象状态指标的程度的图。
图8是示出权重系数表的图。
图9是示出由第一实施例的拍摄***执行的拍摄控制方法的流程图。
图10是处于待机模式的图像的示例。
图11是示出处于存储模式的图像的图。
图12是示出从待机模式移动到存储模式时估计值的变化的图。
图13是示出第一实施例的修改示例的拍摄控制***的流程图。
图14是示出与第二实施例相关的拍摄***的配置的图。
图15是示出由第二实施例的拍摄***执行的拍摄控制方法的流程图。
图16是示出拍摄了多个对象的图像的图。
图17是与在图16所示的图像中拍摄的对象相关联的估计值的变化的示例。
图18是示出与第三实施例相关的拍摄***的配置的图。
图19是示出第三实施例的拍摄控制装置的配置的功能框图。
图20是示出由第三实施例的拍摄控制装置执行的拍摄控制方法的流程图。
图21是示出通过改善由与第三实施例相关的拍摄控制装置作出的效果而增加的估计值的图。
具体实施方式
下面将参考附图描述实施例。为便于说明,对以下描述和附图进行适当省略和简化。在附图中,相同的元件由相同的附图标记表示,并且必要时省略其重复描述。
在以下实施例中,为方便起见在需要时,将通过分成多个部分或实施例来进行描述,但是除非特别说明,否则它们彼此不独立,并且一个部分或实施例涉及另一部分或实施例中的一些或全部的修改示例、应用、详细描述、补充描述等。在以下实施例中,元件等的数量(包括元件的数量、数值、量值、范围等)不限于特定数量,而是可以不小于或等于该特定数量,除非明确注明该数量并且原则上明确限于该特定数量。
此外,在下面的实施例中,组成要素(包括操作步骤等)不一定是必需的,除非它们被具体指定的情况以及原则上被认为是明显必需的情况。类似地,在以下实施例中,当参照组件等的形状、位置关系等时,认为包括基本接近或类似于所述形状等的形状等,除非它们被明确注明的情况和原则上认为它们显而易见的情况等。这同样适用于上述数量等,包括数目、数值、量、范围等。
此外,在附图中被描述为用于执行各种处理的功能块的元件在硬件方面可以被配置为CPU(中央处理单元)、存储器和其它电路,并且在软件方面由加载到存储器中的程序来实现。因此,本领域技术人员理解,这些功能块可以通过单独的硬件、单独的软件或其组合以各种形式实现,并且本发明不限于其中任何一种。
实施例概要
在解释本实施例之前,将解释本实施例的概要。图1是示出根据本实施例的拍摄***1的概要的图。拍摄***1包括一个或多个拍摄装置2、一个或多个传感器4和拍摄控制装置10。拍摄控制装置10经由有线或无线地连接到拍摄装置2和传感器4。
拍摄装置2例如是相机。拍摄装置2可以固定地布置在某个位置,或者可以是可移动的。拍摄装置2可以安装在可远程或自动操作且可自主飞行的无人飞行物体(无人机等)上,或者可以为动作相机。拍摄装置2的数目不限于一个,并且可以是多个。拍摄装置2可以经由网络连接到另一拍摄装置2。
拍摄装置2拍摄人体对象90并生成图像。对象90可以是拍摄***1提供的服务中的参与者。这里,术语“图像”可以是静止图像、运动图像、或这两者。在下文中,术语“图像”还指作为信息处理中的处理目标的“示出图像的图像数据”。拍摄装置2可以将所获取的图像发送到拍摄控制装置10。
传感器4检测对象90的状态。传感器4可以安装在对象90上或由对象90携带。例如,传感器4是但不限于脉搏传感器、汗液传感器、加速度传感器、位置传感器等。传感器4可以将指示对象90的检测状态的数据发送到拍摄控制装置10。
拍摄控制装置10控制由拍摄装置2进行的图像拍摄,如下所述。拍摄控制装置10控制存储由拍摄装置2生成的图像的定时。拍摄装置2可以控制拍摄装置2以便跟踪和拍摄对象90。
拍摄控制装置10具有作为具有CPU、存储器和无线电通信装置的计算机的功能。拍摄控制装置10包括诸如中央处理单元(CPU)的处理器、诸如存储器的存储装置、无线电通信装置和各种***电路。即,拍摄控制装置10具有计算机的功能。
拍摄控制装置10包括分析结果获取单元11、状态获取单元12、指标确定单元13、估计值计算单元14和图像存储控制单元15。拍摄控制装置10可以包括拍摄装置控制单元16。这些组件的功能将在后面描述。
在拍摄控制装置10中,处理器可以执行存储在存储装置中的程序,从而实现诸如分析结果获取单元11、状态获取单元12、指标确定单元13、估计值计算单元14、图像存储控制单元15以及拍摄装置控制单元16的组件。拍摄控制装置10的组成元件不限于由基于程序的软件来实现,并且可以由硬件、固件、软件等中的任何一种来实现。拍摄控制装置10的组件例如也可以使用诸如FPGA(现场可编程门阵列)或微控制器的用户可编程集成电路来实现。在这种情况下,集成电路可用于实现由上述组件组成的程序。这也适用于后面描述的其他实施例。
图2是示出由根据本实施例的拍摄控制装置10执行的拍摄控制处理的概要的流程图。分析结果获取单元11获取通过由拍摄装置2拍摄对象而获得的图像的分析结果(图像分析结果)(步骤S12)。这里,分析结果获取单元11可以获取由另一装置执行的图像分析的结果。备选地,分析结果获取单元11可以执行图像分析。
例如,图像分析可以包括:用于确定在图像中是否存在预先注册的对象90的面部的面部识别处理、用于确定对象90的方向的方向确定以及用于确定对象90的面部表情的面部表情确定。图像分析还可以包括确定对象90的位置的位置确定和确定从拍摄装置2到对象90的距离或对象90和其他对象之间的距离的距离确定。然而,图像分析可以包括这些处理之外的处理。
状态获取单元12获取通过由传感器4检测对象90的状态而获得的检测结果(传感器数据)(步骤S14)。状态获取单元12可以直接从传感器4获取(接收)作为检测结果的传感器数据,或者可以通过另一装置获取传感器数据。检测结果例如是脉搏值、汗液值、加速度、位置信息等,但不限于此。假设状态获取单元12在与拍摄要执行图像分析的图像的定时相同的定时处获取对象90的状态。在这里,“相同的定时”不一定要是精确相同的时间。“相同的定时”可以意味着:在接近检测待执行图像分析的图像中对象90的状态的时间处,拍摄图像并且检测对象90的状态。
在步骤S16中,指标确定单元13基于图像分析结果和对象90的状态的检测结果、针对包括与对象90相关的指标的多个指标中的每个指标来确定这些指标的程度。在步骤S18中,估计值计算单元14使用指标的程度来计算用于估计图像的存储值的估计值。这里,“指标”是在判断估计值时用作参考的元素。“指标”和“估计值”将在后面描述。
“图像的存储值”表示图像是否捕获到人们感兴趣的关键时刻。例如,当对象90的面部表情显示微笑或惊讶并且对象90处于兴奋状态时,可以将对象的拍摄图像视为拍摄了要存储的关键时刻。如上所述,由于捕获关键时刻的图像往往希望被对象90等稍后查看,所以它是要存储的图像。
当估计值超过预定阈值时(步骤S20中的是),图像存储控制单元15执行控制以存储图像(步骤S22)。图像可以存储在拍摄控制装置10中,或者可以存储在拍摄控制装置10外部的存储装置中。此外,在这种情况下(步骤S20中是),拍摄装置控制单元16可以控制拍摄装置2以使对象90明显(步骤S24)。拍摄装置控制单元16控制拍摄装置2执行摇摄、倾斜、缩放等,以便例如使对象90在图像中心附近相对大地被投影。当估计值不超过阈值(步骤S20中的否)时,执行控制以不存储图像(步骤S26)。
利用这种配置,根据本实施例的拍摄控制装置10执行控制,以便在对象90的状态指示关键时刻时存储图像。结果,可以存储捕获关键时刻的图像,同时抑制包括关键时刻的图像的图像捕获时间(数据量)中的冗余。因此,拍摄控制装置10可以在适当的定时存储要存储的图像。通过由包括拍摄控制装置10拍摄***1和拍摄控制装置10执行的拍摄控制方法,也可以在适当的定时存储要存储的图像。
第一实施例
接下来,将描述第一实施例。图3是示出根据第一实施例的拍摄***1的配置的图。拍摄***1包括一个或多个拍摄装置2、一个或多个传感器4、图像处理装置20、相机控制装置22、图像存储装置24、传感器发送/接收装置30和拍摄控制装置100。拍摄装置2、传感器4和拍摄控制装置100分别对应于图1所示的拍摄装置2、传感器4和拍摄控制装置10。在图3的示例中,拍摄对象90。此时,假设对象90的信息(标识信息、面部信息、高度等)预先注册在拍摄控制装置100中。拍摄控制装置100通过有线或无线地连接到图像处理装置20、相机控制装置22、图像存储装置24和传感器发送/接收装置30。
图像处理装置20分析由拍摄装置2获取的图像,并将作为图像分析结果的图像分析数据输出到拍摄控制装置100。如上所述,由图像处理装置20执行的图像分析包括面部识别确定、方向确定、面部表情确定、距离确定等。图像处理装置20的功能可以设置在拍摄控制装置100或拍摄装置2中。
当执行面部识别确定时,图像处理装置20从图像中提取人脸。图像处理装置20通过模式匹配等计算在预先注册的对象90的面部图像与所提取的面部之间的重合度。然后,当重合度等于或大于预定阈值时,图像处理装置20确定对象90的面部被包括在图像中。
例如,当执行方向确定时,图像处理装置20首先通过上述面部识别确定来识别图像中对象90的面部。图像处理装置20检测图像中对象90的特征点,例如眼睛、鼻子、嘴、耳朵等,并从特征点在图像中的位置、特征点之间的距离等估计对象90的方向(角度)θ[度]。图像处理装置20可以通过估计对象90的视线的方向来确定对象90的方向。
例如,当确定从拍摄装置2到对象90的距离时,图像处理装置20预先注册对象90的大小。图像处理装置20通过模式匹配等从由拍摄装置2拍摄的图像中提取对象90,并计算对象90在图像中所占的面积(像素计数)。图像处理装置20基于拍摄装置2的变焦、视角、与对象90相对应的像素数、所注册的对象90的大小等来估计到对象90的距离D[m]。
例如,当执行面部表情确定时,图像处理装置20首先通过面部识别确定来识别图像中对象90的面部。图像处理装置20可以使用人工智能(例如,“Affdex”或“情感API”)将对象90的面部表情(例如,“愉悦”和“惊讶”)数字化。
图像处理装置20还可以确定对象和特征对象之间的距离。在这里,“特征对象”是可以提升对象90情感的对象。“特征对象”例如可以是诸如卡通人物服装或机器人的吉祥物,或者可以是著名的建筑物或景观。图像处理装置20预先注册对象90和特征对象。图像处理装置20通过模式匹配等从由拍摄装置2拍摄的图像中提取对象90和特征对象。在上述方法中,图像处理装置20估计从拍摄装置2到对象90的距离。以类似的方式,图像处理装置20估计从拍摄装置2到特征对象的距离。图像处理装置20还计算在图像中对象90和特征对象之间的像素数。图像处理装置20基于成像装置2的变焦、视角、对象90和特征对象之间的像素数、从拍摄装置2到对象90的距离、从拍摄装置2到特征对象的距离等来估计对象和特征对象之间的距离C[m]。
相机控制装置22响应于来自拍摄控制装置100的指令来控制拍摄装置2的操作。例如,相机控制装置22响应于来自拍摄控制装置100的指令来执行摇摄、倾斜、缩放等。因此,拍摄装置2可以跟踪对象90并拍摄以使对象90突出。也就是说,短语“跟踪和拍摄对象90”是指通过执行摇摄、倾斜、缩放等操作来拍摄其中对象90变得明显的图像。例如,相机控制装置22可以识别对象90的面部,并且控制拍摄装置2使得所识别的对象90的面部以预定大小显示在图像中心附近的预定区域中。相机控制装置22的功能可以设置在拍摄控制装置100或拍摄装置2中。
图像存储装置24是诸如ROM(只读存储器)或RAM(随机存取存储器)的存储器,或者诸如硬盘的存储装置。图像存储装置24响应于来自拍摄控制装置100的指令而存储由拍摄装置2拍摄的图像。当从拍摄控制装置100接收到开始存储图像的指令时,图像存储装置24开始存储由拍摄装置2拍摄的图像。当从拍摄控制装置100接收到用于终止存储图像的指令时,图像存储装置24终止存储由拍摄装置2拍摄的图像。图像存储装置24的功能可以设置在拍摄控制装置100中或者可以设置在拍摄装置2中。
传感器发送/接收装置30接收从传感器4发送的信号,并将该信号作为传感器数据发送到拍摄控制装置100。传感器发送/接收装置30的功能可以设置在拍摄控制装置100或传感器4中。
例如,拍摄控制装置100具有作为计算机的功能。拍摄控制装置100可以安装在拍摄装置2上。拍摄控制装置100包括CPU 101、ROM 102、RAM 103、I/O(输入/输出)104和UI(用户接口)105。
CPU 101用作执行控制处理、算术处理等的处理装置。ROM 102具有用于存储由CPU101执行的控制程序和算术程序的功能。RAM 103具有临时存储处理数据等的功能。I/O 104是通信装置,其从外部输入数据和信号,并向外部输出数据和信号。UI 105由输入装置(例如键盘)和输出装置(例如显示器)组成。UI 105可以被配置为其中集成了输入装置和输出装置的触摸板。
图4是示出根据第一实施例的拍摄控制装置100的配置的功能图。拍摄控制装置100包括分析结果获取单元112、图像指标确定单元114、状态获取单元122、状态指标确定单元124、估计值计算单元132、估计值确定单元134、图像存储控制单元142以及拍摄装置控制单元144。图4所示的拍摄控制装置100的组件可以通过CPU 101执行存储在ROM 102中的程序来实现。分析结果获取单元112、状态获取单元122、估计值计算单元132、图像存储控制单元142和拍摄装置控制单元144分别对应于图1所示的分析结果获取单元11、状态获取单元12、估计值计算单元14、图像存储控制单元15和拍摄装置控制单元16。图像指标确定单元114和状态指标确定单元124对应于图1所示的指标确定单元13。
图4所示的拍摄控制装置100的组件可以由一个或多个单独的装置实现。例如,分析结果获取单元112和图像指标确定单元114可以由对图像数据执行计算的图像数据计算装置110来实现。状态获取单元122和状态指标确定单元124可以由对传感器数据执行计算的传感器数据计算装置120来实现。此外,估计值计算单元132、估计值确定单元134、图像存储控制单元142和拍摄装置控制单元144可以由执行与拍摄相关的控制的拍摄计算装置130来实现。图像数据计算装置110、传感器数据计算装置120和拍摄计算装置130可以分别包括CPU 101、ROM 102、RAM 103、I/O 104和UI 105。
分析结果获取单元112从图像处理装置20获取图像分析数据。分析结果获取单元112可以具有图像处理装置20的功能,并且分析结果获取单元112可以执行图像分析。图像指标确定单元114使用图像分析数据确定图像指标。具体地,图像指标确定单元114确定与图像分析结果相关的多个图像指标的程度。这里,“图像指标”是与图像分析结果相关的元素,它是在判断是否应存储图像时的参考。图像指标确定单元114使用图像分析数据针对多个图像指标中的每个图像指标来确定这些指标的程度。图像指标确定单元114将所确定的图像指标的程度输出到估计值计算单元132。
图5是示出其中图像指标和程度彼此关联的图像指标表的图。在图5所示的示例中,图像指标可以包括“对象的方向”、“到对象的距离”、“对象的面部表情(微笑)”、“对象的面部表情(惊讶)”和“对象与特征对象之间的距离”。此外,针对每个指标设置从“0”到“10”的11个级别。
图像指标确定单元114根据对象90的方向θ确定图像指标“对象的方向”的程度。例如,当对象90的面部根本不面对拍摄装置2时,图像指标确定单元114将“对象的方向”的程度设置为“0”。另一方面,当对象90的面部完全面对拍摄装置2时,图像指标确定单元114将“对象90的方向”的程度设置为“10”。例如,假设对象90面对拍摄装置2时的方向θ为0度,并且正角度(θ>0)被定义为当对象90相对于成像设备2面向左时的正角度。在这种情况下,例如,当对象90的方向θ为±100度到±180度时,图像指标确定单元114可以将“对象的方向”的程度设置为“0”。例如,当对象90的方向θ为±0度到±3度时,图像指标确定单元114可以将“对象的方向”的程度设置为“10”。例如,当对象90的方向θ为±3度到±5度时,图像指标确定单元114可以将“对象90的方向”的程度设置为“9”。图像指标确定单元114可以通过使用将对象90的方向θ的值和“对象的方向”的程度相互关联的表来确定图像指标“对象的方向”的程度。
图像指标确定单元114根据拍摄装置2和对象90之间的距离D确定图像指标“到对象的距离”的程度。例如,假设D=D0[m]适合拍摄对象90。也就是说,假设适合拍摄的对象90的距离为D0。在这种情况下,图像指标确定单元114确定图像指标“到对象的距离”的程度,使得随着从拍摄装置2到对象90的距离D变得更接近D0,图像指标“到对象的距离”的程度变得更大。因此,当D=D0时,图像指标“到对象的距离”的程度可以是“10”。D和D0之间的差异越大,图像指标“到对象的距离”的程度就越小。图像指标确定单元114可以使用其中将拍摄装置2和对象90之间的距离D的值与“到对象的距离”的程度相关联的表来确定图像指标“到对象的距离”的程度。注意,D0可以是预定值,或者可以是根据对象90的高度变化的值。
图像指标确定单元114根据由图像处理装置20计算的指示对象90的笑脸的数值来确定图像指标“对象的面部表情(笑脸)”的程度。具体地,图像指标确定单元114确定图像指标“对象的面部表情(笑脸)”的程度,使得图像指标“对象的面部表情(笑脸)”的程度随着指示笑脸的数值的增加而增加。图像指标确定单元114可以使用其中将指示笑脸的数值与“对象的面部表情(笑脸)”的程度相关联的表来确定图像指标“对象的面部表情(笑脸)”的程度。类似地,图像指标确定单元114根据由图像处理装置20计算的指示对象90的惊讶的数值来确定“对象的面部表情(惊讶)”的程度。
图像指标确定单元114根据对象90和特征对象之间的距离C来确定图像指标“对象和特征对象之间的距离”的程度。具体地,图像指标确定单元114确定图像指标“对象与特征对象之间的距离”的程度,使得距离C越小,即对象90越接近特征对象,图像指标“对象与特征对象之间的距离”的程度越大。图像指标确定单元114可以通过使用其中将对象90与特征对象之间的距离C和“对象与特征对象之间的距离”的程度相互关联的表来确定图像指标“对象与特征对象之间的距离”的程度。
状态获取单元122(图4)从传感器发送/接收装置30获取指示对象90的状态的传感器数据。状态获取单元122可以直接从传感器4获取传感器数据。还假设状态获取单元122在捕获要分析的图像的定时处获取对象90的状态。也就是说,假设:为获得由分析结果获取单元112获取的图像分析数据而分析的图像被拍摄的定时与为获得由状态获取单元122获取的传感器数据而由传感器4检测对象90的状态的定时基本相同。
状态指标确定单元124使用传感器数据确定对象状态指标。具体地,确定与传感器数据相关的多个对象状态指标的程度。这里,“对象状态指标”是与传感器数据相关的在确定是否应存储图像时用作参考的元素。状态指标确定单元124使用传感器数据针对多个对象状态指标中的每个对象状态指标确定这些指标的程度。状态指标确定单元124将所确定的对象状态指标的程度输出到估计值计算单元132。
图6是示出其中将对象状态指标和程度彼此关联的对象状态指标表的图。在图6所示的示例中,对象状态指示符可以包括“脉搏”、“出汗”和“加速度”。此外,每个指标设置了从“0”到“10”的11个级别。
状态指标确定单元124根据作为脉搏传感器的传感器4检测到的对象90的脉搏来确定对象状态指标“脉搏”的程度。状态指标确定单元124将对象90的脉搏率P与最后1分钟的脉搏率的平均值Pave进行比较。然后,状态指标确定单元124确定对象状态指标“脉搏”的程度,使得对象状态指标“脉搏”的程度随着脉搏率P和平均值Pave之间的差ΔP(=P-Pave)的增大而增大。这里,当ΔP=0时,对象状态指标“脉搏”的程度可以是“5”。那么,当ΔP<0时,对象状态指标“脉搏”的程度可以是“0”到“4”,当ΔP>0时,对象状态指标“脉搏”的程度可以是“6”到“10”。状态指标确定单元124可以使用其中将差ΔP和对象状态指标“脉搏”的程度相互关联的表来确定对象状态指标“脉搏”的程度。
状态指标确定单元124根据作为出汗传感器的传感器4检测到的对象90的出汗量来确定对象状态指标“出汗”的程度。更具体地,状态指标确定单元124确定对象状态指标“出汗”的程度,使得对象状态指标“出汗”的程度随着对象90的出汗量的增加而增加。状态指标确定单元124可以通过使用其中将出汗量与对象状态指标“出汗”的程度相互关联的表来确定对象状态指标“出汗”的程度。
状态指标确定单元124根据由作为加速度传感器的传感器4检测到的对象90的加速度来确定对象状态指标“加速度”的程度。具体地,状态指标确定单元124确定对象状态指标“加速度”的程度,使得对象状态指标“加速度”的程度随着对象90的加速度的增大而变大,即随着对象90的操作(行走运动、上/下/左/右运动等)变大而变大。状态指标确定单元124可以使用其中将加速度和对象状态指标“加速度”的程度彼此关联的表来确定对象状态指标“加速度”的程度。
图7是例示关于对象90的对象状态指标的程度和图像指标的程度的图。在图7所示的示例中,图像指标确定单元114将图像指标“对象的方向”、“到对象的距离”、“对象的面部表情(微笑)”、“对象的面部表情(惊讶)”和“对象与特征对象之间的距离”的程度分别确定为“7”、“7”、“7”、“2”和“10”。在图7所示的示例中,状态指标确定单元124确定对象状态指标“脉搏”、“出汗”和“加速度”分别为“8”、“4”和“4”。图像指标和对象状态指标有时统称为“指标”。
估计值计算单元132(图4)使用图像指标的程度和对象状态指标的程度来计算用于估计图像的存储值的估计值。具体地,估计值计算单元132计算每个指标的程度与预先为每个指标设定的权重系数的乘积之和作为估计值。估计值计算单元132将计算出的估计值输出到估计值确定单元134。假设通过使用在相同定时拍摄的图像和检测到的对象90的状态来获取由估计值计算单元132执行估计值计算时使用的指标程度。估计值计算单元132可以通过使用如图8所示的权重系数表来计算估计值。
图8是示出权重系数表的图。在图8所示的示例中,图像指标“对象的方向”、“到对象的距离”、“对象的面部表情(微笑)”、“对象的面部表情(惊讶)”和“对象与特征对象的距离”的权重系数分别为“0.8”、“0.2”、“0.6”、“0.4”和“1.0”。对象状态指标“脉搏”、“出汗”和“加速度”的权重系数分别为“1.0”、“0.6”和“0.8”。这里,可以根据每个指标对图像的存储值的估计的重要程度(贡献)适当地设定每个指标的权重系数。因此,具有高权重系数的指标是估计图像存储值的重要指标。在图8的示例中,权重系数为“1.0”的“对象与特征对象之间的距离”和“脉搏”的重要性较高,权重系数为“0.2”的“与对象的距离”的重要性较低。
估计值计算单元132计算通过将每个指标的程度乘以与该指标对应的权重系数而获得的值的总和作为估计值。也就是说,当估计值为Ve时,指标k(k=1至N)的程度为Lk并且指标k的权重系数为ck,估计值为Ve=Σk=1 N(Lk*ck)。在图7和图8的示例中,Ve=7*0.8+7*0.2+7*0.6+2*0.4+10*1.0+8*1.0+4*0.6+4*0.8=35.6。程度Lk和权重系数ck的乘积可称为权重点。
估计值确定单元134将由估计值计算单元132计算的估计值与预定阈值进行比较,以确定估计值是否超过阈值。然后,估计值确定单元134将确定结果输出到图像存储控制单元142和拍摄装置控制单元144。即,估计值确定单元134确定与计算估计值时使用的指标相对应的图像是否是要估计的图像,以及是否值得存储作为与计算估计值时使用的指标相对应的图像的该要估计的图像。当估计值大于阈值时,估计值确定单元134确定要估计的图像值得存储。另一方面,当估计值等于或小于阈值时,估计值确定单元134确定要估计的图像不值得存储。
当估计值超过阈值时,图像存储控制单元142执行控制以存储要估计的图像。具体地,图像存储控制单元142控制图像存储装置24来存储要估计的图像。此时,图像存储控制单元142可以将要估计的图像发送到图像存储装置24。备选地,图像存储控制单元142可以控制图像存储装置24从拍摄装置2获取和存储要估计的图像。另一方面,当估计值等于或小于阈值时,图像存储控制单元142执行控制以不存储要估计的图像。
拍摄装置控制单元144控制拍摄装置2,使得当估计值超过阈值时,可以通过跟踪对象90来拍摄其中对象90明显的图像。具体地,拍摄装置控制单元144控制相机控制装置22,例如,通过摇摄、倾斜、缩放等,在图像中心附近相对较大地拍摄对象90(例如,图像中对象90的高度约为图像高度的50%)。相机控制装置22在拍摄装置控制单元144的控制下从拍摄装置2拍摄的图像中检测对象90。然后,相机控制装置22控制图像拾取装置2,以便执行摇摄、倾斜、缩放等操作来跟踪和拍摄对象90。另一方面,当估计值等于或小于阈值时,拍摄装置控制单元144控制相机控制装置22将拍摄装置2移动到预定的初始位置。
图9是示出由根据第一实施例的拍摄***1执行的拍摄控制处理的流程图。在步骤S102中,拍摄装置2拍摄对象90。在步骤S102中通过拍摄获得的图像变为用于存储值的要估计的图像。如上所述,在步骤S104中图像处理装置20分析要估计的图像。接下来,在步骤S106中,拍摄控制装置100确定图像指标。具体地,分析结果获取单元112获取分析结果数据。如上所述,图像指标确定单元114使用分析结果数据确定图像指标。
另一方面,如上所述,传感器4在步骤S112中检测对象90的状态。这里,假设步骤S112的定时与步骤S102的定时相同。接着,拍摄控制装置100的状态获取单元122经由传感器发送/接收装置30获取对象90的状态(传感器数据)(步骤S114)。接着,状态指标确定单元124在步骤S116中如上所述确定对象状态指标。
接着,如上所述,在步骤S120中,估计值计算单元132使用在步骤S106中确定的图像指标和在步骤S116中确定的对象状态指标来计算估计值Ve。在步骤S122中,估计值确定单元134确定估计值Ve是否超过阈值Th1。当估计值Ve等于或小于阈值Th1(在步骤S122中为否)时,图像存储控制单元142确定图像是否处于存储中(在步骤S130中)。如果正在存储图像(在步骤S130中是),则图像存储控制单元142执行控制以停止存储图像(在步骤S132中)。结果,图像存储装置24停止存储图像。此时,拍摄装置控制单元144控制拍摄装置2移动到初始位置(在步骤S134中)。如果没有正在存储图像(步骤S130中的否),则跳过步骤S132,并且继续存储图像。因此,如果估计值Ve小于或等于阈值Th1,则拍摄***1变为待机模式,使得拍摄装置2处于初始位置而不存储图像(在步骤S136中)。然后,处理返回到步骤S102和步骤S112。
另一方面,当估计值Ve超过阈值Th1(在步骤S122中是)时,图像存储控制单元142确定图像是否处于存储的中间(在步骤S140中)。如果没有在存储图像(步骤S140中的否),则图像存储控制单元142执行控制以开始存储图像(步骤S142)。结果,图像存储装置24开始存储图像。此时,拍摄装置控制单元144控制拍摄装置2,以便跟踪和拍摄对象90的图像,使得捕捉其中对象90是显著的图像(在步骤S144中)。如果正在存储图像(在步骤S140中为否),则跳过步骤S142并继续图像存储处理。这样,当估计值Ve超过阈值Th1时,拍摄***1在存储图像之后处于存储模式,其中拍摄装置2跟踪和捕捉对象90的图像(在步骤S146中)。然后,处理返回到步骤S102和步骤S112。
图10是例示待机模式下的图像Im1的图。图11是示出存储模式中的图像Im2的图。图12是示出当模式从待机模式(图10)转移到存储模式(图11)时估计值的变化的图。如图12所示,阈值的Th1被设置为30。
如图12所示,在图10所示的待机模式下,图像指标确定单元114确定图像指标“对象的方向”、“到对象的距离”、“对象的面部表情(微笑)”、“对象的面部表情(惊讶)”和“对象与特征对象之间的距离”的程度分别为“7”、“2”、“0”、“0”和“0”。此外,状态指标确定单元124确定对象状态指标“脉搏”、“出汗”和“加速度”分别为“2”、“2”和“2”。尽管对象90存在于图像Im1中,但是对象90位于远离拍摄装置2的位置,在图像Im1中对象90占用的大小较小。因此,指标“到对象的距离”的程度相对较小。此外,由于特征对象不在对象90的附近并且不出现在图像Im1中,因此指标“对象与特征对象之间的距离”的程度为“0”。此外,由于对象90的情绪没有那么激动,并且没有诸如笑脸或惊讶的面部表情,因此指标“对象的面部表情(笑脸)”和“对象的面部表情(惊讶)”的程度为“0”。此外,由于对象90的情绪没有那么激动,所以指标“脉搏”、“出汗”和“加速度”也不是“2”、“2”和“2”那么高。因此,在图10所示的待机模式中,估计值Ve为10.8,估计值Ve等于或小于阈值Th1(=30)。
如图12所示,在图11所示的存储模式中,图像指标确定单元114将图像指标“对象的方向”、“到对象的距离”、“对象的面部表情(微笑)”、“对象的面部表情(惊讶)”和“对象与特征对象之间的距离”的程度分别确定为“7”、“7”、“7”、“2”和“10”。此外,状态指标确定单元124确定对象状态指标“脉搏”、“出汗”和“加速度”分别为“8”、“4”和“4”。由于对象90和拍摄装置2之间的距离比在图10的情况下的距离近,因此对象90在图像Im2中的大小大于在图10的情况下的距离。因此,指标“到对象的距离”的程度为“7”,其大于图10的情况。此外,由于特征对象80接近对象90,因此指标“对象与特征对象之间的距离”的程度为“10”。此外,由于特征对象80在对象90的附近,因此对象90的情感被激发,并且诸如笑脸和惊讶的面部表情出现在对象90中。因此,指标“对象的面部表情(微笑)”的程度为“7”、指标“对象的面部表情(惊讶)”的程度为“2”。此外,由于对象90的情感被激发,因此指标“脉搏”、“出汗”和“加速度”分别变为“8”、“4”和“4”,并且变得高于图10的情况。因此,在图11所示的存储模式中,估计值Ve为35.6,并且估计值Ve超过阈值Th1(=30)。
如上所述,在图11所例示的状态中,对象90和特征对象80彼此接近,从拍摄装置2到对象90的距离实质上是适合拍摄的距离,并且对象90的情感被激发并且面部表情可以丰富。因此,可以说,图11中示出的图像Im2具有存储值,即捕获关键时刻。根据第一实施例的拍摄控制装置100能够以这种方式存储当对象90达到与关键时刻对应的状态时捕获该状态的图像。因此,根据第一实施例的拍摄控制装置100可以在适当定时处存储要存储的图像。
根据第一实施例的估计值计算单元132被配置成计算每个指标的程度与预先为每个指标设定的权重系数的乘积之和作为估计值。结果,通过增加对估计图像的存储值具有重要意义的指标的权重系数,可以更高精度地估计图像的存储值。也就是说,重要性越高的指标越能可靠地存储图像。因此,可以以更高的精度存储要存储的图像。
根据第一实施例的图像存储控制单元142被配置成当估计值Ve等于或小于阈值Th1时不存储图像。结果,可以抑制具有低存储值的图像的存储。因此,可以抑制图像存储装置24的存储容量被压缩,并且可以节省图像存储装置24的存储容量。
此外,根据第一实施例的拍摄装置控制单元144被配置成控制拍摄装置2,以便跟踪和拍摄对象90,使得当估计值Ve超过阈值Th1时拍摄使对象90明显的图像。这使得更容易拍摄值得存储的对象90的图像。因此,可以使得更容易地拍摄捕获对象90的关键时刻的图像。
第一实施例的修改示例
在上述第一实施例中,假设与开始存储图像的定时相对应的阈值和与停止存储图像的定时相对应的阈值彼此相同(Th1;第一阈值,第二阈值)。然而,与开始存储图像的定时相对应的阈值和与停止存储图像的定时相对应的阈值可以彼此不同。这也可以适用于后面描述的其他实施例。
图13是示出根据第一实施例的修改示例的拍摄控制处理的流程图。这里,用于在图像未被存储时开始存储图像的存储开始阈值是Th1(第一阈值),并且用于在图像被存储时停止存储图像的存储停止阈值是Th2(第二阈值)。注意,使用Th1>Th2。由于步骤S102-步骤S120处理与图9所示的处理基本相同,因此省略对其的说明。
估计值确定单元134确定是否正在存储图像(在步骤S124中)。当没有存储图像时(步骤S124中为否),估计值确定单元134确定估计值Ve是否超过存储开始阈值Th1(步骤S126)。当估计值Ve超过存储开始阈值Th1(S126中的是)时,图像存储控制单元142执行控制以开始图像的存储(S142)。结果,图像存储装置24开始存储图像。此时,拍摄装置控制单元144控制拍摄装置2来跟踪和拍摄对象90的图像(步骤S144)。这样,在步骤S146中,拍摄***1处于存储模式。另一方面,当估计值Ve等于或小于存储开始阈值Th1(在步骤S126中为否)时,图像存储控制单元142确定图像存储未开始。此时,拍摄装置控制单元144控制拍摄装置2,以便将拍摄装置2定位在初始位置(步骤S134)。这样,拍摄***1继续待机模式(步骤S136)。
另一方面,当在存储图像时(步骤S124中为是),估计值确定单元134确定估计值Ve是否低于存储停止阈值Th2(步骤S128)。当估计值Ve低于存储停止阈值Th2(步骤S128中为是)时,图像保存控制单元142执行控制以停止保存图像(步骤S132)。结果,图像存储装置24停止存储图像。此时,拍摄装置控制单元144控制拍摄装置2以将拍摄装置2移动到初始位置(步骤S134)。这样,拍摄***1处于待机模式(步骤S136)。另一方面,当估计值Ve等于或大于存储停止阈值Th2(步骤S128中为否)时,图像存储控制单元142确定不停止图像存储。此时,拍摄装置控制单元144控制拍摄装置2来跟踪和拍摄对象90的图像(步骤S144)。这样,拍摄***1继续存储(步骤S146)。
根据第一实施例的修改示例的拍摄控制装置100被配置成将阈值(根据是否在存储图像而不同)与估计值进行比较。这抑制了当在估计值超过阈值Th1后估计值立即低于阈值Th1时存储图像的突然停止。因此,可以抑制当估计值在一个阈值附近上升和下降时存储的开始和停止的频繁重复。
第二实施例
接下来,将描述第二实施例。第二实施例与第一实施例的不同之处在于,存在多个对象90,传感器4附接到该多个对象90。第二实施例的其他配置基本上与第一实施例的配置相同。
图14是示出根据第二实施例的拍摄***1的配置的图。根据第二实施例的拍摄***1包括一个或多个拍摄装置2、一个或多个传感器4A、4B、图像处理装置20、相机控制装置22、图像存储装置24、传感器发送/接收装置30和拍摄控制装置100。在图14的示例中,可以拍摄对象90A和90B。此时,假设对象90A的信息和对象90B的信息(标识信息、面部信息、高度等)预先注册在拍摄控制装置100中。
传感器4A检测对象90A的状态。传感器4A可以安装在对象90A上或由对象90A携带。传感器4B检测对象90B的状态。传感器4B可以安装在对象90B上或由对象90B携带。传感器发送/接收装置30接收从每个传感器4A、4B发送的信号,并将信号作为传感器数据发送到拍摄控制装置100。此时,传感器发送/接收装置30使对象90A的传感器数据和对象90B的传感器数据彼此可区分,然后将传感器数据发送到拍摄控制装置100。在图14中,示出了两个对象90A和90B,并且传感器4A、4B附接到它们中的每一个,但是对象90的数量可以是三个或更多。在这种情况下,传感器4安装在三个或更多对象90中的每一个对象上。
拍摄装置2、图像处理装置20、相机控制装置22、图像存储装置24和拍摄控制装置100的配置基本上与第一实施例的配置相同,因此省略其描述。注意,图像处理装置20可以对对象90A和对象90B中的每一个执行图像分析。例如,图像处理装置20对对象90A和对象90B中的每一个执行方向确定、距离确定、面部表情确定等。
图15是示出由根据第二实施例的拍摄***1执行的拍摄控制处理的流程图。拍摄控制装置100确定特定对象X的指标(步骤S200),并计算对象X的估计值Ve(步骤S220)。在步骤S200中,对对象X(对象90A或90B)执行与图9所示的步骤S102至S116基本相同的处理。
例如,分析结果获取单元112获取通过使用拍摄了对象90A的图像的图像分析(步骤S104)获得的分析结果数据。图像指标确定单元114使用对象90A的分析结果数据来确定对象90A的图像指标(步骤S106)。状态获取单元122从传感器4A获取对象90A的状态(步骤S114)。状态指标确定单元124确定对象90A的对象状态指标(步骤S116)。然后,估计值计算单元132使用对象90A的图像指标和对象90A的对象状态指标,以与步骤S120相同的方式计算对象90A的估计值Ve。
估计值确定单元134确定与对象X(例如,对象90A)相关的估计值Ve是否超过阈值Th1(步骤S222)。当与对象X相关的估计值Ve等于或小于阈值Th1(步骤S222中为否)时,对对象X执行步骤S230至S236。步骤S232至S236与图9所示的步骤S130至S136基本相同。也就是说,在这种情况下,对象X的图像不被存储。
另一方面,当对象X的估计值Ve超过阈值Th1(在步骤S222中为是)时,图像存储控制单元142确定对象X的图像是否处于存储中(步骤S240)。当对象X的图像没有正在被存储时(步骤S240中的否),图像存储控制单元142执行控制以开始存储图像(步骤S242)。结果,图像存储装置24开始存储对象X的图像。如果正在存储对象X的图像(步骤S240中为否),则跳过步骤S242的处理,并且继续对象X的图像存储处理。
接下来,拍摄控制装置100(例如,估计值确定单元134)确定是否已经为所有对象90计算了估计值Ve(步骤S244)。当没有为所有对象90(S244中的否)计算估计值Ve时,处理返回到步骤S200,并且拍摄控制装置100确定没有计算估计值Ve的对象90(例如,对象90B)的图像指标(步骤S200),并且计算估计值Ve(步骤S220)。然后重复步骤S222至S242。即,例如,当对象90B的估计值Ve等于或小于阈值Th1时,拍摄控制装置100执行控制以不存储对象90B的图像。另一方面,当对象90B的估计值Ve超过阈值Th1时,拍摄控制装置100执行控制以保存对象90B的图像。如上所述,与第二实施例相关的指标确定单元13(图像指标确定单元114和状态指标确定单元124)确定多个对象90中每个对象的指标的程度。根据第二实施例的估计值计算单元132针对多个对象90中的每个对象计算估计值。此外,根据第二实施例的估计值确定单元134针对多个对象90中的每个对象确定图像的存储值。
另一方面,当对所有对象90计算估计值Ve时(步骤S244中为是),估计值确定单元134选择具有最大估计值Ve的对象90(步骤S246)。然后,拍摄装置控制单元144在步骤S248中控制拍摄装置2,以便跟踪和拍摄所选择的对象90。结果,拍摄***1处于存储模式(步骤S250)。也就是说,根据第二实施例的拍摄装置控制单元144控制拍摄装置2,以便可以拍摄其中使具有最大估计值的对象90明显的图像。例如,在图14所示的示例中,当对象90A的估计值Ve大于对象90B的估计值Ve时,拍摄装置控制单元144控制拍摄装置2以便跟踪和拍摄对象90A。同时,另一拍摄装置可以拍摄其估计值Ve不是最大估计值Ve的对象90B。
图16是例示其中显示多个对象90的图像Im3的图。图17是例示关于图16所示的图像中示出的特定对象90的估计值的变化的图。图像Im3中示出了两个对象90A和90B以及特征对象80。这里,图17示出了对象90B的估计值的变化。假设对象90A的估计值的变化如图12所示。
首先,假设由拍摄装置2拍摄图10所示的图像Im1,然后拍摄图11所示的图像Im2。假定对象90A如图10和图11所示。此外,假设拍摄了图16所示的图像Im3。还假设图12所示的箭头右侧的程度、加权点和估计值的值对应于图11和图16。还假设图17所示的箭头左侧的程度、加权点和估计值的值对应于图10和图11,并且箭头右侧的值对应于图16。
在拍摄图11中所示的图像Im2的时间点,仅拍摄对象90A,使得对象90A的估计值Ve变高。在图12所示的示例中,估计值Ve为35.6。另一方面,由于对象90B不出现在图像Im2中,如图17所示,因此对象90B的各个图像指标的程度均为0,并且对象90B的估计值Ve为1.4,这是相当低的。因此,在图11所示的条件下,拍摄控制装置100执行控制以存储对象90A的图像并跟踪和拍摄对象90A。
然后,如图16所示,假设对象90B接近特征对象80,并且由拍摄装置2与对象90A一起拍摄。此时,如图17所示,与对象90B相关的每个指标的程度大大增加,并且与对象90B相关的估计值Ve变为45.4。结果,由于与对象90B相关的估计值Ve超过阈值Th1,因此存储对象90B的图像以及对象90A的图像。此时,与对象90B相关的估计值Ve大于与对象90A相关的估计值Ve。也就是说,具有高估计值Ve的对象90B比对象90A具有更高的诱发关键时刻的可能性。因此,拍摄控制装置100控制拍摄装置2以便跟踪和拍摄对象90B。
如上所述,当存在多个拍摄对象90时,根据第二实施例的拍摄控制装置100确定多个对象90中的每一个对象的指标程度,并计算多个对象90中的每一个对象的估计值。然后,根据第二实施例的拍摄控制装置100控制拍摄装置2来跟踪和拍摄对象90,以便能够显著地拍摄具有最大估计值的对象90。容易拍摄到更可能诱发关键时刻对象90的关键时刻。换言之,变得更容易拍摄到更可能导致具有高存储值的图像的对象90。因此,根据第二实施例的拍摄控制装置100能够更可靠地拍摄和存储具有更高存储值的图像。此外,如上文所述,根据第二实施例的拍摄控制装置100可以展现与根据第一实施例的拍摄控制装置100所展现的效果基本相同的效果。
第三实施例
接下来,将描述第三实施例。第三实施例与其他实施例的不同之处在于,改善了特征对象80的效果。在第三实施例中,假设特征对象80是可操作的吉祥物特征。假设作为吉祥物特征的特征对象80能够执行使对象90开心的效果。
图18是示出根据第三实施例的拍摄***1的配置的图。根据第三实施例的拍摄***1包括一个或多个拍摄装置2、一个或多个传感器4、图像处理装置20、相机控制装置22、图像存储装置24、传感器发送/接收装置30、指令装置40和拍摄控制装置100。拍摄装置2、传感器4、图像处理装置20、相机控制装置22、图像存储装置24和拍摄控制装置100的配置基本上与第一实施例的配置相同,因此省略其描述。指令装置40通过有线或无线地连接到拍摄控制装置100。指令装置40是用于指示作为吉祥物特征的特征对象80提高效果的装置。当工作人员手动地远程操作特征对象80或当工作人员进入并操作特征对象80时,指令装置40可以是用于输出声音以向工作人员发送指令的扬声器,或用于输出窗口以发送指令的显示器等。当特征对象80是能够自主操作的机器人时,指令装置40向机器人发送指示预定指令的信号。在下面描述的示例中,将描述操作者操作特征对象80的情况。
图19是示出根据第三实施例的拍摄控制装置100的配置的功能框图。根据第三实施例的拍摄控制装置100包括分析结果获取单元112、图像指标确定单元114、状态获取单元122、状态指标确定单元124、估计值计算单元132、估计值确定单元134,图像存储控制单元142和拍摄装置控制单元144。此外,根据第三实施例的拍摄控制装置100包括效果改善确定单元302和改善指令单元304。效果改善确定单元302和改善指令单元304可以通过拍摄计算装置130来实现。除了效果改善确定单元302和改善指令单元304之外的组件基本上与图4所示的组件相同,因此省略对其的描述。
效果改善确定单元302确定是否需要改善特征对象80的效果。当需要改善特征对象80的效果时,向改善指令单元304发送指令。当确定特性对象80的效果需要改善时,改善指令单元304将用于改善特性对象80的效果的指令发送到指令装置40。将参照图20描述效果改善确定单元302和改善指令单元304的具体处理。
图20是示出由根据第三实施例的拍摄控制装置100执行的拍摄控制处理的流程图。在图9所示的流程图中,当步骤S130的确定为否(即,当估计值Ve等于或小于阈值Th1且没有在存储图像)时,执行图20所示的步骤。换句话说,当拍摄***1处于待机模式时执行。
在步骤S302中,效果改善确定单元302确定待机模式是否持续预定时间段。如果待机模式没有持续预定时间段(步骤S302中的否),则效果改善确定单元302确定不需要改善特征对象80的效果,并且处理进行到步骤S134。另一方面,当待机模式持续预定时间段(步骤S302中为是)时,效果改善确定单元302判定需要改善特征对象80的效果。在步骤S304中,效果改善确定单元302例如通过使用分析结果数据来确定是否在图像中拍摄了对象90。
当对象90未被拍摄在图像中时(步骤S304中为否),改善指令单元304向指令装置40发送指令,使得对象90进入拍摄装置2的视角(步骤S306)。然后,处理进入步骤S134。例如,改善指令单元304使指令装置40输出声音或指示,诸如“提示对象在拍摄装置前面”。注意,不仅当对象90根本没有出现在图像中时,而且当对象90的一部分(例如,对象90的面部)隐藏在阻碍成像的障碍物等后面时,都可以执行该指令。根据指令装置40的指令,操作者可以执行使特征对象80执行催促对象90在拍摄装置2前面的操作。
另一方面,当对象90在图像中时(步骤S304中为是),效果改善确定单元302确定指标“对象与特征对象之间的距离”的程度是否等于或小于预定L1(步骤S308)。当指标“对象与特征对象之间的距离”的程度为L1(例如,“7”)或更小时(步骤S308中为是),效果改善确定单元302确定对象90与特征对象80之间的距离太长。在步骤S310中,改善指令单元304向指令装置40发送使特征对象80更移近对象90的指令。然后,处理进入步骤S134。例如,改善指令单元304使指令装置40输出声音或指示,诸如“请接近对象”。根据指令装置40的指令,操作者可以执行操作使特征对象80执行接近对象90的操作。
另一方面,当指标“对象与特征对象之间的距离”的程度超过L1(步骤S308中为否)时,效果改善确定单元302确定指标“脉搏”的程度是否等于或小于预定L2(步骤S312)。当指标“脉搏”的程度等于或小于L2(例如,“5”)时(步骤S312中为是),效果改善确定单元302确定对象90未被激发。在步骤S314中,改善指令单元304向指令装置40发送使特征对象80执行预定操作的指令。然后,处理进入步骤S134。这里,预定操作是期望使对象90高兴和兴奋的操作,例如,特征对象80向对象90挥手、触摸对象90或呼叫对象90的名字或昵称。例如,改善指令单元304使指令装置40输出声音或指令,诸如“请向对象挥手”。假定对象90的名字或昵称是预先注册的。根据指令装置40的指令,操作者可以执行操作,使得特征对象80执行操作使得激发对象90。
另一方面,当指标“脉搏”的程度超过L2时(步骤S312中为否),效果改善确定单元302确定指标“对象的方向”的程度是否等于或小于预定L3(步骤S316)。当指标“对象的方向”的程度等于或小于L3(例如,“6”)(步骤S316中为是)时,效果改善确定单元302确定对象90没有像图像的存储值所示那样朝向拍摄装置2。然后,改善指令单元304将提示对象90朝向拍摄装置2的指令发送到指令装置40(步骤S318)。然后,处理进入步骤S134。例如,改善指令单元304使指令装置40输出声音或指示,诸如“提示对象朝向拍摄装置”。根据指令装置40的指令,操作者可以执行操作使特征对象80执行诸如朝向拍摄装置2的操作。
期望通过步骤S306、步骤S310、步骤S314或步骤S318来改善特征对象80的效果,使得对象90被激发并诱发关键时刻,并且增加估计值Ve。然后,通过S102至S120(图9)的处理再次计算估计值Ve,并且当通过步骤S122(图9)确定估计值Ve超过阈值Th1时,开始存储图像(S142)。当指标“对象的方向”的程度超过L3时(步骤S316中为否),处理进入S134。当即使在一定时间段内执行了上述效果改善、估计值Ve也不超过阈值Th1时,效果改善确定单元302可以放弃通过效果改善使估计值Ve超过阈值Th1。
图21是例示由于由根据第三实施例的拍摄控制装置100执行的效果改善而增加了估计值的图。这里,L1=7,L2=5,L3=6,Th1=35。首先,在改善效果之前,由于指标“对象与特征对象之间的距离”的程度是“1”,因此效果改善确定单元302确定指标“对象与特征对象之间的距离”的程度等于或小于L1。然后,改善指令单元304向指令装置40发送使特征对象80移近对象90的指令(步骤S310)。因此,可以将指标“对象与特征对象之间的距离”的程度增加到“10”。
在改善效果之前,由于指标“脉搏”的程度是“2”,所以效果改善确定单元302确定指标“脉搏”的程度等于或小于L2。然后,改善指令单元304向指令装置40发送使特征对象80执行预定操作的指令(步骤S314)。因此,对象90可以被激发,并且指标“脉搏”的程度可以增加到“8”。
在改善效果之前,由于指标“对象的方向”的程度是“2”,所以效果改善确定单元302确定指标“对象的方向”的程度等于或小于L3。然后,改善指令单元304将提示对象90朝向拍摄装置2的指令发送到指令装置40(步骤S318)。因此,指标“对象的方向”的程度可以增加到“7”。
结果,估计值Ve为16.6,并且在改善效果之前等于或小于阈值Th1,而在改善效果之后,估计值Ve上升到35.6,并且超过阈值Th1。因此,对象90的图像具有存储值。结果,开始存储该图像。
这样,根据第三实施例的拍摄控制装置100可以在估计值Ve低时指示特征对象80提示对象90增加估计值Ve。这使得可以有意地诱发对象90的关键时刻。因此,可以增加存储图像的机会。此外,根据第三实施例的拍摄控制装置100可以展现与如上文所述根据第一实施例的拍摄控制装置100所展现的效果基本相同的效果。
在图20所示的示例中,效果改善确定单元302根据指标“对象与特征对象之间的距离”、“脉搏”和“对象的方向”的程度来确定是否改善效果,但本发明不限于这种配置。效果改善确定单元302可以根据其它指标、特别是具有相对较大权重系数的指标的程度来确定是否改善效果。
修改示例
本实施例不限于上述实施例,并且可以在不偏离要点的范围内适当地改变。例如,上述多个实施例相互适用。例如,第三实施例配置可应用于第二实施例。
在根据上述实施例的流程图中,可以适当地改变每个处理的顺序。可以不执行根据上述实施例的流程图中的一个或多个处理。例如,在图20所示的流程图中,可以改变步骤S308和S310、步骤S312和S314以及步骤S316和S318的顺序。例如,步骤S308和S310的处理可以在步骤S312和S314的处理之后。可以省略图20的步骤S302。换句话说,当待机模式没有持续预定时间段时,效果改善确定单元302可以确定是否立即改善效果。
在上述实施例中,估计值计算单元132将指标程度与权重系数的乘积之和计算为估计值Ve,但本发明不限于此配置。估计值计算单元132可以通过简单地对指标程度求和来计算估计值Ve而不将指标程度乘以权重系数。然而,如上所述,通过将指标程度乘以权重系数,可以以更高的精度存储要存储的图像。
在上述实施例中,当估计值Ve超过阈值Th1时,存储图像,并且跟踪和拍摄对象90;然而,本发明不限于这样的配置。作为跟踪对象90的拍摄的触发器的阈值可以不同于作为存储图像的触发器的阈值。也就是说,当估计值Ve超过阈值Th1时,可以存储图像,并且当估计值Ve超过阈值Th3时,可以跟踪和拍摄对象90。
此外,在上述实施例中,当图像没有在被存储时,拍摄装置2被定位在初始位置作为待机模式,但本发明不限于此配置。在待机模式下,可以使用拍摄装置2或另一拍摄装置来搜索对象90。在这种情况下,当能够检测到对象90的位置信息时,可以使用对象90的位置信息来搜索对象90。通过这样做,可以增加拍摄机会。
在上述实施例中,每当估计值Ve超过阈值Th1时,连续存储图像,但本发明不限于此配置。当连续存储图像的预定时间段过去时,可以停止存储图像。结果,可以抑制对图像存储装置24的存储容量的压缩并节省存储容量。
图像指标不限于图5所示的指标。图像指标可以是图5所示指标的一部分,或者可以包括其他图像指标。例如,图像指标确定单元114可以使用对象90的运动作为图像指标。具体地,图像处理装置20通过诸如运动捕捉的技术来检测对象90的运动。然后,当对象90的运动表示对象90的情感(例如,狂欢等)时,图像指标确定单元114可以根据运动的幅度等来确定图像指标的程度。
图像指标确定单元114可以使用特征对象相对于拍摄装置2的方向作为图像指标。例如,当特征对象是吉祥物特征时,图像处理装置20可以以与确定对象90的方向相同的方式确定与吉祥物特征的面部相对应的部分的方向。当吉祥物特征的方向朝向拍摄装置2时,图像指标确定单元114可以增加图像指标的程度。
此外,图像指标确定单元114可以使用从拍摄装置2到特征对象的距离作为图像指标。例如,当特征对象是吉祥物特征时,图像处理装置20可以以与确定对象90的距离相同的方式来确定从拍摄装置2到吉祥物特征的距离。随着从拍摄装置2到吉祥物特征的距离更接近于适合拍摄的预定距离,图像指标确定单元114可以增加图像指标的程度。
对象状态指标不限于图6所示的对象状态指标。对象状态指标可以是图6所示指标的一部分,或者可以包括其他对象状态指标。例如,状态指标确定单元124可以使用对象90的位置信息作为对象状态指标。具体地,传感器4是具有GPS(全球定位***)功能等的位置传感器,其检测对象90的位置信息。随着对象90的位置更接近拍摄装置2,状态指标确定单元124可以增加对象状态指标的程度。
状态指标确定单元124可以使用对象90的血压作为对象状态指标。具体地说,作为血压测量计的传感器4检测对象90的血压。随着检测到的血压与对象90的血压平均值之间的差变大,状态指标确定单元124可以增加对象状态指标的程度。当能够使用脑电图传感器来检测对象90的脑电图时,状态指标确定单元124可以使用对象90的脑电图作为对象状态指标。
此外,可以使用各种类型的非暂时性计算机可读介质来存储上述程序并将其提供给计算机。非暂时性计算机可读介质包括各种类型的有形存储介质。非暂时性计算机可读介质的例子包括磁记录介质(例如,软盘、磁带、硬盘驱动器)、磁光记录介质(例如,磁光盘)、CD-ROM(只读存储器)、CD-R、CD-R/W、固态存储器(例如,掩模ROM、PROM(可编程ROM)、EPROM(可擦除PROM)、闪存ROM、RAM(随机存取存储器))。程序也可以由各种类型的暂时性计算机可读介质提供给计算机。暂时性计算机可读介质的例子包括电信号、光信号和电磁波。暂时性计算机可读介质可经由有线或无线通信路径(例如电线和光纤)向计算机提供程序。
尽管已经基于实施例对发明人作出的发明进行了具体的描述,但是本发明并不限于已经描述的实施例,并且不用说,可以在不偏离其要点的情况下进行各种修改。
Claims (19)
1.一种拍摄控制装置,包括:
分析结果获取单元,被配置成获取通过由拍摄装置拍摄对象而获得的图像的分析结果;
状态获取单元,被配置成获取通过由传感器检测所述对象的状态而获得的检测结果;
指标确定单元,被配置成针对与所述对象相关的多个指标中的每个指标、基于所述图像的分析结果和所述对象的状态的检测结果来确定指标程度;
估计值计算单元,被配置成使用所述指标程度来计算用于估计所述图像的存储值的估计值;以及
图像存储控制单元,被配置成当所述估计值超过预定第一阈值时进行控制以存储所述图像。
2.根据权利要求1所述的拍摄控制装置,
其中,所述估计值计算单元基于每个指标的权重系数和所述指标程度来计算所述估计值。
3.根据权利要求1所述的拍摄控制装置,
其中,当所述估计值不大于预定第二阈值时,所述图像存储控制单元进行控制以不存储所述图像。
4.根据权利要求3所述的拍摄控制装置,
其中,所述预定第二阈值不同于所述预定第一阈值。
5.根据权利要求1所述的拍摄控制装置,还包括:
拍摄装置控制单元,被配置成当所述估计值超过所述预定第一阈值时,控制所述拍摄装置以跟踪和拍摄所述对象。
6.根据权利要求5所述的拍摄控制装置,
其中,存在要拍摄的多个对象,
其中,所述指标确定单元针对所述多个对象中的每个对象确定所述指标程度,
其中,所述估计值计算单元针对所述多个对象中的每个对象计算所述估计值,以及
其中,所述拍摄装置控制单元控制所述拍摄装置以跟踪和拍摄所述多个对象中的一个对象,所述一个对象具有所述多个对象的估计值中的最大估计值。
7.根据权利要求1所述的拍摄控制装置,还包括:
效果改善确定单元,被配置成当图像未被存储时、基于所述指标程度来确定是否有必要改善可操作的特征对象的效果,以及
改善指令单元,被配置成在确定有必要改善所述特征对象的效果时指示改善所述效果。
8.一种拍摄控制***,包括:
至少一个拍摄装置,拍摄至少一个对象;
至少一个传感器,检测所述至少一个对象的状态;以及
拍摄控制装置,对通过所述至少一个拍摄装置的拍摄进行控制,
其中,所述拍摄控制装置包括:
分析结果获取单元,被配置成获取通过由所述至少一个拍摄装置拍摄所述至少一个对象而获得的图像的分析结果;
状态获取单元,被配置成获取通过由所述至少一个传感器检测所述至少一个对象的状态而获得的检测结果;指标确定单元,被配置成针对与所述至少一个对象相关的多个指标中的每个指标、基于所述图像的分析结果和所述至少一个对象的状态的检测结果来确定指标程度;
估计值计算单元,被配置成使用所述指标程度来计算用于估计所述图像的存储值的估计值;以及
图像存储控制单元,被配置成当所述估计值超过预定第一阈值时进行控制以存储所述图像。
9.根据权利要求8所述的拍摄控制***,
其中,所述估计值计算单元基于每个指标的权重系数和所述指标程度来计算所述估计值。
10.根据权利要求8所述的拍摄控制***,
其中,当所述估计值不大于预定第二阈值时,所述图像存储控制单元进行控制以不存储所述图像。
11.根据权利要求8所述的拍摄控制***,还包括:
拍摄装置控制单元,被配置成控制所述拍摄装置来跟踪和拍摄所述至少一个对象。
12.根据权利要求11所述的拍摄控制***,
其中,所述至少一个对象包括多个对象,
其中,所述指标确定单元针对所述多个对象中的每个对象确定所述指标程度,
其中,所述估计值计算单元针对所述多个对象中的每个对象计算估计值,以及
其中,所述拍摄装置控制单元控制所述拍摄装置以跟踪和拍摄所述多个对象中的一个对象,所述一个对象具有所述多个对象的估计值中的最大估计值。
13.根据权利要求8所述的拍摄控制***,还包括:
效果改善确定单元,被配置成当图像未被存储时、基于所述指标程度来确定是否有必要改善可操作的特征对象的效果,以及
改善指令单元,被配置成在确定有必要改善所述特征对象的效果时指示改善所述效果。
14.一种拍摄控制方法包括:
获取通过使用拍摄装置拍摄对象而获得的图像的分析结果;
获取通过使用传感器检测所述对象的状态而获得的检测结果;
针对与所述对象相关的多个指标中的每个指标、基于所述图像的分析结果和所述对象的状态的检测结果来确定指标程度;
使用所述指标程度来计算用于估计所述图像的存储值的估计值;以及
当所述估计值超过预定第一阈值时进行控制以存储所述图像。
15.根据权利要求14所述的拍摄控制方法,
其中,基于每个指标的权重系数和所述指标程度来计算所述估计值。
16.根据权利要求14所述的拍摄控制方法,
其中,在所述控制中,当所述估计值不大于预定第二阈值时,不存储所述图像。
17.根据权利要求14所述的拍摄控制方法,还包括:
当所述估计值超过所述预定第一阈值时,控制所述拍摄装置在跟踪的同时拍摄所述对象。
18.根据权利要求17所述的拍摄控制方法,
其中,存在要拍摄的多个对象,
其中,在所述确定中,针对所述多个对象中的每个对象确定所述指标程度,
其中,在所述计算中,针对所述多个对象中的每个对象计算所述估计值,以及
其中,在控制所述拍摄装置时,控制所述拍摄装置以跟踪和拍摄所述多个对象中的一个对象,所述一个对象具有所述多个对象的估计值中的最大估计值。
19.根据权利要求14所述的拍摄控制方法,还包括:
当所述图像未被存储时、基于所述指标程度来确定是否有必要改善可操作的特征对象的效果,以及
在确定有必要改善所述特征对象的效果时指示改善所述效果。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018229813A JP7401968B2 (ja) | 2018-12-07 | 2018-12-07 | 撮影制御装置、撮影システム及び撮影制御方法 |
JP2018-229813 | 2018-12-07 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111294507A true CN111294507A (zh) | 2020-06-16 |
Family
ID=70972628
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911157791.8A Pending CN111294507A (zh) | 2018-12-07 | 2019-11-22 | 拍摄控制装置、拍摄***和拍摄控制方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11076123B2 (zh) |
JP (1) | JP7401968B2 (zh) |
CN (1) | CN111294507A (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019193781A1 (ja) * | 2018-04-04 | 2019-10-10 | パナソニックIpマネジメント株式会社 | 感情推定装置、感情推定方法及びプログラム |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1905629A (zh) * | 2005-07-26 | 2007-01-31 | 佳能株式会社 | 摄像装置和摄像方法 |
US20070195174A1 (en) * | 2004-10-15 | 2007-08-23 | Halpern Oren | System and a method for improving the captured images of digital still cameras |
US20080192129A1 (en) * | 2003-12-24 | 2008-08-14 | Walker Jay S | Method and Apparatus for Automatically Capturing and Managing Images |
CN101600051A (zh) * | 2008-06-06 | 2009-12-09 | 索尼株式会社 | 图像拍摄设备、图像拍摄方法和计算机程序 |
CN101867712A (zh) * | 2006-08-02 | 2010-10-20 | 索尼株式会社 | 图像拍摄设备和方法、及表情评价设备 |
CN106023341A (zh) * | 2016-05-05 | 2016-10-12 | 北京奇虎科技有限公司 | 行车记录仪应急拍摄控制方法及装置 |
CN106713769A (zh) * | 2017-03-27 | 2017-05-24 | 联想(北京)有限公司 | 图像拍摄控制方法、装置及电子设备 |
CN107172290A (zh) * | 2017-06-02 | 2017-09-15 | 维沃移动通信有限公司 | 一种拍照控制方法和装置 |
CN108924482A (zh) * | 2018-06-22 | 2018-11-30 | 张小勇 | 一种视频记录方法和*** |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040174434A1 (en) * | 2002-12-18 | 2004-09-09 | Walker Jay S. | Systems and methods for suggesting meta-information to a camera user |
US8169484B2 (en) * | 2005-07-05 | 2012-05-01 | Shai Silberstein | Photography-specific digital camera apparatus and methods useful in conjunction therewith |
JP2008141740A (ja) * | 2006-11-07 | 2008-06-19 | Fujifilm Corp | 撮影装置および方法並びにプログラム |
JP4757173B2 (ja) * | 2006-11-17 | 2011-08-24 | キヤノン株式会社 | 撮像装置及びその制御方法及びプログラム |
JP2008288745A (ja) | 2007-05-16 | 2008-11-27 | Hitachi Ltd | 映像情報処理装置 |
JP5544764B2 (ja) * | 2009-06-09 | 2014-07-09 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
JP2011077906A (ja) * | 2009-09-30 | 2011-04-14 | Panasonic Corp | 撮影装置、撮影方法、及びプログラム |
JP5448868B2 (ja) | 2010-01-19 | 2014-03-19 | キヤノン株式会社 | 撮像装置および撮像装置の制御方法 |
US9282238B2 (en) * | 2010-10-29 | 2016-03-08 | Hewlett-Packard Development Company, L.P. | Camera system for determining pose quality and providing feedback to a user |
JP2012249094A (ja) | 2011-05-27 | 2012-12-13 | Panasonic Corp | 撮像システム及び撮像装置 |
US9036069B2 (en) * | 2012-02-06 | 2015-05-19 | Qualcomm Incorporated | Method and apparatus for unattended image capture |
JP6040655B2 (ja) * | 2012-09-13 | 2016-12-07 | オムロン株式会社 | 画像処理装置、画像処理方法、制御プログラムおよび記録媒体 |
JP6481866B2 (ja) | 2014-01-28 | 2019-03-13 | ソニー株式会社 | 情報処理装置、撮像装置、情報処理方法、及び、プログラム |
KR102376700B1 (ko) | 2015-08-12 | 2022-03-22 | 삼성전자주식회사 | 비디오 컨텐츠 생성 방법 및 그 장치 |
JP6337980B2 (ja) | 2017-02-15 | 2018-06-06 | カシオ計算機株式会社 | 運動状態検出装置、その制御方法、および、その制御プログラム |
JP6990989B2 (ja) * | 2017-05-12 | 2022-01-12 | 株式会社ブリヂストン | マットレス |
-
2018
- 2018-12-07 JP JP2018229813A patent/JP7401968B2/ja active Active
-
2019
- 2019-10-17 US US16/655,895 patent/US11076123B2/en active Active
- 2019-11-22 CN CN201911157791.8A patent/CN111294507A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080192129A1 (en) * | 2003-12-24 | 2008-08-14 | Walker Jay S | Method and Apparatus for Automatically Capturing and Managing Images |
US20070195174A1 (en) * | 2004-10-15 | 2007-08-23 | Halpern Oren | System and a method for improving the captured images of digital still cameras |
CN1905629A (zh) * | 2005-07-26 | 2007-01-31 | 佳能株式会社 | 摄像装置和摄像方法 |
CN101867712A (zh) * | 2006-08-02 | 2010-10-20 | 索尼株式会社 | 图像拍摄设备和方法、及表情评价设备 |
CN101600051A (zh) * | 2008-06-06 | 2009-12-09 | 索尼株式会社 | 图像拍摄设备、图像拍摄方法和计算机程序 |
CN106023341A (zh) * | 2016-05-05 | 2016-10-12 | 北京奇虎科技有限公司 | 行车记录仪应急拍摄控制方法及装置 |
CN106713769A (zh) * | 2017-03-27 | 2017-05-24 | 联想(北京)有限公司 | 图像拍摄控制方法、装置及电子设备 |
CN107172290A (zh) * | 2017-06-02 | 2017-09-15 | 维沃移动通信有限公司 | 一种拍照控制方法和装置 |
CN108924482A (zh) * | 2018-06-22 | 2018-11-30 | 张小勇 | 一种视频记录方法和*** |
Also Published As
Publication number | Publication date |
---|---|
US11076123B2 (en) | 2021-07-27 |
JP7401968B2 (ja) | 2023-12-20 |
JP2020092370A (ja) | 2020-06-11 |
US20200186748A1 (en) | 2020-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9418278B2 (en) | Image analysis method, camera apparatus, control apparatus, control method and storage medium | |
JP4586709B2 (ja) | 撮像装置 | |
EP2851880B1 (en) | Method, system and storage medium for controlling an image capture device, in particular of a door station | |
CN110688914A (zh) | 一种手势识别的方法、智能设备、存储介质和电子设备 | |
US20090028386A1 (en) | Automatic tracking apparatus and automatic tracking method | |
WO2014171258A1 (ja) | 情報処理システム、情報処理方法及びプログラム | |
JP6799063B2 (ja) | 注目位置認識装置、撮像装置、表示装置、注目位置認識方法及びプログラム | |
JP5484184B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP5001930B2 (ja) | 動作認識装置及び方法 | |
WO2014175356A1 (ja) | 情報処理システム、情報処理方法及びプログラム | |
CN113168694B (zh) | 人检测装置以及人检测方法 | |
US20140368628A1 (en) | Warning method for driving vehicle and electronic apparatus for vehicle | |
US9256945B2 (en) | System for tracking a moving object, and a method and a non-transitory computer readable medium thereof | |
US20180144198A1 (en) | Information processing apparatus, information processing method, and storage medium | |
CN110291771B (zh) | 一种目标对象的深度信息获取方法及可移动平台 | |
CN111294507A (zh) | 拍摄控制装置、拍摄***和拍摄控制方法 | |
CN110651274A (zh) | 可移动平台的控制方法、装置和可移动平台 | |
KR101610496B1 (ko) | 시선 추적 방법 및 장치 | |
JP7243372B2 (ja) | 物体追跡装置および物体追跡方法 | |
JPWO2018179119A1 (ja) | 映像解析装置、映像解析方法およびプログラム | |
US11546502B2 (en) | Image processing apparatus and method of controlling the same | |
JP2020071717A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2022048077A (ja) | 画像処理装置およびその制御方法 | |
JP6210214B2 (ja) | 主要被写体推定装置及びプログラム並びに情報処理装置 | |
KR101426775B1 (ko) | 객체 추적 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |