CN108647557A - 信息处理设备、信息处理方法和存储介质 - Google Patents

信息处理设备、信息处理方法和存储介质 Download PDF

Info

Publication number
CN108647557A
CN108647557A CN201810182621.4A CN201810182621A CN108647557A CN 108647557 A CN108647557 A CN 108647557A CN 201810182621 A CN201810182621 A CN 201810182621A CN 108647557 A CN108647557 A CN 108647557A
Authority
CN
China
Prior art keywords
image
unit
information processing
display
processing equipment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810182621.4A
Other languages
English (en)
Inventor
山本真司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of CN108647557A publication Critical patent/CN108647557A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供一种信息处理设备、信息处理方法和存储介质。为了降低用于确认图像分析的结果的负荷,图像处理设备检测图像中的物体,获取监视区域中的位置,获取对象和所检测到的物体之间的相似度,并且基于关注度来改变在区域图像的位置处所显示的物体的显示格式。

Description

信息处理设备、信息处理方法和存储介质
技术领域
本发明涉及用于通过使用地图图像来监视广泛区域并追踪人物的信息处理设备、信息处理方法和存储介质。
背景技术
近年来,伴随着图像分析技术的发展,提供了如下***,其中该***用于通过针对城市中所安装的照相机所拍摄的图像来执行人物对照处理或者异常行为检测处理。
在日本专利5438861所论述的显示方法中,对多个照相机所拍摄的图像执行采用图像识别技术的人物识别,并且将包括对象人物的照相机图像叠加并显示在地图上的同时强调照相机图像。此外,在2013年的计算机视觉与模式识别(Computer Vision andPattern Recognition,CVPR)的IEEE计算机协会会议的“S.Yu、Y.Yang和A.Hauptmann的Harry Potter's Marauder's Map:Localizing and Tracking Multiple Persons-of-Interest by Nonnegative Discretization”中论述了用于在地图上描绘人物的位置的方法。利用该方法,观察者可以容易确认监视对象人物的位置和行为。
然而,如果原样向观察者提供照相机图像,则观察者必须从照相机图像中找出要作为追踪对象来监视的人物。此外,如果在地图上描绘假定要作为追踪对象的人物的位置,则观察者必须确认实际的照相机图像,以确认该人物的实际外貌或行为。
发明内容
根据本发明的方面,一种信息处理设备,用于通过使用由多个摄像设备获取到的多个拍摄图像来对监视区域进行监视,所述信息处理设备包括:检测单元,其被配置为检测所述拍摄图像中的物体;输入单元,其被配置为针对所述监视区域输入与追踪对象有关的信息;第一获取单元,其被配置为在所述监视区域中获取所述物体的位置;第二获取单元,其被配置为基于与所述检测单元所检测到的物体有关的信息以及与所述输入单元所输入的与所述追踪对象有关的信息,来获取所述物体和所述追踪对象之间的相似度;以及显示控制单元,其被配置为显示与所述监视区域相对应的区域图像,在所述区域图像上的由所述检测单元检测到第一物体的第一位置处显示从所述拍摄图像切出的所述第一物体的图像,并且在所述区域图像上的检测到第二物体的第二位置处显示符号,其中,所述第二物体的相似度比所述第一物体的相似度低。
根据本发明的方面,一种信息处理设备的信息处理方法,所述信息处理设备用于通过使用由多个摄像设备所获取到的多个拍摄图像来对监视区域进行监视,所述信息处理方法包括以下步骤:检测所述拍摄图像中的物体;接收与追踪对象有关的信息;在所述监视区域中获取所述物体的位置;基于所检测到的物体的信息以及所接收到的所述追踪对象的信息,来获取所述物体和所述追踪对象之间的相似度;以及显示与所述监视区域相对应的区域图像,在所述区域图像上的检测到第一物体的位置处显示从所述拍摄图像切出的所述第一物体的图像,并且在所述区域图像上的检测到第二物体的位置处显示符号,其中,所述第二物体的相似度比所述第一物体的相似度低。
根据本发明的方面,一种非暂时性计算机可读存储介质,其存储用于使计算机执行根据上述方法的程序。
通过以下参考附图对典型实施例的说明,本发明的其它特征将变得明显。
附图说明
图1是示出图像处理***的***结构的示例的框图。
图2是示出数据分析服务器设备的硬件结构的示例的框图。
图3是示出构成根据第一典型实施例的图像处理***的各设备的功能结构的示例的框图。
图4是示出从图像检测到的作为检测结果的示例的物体的图。
图5A和5B是各自示出将脚坐标投影至地图坐标的处理的示例的图。
图6是示出物体信息管理表的示例的图。
图7是示出照相机图标和人物图标叠加在地图数据上的显示的示例的图。
图8是示出利用缩略图来显示物体信息的显示的示例的图。
图9是示出对对象的移动路径和对象的先前缩略图进行显示的显示的示例的图。
图10是示出信息处理的示例的流程图(部分1)。
图11是示出信息处理的示例的流程图(部分2)。
图12是示出构成图像处理***的各设备的功能结构的示例的图。
图13是示出信息处理的示例的流程图(部分1)。
图14是示出信息处理的示例的流程图(部分2)。
图15A和15B是各自示出显示画面的布局的示例的图。
具体实施方式
以下将参考附图来说明典型实施例。
在本典型实施例所述的处理中,从多个图像分析物体的特征量,并且基于关注度来将分析结果和监视对象的对照结果提供给用户。
图1是示出图像处理***的***结构的示例的框图。图像处理***包括经由用作网络线路的局域网(LAN)107而彼此连接的多个摄像设备101、图像分析服务器设备102、数据分析服务器设备103、网络存储设备104和信息处理设备105。图像处理***是信息处理***的示例。
摄像设备101可以是网络照相机。图像分析服务器设备102收集由多个摄像设备101拍摄的图像数据,并且执行图像分析处理。例如,图像分析服务器设备102经由图像分析处理从人物的面部区域提取特征量。数据分析服务器设备103收集图像分析服务器设备102所提取出的特征量,并且执行数据分析处理。例如,数据分析服务器设备103将由图像分析服务器设备102所提取出的人物的特征量进行对照,以执行人物识别作为数据分析处理。经由LAN107将摄像设备101所拍摄的图像、图像分析服务器设备102所提取出的特征量以及数据分析服务器设备103所获取到的人物对照的对照结果存储在网络存储设备104中。信息处理设备105可以是诸如个人计算机等的设备。信息处理设备105包括诸如鼠标、键盘和/或触摸面板等的输入装置、以及诸如显示器等的显示装置。信息处理设备105将经由输入装置所接收到的信息发送至图像分析服务器设备102,并将图像分析服务器设备102所获取到的分析结果显示在显示装置上。信息处理设备105将分析结果叠加在网络存储设备104中所存储的图像数据上,并且将其显示在诸如显示器等的显示装置上。
摄像设备101可以包括诸如两个以上的照相机等的任意数量的照相机。此外,连接至LAN 107的图像分析服务器设备102、数据分析服务器设备103、网络存储设备104或信息处理设备105的数量不限于图1所示的本典型实施例中的设备的数量。多个图像分析服务器设备102、数据分析服务器设备103、网络存储设备104或信息处理设备105可以连接至LAN107,只要可以通过地址来识别这些设备即可。
假定PC用作信息处理设备105。然而,例如,由于诸如平板终端等的装置无线地连接至信息处理设备105,因此针对LAN 107的物理连接模式不限于有线连接,并且可以是任何物理连接模式,只要可以按照协议将设备连接至LAN 107即可。
图2是示出数据分析服务器设备103的硬件结构的示例的框图。如图2所示,数据分析服务器设备103包括中央处理单元(CPU)10、存储装置20、通信装置30、输入装置40和显示装置50作为硬件结构。
CPU 10根据存储装置20中所存储的程序来执行处理。存储装置20存储用于由CPU10执行的处理的程序或数据。通信装置30将数据分析服务器设备103连接至LAN 107。输入装置40可以是用于向CPU 10输入用户输入的诸如键盘或鼠标等的装置。显示装置50可以是用于向用户显示CPU 10的处理结果的液晶显示器。
CPU 10基于存储装置20中所存储的程序来执行处理,以实现数据分析服务器设备103的(后述的)功能结构、或者流程图中所示的如此执行的处理。
图像分析服务器设备102、网络存储设备104和信息处理设备105各自同样包括与图2所示的数据分析服务器设备103的硬件结构相同的硬件结构。然后,各设备的CPU基于该设备的存储装置中所存储的程序来执行处理,以实现该设备的功能结构和由此执行的流程图的处理。
然而,诸如输入装置40或显示装置50等的构成元件不是数据分析服务器设备103的硬件结构所必需的。
图3是示出构成图像处理***的各设备的功能结构的示例的框图。作为功能结构,图像处理***包括图像获取单元201、物体检测单元202、图像切出单元203、特征提取单元204、对象管理单元205、地图坐标计算单元206、关注度计算单元207、显示切换单元208和物体信息管理单元209。图像处理***还包括输入单元210和显示单元211作为功能结构。
在图像获取单元201、物体检测单元202、图像切出单元203和特征提取单元204安装在图像分析服务器设备102上。对象管理单元205、地图坐标计算单元206、关注度计算单元207和显示切换单元208安装在数据分析服务器设备103上。然而,例如,地图坐标计算单元206和关注度计算单元207可以安装在图像分析服务器设备102上,并且各功能的分配不限于图3所示的示例。
图像获取单元201以预定时间间隔从摄像设备101顺次获取图像,并且经由LAN107来向物体检测单元202和图像切出单元203提供这些图像与各摄像设备101相关联的诸如互联网协议(IP)地址等的照相机ID、以及摄像时间。图像获取单元201所获取到的图像不限于从摄像设备101所获取到的拍摄图像。例如,这些图像可以是通过从网络存储设备104读取图像数据(记录数据)获取到的,或者可以是经由网络通过数据流获取到的。
物体检测单元202执行从图像获取单元201所提供的图像中检测对象的检测处理。物体检测单元202向图像切出单元203总地提供用于唯一指定照相机ID和检测对象的标识符(以下称为“物体ID”)、对象的检测矩形(位置和大小)、以及对象的检测时间作为检测信息。物体检测单元202使用图像获取单元201所提供的摄像时间作为检测时间。例如,作为用于从图像中检测对象的方法,物体检测单元202可以采用在2005年的计算机视觉与模式识别(CVPR)的IEEE计算机协会会议的“N.Dalal和B.Triggs的Histograms of OrientedGradients for Human Detection”中所述的用于检测人物的整个身体的技术。
图4是示出从图像检测到的作为检测结果的示例的物体的图。物体检测单元202对照相机图像300执行检测处理,以使得由此生成物体ID 302和检测矩形303。
图像切出单元203执行用于根据图像获取单元201所提供的图像和物体检测单元202所提供的检测信息来创建对象的切出图像(以下称为“缩略图”)的处理。图像切出单元203向特征提取单元204提供与检测信息相关联的所创建的缩略图。图像切出单元203使用物体检测单元202所提供的检测信息中所包括的检测矩形,来从图像获取单元201所提供的图像中仅切出物体区域,以创建缩略图。
特征提取单元204执行用于从图像切出单元203所提供的缩略图中提取检测对象的特征量的特征量提取处理。特征提取单元204向物体信息管理单元209总地提供检测信息、缩略图和特征量作为物体信息。作为特征提取方法,特征提取单元204可以采用在2015年的计算机视觉与模式识别(CVPR)的IEEE计算机协会会议的“S.Paisitkriangkrai的Learning to rank in person re-identification with metric ensembles”中所述的用于计算整个身体的特征的技术。
对象管理单元205管理与对象、对象历史和对象候选有关的信息,并且向关注度计算单元207和显示切换单元208提供该信息。该对象是指经由输入单元210所指定的物体。该对象还是指对象的物体信息。对象历史是指与过去被确认为对象的物体有关的信息的列表。对象候选是指与进行对照了的但尚未被确认为对象的物体有关的信息的列表。对象管理单元205向关注度计算单元207提供所保持的对象信息。对象管理单元205通过使用关注度计算单元207所提供的物体信息来更新对象候选。例如,对象管理单元205将具有等于或大于阈值的(后述的)对照分数(得分)的全部物体信息添加至对象候选。对象管理单元205确认满足更新条件的对象候选作为对象,并且更新对象信息和对象历史。例如,如果从对象的检测时间起经过的时间在阈值以上,则对象管理单元205更新具有最高对照分数的对象候选作为对象。可选地,与从对象的检测时间起经过的时间无关地,对象管理单元205更新具有等于或大于阈值的对照分数的对象候选作为对象。对象管理单元205在对象信息被更新时将对象信息添加至对象历史。
地图坐标计算单元206通过使用物体信息管理单元209中所保存的物体信息来计算地图上的物体的位置(以下称为“地图坐标”),将地图坐标添加至物体信息,并且将该物体信息提供给物体信息管理单元209。以下将说明地图坐标的计算。首先,地图坐标计算单元206获取照相机图像的地面和地图上的地面的投影矩阵。例如,地图坐标计算单元206将经由输入单元210输入的照相机图像上的四个点和地图上的四个点相关联,并且获取单应性矩阵H。然后,地图坐标计算单元206根据物体信息的检测矩形来估计图像中的物体的脚坐标。例如,在脚坐标fp是(fpx,fpy)并且检测矩形坐标r是(rx,ry,rw,rh)的情况下,地图坐标计算单元206可以通过公式fp=(rx+rw/2,ry+rh)来获取脚坐标。值fpx和fpy分别表示x坐标和y坐标的值。值rx、ry、rw和rh分别表示矩形的右上的x坐标、右上的y坐标、宽度和高度的值。地图坐标计算单元206计算地图坐标mp。例如,地图坐标计算单元206执行单应性变换,以通过mp=Hfp的计算将图像上的脚坐标变换为地图上的坐标,从而获取地图坐标mp。图5是示出将脚坐标投影至地图坐标的处理的示例。地图坐标计算单元206输入照相机图像上的地面坐标401和地图上的地面坐标403以获取单应性矩阵,并且将脚坐标402投影到地图坐标404上。代替指定四个点,可以在指定三个以上的点的情况下估计地图上的脚坐标。
关注度计算单元207使用对象管理单元205所提供的对象信息和物体信息管理单元209所保存的物体信息来将对象和物体的特征量相比较,并且计算相似度作为物体的关注度。关注度计算单元207将关注度和对照分数添加至物体信息,并且将该物体信息提供至对象管理单元205和物体信息管理单元209。首先,关注度计算单元207将特征量相比较以对照照相机中的人物。此时,关注度计算单元207指定特征量的相似度作为对照分数。在物体之间的相似度高的情况下对象分数高,以及在相似度低的情况下对照分数低。关注度计算单元207指定对照分数本身作为关注度。作为特征量的比较方法,例如,关注度计算单元207可以采用在2015年的计算机视觉与模式识别(CVPR)的IEEE计算机协会会议的“S.Paisitkriangkrai的Learning to rank in person re-identification with metricensembles”中所述的用于比较整个身体的特征的技术。
显示切换单元208使用与对象管理单元205所提供的对象、对象历史和对象候选有关的信息以及物体信息管理单元209中所保存的物体信息来确定显示格式和显示大小。显示切换单元208将显示格式和显示大小添加至物体信息,并且将该物体信息提供给物体信息管理单元209。首先,针对与对象、对象历史和对象候选有关的物体信息,显示切换单元208确定显示格式作为缩略图。接着,针对具有等于或大于预设阈值的关注度的物体信息,显示切换单元208确定显示格式作为缩略图。显示切换单元208针对具有小于预设阈值的关注度的物体信息确定显示格式作为图标。此外,针对全部物体信息,关注度越高,则显示切换单元208将显示大小设置得越大,以及关注度越低,则显示切换单元208将显示大小设置得越小。显示切换单元208所执行的处理是显示控制处理的示例。该图标是示意性示出物体的图片的示例。
物体信息管理单元209将从特征提取单元204、地图坐标计算单元206、关注度计算单元207和显示切换单元208接收到的各物体信息保存在物体信息管理表中。图6是示出物体信息管理表的示例的图。物体信息管理单元209可以通过搜索与物体ID 3001有关的信息来获取作为“(150,120)”的地图坐标、以及作为“图标”的显示格式。
输入单元210生成用于指定人物的信息(以下称为“查询”),向物体信息管理单元209搜索与所指定的人物有关的物体信息,并且将物体信息提供给对象管理单元205。可以使用物体ID作为该查询的示例。输入单元210基于经由信息处理设备105的输入装置40所进行的用户操作来生成查询。例如,显示单元211使用与对象管理单元205中所保存的对象、对象历史和对象候选有关的信息以及从物体信息管理单元209获取到的物体信息,并且将分析结果显示在信息处理设备105的显示装置上以向用户提供分析结果。显示单元211将人物的照相机图标、人物图标、缩略图和移动路径信息叠加并显示在预设的地图数据上。图7是示出叠加并显示照相机图标和人物图标的地图数据的示例的图。首先,显示单元211从摄像设备101或网络存储设备104获取照相机坐标和照相机取向,并且在照相机坐标的位置处显示照相机图标602,以使得将照相机图标602叠加并显示在地图数据600上。然后,显示单元211从物体信息管理单元209获取表示与绘制对象时间一致的检测时间的物体信息。然后,显示单元211基于地图坐标和显示格式来在地图坐标的位置处叠加人物图标601。图8是示出由缩略图显示的物体信息的示例的图,其中该物体信息的显示格式被指定为缩略图。在从物体信息管理单元209获取到物体信息的情况下,如果物体信息的显示格式被指定为缩略图,则显示单元211获取该物体信息中所包括的缩略图701,并且代替图标在地图坐标的位置处叠加该图像。图9是示出对对象的移动路径和对象的过去缩略图进行显示的显示示例的图。首先,显示单元211从物体信息管理单元209获取与对象管理单元205中所保存的对象、对象历史和对象候选相对应的物体信息。然后,显示单元211基于从物体信息管理单元209获取到的物体信息来绘制地图数据上的物体信息。此时,显示单元211可以基于物体信息的显示大小来改变要绘制的图标或缩略图的大小。接着,显示单元211绘制与对象802和对象历史801相对应的物体信息。即使在检测时间与绘制对象时间不一致的情况下,显示单元211也将与对象802和对象历史801相对应的物体信息绘制在地图数据600上。此外,显示单元211按检测时间的顺序来配置对象历史和对象802,并且绘制其地图坐标之间的路线803。显示单元211绘制与对象候选804相对应的物体信息。即使在检测时间与绘制对象时间不一致的情况下,显示单元211也将与对象候选804相对应的物体信息绘制在地图数据600上。显示单元211还绘制从对象802到对象候选804的辅助路线805。显示单元211可以基于相应的物体信息的显示大小来改变对象历史801、对象802和对象候选804的缩略图各自的绘制大小。此外,显示单元211可以改变尚未被确认为对象的对象候选的框颜色,以表现未确认状态。在图9的示例中,显示单元211利用虚线来表现对象候选804。此外,显示单元211可以改变辅助路线805的线颜色,以表现未确认状态。在图9的示例中,利用虚线来表现辅助路线805。由显示单元211执行的处理也是显示控制处理的示例。
在本典型实施例中,物体检测单元202从图像中提取方向梯度直方图(HOG)特征,并且使用经由支持向量机学习所提取出的特征量的模型来识别物体是否为人物。然而,物体检测单元202可以通过使用其它方法来检测物体。例如,要提取的特征量不限于HOG特征,并且物体检测单元202可以使用Hear-Like(听起来像)特征或局部二进制编码直方图(LBPH)特征,或者可以使用上述特征的组合。共用所提取出的特征量,以检测人物。此外,用于识别人物的模型不限于支持向量机,并且物体检测单元202可以使用自适应提升(AdaBoost)分类器或者随机树。作为人物的检测结果,物体检测单元202输出表示包围图像中的人物的矩形的四个顶点的位置坐标。此外,物体检测单元202与位置坐标一起输出表示检测结果的似然性。该似然性是将所提取出的特征量与用于识别人物的模型进行对照的结果,并且该似然性表示针对该模型的一致度。此外,为了高精度地指定对象的位置,物体检测单元202可以并行使用追踪人体的方法。通过在以下框中追踪经由检测处理所检测到的人物,指定由单个图像无法检测到的人物的位置,以使得可以高精度地指定对象的位置。此外,追踪方法不限于上述方法,并且可以使用用于指定对象的位置的任意方法。例如,物体检测单元202可以使用均值偏移追踪(mean-shift tracking)、Kalman滤波器或者在线提升(on-line boosting)作为追踪处理。
特征提取单元204所执行的特征提取是用于提取对象的特征的处理,并且该处理不限于用于提取特定特征量的处理。因此,可以执行用于提取表现对象的信息的任何处理。例如,特征提取单元204可以使用尺度不变特征转换(SIFT)特征或颜色直方图、或者它们的组合作为特征量的类型。此外,特征量不限于整个身体的特征,而可以是限于面部区域的特征量。
地图坐标计算单元206执行用于将图像上的坐标变换成地图上的坐标的处理,并且该处理不限于特定变换处理。因此,可以执行用于变换坐标的任何处理。
物体信息管理单元209中所保存的缩略图可以是切出的物体区域的图像或者视频图像,并且不是必须为单个切出图像。例如,在保存物体信息时,物体信息管理单元209可以搜索相同的物体ID的信息,并且按检测时间顺序组合相同的物体信息的缩略图,以将缩略图保存为运动图像。
关注度计算单元207所执行的特征比较是将特征提取单元204所获取到的特征进行比较的处理,并且该方法不限于特定比较方法。例如,关注度计算单元207可以使用诸如L1距离、Bhattacharyya距离或交叉法等的比较方法。
图10和11是示出根据本典型实施例的信息处理的流程的流程图。
首先,将参考图10来说明用于创建物体信息的信息处理。在步骤S901中,图像获取单元201获取图像。在步骤S902中,图像获取单元201判断是否获取到图像。如果获取到图像,则图像获取单元201判断为图像存在(步骤S902中为“是”),并且处理进入步骤S903。如果无法获取到图像,则图像获取单元201判断为图像不存在(步骤S902中为“否”),并且结束图10的流程图的处理。在步骤S903中,物体检测单元202从图像检测多个物体。在步骤S904中,物体检测单元202判断是否检测到任何物体。如果检测到物体,则物体检测单元202判断为物体存在(步骤S904中为“是”),并且处理进入步骤S905。如果无法检测到物体,则物体检测单元202判断为物体不存在(步骤S904中为“否”),并且处理返回至步骤S901。在步骤S905中,图像切出单元203创建缩略图。在步骤S906中,特征提取单元204提取特征量。在步骤S907中,物体信息管理单元209总地保存检测信息、缩略图和特征量作为物体信息。在步骤S908中,如果物体检测单元202判断为存在任何未处理的物体(步骤S908中为“是”),则处理进入步骤S905。如果不存在未处理的物体(步骤S908中为“否”),则处理返回至步骤S901。
接着,将参考图11来说明用于计算物体的关注度并且将物体显示在地图上的信息处理。在步骤S1001中,输入单元210基于经由信息处理设备105的输入装置40的用户操作来输入查询。如果接收到查询,则在步骤S1002中,地图坐标计算单元206计算各物体的地图坐标。在步骤S1003中,关注度计算单元207计算物体的关注度。在步骤S1004中,对象管理单元205更新对象、对象历史和对象候选。在步骤S1005中,显示切换单元208判断物体的关注度是否在阈值以上。如果显示切换单元208判断为物体的关注度在阈值以上(步骤S1005中为“是”),则处理进入步骤S1007。如果物体的关注度小于阈值(步骤S1005中为“否”),则处理进入步骤S1006。在步骤S1006中,显示切换单元208将显示设置成图标。在步骤S1007中,显示切换单元208将显示设置成缩略图。在步骤S1008中,显示切换单元208设置物体的显示大小。在步骤S1009中,显示单元211在信息处理设备105的显示装置50上显示物体信息。在步骤S1010中,显示单元211例如在信息处理设备105的显示装置50上显示对象、对象历史和对象候选。在步骤S1011中,显示单元211例如基于经由信息处理设备105的输入装置40的用户操作来判断是否结束处理。如果显示单元211判断为结束处理(步骤S1011中为“是”),则结束图11的流程图的处理。如果显示单元211判断为不结束处理(步骤S1011中为“否”),则处理返回至步骤S1002。
如上所述,在本典型实施例中,由于从多个图像分析物体的特征量并且基于关注度向用户提供将分析结果和监视对象进行对照的结果,因此用户可以同时确认物体存在的位置并掌握关注物体的行为。因此,可以降低用于确认图像分析的结果的负荷。
接着,将说明用于从图像分析物体的关注度以及用于基于关注度来在图标和缩略图之间切换显示的处理。
图12是示出构成图像处理***的设备各自的功能结构的示例的框图。作为功能结构,图像处理***包括图像获取单元201、物体检测单元202、图像切出单元203、地图坐标计算单元206、关注度计算单元207、显示切换单元208、物体信息管理单元209、输入单元210和显示单元211。
关注度计算单元207通过使用物体信息管理单元209中所保存的物体信息来计算各物体的关注度。关注度计算单元207通过使用物体单位的异常值或滞留值来获取物体的关注度。
首先,将说明基于物体的异常值来获取关注度的方法。关注度计算单元207识别物体的行为,并且通过确定被定义为异常的行为的次数作为异常值来获取异常值。可选地,关注度计算单元207可以定义行为的异常程度作为异常值。然后,关注度计算单元207确定所计算出的异常值本身作为关注度。作为用于识别物体的行为的方法,例如,关注度计算单元207可以采用在2015年的计算机视觉与模式识别(CVPR)的IEEE计算机协会会议的“B.X.Nie、C.Xiong和S-C.Zhu的Joint Action Recognition and Pose Estimation fromVideo”中所述的用于获取物体的姿势的技术。
接着,将说明基于物体的滞留值来获取关注度的方法。滞留值表示物体停止在特定地方的跨度。该滞留值例如用于检测在繁忙通道的中央长时间停留的人物,这是因为这是可疑动作。针对物体信息管理单元209所保存的物体信息,关注度计算单元207按检测时间序列配置具有相同的物体ID的地图坐标,并且假定如下:如果预定时间段内地图坐标的差值的和在特定值以下,则物体滞留。地图坐标的差值的和越小,则关注度计算单元207将滞留值计算得越大。然后关注度计算单元207确定所计算出的滞留值本身作为关注度。
图13和14是根据本典型实施例的信息处理的流程的流程图。
首先,将参考图13来说明用于创建物体信息的信息处理。在步骤S901中,图像获取单元201获取图像。在步骤S902中,图像获取单元201判断是否获取到图像。如果获取到图像,则图像获取单元201判断为图像存在(步骤S902中为“是”),并且处理进入步骤S903。如果无法获取到图像,则图像获取单元201判断为图像不存在(步骤S902中为“否”),并且结束图13的流程图的处理。在步骤S903中,物体检测单元202从图像检测多个物体。在步骤S904中,物体检测单元202判断是否检测到任何物体。如果检测到物体,则物体检测单元202判断为物体存在(步骤S904中为“是”),并且处理进入步骤S905。如果无法检测到物体,则物体检测单元202判断为物体不存在(步骤S904中为“否”),并且处理返回至步骤S901。在步骤S905中,图像切出单元203创建缩略图。在步骤S907中,物体信息管理单元209总地保存检测信息、缩略图和特征量作为物体信息。在步骤S908中,如果物体检测单元202判断为存在任何未处理的物体(步骤S908中为“是”),则处理进入步骤S905。如果不存在未处理的物体(步骤S908中为“否”),则处理返回至步骤S901。
接着,将参考图14来说明用于计算物体的关注度并且将物体显示在地图上的信息处理。在步骤S1001中,输入单元210基于经由信息处理设备105的输入装置40的用户操作来接收查询。如果接收到查询,则在步骤S1002中,地图坐标计算单元206计算各物体的地图坐标。在步骤S1003中,关注度计算单元207计算物体的关注度。在步骤S1005中,显示切换单元208判断物体的关注度是否在阈值以上。如果显示切换单元208判断为物体的关注度在阈值以上(步骤S1005中为“是”),则处理进入步骤S1007。如果物体的关注度小于阈值(步骤S1005中为“否”),则处理进入步骤S1006。在步骤S1006中,显示切换单元208将显示设置成图标。在步骤S1008中,显示切换单元208设置物体的显示大小。在步骤S1009中,显示单元211在信息处理设备105的显示装置50上显示物体信息。在步骤S1011中,显示单元211基于经由信息处理设备105的输入装置40的用户操作来判断是否结束处理。如果显示单元211判断为结束处理(步骤S1011中为“是”),则结束图14的流程图的处理。如果显示单元211判断为不应结束处理(步骤S1011中为“否”),则处理返回至步骤S1002。
接着,将说明利用显示单元211来显示信息处理设备105的显示装置上所显示的显示画面的布局。该处理是通过显示切换单元208来执行的。在图15A的画面中,在“照相机1”的图像中,识别出作为追踪对象的人物。如图15A所示,将照相机1所拍摄的运动图像以比其它摄像设备(照相机)所拍摄的运动图像的大小大的大小来进行显示。在图15A的显示画面的状态下,如果在其它照相机的图像中识别出“未确认”状态下的多个对象候选,则以较大的大小来显示包括具有最高对照分数的对象候选的照相机(例如,照相机6)的运动图像。同样地,如果在其它照相机(例如,照相机6)的图像的“确认”状态下识别出作为追踪对象的人物,则将布局改变成图15B的显示画面的状态。换句话说,识别出最高关注度的人物的照相机6所拍摄的运动图像以比其它照相机所拍摄的图像的大小大的大小来进行显示。然后,改变配置位置,以利用照相机6所拍摄的运动图像来替代照相机1所拍摄的运动图像,以使得照相机1所拍摄的运动图像以更小的大小来进行显示。
其它典型实施例
在本发明中,经由网络或存储介质将用于实现上述典型实施例的一个或多个功能的程序供给至***或设备。然后,该***或设备的计算机中所包括的一个或多个处理器读取并执行该程序,以实现这些功能。此外,本发明还可以利用用于实现一个或多个功能的电路(例如,专用集成电路(ASIC))来实现。
此外,可以将各设备的上述功能结构的一部分或全部作为硬件结构安装在这些设备上。
此外,设备的硬件结构可以包括一个以上的CPU、存储装置或通信装置。多个CPU可以通过基于多个存储装置其中任一或多个存储装置中所存储的程序使用多个存储装置中所存储的数据来执行处理,以实现设备的功能。
此外,图像分析服务器设备102、数据分析服务器设备103、网络存储设备104和信息处理设备105的功能可以安装在单个设备(即计算机)上。在计算机的CPU 10用作元件201-209的情况下,输入装置40用作输入单元210。
如上所述,根据上述典型实施例,可以降低用于确认图像分析的结果的负荷。
其它实施例
本发明的实施例还可以通过如下的方法来实现,即,通过网络或者各种存储介质将执行上述实施例的功能的软件(程序)提供给***或装置,该***或装置的计算机或是中央处理单元(CPU)、微处理单元(MPU)读出并执行程序的方法。
尽管已经参考典型实施例说明了本发明,但是应该理解,本发明不局限于所公开的典型实施例。所附权利要求书的范围符合最宽的解释,以包含所有这类修改、等同结构和功能。

Claims (13)

1.一种信息处理设备,用于通过使用由多个摄像设备获取到的多个拍摄图像来对监视区域进行监视,其特征在于,所述信息处理设备包括:
检测单元,其被配置为检测所述拍摄图像中的物体;
输入单元,其被配置为针对所述监视区域输入与追踪对象有关的信息;
第一获取单元,其被配置为在所述监视区域中获取所述物体的位置;
第二获取单元,其被配置为基于与所述检测单元所检测到的物体有关的信息以及与所述输入单元所输入的与所述追踪对象有关的信息,来获取所述物体和所述追踪对象之间的相似度;以及
显示控制单元,其被配置为显示与所述监视区域相对应的区域图像,在所述区域图像上的由所述检测单元检测到第一物体的第一位置处显示从所述拍摄图像切出的所述第一物体的图像,并且在所述区域图像上的检测到第二物体的第二位置处显示符号,
其中,所述第二物体的相似度比所述第一物体的相似度低。
2.根据权利要求1所述的信息处理设备,其中,所述区域图像是地图,切出的所述第一物体的图像是缩略图,以及所述符号是图标。
3.根据权利要求1所述的信息处理设备,其中,所述第一物体的相似度等于或大于阈值,并且所述第二物体的相似度低于所述阈值。
4.根据权利要求3所述的信息处理设备,其中,所述显示控制单元被配置为指定具有等于或大于所述阈值的相似度的物体作为对象候选,从所述对象候选中确定所述追踪对象,并且改变所述对象候选的显示格式和所述追踪对象的显示格式。
5.根据权利要求4所述的信息处理设备,其中,所述显示控制单元被配置为将所述多个摄像设备所分别拍摄的图像显示在显示画面上,并且通过改变所述图像中的包括所述追踪对象的图像和不包括所述追踪对象的图像的显示大小来改变所述显示格式。
6.根据权利要求4所述的信息处理设备,其中,所述显示控制单元被配置为将所述多个摄像设备所拍摄的图像显示在显示画面上,并且通过改变所述图像中的包括所述追踪对象的图像和不包括所述追踪对象的图像的配置位置来改变所述显示格式。
7.根据权利要求1所述的信息处理设备,其中,还包括提取单元,所述提取单元被配置为提取所述物体的特征量,
其中,所述第二获取单元被配置为通过将所述物体的特征量与所述追踪对象的特征量相比较来获取相似度。
8.根据权利要求1所述的信息处理设备,其中,所述第二获取单元被配置为还通过识别所述物体的被分类成异常的行为来获取该物体的行为的异常值。
9.根据权利要求1所述的信息处理设备,其中,所述第二获取单元被配置为还获取所述物体的滞留值。
10.根据权利要求1所述的信息处理设备,其中,所述显示控制单元被配置为基于所述第一物体的相似度来改变切出的所述第一物体的图像的显示大小。
11.一种信息处理设备的信息处理方法,所述信息处理设备用于通过使用由多个摄像设备所获取到的多个拍摄图像来对监视区域进行监视,其特征在于,所述信息处理方法包括以下步骤:
检测所述拍摄图像中的物体;
接收与追踪对象有关的信息;
在所述监视区域中获取所述物体的位置;
基于所检测到的物体的信息以及所接收到的所述追踪对象的信息,来获取所述物体和所述追踪对象之间的相似度;以及
显示与所述监视区域相对应的区域图像,在所述区域图像上的检测到第一物体的位置处显示从所述拍摄图像切出的所述第一物体的图像,并且在所述区域图像上的检测到第二物体的位置处显示符号,
其中,所述第二物体的相似度比所述第一物体的相似度低。
12.根据权利要求11所述的信息处理方法,其中,所述区域图像是地图,切出的所述第一物体的图像是缩略图,以及所述符号是图标。
13.一种非暂时性计算机可读存储介质,其特征在于存储用于使计算机执行根据权利要求11所述的方法的程序。
CN201810182621.4A 2017-03-06 2018-03-06 信息处理设备、信息处理方法和存储介质 Pending CN108647557A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-041547 2017-03-06
JP2017041547A JP6961363B2 (ja) 2017-03-06 2017-03-06 情報処理システム、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
CN108647557A true CN108647557A (zh) 2018-10-12

Family

ID=61581063

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810182621.4A Pending CN108647557A (zh) 2017-03-06 2018-03-06 信息处理设备、信息处理方法和存储介质

Country Status (4)

Country Link
US (1) US10872242B2 (zh)
EP (1) EP3373201A1 (zh)
JP (2) JP6961363B2 (zh)
CN (1) CN108647557A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111311601A (zh) * 2020-03-26 2020-06-19 深圳极视角科技有限公司 一种拼接图像的分割方法及装置
CN111752446A (zh) * 2019-03-29 2020-10-09 佳能株式会社 信息处理装置、方法和存储介质
CN113524170A (zh) * 2020-04-21 2021-10-22 佳能株式会社 监视对象的图像处理装置及其控制方法以及存储介质

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180074506A1 (en) * 2017-11-21 2018-03-15 GM Global Technology Operations LLC Systems and methods for mapping roadway-interfering objects in autonomous vehicles
CN110175975A (zh) * 2018-12-14 2019-08-27 腾讯科技(深圳)有限公司 对象检测方法、装置、计算机可读存储介质和计算机设备
SG11202106468QA (en) * 2018-12-27 2021-07-29 Nec Corp Information processing apparatus, information processing method, and program
US20220004748A1 (en) * 2019-01-16 2022-01-06 Hangzhou Hikvision Digital Technology Co., Ltd. Video display method, device and system, and video camera
JP7096176B2 (ja) * 2019-02-01 2022-07-05 株式会社日立製作所 物***置推定装置およびその方法
US20220138982A1 (en) * 2019-02-26 2022-05-05 Sony Interactive Entertainment Inc. Information processing apparatus, information processing method, and program
CN110796074B (zh) * 2019-10-28 2022-08-12 桂林电子科技大学 一种基于时空数据融合的行人再识别方法
US20230056155A1 (en) * 2020-01-31 2023-02-23 Nec Corporation Information processing apparatus, information processing method, and storage medium
JP7199593B2 (ja) * 2020-03-03 2023-01-05 三菱電機株式会社 人検知装置、人検知システム、設備機器システム、人検知方法及びプログラム
CN112040186B (zh) * 2020-08-28 2023-01-31 北京市商汤科技开发有限公司 目标对象的活动区域确定方法、装置、设备及存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1910617A (zh) * 2004-01-06 2007-02-07 索尼株式会社 图像处理设备和方法、记录介质和程序
US20090222388A1 (en) * 2007-11-16 2009-09-03 Wei Hua Method of and system for hierarchical human/crowd behavior detection
CN102831615A (zh) * 2011-06-13 2012-12-19 索尼公司 对象监控方法和装置,以及监控***操作方法
US8379074B2 (en) * 2005-11-03 2013-02-19 Broadcom Corporation Method and system of tracking and stabilizing an image transmitted using video telephony
CN103260009A (zh) * 2012-02-15 2013-08-21 株式会社日立制作所 影像监视装置、监视***及监视***构建方法
CN104284145A (zh) * 2013-07-11 2015-01-14 松下电器产业株式会社 跟踪辅助装置、跟踪辅助***和跟踪辅助方法
CN104956412A (zh) * 2013-02-06 2015-09-30 索尼公司 信息处理设备、信息处理方法、程序和信息处理***
WO2016018728A2 (en) * 2014-07-29 2016-02-04 Microsoft Technology Licensing, Llc Computerized prominent character recognition in videos
WO2016042946A1 (ja) * 2014-09-19 2016-03-24 シャープ株式会社 監視システム
CN106096577A (zh) * 2016-06-24 2016-11-09 安徽工业大学 一种摄像头分布地图中的目标追踪***及追踪方法
CN106469443A (zh) * 2015-08-13 2017-03-01 微软技术许可有限责任公司 机器视觉特征跟踪***

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5111342A (ja) 1974-07-18 1976-01-29 Matsushita Electric Ind Co Ltd Chensochi
JPS57149449A (en) 1981-03-10 1982-09-16 Toyota Motor Corp Wear-resistant cast iron
US20050073585A1 (en) * 2003-09-19 2005-04-07 Alphatech, Inc. Tracking systems and methods
JP5037279B2 (ja) * 2007-09-19 2012-09-26 株式会社日立国際電気 監視装置
US20100201815A1 (en) * 2009-02-09 2010-08-12 Vitamin D, Inc. Systems and methods for video monitoring
JP5358851B2 (ja) * 2009-11-12 2013-12-04 将文 萩原 不審行動検知方法および不審行動検知装置
JP2011113255A (ja) 2009-11-26 2011-06-09 Toyota Home Kk 地域警備システム
GB2515926B (en) 2010-07-19 2015-02-11 Ipsotek Ltd Apparatus, system and method
US9390334B2 (en) * 2011-03-31 2016-07-12 Panasonic Intellectual Property Management Co., Ltd. Number of persons measurement device
JP5999394B2 (ja) * 2015-02-20 2016-09-28 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
JP6593742B2 (ja) 2015-04-14 2019-10-23 パナソニックIpマネジメント株式会社 施設内人物捜索支援装置、施設内人物捜索支援システムおよび施設内人物捜索支援方法
JP6773037B2 (ja) 2015-08-11 2020-10-21 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1910617A (zh) * 2004-01-06 2007-02-07 索尼株式会社 图像处理设备和方法、记录介质和程序
US8379074B2 (en) * 2005-11-03 2013-02-19 Broadcom Corporation Method and system of tracking and stabilizing an image transmitted using video telephony
US20090222388A1 (en) * 2007-11-16 2009-09-03 Wei Hua Method of and system for hierarchical human/crowd behavior detection
CN102831615A (zh) * 2011-06-13 2012-12-19 索尼公司 对象监控方法和装置,以及监控***操作方法
CN103260009A (zh) * 2012-02-15 2013-08-21 株式会社日立制作所 影像监视装置、监视***及监视***构建方法
CN104956412A (zh) * 2013-02-06 2015-09-30 索尼公司 信息处理设备、信息处理方法、程序和信息处理***
CN104284145A (zh) * 2013-07-11 2015-01-14 松下电器产业株式会社 跟踪辅助装置、跟踪辅助***和跟踪辅助方法
WO2016018728A2 (en) * 2014-07-29 2016-02-04 Microsoft Technology Licensing, Llc Computerized prominent character recognition in videos
WO2016042946A1 (ja) * 2014-09-19 2016-03-24 シャープ株式会社 監視システム
CN106469443A (zh) * 2015-08-13 2017-03-01 微软技术许可有限责任公司 机器视觉特征跟踪***
CN106096577A (zh) * 2016-06-24 2016-11-09 安徽工业大学 一种摄像头分布地图中的目标追踪***及追踪方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111752446A (zh) * 2019-03-29 2020-10-09 佳能株式会社 信息处理装置、方法和存储介质
CN111752446B (zh) * 2019-03-29 2024-03-22 佳能株式会社 信息处理装置、方法和存储介质
CN111311601A (zh) * 2020-03-26 2020-06-19 深圳极视角科技有限公司 一种拼接图像的分割方法及装置
CN111311601B (zh) * 2020-03-26 2023-10-13 山东极视角科技股份有限公司 一种拼接图像的分割方法及装置
CN113524170A (zh) * 2020-04-21 2021-10-22 佳能株式会社 监视对象的图像处理装置及其控制方法以及存储介质
US11839980B2 (en) 2020-04-21 2023-12-12 Canon Kabushiki Kaisha Image processing apparatus monitoring target, control method therefor, and storage medium storing control program therefor
CN113524170B (zh) * 2020-04-21 2024-02-27 佳能株式会社 监视对象的图像处理装置及其控制方法以及存储介质

Also Published As

Publication number Publication date
US20180253603A1 (en) 2018-09-06
EP3373201A1 (en) 2018-09-12
JP7282851B2 (ja) 2023-05-29
JP6961363B2 (ja) 2021-11-05
JP2018148399A (ja) 2018-09-20
JP2022003831A (ja) 2022-01-11
US10872242B2 (en) 2020-12-22

Similar Documents

Publication Publication Date Title
CN108647557A (zh) 信息处理设备、信息处理方法和存储介质
Sock et al. Multi-view 6D object pose estimation and camera motion planning using RGBD images
CN109284729B (zh) 基于视频获取人脸识别模型训练数据的方法、装置和介质
Jiang et al. Recognizing human actions by learning and matching shape-motion prototype trees
TW201828158A (zh) 視頻目標跟蹤方法和裝置
CN108875542B (zh) 一种人脸识别方法、装置、***及计算机存储介质
Siva et al. Weakly Supervised Action Detection.
JP6618395B2 (ja) 行動価値によって調査対象の位置を予測する装置、プログラム及び方法
CN107918767B (zh) 目标检测方法、装置、电子设备及计算机可读介质
CN109544595B (zh) 一种顾客路径追踪方法及***
CN106471440A (zh) 基于高效森林感测的眼睛跟踪
CN111753602A (zh) 动作识别方法和装置、电子设备、存储介质
JP2017174343A (ja) 入店者属性抽出装置及び入店者属性抽出プログラム
WO2019033567A1 (zh) 眼球动作捕捉方法、装置及存储介质
CN113297963A (zh) 多人姿态的估计方法、装置、电子设备以及可读存储介质
JP6103765B2 (ja) 行動認識装置、方法及びプログラム並びに認識器構築装置
JP6384167B2 (ja) 移動体追跡装置及び移動体追跡方法、並びにコンピュータ・プログラム
JP2019185205A (ja) 情報処理装置、情報処理方法、及びプログラム
Zhou et al. Modeling perspective effects in photographic composition
US10438066B2 (en) Evaluation of models generated from objects in video
Vajhala et al. Weapon detection in surveillance camera images
JP2017097549A (ja) 画像処理装置、方法、及びプログラム
CN115115976A (zh) 视频处理方法、装置、电子设备及存储介质
Chakraborty et al. Person reidentification using multiple egocentric views
JP7374632B2 (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination