JP2021033785A - Information processing apparatus and program - Google Patents
Information processing apparatus and program Download PDFInfo
- Publication number
- JP2021033785A JP2021033785A JP2019155024A JP2019155024A JP2021033785A JP 2021033785 A JP2021033785 A JP 2021033785A JP 2019155024 A JP2019155024 A JP 2019155024A JP 2019155024 A JP2019155024 A JP 2019155024A JP 2021033785 A JP2021033785 A JP 2021033785A
- Authority
- JP
- Japan
- Prior art keywords
- person
- unit
- image data
- area
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、情報処理装置、及びプログラムに関する。 The present invention relates to an information processing device and a program.
従来、画像に含まれている人物を検出する技術が知られている。このような人物検出技術において、人物では無い物品を人物と誤検出してしまう場合がある。そのため、物品を人物と誤検出してしまうことを低減させる技術が求められている。 Conventionally, a technique for detecting a person included in an image has been known. In such a person detection technique, an article that is not a person may be erroneously detected as a person. Therefore, there is a demand for a technique for reducing erroneous detection of an article as a person.
ここで、画像上の全ての領域から人物を検出する必要が無い場合がある。例えば、画像に通路と棚とが含まれている場合に、通路には人物はいるが、棚には人物はいないとみなすことができる。このような場合に、棚からの人物の検出は、誤検出であるとみなすことができる。このように、人物がいない領域を定義することで、物品を人物と誤検出してしまうことを低減させることができる。 Here, it may not be necessary to detect a person from all areas on the image. For example, if the image contains a passage and a shelf, it can be considered that there is a person in the passage but no person in the shelf. In such a case, the detection of a person from the shelf can be regarded as a false detection. By defining the area where there is no person in this way, it is possible to reduce the false detection of the article as a person.
しかしながら、画像を撮像する撮像部は無数にあるため撮像部毎に物がいない領域が定義されたフィルタ情報を生成することは困難である。 However, since there are innumerable imaging units for capturing images, it is difficult to generate filter information in which an object-free region is defined for each imaging unit.
本発明は、上記に鑑みてなされたものであって、フィルタ情報を生成することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to generate filter information.
本発明の第1態様に係る情報処理装置は、取得部と、検出部と、記録部と、生成部とを備える。前記取得部は、同一の場所を複数時間撮影した画像データを取得する。前記検出部は、前記画像データから人物を検出する。前記記録部は、前記検出部が検出した前記人物の各時間の座標を前記人物毎に記録する。前記生成部は、前記記録部が記録した前記人物毎の前記座標を時系列順に繋げた軌跡に基づいて、前記画像データで前記人物が移動可能な領域である移動可能領域を示すフィルタ情報を生成する。 The information processing device according to the first aspect of the present invention includes an acquisition unit, a detection unit, a recording unit, and a generation unit. The acquisition unit acquires image data obtained by photographing the same place for a plurality of hours. The detection unit detects a person from the image data. The recording unit records the coordinates of each time of the person detected by the detection unit for each person. The generation unit generates filter information indicating a movable area, which is a movable area of the person in the image data, based on a locus in which the coordinates of each person recorded by the recording unit are connected in chronological order. To do.
本発明の第2態様に係るプログラムは、情報処理装置が有するコンピュータを、取得部と、検出部と、記録部と、生成部として機能させる。前記取得部は、同一の場所を複数時間撮影した画像データを取得する。前記検出部は、前記画像データから人物を検出する。前記記録部は、前記検出部が検出した前記人物の各時間の座標を前記人物毎に記録する。前記生成部は、前記記録部が記録した前記人物毎の前記座標を時系列順に繋げた軌跡に基づいて、前記画像データで前記人物が移動可能な領域である移動可能領域を示すフィルタ情報を生成する。 The program according to the second aspect of the present invention causes the computer of the information processing apparatus to function as an acquisition unit, a detection unit, a recording unit, and a generation unit. The acquisition unit acquires image data obtained by photographing the same place for a plurality of hours. The detection unit detects a person from the image data. The recording unit records the coordinates of each time of the person detected by the detection unit for each person. The generation unit generates filter information indicating a movable area, which is a movable area of the person in the image data, based on a locus in which the coordinates of each person recorded by the recording unit are connected in chronological order. To do.
本発明に係る情報処理装置、及びプログラムは、フィルタ情報を生成するという効果を奏する。 The information processing device and the program according to the present invention have the effect of generating filter information.
以下に、本発明に係る情報処理装置、及びプログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。 Hereinafter, examples of the information processing apparatus and the program according to the present invention will be described in detail with reference to the drawings. The present invention is not limited to this embodiment.
図1は、本実施例に係る分散型コンピュータ1の全体構成の一例を示す図である。分散型コンピュータ1は、複数のプラットフォーム10−1〜10−8と、複数のプラットフォーム10−1〜10−8を通信可能に接続する中継装置30とを備える情報処理システムである。図1に示すように、実施例に係る分散型コンピュータ1は、プラットフォーム10−1〜10−8と、中継装置30とを備えている。
FIG. 1 is a diagram showing an example of the overall configuration of the distributed computer 1 according to the present embodiment. The distributed computer 1 is an information processing system including a plurality of platforms 10-1 to 10-8 and a
プラットフォーム10−1〜10−8は、中継装置30を介して、通信可能に接続されている。プラットフォーム10−1〜10−8は、例えば、中継装置30が設けられたボード上のスロットに挿入される。また、複数のスロットのうち、何れかのスロットは、プラットフォーム10−1〜10−8が挿入されていない空き状態であってもよい。以下の説明では、各プラットフォーム10−1〜10−8を区別する必要がなく、任意のプラットフォーム10−1〜10−8を示す場合には、プラットフォーム10と記載する。
Platforms 10-1 to 10-8 are communicably connected via a
プラットフォーム10−1は、プラットフォーム10−2〜10−8を管理して、プラットフォーム10−2〜10−8に各種処理を実行させるメインの情報処理装置である。 Platform 10-1 is a main information processing device that manages platforms 10-2 to 10-8 and causes platforms 10-2 to 10-8 to execute various processes.
プラットフォーム10−1には、モニタ21と、入力装置22とが接続されている。モニタ21は、例えば液晶表示装置等の各種画面を表示する。入力装置22は、例えばキーボードやマウス等の各種操作を受け付ける。
A
プラットフォーム10−2〜10−8は、プラットフォーム10−1の要求に基づいて、例えばAI(Artificial Intelligence)推論処理や画像処理等を実行するサブの情報処理装置である。また、プラットフォーム10−2〜10−8は、それぞれが異なる機能を有していてもよいし、複数のプラットフォーム10毎に機能を有していてもよい。 Platforms 10-2 to 10-8 are sub-information processing devices that execute, for example, AI (Artificial Intelligence) inference processing, image processing, and the like based on the requirements of platform 10-1. Further, the platforms 10-2 to 10-8 may each have a different function, or may have a function for each of a plurality of platforms 10.
プラットフォーム10−1〜10−8は、ホスト側として動作可能なルートコンプレックス(RC:Root Complex)11−1〜11−8を有する。以下の説明では、各ルートコンプレックス11−1〜11−8を区別する必要がなく、任意のルートコンプレックス11−1〜11−8を示す場合には、ルートコンプレックス11と記載する。 Platforms 10-1 to 10-8 have a root complex (RC: Root Complex) 11-1 to 11-8 that can operate as a host side. In the following description, it is not necessary to distinguish each route complex 11-1 to 11-8, and when any route complex 11-1 to 11-8 is indicated, it is described as root complex 11.
ルートコンプレックス11は、中継装置30の各エンドポイント31−1〜31−8との通信を実行する。すなわち、プラットフォーム10と中継装置30とは、PCIe(Peripheral Component Interconnect Express)等の通信規格により通信可能に接続される。プラットフォーム10と中継装置30とは、PCIeに限らず他の通信規格により接続されていてもよい。
The route complex 11 executes communication with each endpoint 31-1 to 1-31-8 of the
中継装置30は、複数のエンドポイント(EP:End Point)31−1〜31−8を有する。また、中継装置30は、エンドポイント31−1〜31−8に接続されたルートコンプレックス11を有する複数のプラットフォーム10間での通信を中継する。
The
エンドポイント31−1〜31−8は、プラットフォーム10のルートコンプレックス11との通信を実行する。以下の説明では、各エンドポイント31−1〜31−8を区別する必要がなく、任意のエンドポイント31−1〜31−8を示す場合には、エンドポイント31と記載する。 Endpoints 31-1 to 1-31-8 perform communication with the root complex 11 of platform 10. In the following description, it is not necessary to distinguish between the endpoints 31 to 1-31-8, and when any endpoint 31 to 1-31-8 is indicated, it is described as the endpoint 31.
次に、分散型コンピュータ1の各装置のハードウェア構成について説明する。ここで、図2は、分散型コンピュータ1の各装置のハードウェア構成の一例を示す図である。ここで、プラットフォーム10−1のハードウェア構成を例に説明する。しかし、プラットフォーム10−2〜10−8も同様の構成になっている。 Next, the hardware configuration of each device of the distributed computer 1 will be described. Here, FIG. 2 is a diagram showing an example of the hardware configuration of each device of the distributed computer 1. Here, the hardware configuration of platform 10-1 will be described as an example. However, platforms 10-2 to 10-8 have a similar configuration.
プラットフォーム10−1は、AI処理や画像処理等の演算処理を行なうコンピュータである。プラットフォーム10は、ルートコンプレックス11−1と、プロセッサ12−1と、メモリ13−1と、記憶部14−1と、通信部15−1とを備える。また、これらは、バスを介して通信可能に接続される。 Platform 10-1 is a computer that performs arithmetic processing such as AI processing and image processing. The platform 10 includes a root complex 11-1, a processor 12-1, a memory 13-1, a storage unit 14-1, and a communication unit 15-1. In addition, they are communicably connected via a bus.
プロセッサ12−1は、プラットフォーム10−1全体を制御する。プロセッサ12−1は、マルチプロセッサであってもよい。また、プロセッサ12−1は、例えばCPU(Central Processing Unit),MPU(Micro Processing Unit),GPU(Graphics Processing Unit),DSP(Digital Signal Processor),ASIC(Application Specific Integrated Circuit),PLD(Programmable Logic Device),FPGA(Field Programmable Gate Array)のいずれか一つであってもよい。また、プロセッサ12は、CPU,MPU,GPU,DSP,ASIC,PLD,FPGAのうちの2種類以上の要素の組み合わせであってもよい。以下の説明では、プロセッサ12−1〜12−8を区別する必要がなく、任意のプロセッサ12−1〜12−8を示す場合には、プロセッサ12と記載する。 Processor 12-1 controls the entire platform 10-1. Processor 12-1 may be a multiprocessor. Further, the processor 12-1 includes, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), and a PLD (Programmable Logic Device). ), FPGA (Field Programmable Gate Array) may be one of them. Further, the processor 12 may be a combination of two or more types of elements of the CPU, MPU, GPU, DSP, ASIC, PLD, and FPGA. In the following description, it is not necessary to distinguish processors 12-1 to 12-8, and when any processor 12-1 to 12-8 is indicated, it is referred to as processor 12.
メモリ13−1は、ROM(Read Only Memory)およびRAM(Random Access Memory)を含む記憶メモリである。メモリ13−1のROMには、各種ソフトウェアプログラムやこのプログラム用のデータ類が書き込まれている。メモリ13−1上のソフトウェアプログラムは、プロセッサ12に適宜読み込まれて実行される。また、メモリ13−1のRAMは、一次記憶メモリあるいはワーキングメモリとして利用される。以下の説明では、メモリ13−1〜13−8を区別する必要がなく、任意のメモリ13−1〜13−8を示す場合には、メモリ13と記載する。 The memory 13-1 is a storage memory including a ROM (Read Only Memory) and a RAM (Random Access Memory). Various software programs and data for this program are written in the ROM of the memory 13-1. The software program on the memory 13-1 is appropriately read and executed by the processor 12. Further, the RAM of the memory 13-1 is used as a primary storage memory or a working memory. In the following description, it is not necessary to distinguish between the memories 13-1 to 13-8, and when an arbitrary memory 13-1 to 13-8 is indicated, it is described as the memory 13.
記憶部14−1は、ハードディスクドライブ(Hard Disk Drive:HDD)、SSD(Solid State Drive)、ストレージクラスメモリ(Storage Class Memory:SCM)等の記憶装置であって、種々のデータを格納するものである。例えば、記憶部14−1には各種ソフトウェアプログラムが記憶される。以下の説明では、記憶部14−1〜14−8を区別する必要がなく、任意の記憶部14−1〜14−8を示す場合には、記憶部14と記載する。 The storage unit 14-1 is a storage device such as a hard disk drive (HDD), SSD (Solid State Drive), and storage class memory (SCM), and stores various data. is there. For example, various software programs are stored in the storage unit 14-1. In the following description, it is not necessary to distinguish between the storage units 14-1 to 14-8, and when any storage unit 14-1 to 14-8 is indicated, it is described as the storage unit 14.
プラットフォーム10においては、プロセッサ12がメモリ13や記憶部14に格納されたソフトウェアプログラムを実行することで各種機能を実現する。 In the platform 10, various functions are realized by the processor 12 executing a software program stored in the memory 13 and the storage unit 14.
なお、上記の各種ソフトウェアプログラムは、必ずしもメモリ13や記憶部14に記憶されている必要はない。例えば、媒体読取装置等が読み取り可能な記憶媒体に記憶されたプログラムを、プラットフォーム10が読み出して実行するようにしてもよい。プラットフォーム10が読み取り可能な記憶媒体は、例えば、CD−ROMやDVDディスク、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にこのプログラムを記憶させておき、プラットフォーム10がこれらからプログラムを読み出して実行するようにしてもよい。 The various software programs described above do not necessarily have to be stored in the memory 13 or the storage unit 14. For example, the platform 10 may read and execute a program stored in a storage medium that can be read by a medium reader or the like. The storage medium that can be read by the platform 10 corresponds to, for example, a CD-ROM, a DVD disk, a portable recording medium such as a USB (Universal Serial Bus) memory, a semiconductor memory such as a flash memory, a hard disk drive, or the like. Further, the program may be stored in a device connected to a public line, the Internet, a LAN, or the like, and the platform 10 may read the program from these and execute the program.
通信部15−1は、カメラ50(図4参照)等と有線または無線により接続するためのインタフェースである。以下の説明では、通信部15−1〜15−8を区別する必要がなく、任意の通信部15−1〜15−8を示す場合には、通信部15と記載する。 The communication unit 15-1 is an interface for connecting to the camera 50 (see FIG. 4) or the like by wire or wirelessly. In the following description, it is not necessary to distinguish the communication units 15-1 to 15-8, and when any communication unit 15-1 to 15-8 is indicated, it is described as the communication unit 15.
次に、中継装置30について説明する。中継装置30は、プラットフォーム10毎に設けられたエンドポイント31−1〜31−8と、プロセッサ32と、メモリ33と、記憶部34と、内部バス35と、PCIeバス36とを備える。以下の説明では、各エンドポイント31−1〜31−8を区別する必要がなく、任意のエンドポイント31−1〜31−8を示す場合には、エンドポイント31と記載する。
Next, the
エンドポイント31は、プラットフォーム10毎に設けられ、データの送受信を実行する。例えば、エンドポイント31は、接続されたプラットフォーム10からデータを受信した場合に、PCIeバス36を介して、送信先のプラットフォーム10に接続されたエンドポイント31に受信したデータを送信する。
The endpoint 31 is provided for each platform 10 and executes data transmission / reception. For example, when the endpoint 31 receives data from the connected platform 10, it transmits the received data to the endpoint 31 connected to the destination platform 10 via the
例えば、ルートコンプレックス11は、DMA(Direct Memory Access)転送により他のプラットフォーム10にデータを送信する。すなわち、エンドポイント31は、データの送信元のプラットフォーム10に接続されたエンドポイント31から、PCIeバス36を介してデータを受信した場合に、接続されたプラットフォーム10に受信したデータを送信する。
For example, the route complex 11 transmits data to another platform 10 by DMA (Direct Memory Access) transfer. That is, when the endpoint 31 receives data from the endpoint 31 connected to the platform 10 from which the data is transmitted via the
プロセッサ32は、中継装置30全体を制御する。プロセッサ32は、マルチプロセッサであってもよい。また、プロセッサ32は、例えばCPU,MPU,GPU,DSP,ASIC,PLD,FPGAのいずれか一つであってもよい。また、プロセッサ32は、CPU,MPU,GPU,DSP,ASIC,PLD,FPGAのうちの2種類以上の要素の組み合わせであってもよい。
The
メモリ33は、ROM、及びRAMを含む記憶装置である。ROMには、各種ソフトウェアプログラムやこのプログラム用のデータ類が書き込まれている。メモリ33に記憶されたプログラムは、プロセッサ32に読み込まれて実行される。また、RAMは、ワーキングメモリとして利用される。
The
記憶部34は、ハードディスクドライブ、SSD、ストレージクラスメモリ等の記憶装置であって、種々のデータを格納するものである。例えば、記憶部34には各種ソフトウェアプログラムが記憶される。
The
内部バス35は、プロセッサ32、メモリ33、記憶部34、及びPCIeバス36を通信可能に接続する。
The
PCIeバス36は、複数のエンドポイント31、及び内部バス35を通信可能に接続する。すなわち、PCIeバス36は、複数のエンドポイント31間でデータを転送可能に接続する。また、PCIeバス36は、例えばPCIe規格に準拠したバスである。
The
次に、中継装置30に接続されるプラットフォーム10−1とプラットフォーム10−2との間における通信処理の一例について説明する。図3は、本実施例に係る分散型コンピュータ1におけるプラットフォーム10間における通信処理の一例を説明するための図である。ここでは、プラットフォーム10−1と、プラットフォーム10−2との間での通信処理の一例について説明するが、他のプラットフォーム10間も同様に通信を行う。
Next, an example of communication processing between the platform 10-1 and the platform 10-2 connected to the
図3に示すように、分散型コンピュータ1は、例えば、PCIeの規格で規定されたレイヤー構造を有している。そして、分散型コンピュータ1は、各階層を介して、プラットフォーム10間の通信を実行する。 As shown in FIG. 3, the distributed computer 1 has, for example, a layer structure defined by the PCIe standard. Then, the distributed computer 1 executes communication between the platforms 10 via each layer.
送信元のプラットフォーム10−1は、ソフトウェアが指定したデータを、トランザクション層、データリンク層、及び物理層(PHY)を介して、中継装置30の物理層(PHY)に転送する。
The source platform 10-1 transfers the data specified by the software to the physical layer (PHY) of the
中継装置30は、送信元のプラットフォーム10−1から転送されてきたデータを、物理層(PHY)、及びデータリンク層を介して、トランザクション層に受け渡す。中継装置30は、トランザクション層において、送信先のプラットフォーム10−2に対応するエンドポイント31にトンネリングによりデータを転送する。中継装置30は、トランザクション層、データリンク層、及び物理層(PHY)を介して、送信先のプラットフォーム10−2の物理層(PHY)に転送する。このように、中継装置30は、エンドポイント31間でデータをトンネリングさせることで、送信元のプラットフォーム10−1からから送信先のプラットフォーム10−2にデータを転送する。
The
送信先のプラットフォーム10−2では、物理層(PHY)、データリンク層、及びトランザクション層を介して、データがソフトウェアに受け渡される。 On the destination platform 10-2, data is passed to the software via the physical layer (PHY), the data link layer, and the transaction layer.
また、中継装置30に接続された複数のプラットフォーム10のうち、一のプラットフォーム10にデータの転送が集中しない場合、異なる任意の組み合わせのプラットフォーム10間で並行してデータを転送することができる。
Further, when data transfer is not concentrated on one platform 10 among the plurality of platforms 10 connected to the
例えば、プラットフォーム10−1に対して、プラットフォーム10−2、及びプラットフォーム10−3が通信する場合には、中継装置30は、プラットフォーム10−2、及びプラットフォーム10−3との通信をシリアル処理により実行する。一方、異なるプラットフォーム10同士が通信し、特定のプラットフォーム10に通信が集中しない場合には、中継装置30は、プラットフォーム10間の通信を並列処理により実行する。
For example, when the platform 10-2 and the platform 10-3 communicate with the platform 10-1, the
次に、本実施形態の分散型コンピュータ1が有している特徴的な機能について説明する。 Next, the characteristic functions of the distributed computer 1 of the present embodiment will be described.
図4は、本実施例に係る分散型コンピュータ1の各部の機能構成の一例を示す機能ブロック図である。なお、図4においては、中継装置30を省略している。
FIG. 4 is a functional block diagram showing an example of the functional configuration of each part of the distributed computer 1 according to the present embodiment. In FIG. 4, the
まず、プラットフォーム10−1について説明する。 First, platform 10-1 will be described.
プラットフォーム10−1のプロセッサ12−1は、メモリ13−1や記憶部14−1等に記憶されるプログラムを実行することによって、図4に示す機能を実現するコンピュータである。具体的には、プロセッサ12−1は、機能部として、画像取得部1001と、接続制御部1002と、処理結果取得部1003と、表示制御部1004とを備えている。
The processor 12-1 of the platform 10-1 is a computer that realizes the functions shown in FIG. 4 by executing a program stored in the memory 13-1 or the storage unit 14-1. Specifically, the processor 12-1 includes an
画像取得部1001は、カメラ50から画像データを取得する。画像取得部1001は、取得した画像データを接続制御部1002に出力する。また、画像取得部1001は、取得した画像データを表示制御部1004に出力する。
The
接続制御部1002は、プラットフォーム10−1からプラットフォーム10−2〜10−7に対してデータを出力するためのインタフェースである。
The
処理結果取得部1003は、AI処理の処理結果を取得する。また、処理結果取得部1003は、取得した処理結果を表示制御部1004に出力する。
The processing result acquisition unit 1003 acquires the processing result of the AI processing. Further, the processing result acquisition unit 1003 outputs the acquired processing result to the
表示制御部1004は、処理結果取得部1003が取得したAI処理の処理結果に基づいて、画像取得部1001が取得した画像データをモニタ21に表示させる。例えば、表示制御部1004は、画像データをカメラ50毎にモニタ21に同時に表示させる。
The
次に、プラットフォーム10−2〜10−7について説明する。図4に示すように、プラットフォーム10−2〜10−7は、協働でAI処理部100を実現する。AI処理部100は、カメラ50から取得した画像データに対して、ディープラーニング(Deep Learning)技術を利用した人物の認識等のAI処理を実行する。より詳細には、AI処理部100は、人物特定処理、人物紐付け処理、人物分類処理などのAI処理を、分散して実行する。 Next, platforms 10-2 to 10-7 will be described. As shown in FIG. 4, platforms 10-2 to 10-7 collaborate to realize the AI processing unit 100. The AI processing unit 100 executes AI processing such as recognition of a person using deep learning technology on the image data acquired from the camera 50. More specifically, the AI processing unit 100 executes AI processing such as person identification processing, person association processing, and person classification processing in a distributed manner.
更に詳しくは、プラットフォーム10−2〜10−4のプロセッサ12−2〜12−4は、メモリ13−2〜13−4や、記憶部14−2〜14−4に記憶されるプログラムを実行することによって、人物特定処理を実行する人物特定処理部101を実現する。また、プラットフォーム10−5〜10−6のプロセッサ12−5〜12−6は、メモリ13−5〜13−6や、記憶部14−5〜14−6に記憶されるプログラムを実行することによって、人物紐付け処理を実行する人物紐付け処理部102を実現する。また、プラットフォーム10−7のプロセッサ12−7は、メモリ13−7や、記憶部14−7に記憶されるプログラムを実行することによって、人物分類処理を実行する人物分類処理部103を実現する。
More specifically, the processors 12-2 to 12-4 of the platforms 10-2 to 10-4 execute the programs stored in the memories 13-2 to 13-4 and the storage units 14-2 to 14-4. As a result, the person
まず、人物特定処理部101が実行する人物特定処理について説明する。
First, the person identification process executed by the person
ここで、図5は、カメラ50が撮像した画像データからの人物の検出結果の一例を示す図である。図5に示すように、分散型コンピュータ1は、棚の一部分を人物と誤検出してしまう場合がある。そこで、人物の誤検出を防止する技術が望まれている。 Here, FIG. 5 is a diagram showing an example of the detection result of a person from the image data captured by the camera 50. As shown in FIG. 5, the distributed computer 1 may erroneously detect a part of the shelf as a person. Therefore, a technique for preventing erroneous detection of a person is desired.
ここで、人物は、床の上面に立っている。一方、人物が立つことが出来ない棚等が設置された領域には、人物はいないものと考えられる。よって、人物特定処理部101は、人物がいない領域を検出対象の領域から除外することで、人物の誤検出を低減することができる。
Here, the person is standing on the upper surface of the floor. On the other hand, it is considered that there are no people in the area where shelves or the like where people cannot stand are installed. Therefore, the person
図6は、除外領域が設定された画像データの一例を示す図である。図6に示すように、人物が移動可能な領域を移動可能領域に設定し、移動可能領域以外の人物が移動することができない領域を除外領域に設定する。移動可能領域とは、人物が移動可能な領域であって、画像データにおける例えば床の領域である。除外領域は、人物が移動可能な領域であって、画像データにおける例えば床以外の領域である。そして、人物検出において、床に立っている、つまり床に足が接していることを条件として付加することで人物の検出精度を向上させることができる。 FIG. 6 is a diagram showing an example of image data in which an exclusion region is set. As shown in FIG. 6, an area in which a person can move is set as a movable area, and an area other than the movable area in which a person cannot move is set as an exclusion area. The movable area is an area in which a person can move, and is, for example, a floor area in the image data. The exclusion area is an area in which a person can move, and is an area other than the floor, for example, in the image data. Then, in the person detection, the accuracy of detecting the person can be improved by adding the condition that the person is standing on the floor, that is, the foot is in contact with the floor.
そこで、人物特定処理部101は、同一の場所を複数時間撮影した画像データに、除外領域及び移動可能領域が定義されたフィルタ情報を適用する。ここで、図7は、フィルタ情報の一例を示す図である。図7は、図5及び図6に示す画像に対する除外領域及び移動可能領域を示している。そして、図7は、黒色の領域が除外領域を示しており、白色の領域が移動可能領域を示している。フィルタ情報は、例えばビットマップ形式等の画像情報である。
Therefore, the person
ここで、人物特定処理部101の機能構成について説明する。図8は、人物特定処理部101の機能構成の一例を示す機能ブロック図である。プラットフォーム10−2〜10−4のプロセッサ12−2〜12−4は、メモリ13−2〜13−4や、記憶部14−2〜14−4に記憶されるプログラムを実行することによって、図8に示す機能を実現するコンピュータである。具体的には、プロセッサ12−2〜12−4は、機能部として、画像取得部1011、人物検出部1012、及び人物特定部1013を備える。
Here, the functional configuration of the person
画像取得部1011は、画像データを取得する。例えば、画像取得部1011は、プラットフォーム10−1を介して、カメラ50が撮影した画像データを取得する。 The image acquisition unit 1011 acquires image data. For example, the image acquisition unit 1011 acquires image data captured by the camera 50 via the platform 10-1.
人物検出部1012は、画像データから人物の候補である人物候補を検出する。人物検出部1012は、例えば、パターン認識により画像データから人物を検出する。
The
人物特定部1013は、画像データにおいて人物が移動可能な領域である移動可能領域を示すフィルタ情報に基づいて、人物検出部1012が検出した人物候補が移動可能領域上に存在する場合に人物と特定する。例えば、人物特定部1013は、人物検出部1012が検出した人物候補の足が移動可能領域上にある場合に、人物と特定する。また、人物特定部1013は、移動可能領域上に足がある人物候補の領域内から頭又は顔を検出した場合に、人物と特定してもよい。人物候補の領域とは、画像データ上において人物検出部1012が検出した人物候補の領域である。
The
図4に戻り、人物紐付け処理部102が実行する人物紐付け処理について説明する。
Returning to FIG. 4, the person association processing executed by the person
図4に示すように、プラットフォーム10−5〜2−6のプロセッサ12−5〜12−6は、メモリ13−5〜13−6や、記憶部14−5〜14−6に記憶されるプログラムを実行することによって、人物紐付け処理部102を実現する。
As shown in FIG. 4, the processor 12-5 to 12-6 of the platform 10-5 to 2-6 is a program stored in the memory 13-5 to 13-6 and the storage unit 14-5 to 14-6. By executing the above, the person
人物紐付け処理部102は、特定した人物の座標を時系列順に紐付ける。更に詳しくは、人物紐付け処理部102は、人物特定処理部101が人物であると特定した場合に、人物特定処理部101が特定した人物の画像データ上の座標を時系列順に記録する。これにより、人物紐付け処理部102は、人物特定処理部101が特定した人物の移動の軌跡を記録する。すなわち、人物紐付け処理部102は、人物特定処理部101が特定した人物を追跡可能にする。
The person
次に、人物分類処理部103が実行する人物分類処理について説明する。
Next, the person classification process executed by the person
図4に示すように、プラットフォーム10−7のプロセッサ12−7は、メモリ13−7や、記憶部14−7に記憶されるプログラムを実行することによって、人物分類処理部103を実現する。
As shown in FIG. 4, the processor 12-7 of the platform 10-7 realizes the person
人物分類処理部103は、座標を時系列順に紐付けた人物を分類する。更に詳しくは、人物分類処理部103は、人物紐付け処理部102が追跡可能にした人物を分類分けする。例えば、人物分類処理部103は、人物の性別や年齢等の属性毎の分類で分類分けを行う。また、人物分類処理部103は、人物の行動等に基づいて不審人物であるか否かで分類分けを行う。
The person
次に、フィルタ情報の生成について説明する。 Next, the generation of filter information will be described.
本実施形態では、プラットフォーム10−8がフィルタ情報を生成する場合を例に説明する。しかしながら、フィルタ情報は、プラットフォーム10−8以外のプラットフォーム10−1〜10−7が生成してもよいし、図1には示されていない情報処理装置が生成したフィルタ情報を取得してもよい。 In the present embodiment, the case where the platform 10-8 generates the filter information will be described as an example. However, the filter information may be generated by platforms 10-1 to 10-7 other than platforms 10-8, or filter information generated by an information processing device (not shown in FIG. 1) may be acquired. ..
フィルタ情報を生成するためには、人物が移動可能な領域を定義する必要がある。すなわち、床を定義する必要がある。床を定義する方法として、例えば計算式等により除外領域を定義する方策が考えられる。しかしながら、カメラ50は複数ある。また、カメラ50が設置される場所も複数ある。そのため、多数ある画像データ毎に除外領域を設定することは困難である。そのため、除外領域を容易に設定可能な技術が望まれている。そこで、プラットフォーム10−8は、多数の人物が移動した移動の軌跡に基づいて、フィルタ情報を生成する。 In order to generate filter information, it is necessary to define the area in which a person can move. That is, it is necessary to define the floor. As a method of defining the floor, for example, a method of defining the exclusion area by a calculation formula or the like can be considered. However, there are a plurality of cameras 50. In addition, there are a plurality of places where the camera 50 is installed. Therefore, it is difficult to set an exclusion area for each of a large number of image data. Therefore, a technique capable of easily setting the exclusion area is desired. Therefore, the platform 10-8 generates filter information based on the locus of movement of a large number of people.
図9は、プラットフォーム10−8の機能構成の一例を示す機能ブロック図である。プラットフォーム10−8のプロセッサ12−8は、メモリ13−8や、記憶部14−8に記憶されるプログラムを実行することによって、図9に示す機能を実現するコンピュータである。具体的には、プロセッサ12−8は、機能部として、画像取得部1081、人物検出部1082、人物追跡部1083、骨格推定部1084、領域算出部1085、移動判定部1086、フィルタ生成部1087、及び完成判定部1088を備える。
FIG. 9 is a functional block diagram showing an example of the functional configuration of the platform 10-8. The processor 12-8 of the platform 10-8 is a computer that realizes the functions shown in FIG. 9 by executing a program stored in the memory 13-8 and the storage unit 14-8. Specifically, the processor 12-8 has, as functional units, an image acquisition unit 1081, a
画像取得部1081は、取得部の一例である。画像取得部1081は、同一の場所を複数時間撮影した画像データを取得する。更に詳しくは、画像取得部1081は、カメラ50が同一の場所を複数時間撮影した画像データを取得する。 The image acquisition unit 1081 is an example of an acquisition unit. The image acquisition unit 1081 acquires image data obtained by photographing the same place for a plurality of hours. More specifically, the image acquisition unit 1081 acquires image data obtained by photographing the same place by the camera 50 for a plurality of hours.
人物検出部1082は、検出部の一例である。人物検出部1082は、画像データから人物を検出する。更に詳しくは、人物検出部1082は、カメラ50が撮像した画像データから人物の候補である人物候補を検出する。例えば、人物検出部1082は、パターン認識により画像データから人物候補を検出する。また、人物検出部1082は、人物候補を検出した場合に、人物候補が含まれる人物領域を画像データに設定する。例えば、人物検出部1082は、図5に示すように、人物を囲う矩形形状の人物領域を画像データ上に設定する。さらに、人物検出部1082は、人物領域から人物の頭の領域を示す頭領域や、顔の領域を示す顔領域を画像データ上に設定する。
The
人物追跡部1083は、記録部の一例である。人物追跡部1083は、人物検出部1082が検出した人物候補の各時間の座標を人物候補毎に記録する。これにより、人物追跡部1083は、画像データから検出した人物の移動を追跡する。更に詳しくは、人物追跡部1083は、人物検出部1082が検出した人物候補に対して、人物を識別可能な人物コードが付与されているか否かを判定する。人物追跡部1083は、人物コードを付与していない場合に、人物コードを付与する。そして、人物追跡部1083は、人物検出部1082が人物候補を検出した座標を時系列順に記録する。一方、人物追跡部1083は、人物コードを付与している場合に、人物検出部1082が人物候補を検出した座標を人物コードに関連付けて時系列順に記録する。
The
骨格推定部1084は、画像データに含まれる人物の候補である人物候補の骨格を推定する。更に詳しくは、骨格推定部1084は、人物検出部1082が検出した人物候補の骨格を推定する。また、骨格推定部1084は、人物候補の骨格を推定した場合に、各部位がある画像データ上の座標を取得する。例えば、骨格推定部1084は、人物候補の足首がある座標を取得する。
The
領域算出部1085は、算出部の一例である。領域算出部1085は、画像データに含まれる人物の候補である人物候補の画像データ上の領域の縦横比及び面積を算出する。更に詳しくは、領域算出部1085は、人物検出部1082が検出した人物候補の人物領域の縦横比及び面積を算出する。ここで、図10は、人物検出部1082による人物候補の検出結果の一例を示す図である。図11は、人物検出部1082による人物候補の撮影位置に応じた検出結果の一例を示す図である。図10に示すように、人物検出部1082が人物候補を検出した場合、人物領域は適切な縦横比になる。ところが、人物検出部1082が人物以外の物体を人物と誤検出した場合、人物領域は、小さすぎる、幅広すぎる、広すぎる、又は高すぎる等の形状になる。
The
一方、図11に示すように、人物候補がカメラ50の近くにいるか遠くにいるかにより、人物領域の大きさは変化する。そこで、領域算出部1085は、画像データ上に設定された人物領域の縦横比及び面積を算出する。そして、領域算出部1085は、算出した人物領域の面積が事前に設定された範囲内であって、縦横比が事前に設定された範囲内である場合に、該当する人物候補は人物であると判定する。
On the other hand, as shown in FIG. 11, the size of the person area changes depending on whether the person candidate is near or far from the camera 50. Therefore, the
移動判定部1086は、画像データに含まれる人物の候補である人物候補の画像データ上の領域の面積の変化に基づいて人物候補が移動したか否かを判定する。更に詳しくは、移動判定部1086は、人物検出部1082が検出した人物候補の人物領域の大きさの変化に基づいて、人物の移動を検出する。ここで、人物は移動する。一方、人物検出部1082の検出結果が人物ではない場合には移動しない。そこで、移動判定部1086は、人物候補の移動を検出するか否かに基づいて、人物であるか否かを判定する。例えば、移動判定部1086は、人物領域の大きさが20バーセント等の閾値以上変化した場合に、人物が移動していると判定する。
The
例えば、人物候補がカメラ50に近づいた場合、又は人物候補がカメラ50から遠ざかった場合に、図11に示すように、人物領域の大きさが変化する。また、人物候補がカメラ50の撮影領域に進入した場合、又は人物がカメラ50の撮影領域から退出した場合に、撮影領域の境界線で人物領域の大きさが変化する。具体的には、撮影領域に人物が進入する場合、進入直後には体の一部分が撮影領域にあるが、時間が経過するに従い撮影領域にある体の部分が増加する。一方、撮影領域に人物が退出する場合、退出直後には体の略全部が撮影領域にあるが、時間が経過するに従い撮影領域になる体の部分が減少する。このように、人物候補がカメラ50の撮影領域に進入、又は退出する場合に、人物領域の大きさが変化する。移動判定部1086は、人物領域の大きさが閾値以上変化するか否かに基づいて、人物の移動を検出する。
For example, when the person candidate approaches the camera 50, or when the person candidate moves away from the camera 50, the size of the person area changes as shown in FIG. Further, when the person candidate enters the shooting area of the camera 50 or the person exits the shooting area of the camera 50, the size of the person area changes at the boundary line of the shooting area. Specifically, when a person enters the shooting area, a part of the body is in the shooting area immediately after the entry, but the part of the body in the shooting area increases as time elapses. On the other hand, when a person leaves the shooting area, almost the entire body is in the shooting area immediately after leaving, but the part of the body that becomes the shooting area decreases as time passes. In this way, when the person candidate enters or exits the shooting area of the camera 50, the size of the person area changes. The
フィルタ生成部1087は、生成部の一例である。フィルタ生成部1087は、人物追跡部1083が記録した人物候補毎の座標を時系列順に繋げた軌跡に基づいて、画像データにおいて人物が移動可能な領域である移動可能領域を示すフィルタ情報を生成する。更に詳しくは、フィルタ生成部1087は、人物検出部1082が検出した人物候補のうち、骨格推定部1084、領域算出部1085、及び移動判定部1086が人物であると判定した人物の人物コードを抽出する。フィルタ生成部1087は、抽出した人物コードの人物について、人物追跡部1083が記録した各時間の座標を取得する。
The
フィルタ生成部1087は、取得した各時間の座標を示す座標点をプロットする。ここで、図12は、座標点のプロットの一例を示す図である。図12に示すように、フィルタ生成部1087は、人物の人物領域の底辺の中央に座標点をプロットする。なお、フィルタ生成部1087は、人物の人物領域の底辺の中央に限らず、他の位置に座標点をプロットしてもよい。
The
図13は、座標点のプロット位置の一例を示す図である。図13(a)は、人物領域の底辺の中央に座標点をプロットした状態を示している。図13(b)は、人物領域の上辺の左端に座標点をプロットした状態を示している。図13(c)は、人物領域の幅方向及び高さ方向の中央に座標点をプロットした状態を示している。図13(d)は、人物領域の底辺の左端に座標点をプロットした状態を示している。図13に示すように、座標点は、人物の人物領域の底辺の中央に限らず、人物領域における何れの位置であってもよい。 FIG. 13 is a diagram showing an example of plot positions of coordinate points. FIG. 13A shows a state in which the coordinate points are plotted in the center of the base of the person area. FIG. 13B shows a state in which the coordinate points are plotted on the left end of the upper side of the person area. FIG. 13C shows a state in which the coordinate points are plotted in the center in the width direction and the height direction of the person area. FIG. 13D shows a state in which the coordinate points are plotted at the left end of the bottom of the person area. As shown in FIG. 13, the coordinate point is not limited to the center of the bottom of the person area of the person, and may be any position in the person area.
また、フィルタ生成部1087は、各時間の座標毎に、座標点をプロットする。フィルタ生成部1087は、各座標点の基になった座標を取得した時系列順に、プロットした各座標点を繋げる。ここで、図14は、座標点を時系列順に繋げた状態の一例を示す図である。図14に示すように、フィルタ生成部1087は、同一人物の座標点を時系列順に繋げることで人物が移動した軌跡を生成する。1人の移動の軌跡は線であるが、多数の人物の移動の軌跡を合わせることで、人物が移動可能な領域が示された面になる。フィルタ生成部1087は、複数の人物の移動の軌跡に基づいて、人物が移動可能な領域である移動可能領域を示すフィルタ情報を生成する。
Further, the
ここで、移動可能領域は、人物が移動可能な領域を示している。よって、フィルタ生成部1087は、人物ではない物体の移動の軌跡に基づいて、フィルタ情報を生成すべきではない。そこで、フィルタ生成部1087は、骨格推定部1084が骨格を推定できた人物候補の人物の軌跡に基づいて、フィルタ情報を生成する。また、フィルタ生成部1087は、領域算出部1085が算出した縦横比及び面積が設定範囲内である人物候補の人物の軌跡に基づいて、フィルタ情報を生成する。また、フィルタ生成部1087は、移動判定部1086が移動したと判定した人物候補の人物の軌跡に基づいて、フィルタ情報を生成する。
Here, the movable area indicates an area in which a person can move. Therefore, the
なお、フィルタ生成部1087は、骨格推定部1084、領域算出部1085、及び移動判定部1086のうち、全ての人物であると判定した場合に該当する人物の軌跡に基づいてフィルタ情報を生成してもよい。または、フィルタ生成部1087は、これらの機能部の判定結果の多数決により人物であると判定された場合に該当する人物の軌跡に基づいてフィルタ情報を生成してもよい。または、フィルタ生成部1087は、これらの機能部のうちの何れか一つが人物であると判定した場合に該当する人物の軌跡に基づいてフィルタ情報を生成してもよい。
The
ここで、図11にて説明したように、カメラ50から近い位置に人物がいれば人物領域は大きくなり、カメラ50から遠い位置に人物がいれば人物領域は小さくなる。そして、軌跡は、人物が通過した箇所を示している。よって、カメラ50から遠い位置の軌跡の太さを、カメラ50から近い位置の軌跡の太さと同じにした場合、本来、人物が通過していない箇所まで通過したことになってしまう。一方、カメラ50から近い位置の軌跡の太さを、カメラ50から遠い位置の軌跡の太さと同じにした場合、本来は通過した箇所が通過していないことになってしまう。 Here, as described with reference to FIG. 11, if there is a person near the camera 50, the person area becomes large, and if there is a person far from the camera 50, the person area becomes small. And the locus shows the place where the person passed. Therefore, if the thickness of the locus at a position far from the camera 50 is the same as the thickness of the locus at a position close to the camera 50, the person has passed to a place where the person originally did not pass. On the other hand, if the thickness of the locus at a position close to the camera 50 is the same as the thickness of the locus at a position far from the camera 50, the originally passed portion will not pass.
そこで、フィルタ生成部1087は、画像データ上の人物の位置に応じて軌跡の太さを変更する。ここで、人物がカメラ50から遠ざかるに従い、人物の位置は画像データの上方に移動する。そこで、フィルタ生成部1087は、画像データにおける座標点のX軸方向の座標に応じて軌跡の太さを変更する。例えば、フィルタ生成部1087は、人物領域の幅の10パーセントの太さに変更する。
Therefore, the
また、フィルタ生成部1087は、軌跡と軌跡との間隙を埋めることで、フィルタ情報を生成する。ここで、移動可能領域を全て軌跡で生成しようとすると多くの時間がかかってしまう。そこで、フィルタ生成部1087は、軌跡と軌跡との間隙を通過箇所とみなして補充することで生成時間の短縮を図ることができる。一方、全ての間隙を補充すると必要以上に補充してしまうことになる。
Further, the
例えば、通路の中央に物品が置かれている場合を想定する。この場合に、人物は物品を避けて通過するため物品の両側に軌跡が生成される。そのため、全ての間隙を補充しようとすると、物品が置かれている箇所も補充の対象となるが、物品が置かれている箇所は人物が通過しないため軌跡を補充すべきではない。そこで、フィルタ生成部1087は、軌跡と軌跡との間隙の距離が閾値以下の場合に、間隙を補充する。ここで、閾値は、任意の値であってもよいし、計算式により算出される値であってもよいし、その他の値であってもよい。例えば、閾値は、X軸方向の座標に応じて決定される値であってもよいし、人物領域の幅に応じて決定される値であってもよいし、その他の値であってもよい。
For example, assume that an article is placed in the center of the aisle. In this case, since the person passes by avoiding the article, trajectories are generated on both sides of the article. Therefore, when trying to replenish all the gaps, the place where the article is placed is also subject to replenishment, but the locus should not be replenished because the person does not pass through the place where the article is placed. Therefore, the
完成判定部1088は、フィルタ情報の生成が完了したか否かを判定する。ここで、フィルタ情報の生成完成の判定基準は、任意の条件を設定することができる。例えば、完成判定部1088は、人物が設定人数以上通過しても移動可能領域が増加しない場合に生成完了と判定してもよいし、設定時間が経過しても移動可能領域が増加しない場合に生成完了と判定してもよいし、カメラ50が撮影した動画が終了した場合に生成完了と判定してもよい。
The
次に、プラットフォーム10−8によるフィルタ生成処理について説明する。図15は、本実施例に係るフィルタ生成処理の一例を示すフローチャートである。フィルタ生成処理は、フィルタ情報を生成する処理である。 Next, the filter generation process by the platform 10-8 will be described. FIG. 15 is a flowchart showing an example of the filter generation process according to the present embodiment. The filter generation process is a process for generating filter information.
人物検出部1082は、カメラ50から取得した画像データから人物候補を検出する人物検出処理を実行する(ステップS1)。
The
人物追跡部1083は、画像データ上における人物候補の座標を人物コード毎に時系列順に記録する(ステップS2)。
The
骨格推定部1084は、人物検出部1082が検出した人物候補の骨格を推定する(ステップS3)。
The
領域算出部1085は、人物検出部1082が検出した人物候補の人物領域の縦横比を算出する(ステップS4)。
The
領域算出部1085は、人物検出部1082が検出した人物候補の人物領域の面積を算出する(ステップS5)。
The
移動判定部1086は、人物検出部1082が検出した人物候補が移動した否かを判定する(ステップS6)。
The
フィルタ生成部1087は、骨格推定部1084、領域算出部1085、及び移動判定部1086の判定結果に基づいて、人物検出部1082が検出した人物候補が人物であるか否かを判定する(ステップS7)。人物候補が人物ではないと判定した場合に(ステップS7;No)、プラットフォーム10−8は、ステップS1に移行する。
The
人物候補が人物である場合に(ステップS7;Yes)、フィルタ生成部1087は、人物の移動の軌跡を生成する(ステップS8)。
When the person candidate is a person (step S7; Yes), the
フィルタ生成部1087は、軌跡と軌跡との間隙の距離が閾値以下の間隙を補充する(ステップS9)。すなわち、フィルタ生成部1087は、移動可能領域に擬制する。
The
完成判定部1088は、フィルタ情報完成の判定基準が満たされたか否かを判定する(ステップS10)。フィルタ情報完成の判定基準が満たされていない場合に(ステップS10;No)、プラットフォーム10−8は、ステップS1に移行する。
The
フィルタ情報完成の判定基準が満たされた場合に(ステップS10;Yes)、プラットフォーム10−8は、フィルタ生成処理を終了する。 When the criterion for completing the filter information is satisfied (step S10; Yes), the platform 10-8 ends the filter generation process.
次に、プラットフォーム10−2〜10−4の人物特定処理部101における人物特定処理について説明する。本実施形態の人物特定処理は、上述した図15で示したフィルタ生成処理で生成されたフィルタ情報を用いる。フィルタ情報を用いることで、処理負担が軽いにも関わらず高精度の人物の特定が可能となる。図16は、本実施例に係る人物特定処理部101における人物特定処理の一例を示すフローチャートである。
Next, the person identification processing in the person
画像取得部1011は、プラットフォーム10−1を介して、カメラ50が撮影した画像データを取得する(ステップS21)。 The image acquisition unit 1011 acquires the image data captured by the camera 50 via the platform 10-1 (step S21).
人物検出部1012は、画像データ上における、人物である可能性があると考えられる表示領域を、人物候補として検出する(ステップS22)。人物候補の検出手法としては、例えば、パターン認識が考えられるが他の手法を用いてもよい。
The
人物特定部1013は、人物検出部1012によって検出された人物候補が、フィルタ生成部1087によって生成されたフィルタ情報で表された移動可能領域に存在するか否かを判定する(ステップS23)。存在しないと判定した場合(ステップS23:No)、当該人物候補は人物でないと判断して、ステップS25の処理に進む。
The
一方、人物特定部1013は、人物検出部1012によって検出された人物候補が、フィルタ生成部1087によって生成されたフィルタ情報で表された移動可能領域に存在すると判定した場合(ステップS23:Yes)、当該人物候補を、人物と特定する(ステップS24)。人物候補が移動領域に存在すると判断する基準としては、例えば、人物候補(として検出された表示領域)の下端または人物候補(として検出された表示領域)の下端から所定の領域が、移動可能領域に含まれている等が考えられる。なお、判定基準はこのような手法に制限するものではなく、当該移動可能領域に人物が存在していることを推定可能な判定基準であればよい。
On the other hand, when the
そして、人物特定処理部101は、画像データに含まれている全ての人物候補について特定処理が終了したか否かを判定する(ステップS25)。全ての人物候補について特定処理が終了してないと判定した場合(ステップS25:No)、再びステップS23から処理を行う。
Then, the person
一方、人物特定処理部101は、全ての人物候補について特定処理が終了したと判定した場合(ステップS25:Yes)、処理を終了する。
On the other hand, when the person
図16に示される処理で示されるように、人物特定部1013は、フィルタ情報に基づいて、人物検出部1012が検出した人物候補が移動可能領域上に存在する場合に人物と特定する。すなわち、人物特定部1013は、人物がいない領域で人物候補が検出された場合、人物ではないと判断する。従って、本実施例に係るプラットフォーム10−2〜10−4は、人物の誤検出を低減することができる。
As shown in the process shown in FIG. 16, the
以上のように、本実施例に係るプラットフォーム10−8によれば、画像取得部1081は、同一の場所を複数時間撮影した画像データを取得する。人物追跡部1083は、人物検出部1082が検出した人物候補の各時間の座標を人物候補毎に記録する。フィルタ生成部1087は、骨格推定部1084、領域算出部1085、及び移動判定部1086の判定結果に基づいて、人物検出部1082が画像データから検出した人物候補から人物を特定する。ここで、多数の人物の座標を時系列順に繋げた軌跡を合わせることで、人物が移動可能な領域が示された面になる。フィルタ生成部1087は、人物追跡部1083が記録した各人物の座標を時系列順に繋げた軌跡に基づいて、移動可能領域が示されたフィルタ情報を生成する。従って、本実施例に係るプラットフォーム10−8は、フィルタ情報を生成することができる。
As described above, according to the platform 10-8 according to the present embodiment, the image acquisition unit 1081 acquires image data obtained by photographing the same place for a plurality of hours. The
上述の実施形態では、各部のバス(例えば、拡張バス)又はI/OインタフェースとしてPCIeを例に挙げて説明したが、バスまたはI/OインタフェースはPCIeに限定されない。例えば、各部のバスまたはI/Oインタフェースは、データ転送バスによって、デバイス(周辺制御コントローラ)とプロセッサとの間でデータ転送を行える技術であればよい。データ転送バスは、1個の筐体等に設けられたローカルな環境(例えば、1つのシステム又は1つの装置)で高速にデータを転送できる汎用のバスであってもよい。I/Oインタフェースは、パラレルインタフェース及びシリアルインタフェースの何れであってもよい。 In the above-described embodiment, PCIe is taken as an example as a bus (for example, an expansion bus) or an I / O interface of each part, but the bus or I / O interface is not limited to PCIe. For example, the bus or I / O interface of each part may be a technology capable of transferring data between a device (peripheral control controller) and a processor by a data transfer bus. The data transfer bus may be a general-purpose bus that can transfer data at high speed in a local environment (for example, one system or one device) provided in one housing or the like. The I / O interface may be either a parallel interface or a serial interface.
I/Oインタフェースは、シリアル転送の場合、ポイント・ツー・ポイント接続ができ、データをパケットベースで転送可能な構成でよい。なお、I/Oインタフェースは、シリアル転送の場合、複数のレーンを有してよい。I/Oインタフェースのレイヤー構造は、パケットの生成及び復号を行うトランザクション層と、エラー検出等を行うデータリンク層と、シリアルとパラレルとを変換する物理層とを有してよい。また、I/Oインタフェースは、階層の最上位であり1又は複数のポートを有するルートコンプレックス、I/Oデバイスであるエンドポイント、ポートを増やすためのスイッチ、及び、プロトコルを変換するブリッジ等を含んでよい。I/Oインタフェースは、送信するデータとクロック信号とをマルチプレクサによって多重化して送信してもよい。この場合、受信側は、デマルチプレクサでデータとクロック信号を分離してよい。 In the case of serial transfer, the I / O interface may be configured so that point-to-point connection is possible and data can be transferred on a packet basis. The I / O interface may have a plurality of lanes in the case of serial transfer. The layer structure of the I / O interface may include a transaction layer that generates and decodes packets, a data link layer that performs error detection, and a physical layer that converts serial and parallel. In addition, the I / O interface includes a route complex at the top of the hierarchy and having one or more ports, an endpoint that is an I / O device, a switch for increasing the number of ports, a bridge for converting a protocol, and the like. It's fine. The I / O interface may multiplex the data to be transmitted and the clock signal by a multiplexer and transmit them. In this case, the receiving side may separate the data and the clock signal by a demultiplexer.
1 分散型コンピュータ
10 プラットフォーム
21 モニタ
30 中継装置
50 カメラ
100 AI処理部
101 人物特定処理部
102 人物紐付け処理部
103 人物分類処理部
1001、1011、1081 画像取得部
1002 接続制御部
1003 処理結果取得部
1004 表示制御部
1012、1082 人物検出部
1013 人物特定部
1083 人物追跡部
1084 骨格推定部
1085 領域算出部
1086 移動判定部
1087 フィルタ生成部
1088 完成判定部
1 Distributed computer 10
本発明の第1態様に係る情報処理装置は、取得部と、検出部と、記録部と、生成部とを備える。前記取得部は、同一の場所を複数時間撮影した画像データを取得する。前記検出部は、前記画像データから人物を検出する。前記記録部は、前記検出部が時間毎に検出した前記人物を表す人物領域のうち、前記場所の重力方向における底辺近傍の所定の位置を示す座標を、前記人物毎に記録する。前記生成部は、前記記録部が記録した前記人物毎の前記座標を時系列順に繋げた軌跡に基づいて、前記画像データで前記人物が移動可能な領域である移動可能領域を示すフィルタ情報を生成する。 The information processing device according to the first aspect of the present invention includes an acquisition unit, a detection unit, a recording unit, and a generation unit. The acquisition unit acquires image data obtained by photographing the same place for a plurality of hours. The detection unit detects a person from the image data. The recording unit, among the human region representative of the person the detection unit detects for each time, the coordinates indicating a predetermined position of the bottom vicinity of the gravity direction of the place is recorded for each of the persons. The generation unit generates filter information indicating a movable area, which is a movable area of the person in the image data, based on a locus in which the coordinates of each person recorded by the recording unit are connected in chronological order. To do.
本発明の第2態様に係るプログラムは、情報処理装置が有するコンピュータを、取得部と、検出部と、記録部と、生成部として機能させる。前記取得部は、同一の場所を複数時間撮影した画像データを取得する。前記検出部は、前記画像データから人物を検出する。前記記録部は、前記検出部が時間毎に検出した前記人物を表す人物領域のうち、前記場所の重力方向における底辺近傍の所定の位置を示す座標を、前記人物毎に記録する。前記生成部は、前記記録部が記録した前記人物毎の前記座標を時系列順に繋げた軌跡に基づいて、前記画像データで前記人物が移動可能な領域である移動可能領域を示すフィルタ情報を生成する。 The program according to the second aspect of the present invention causes the computer of the information processing apparatus to function as an acquisition unit, a detection unit, a recording unit, and a generation unit. The acquisition unit acquires image data obtained by photographing the same place for a plurality of hours. The detection unit detects a person from the image data. The recording unit, among the human region representative of the person the detection unit detects for each time, the coordinates indicating a predetermined position of the bottom vicinity of the gravity direction of the place is recorded for each of the persons. The generation unit generates filter information indicating a movable area, which is a movable area of the person in the image data, based on a locus in which the coordinates of each person recorded by the recording unit are connected in chronological order. To do.
本発明の第1態様に係る情報処理装置は、取得部と、検出部と、記録部と、生成部とを備える。前記取得部は、撮像部によって撮像される表示領域の一方の辺と、当該一方の辺の反対側の辺と、の間を略直交する方向が、前記表示領域に写っている場所の上下方向に対応し、人物が移動可能な地面と、当該上下方向で当該人物が移動しない程度に当該地面より高い物体と、が存在する同一の場所を複数時間撮影した画像データを取得する。前記検出部は、前記画像データから人物を検出する。前記記録部は、前記検出部が時間毎に検出した前記人物を表す人物領域であって、前記上下方向のうち下方向に存在する辺近傍の所定の位置を示す座標を、前記人物毎に記録する。前記生成部は、前記記録部が記録した前記人物毎の前記座標を時系列順に繋げた軌跡に基づいて、前記画像データで前記人物が移動可能な前記地面に対応する領域である移動可能領域を示すフィルタ情報を生成する。 The information processing device according to the first aspect of the present invention includes an acquisition unit, a detection unit, a recording unit, and a generation unit. In the acquisition unit, the direction substantially orthogonal to one side of the display area imaged by the imaging unit and the side opposite to the one side is the vertical direction of the place reflected in the display area. Corresponding to, image data obtained by photographing the same place where a person can move and an object higher than the ground so that the person does not move in the vertical direction exists for a plurality of hours is acquired. The detection unit detects a person from the image data. The recording unit is a person area representing the person the detection unit detects for each time, the coordinates indicating the prescribed position of the straight sides that exists among downward direction of the vertical direction, recorded in each of the person To do. Based on the locus of connecting the coordinates of each person recorded by the recording unit in chronological order, the generation unit creates a movable area, which is a region corresponding to the ground on which the person can move in the image data. Generate the indicated filter information.
本発明の第2態様に係るプログラムは、情報処理装置が有するコンピュータを、取得部と、検出部と、記録部と、生成部として機能させる。前記取得部は、撮像部によって撮像される表示領域の一方の辺と、当該一方の辺の反対側の辺と、の間を略直交する方向が、前記表示領域に写っている場所の上下方向に対応し、人物が移動可能な地面と、当該上下方向で当該人物が移動しない程度に当該地面より高い物体と、が存在する同一の場所を複数時間撮影した画像データを取得する。前記検出部は、前記画像データから人物を検出する。前記記録部は、前記検出部が時間毎に検出した前記人物を表す人物領域であって、前記上下方向のうち下方向に存在する辺近傍の所定の位置を示す座標を、前記人物毎に記録する。前記生成部は、前記記録部が記録した前記人物毎の前記座標を時系列順に繋げた軌跡に基づいて、前記画像データで前記人物が移動可能な領域である移動可能領域を示すフィルタ情報を生成する。 The program according to the second aspect of the present invention causes the computer of the information processing apparatus to function as an acquisition unit, a detection unit, a recording unit, and a generation unit. In the acquisition unit, the direction substantially orthogonal to one side of the display area imaged by the imaging unit and the side opposite to the one side is the vertical direction of the place reflected in the display area. Corresponding to, image data obtained by photographing the same place where a person can move and an object higher than the ground so that the person does not move in the vertical direction exists for a plurality of hours is acquired. The detection unit detects a person from the image data. The recording unit is a person area representing the person the detection unit detects for each time, the coordinates indicating the prescribed position of the straight sides that exists among downward direction of the vertical direction, recorded in each of the person To do. The generation unit generates filter information indicating a movable area, which is a movable area of the person in the image data, based on a locus in which the coordinates of each person recorded by the recording unit are connected in chronological order. To do.
Claims (8)
前記画像データから人物を検出する検出部と、
前記検出部が検出した前記人物の各時間の座標を前記人物毎に記録する記録部と、
前記記録部が記録した前記人物毎の前記座標を時系列順に繋げた軌跡に基づいて、前記画像データで前記人物が移動可能な領域である移動可能領域を示すフィルタ情報を生成する生成部と、
を備える情報処理装置。 An acquisition unit that acquires image data obtained by shooting the same location for multiple hours,
A detection unit that detects a person from the image data,
A recording unit that records the coordinates of each time of the person detected by the detection unit for each person, and a recording unit.
Based on the locus of connecting the coordinates of each person recorded by the recording unit in chronological order, a generation unit that generates filter information indicating a movable area, which is a movable area of the person in the image data, and a generation unit.
Information processing device equipped with.
請求項1に記載の情報処理装置。 The generation unit generates the filter information by filling the gap between the locus and the locus.
The information processing device according to claim 1.
請求項1又は2に記載の情報処理装置。 The generation unit changes the thickness of the locus according to the position of the person on the image data.
The information processing device according to claim 1 or 2.
前記生成部は、前記骨格推定部が前記骨格を推定できた前記人物候補の前記人物の前記軌跡に基づいて、前記フィルタ情報を生成する、
請求項1から3の何れか一項に記載の情報処理装置。 Further provided with a skeleton estimation unit that estimates the skeleton of the person candidate that is the person candidate included in the image data.
The generation unit generates the filter information based on the locus of the person of the person candidate whose skeleton can be estimated by the skeleton estimation unit.
The information processing device according to any one of claims 1 to 3.
前記生成部は、前記算出部が算出した前記縦横比及び前記面積が設定範囲内である前記人物候補の前記人物の前記軌跡に基づいて、前記フィルタ情報を生成する、
請求項1から4の何れか一項に記載の情報処理装置。 A calculation unit for calculating the aspect ratio and the area of the area on the image data of the person candidate who is the candidate of the person included in the image data is further provided.
The generation unit generates the filter information based on the aspect ratio calculated by the calculation unit and the locus of the person of the person candidate whose area is within the set range.
The information processing device according to any one of claims 1 to 4.
前記生成部は、前記移動判定部が移動したと判定した前記人物候補の前記人物の前記軌跡に基づいて、前記フィルタ情報を生成する、
請求項1から5の何れか一項に記載の情報処理装置。 A movement determination unit for determining whether or not the person candidate has moved based on a change in the area of the area on the image data of the person candidate included in the image data is further provided.
The generation unit generates the filter information based on the locus of the person of the person candidate who is determined to have moved by the movement determination unit.
The information processing device according to any one of claims 1 to 5.
請求項1から6の何れか一項に記載の情報処理装置。 The movable area is a floor area in the image data.
The information processing device according to any one of claims 1 to 6.
同一の場所を複数時間撮影した画像データを取得する取得部と、
前記画像データから人物を検出する検出部と、
前記検出部が検出した前記人物の各時間の座標を前記人物毎に記録する記録部と、
前記記録部が記録した前記人物毎の前記座標を時系列順に繋げた軌跡に基づいて、前記画像データで前記人物が移動可能な領域である移動可能領域を示すフィルタ情報を生成する生成部と、
して機能させるためのプログラム。 The computer that the information processing device has
An acquisition unit that acquires image data obtained by shooting the same location for multiple hours,
A detection unit that detects a person from the image data,
A recording unit that records the coordinates of each time of the person detected by the detection unit for each person, and a recording unit.
Based on the locus of connecting the coordinates of each person recorded by the recording unit in chronological order, a generation unit that generates filter information indicating a movable area, which is a movable area of the person in the image data, and a generation unit.
A program to make it work.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019155024A JP2021033785A (en) | 2019-08-27 | 2019-08-27 | Information processing apparatus and program |
GBGB2009815.8A GB202009815D0 (en) | 2019-08-27 | 2020-06-26 | Information processing device and computer program product |
US16/924,729 US20210064886A1 (en) | 2019-08-27 | 2020-07-09 | Information processing device and computer program product |
CN202010679278.1A CN112529933A (en) | 2019-08-27 | 2020-07-15 | Information processing apparatus and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019155024A JP2021033785A (en) | 2019-08-27 | 2019-08-27 | Information processing apparatus and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021033785A true JP2021033785A (en) | 2021-03-01 |
Family
ID=74678301
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019155024A Pending JP2021033785A (en) | 2019-08-27 | 2019-08-27 | Information processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021033785A (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1141589A (en) * | 1997-07-17 | 1999-02-12 | Hitachi Ltd | Method and system for supervising mobile object |
JP2003111062A (en) * | 2001-10-01 | 2003-04-11 | Minolta Co Ltd | Life monitor camera system and photographing device |
JP2015042241A (en) * | 2013-01-18 | 2015-03-05 | 株式会社東芝 | Movement information processing device and method |
JP2019041261A (en) * | 2017-08-25 | 2019-03-14 | 株式会社 日立産業制御ソリューションズ | Image processing system and setting method of image processing system |
JP2019133566A (en) * | 2018-02-02 | 2019-08-08 | オムロン株式会社 | Information processing apparatus |
-
2019
- 2019-08-27 JP JP2019155024A patent/JP2021033785A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1141589A (en) * | 1997-07-17 | 1999-02-12 | Hitachi Ltd | Method and system for supervising mobile object |
JP2003111062A (en) * | 2001-10-01 | 2003-04-11 | Minolta Co Ltd | Life monitor camera system and photographing device |
JP2015042241A (en) * | 2013-01-18 | 2015-03-05 | 株式会社東芝 | Movement information processing device and method |
JP2019041261A (en) * | 2017-08-25 | 2019-03-14 | 株式会社 日立産業制御ソリューションズ | Image processing system and setting method of image processing system |
JP2019133566A (en) * | 2018-02-02 | 2019-08-08 | オムロン株式会社 | Information processing apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10893207B2 (en) | Object tracking apparatus, object tracking method, and non-transitory computer-readable storage medium for storing program | |
US10776627B2 (en) | Human flow analysis method, human flow analysis apparatus, and human flow analysis system | |
US11842500B2 (en) | Fault-tolerance to provide robust tracking for autonomous and non-autonomous positional awareness | |
US9877012B2 (en) | Image processing apparatus for estimating three-dimensional position of object and method therefor | |
US10572736B2 (en) | Image processing apparatus, image processing system, method for image processing, and computer program | |
JP5832116B2 (en) | 3D scene analysis | |
TWI512645B (en) | Gesture recognition apparatus and method using depth images | |
CN109298629B (en) | System and method for guiding mobile platform in non-mapped region | |
US20140139660A1 (en) | Method and Apparatus for Detecting People by a Surveillance System | |
JPWO2018025831A1 (en) | People flow estimation device, people flow estimation method and program | |
JP6217635B2 (en) | Fall detection device, fall detection method, fall detection camera, and computer program | |
JP2007333690A (en) | Motion capture system, method, and program | |
CN103003842A (en) | Moving-body detection device, moving-body detection method, moving-body detection program, moving-body tracking device, moving-body tracking method, and moving-body tracking program | |
JP6620443B2 (en) | Monitoring program, monitoring apparatus, and monitoring method | |
Nguyen et al. | Single camera based fall detection using motion and human shape features | |
JP6754087B1 (en) | Information processing device and program | |
US9684824B2 (en) | Motion estimation device, robot, and method to estimate reaction of a person | |
JP3520050B2 (en) | Moving object tracking device | |
JP2021033785A (en) | Information processing apparatus and program | |
JP2011002292A (en) | Three-dimensional fingertip position detecting method, three-dimensional fingertip position detector, and program | |
US20210064886A1 (en) | Information processing device and computer program product | |
Seer et al. | Kinects and human kinetics: a new approach for studying crowd behavior | |
JP2012185655A (en) | Image processing system, image processing method and image processing program | |
JP6787075B2 (en) | Image processing system, image processing device and image processing method | |
JP2021081804A (en) | State recognition device, state recognition method, and state recognition program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190917 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190918 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200110 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200319 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200616 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200916 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20200916 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20200929 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20201006 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20201023 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20201027 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20210608 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20210720 |
|
C19 | Decision taken to dismiss amendment |
Free format text: JAPANESE INTERMEDIATE CODE: C19 Effective date: 20210803 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20210803 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20211019 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20211124 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20211124 |