JP4968929B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP4968929B2
JP4968929B2 JP2007189954A JP2007189954A JP4968929B2 JP 4968929 B2 JP4968929 B2 JP 4968929B2 JP 2007189954 A JP2007189954 A JP 2007189954A JP 2007189954 A JP2007189954 A JP 2007189954A JP 4968929 B2 JP4968929 B2 JP 4968929B2
Authority
JP
Japan
Prior art keywords
search area
person
search
setting
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007189954A
Other languages
Japanese (ja)
Other versions
JP2009026146A (en
Inventor
政美 加藤
貴久 山本
嘉則 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007189954A priority Critical patent/JP4968929B2/en
Publication of JP2009026146A publication Critical patent/JP2009026146A/en
Application granted granted Critical
Publication of JP4968929B2 publication Critical patent/JP4968929B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は画像処理装置、画像処理方法、プログラム及び記録媒体に関し、特に、ディジタルカメラ、ビデオカメラ、監視カメラシステム、見守りシステム、行動記録システム、産業用マシンビジョンシステム等に用いて好適な技術に関する。   The present invention relates to an image processing apparatus, an image processing method, a program, and a recording medium, and more particularly to a technique suitable for use in a digital camera, a video camera, a surveillance camera system, a watching system, an action recording system, an industrial machine vision system, and the like.

カメラの被写体検出や監視カメラシステム等へ応用することを目的として、映像データから特定の物体を検出し、追尾する手法が提案されている。例えば、特許文献1では、カメラの自動焦点機構のために、画像中に検出領域を設定し、当該領域を移動させながら人物領域を追跡するカメラが提案されている。   For the purpose of application to camera subject detection, surveillance camera system, and the like, a method for detecting and tracking a specific object from video data has been proposed. For example, Patent Document 1 proposes a camera that sets a detection area in an image and tracks a person area while moving the area for an automatic focusing mechanism of the camera.

図2は、特定の探索領域を設けて人物を追跡する従来例を説明する図である。201a〜201cは撮影領域を示し、202a〜202cは探索領域を示す。また、203は時刻tにおける人物の検出結果を示し、204は時刻t+α(α:所定の検出単位)における人物の検出結果を示す。さらに、205はα時間に対象人物が移動した移動ベクトルを示す。   FIG. 2 is a diagram illustrating a conventional example in which a specific search area is provided to track a person. Reference numerals 201a to 201c denote photographing areas, and reference numerals 202a to 202c denote search areas. Reference numeral 203 denotes a person detection result at time t, and 204 denotes a person detection result at time t + α (α: a predetermined detection unit). Reference numeral 205 denotes a movement vector in which the target person has moved at time α.

一般的に、時刻t+αに人物が検出された場合、人物が中心となる様な探索領域202bを設定して次のフレームの検出処理を開始する。一方、より高性能な追尾を目的として、移動ベクトル205から探索領域202aの移動方向を予測して探索領域202cを設定する手法も提案されている。例えば、特許文献2では、単位時間内の移動量を元に、顔部位の探索領域を設定する手法が提案されている。   In general, when a person is detected at time t + α, a search area 202b in which the person is the center is set and the next frame detection process is started. On the other hand, for the purpose of higher-performance tracking, a method for predicting the moving direction of the search area 202a from the movement vector 205 and setting the search area 202c has been proposed. For example, Patent Document 2 proposes a method of setting a search region for a facial part based on a movement amount within a unit time.

このように、対象物の移動方向を正確に予測して探索領域を狭領域化することができれば、より高速な物体追尾を実現することが可能になる。逆に、追尾時間が問題にならない場合は、探索領域の狭領域化により、同じ処理時間でより複雑な検出方式を適用し、検出性能を向上させることができる。また、物体検出システム等において、システムの消費電力を抑える最も有効な手段は、検出領域を限定して検出処理回数を減少させることにある。このため、より的確な予測に基づく探索領域の狭領域化が望ましい。   As described above, if the search area can be narrowed by accurately predicting the moving direction of the object, higher-speed object tracking can be realized. Conversely, when tracking time is not a problem, narrowing the search area can apply a more complex detection method with the same processing time, and improve detection performance. In an object detection system or the like, the most effective means for reducing the power consumption of the system is to limit the detection region and reduce the number of detection processes. For this reason, it is desirable to narrow the search area based on more accurate prediction.

特開昭61−28914号公報JP 61-28914 A 特開2004−258907号公報JP 2004-258907 A 特開2004−318632号公報JP 2004-318632 A H. Schneiderman, T. Kanade. "A Statistical Method for 3D Object Detection Applied to Faces and Cars". IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2000)H. Schneiderman, T. Kanade. "A Statistical Method for 3D Object Detection Applied to Faces and Cars". IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2000) 赤松 茂"コンピュータによる顔の認識の研究動向."電子情報通信学会誌 80,3,1997,p.257−266.Shigeru Akamatsu "Research Trend of Face Recognition by Computer." Journal of IEICE 80, 3, 1997, p.257-266.

近年の半導体技術の進歩に伴い、人物の状態や属性或いは個人の識別等を行う高次の認知技術が開発されて実用に供されている。これらの高次の認知技術にも、前処理として対象物体の追尾検出技術が必要な場合が多い。しかしながら、前述した従来例に示すように、移動ベクトルだけによる予測では、例えば、検出対象が停止状態にある場合等においては、移動ベクトルを検出できないか、もしくは検出することが難しい場合もある。このような場合では、最適な探索領域をシーンに応じて設定できないという問題点があった。   With the recent progress of semiconductor technology, higher-order cognitive technology for identifying a person's state, attribute, or individual has been developed and put into practical use. These higher-level recognition techniques often require a target object tracking detection technique as preprocessing. However, as shown in the above-described conventional example, in the prediction based only on the movement vector, for example, when the detection target is in a stopped state, the movement vector may not be detected or may be difficult to detect. In such a case, there has been a problem that the optimum search area cannot be set according to the scene.

本発明は前述の問題点に鑑み、最適な探索領域をシーンに応じて設定できるようにすることを目的としている。   An object of the present invention is to make it possible to set an optimum search area according to a scene in view of the above-described problems.

本発明の画像処理装置は、映像データを入力する映像入力手段と、前記映像入力手段によって入力された映像データを構成するフレーム内の探索領域を設定する探索領域設定手段と、前記探索領域設定手段によって設定された探索領域から人物を検出する人物検出手段と、前記人物検出手段によって検出された人物年齢判定する年齢判定手段とを有し、前記探索領域設定手段は、前記年齢判定手段による判定の結果に基づいて、次のフレームの探索領域を設定することを特徴とする。
また、本発明の画像処理装置の他の特徴とするところは、映像データを入力する映像入力手段と、前記映像入力手段によって入力された映像データを構成するフレーム内の探索領域を設定する探索領域設定手段と、前記探索領域設定手段によって設定された探索領域から人物を検出する人物検出手段と、前記人物検出手段によって検出された人物がどの個人であるかを識別する個人識別手段とを有し、前記探索領域設定手段は、前記個人識別手段による識別の結果に基づいて、次のフレームの探索領域を設定することを特徴とする。
The image processing apparatus according to the present invention includes video input means for inputting video data, search area setting means for setting a search area within a frame constituting the video data input by the video input means, and the search area setting means. a person detection means for detecting a person from the search area set by, and an age determining means for determining the age of the person detected by the person detecting unit, the search area setting unit, by the age determination means A search region for the next frame is set based on the determination result.
Another feature of the image processing apparatus of the present invention is that a video input means for inputting video data and a search area for setting a search area in a frame constituting the video data input by the video input means. comprising a setting unit, and person detection means for detecting a person from the search area set by the search area setting unit, and a personal identification means for identifying whether any individual person detected by said human detection unit The search area setting means sets a search area for the next frame based on the result of identification by the personal identification means.

本発明の画像処理方法は、映像データを入力する映像入力工程と、前記映像入力工程において入力した映像データを構成するフレーム内の探索領域を設定する探索領域設定工程と、前記探索領域設定工程において設定した探索領域から人物を検出する被写体検出工程と、前記被写体検出工程において検出した人物年齢判定する年齢判定工程とを有し、前記探索領域設定工程においては、前記年齢判定工程における判定の結果に基づいて、次のフレームの探索領域を設定することを特徴とする。
また、本発明の画像処理方法の他の特徴とするところは、映像データを入力する映像入力工程と、前記映像入力工程において入力した映像データを構成するフレーム内の探索領域を設定する探索領域設定工程と、前記探索領域設定工程において設定した探索領域から人物を検出する被写体検出工程と、前記被写体検出工程において検出した人物がどの個人であるかを識別する個人識別工程とを有し、前記探索領域設定工程においては、前記個人識別工程における識別の結果に基づいて、次のフレームの探索領域を設定することを特徴とする。
The image processing method of the present invention includes a video input process for inputting video data, a search area setting process for setting a search area in a frame constituting the video data input in the video input process, and the search area setting process. a subject detection step of detecting a person from the set search area, said and an age determination step of determining the age of a person detected in the subject detection step, in the search area setting step, the determination in the age determination step Based on the result, a search area for the next frame is set.
Another feature of the image processing method of the present invention is that a video input process for inputting video data and a search area setting for setting a search area in a frame constituting the video data input in the video input process. And a subject detection step for detecting a person from the search region set in the search region setting step, and a personal identification step for identifying which individual the person detected in the subject detection step is. In the region setting step, a search region for the next frame is set based on the identification result in the personal identification step.

本発明のプログラムは、映像データを入力する映像入力工程と、前記映像入力工程において入力した映像データを構成するフレーム内の探索領域を設定する探索領域設定工程と、前記探索領域設定工程において設定した探索領域から人物を検出する被写体検出工程と、前記被写体検出工程において検出した人物年齢判定する年齢判定工程とをコンピュータに実行させ、前記探索領域設定工程においては、前記年齢判定工程における判定の結果に基づいて、次のフレームの探索領域を設定することを特徴とする。
また、本発明のプログラムの他の特徴とするところは、映像データを入力する映像入力工程と、前記映像入力工程において入力した映像データを構成するフレーム内の探索領域を設定する探索領域設定工程と、前記探索領域設定工程において設定した探索領域から人物を検出する被写体検出工程と、前記被写体検出工程において検出した人物がどの個人であるかを識別する個人識別工程とをコンピュータに実行させ、前記探索領域設定工程においては、前記個人識別工程における識別の結果に基づいて、次のフレームの探索領域を設定することを特徴とする。
The program of the present invention is set in the video input process for inputting video data, the search area setting process for setting the search area in the frame constituting the video data input in the video input process, and the search area setting process a subject detection step of detecting a person from the search area, said to execute the age determination step of determining the age of a person detected in the subject detection step to the computer, in the search area setting step, the determination in the age determination step based on the results, and wherein the benzalkonium set the search area of the next frame.
Another feature of the program of the present invention is that a video input process for inputting video data, and a search area setting process for setting a search area in a frame constituting the video data input in the video input process, , Causing the computer to execute a subject detection step for detecting a person from the search region set in the search region setting step, and a personal identification step for identifying which person the person detected in the subject detection step is. in the area setting step, based on the result of the identification in the personal identification process, characterized by the Turkey to set the search region of the next frame.

本発明の記録媒体は、前記の何れかに記載のプログラムを記録したことを特徴とする。   A recording medium according to the present invention records any one of the programs described above.

本発明によれば、被写体の状況を識別し、その識別の結果に従って次のフレームの探索領域を設定するようにしたので、被写体が停止している場合等であっても、最適な探索領域をシーンに応じて設定することができる。これにより、被写体の追尾性能を向上させることができる。   According to the present invention, the situation of the subject is identified, and the search area of the next frame is set according to the result of the identification. Therefore, even when the subject is stopped, the optimum search area is selected. It can be set according to the scene. Thereby, the tracking performance of the subject can be improved.

(第1の実施形態)
以下、図面を参照しながら本発明に係る第1の実施形態の追尾処理に関して詳細に説明する。
図1は、本実施形態における追尾処理の手順の一例を示すフローチャートである。また、図3は、本実施形態に係る追尾処理を、マイクロプロセッサを用いて実現する場合の画像処理装置の構成例を示すブロック図である。以下、図1及び図3を参照しながら本実施形態の動作を説明する。
(First embodiment)
Hereinafter, the tracking process according to the first embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a flowchart illustrating an example of the procedure of the tracking process in the present embodiment. FIG. 3 is a block diagram illustrating a configuration example of an image processing apparatus when the tracking processing according to the present embodiment is realized using a microprocessor. The operation of this embodiment will be described below with reference to FIGS.

まず、本実施形態に係る画像処理装置300を監視カメラ装置に応用した場合の例について説明する。図3において、301はCPU(Central Processing Unit)であり、本実施形態に関わる画像処理の全てをソフトウェアにより実現する。CPU301はDSP(Digital Signal Processor)やメディアプロセッサ或いは特定の画像処理機能に特化したプロセッサ等からなる。   First, an example in which the image processing apparatus 300 according to the present embodiment is applied to a monitoring camera apparatus will be described. In FIG. 3, reference numeral 301 denotes a CPU (Central Processing Unit), which realizes all image processing according to the present embodiment by software. The CPU 301 includes a DSP (Digital Signal Processor), a media processor, or a processor specialized for a specific image processing function.

302はブリッジであり、高速なCPUバス303と低速なシステムバス304とをブリッジする機能を有する。また、ブリッジ302は、メモリコントロール機能を内蔵し、ブリッジ302に接続されたRAM(Random Access Memory)305へアクセスする制御を行う機能を有する。さらにブリッジ302は、システムバス304につながっているデバイスとRAM305との間のデータ転送を司るDMAC(Direct Memory Access Controller)機能を内蔵する。   A bridge 302 has a function of bridging the high-speed CPU bus 303 and the low-speed system bus 304. The bridge 302 includes a memory control function and has a function of controlling access to a RAM (Random Access Memory) 305 connected to the bridge 302. Further, the bridge 302 includes a DMAC (Direct Memory Access Controller) function for managing data transfer between the device connected to the system bus 304 and the RAM 305.

RAM305はCPU301の動作に必要なメモリであり、SDRAM(Synchronous DRAM)/DDR(Double Data Rate SDRAM)/RDRAM(Rambus DRAM)等の大容量高速メモリにより構成されている。また、RAM305は画像データバッファ等としても利用される。   The RAM 305 is a memory necessary for the operation of the CPU 301, and is constituted by a large-capacity high-speed memory such as SDRAM (Synchronous DRAM) / DDR (Double Data Rate SDRAM) / RDRAM (Rambus DRAM). The RAM 305 is also used as an image data buffer.

EEPROM(Electrically Erasable Programmable Read-Only Memory)306は、CPU301の動作に必要なインストラクションデータ及び各種設定データを格納するためのメモリである。なお、システムを初期化する時は、EEPROM306に格納したブートローダプログラムによりインストラクションデータはRAM305に転送される。以降、CPU301はRAM305上のインストラクションデータに従って処理を行う。   An EEPROM (Electrically Erasable Programmable Read-Only Memory) 306 is a memory for storing instruction data and various setting data necessary for the operation of the CPU 301. When the system is initialized, the instruction data is transferred to the RAM 305 by the boot loader program stored in the EEPROM 306. Thereafter, the CPU 301 performs processing according to the instruction data on the RAM 305.

307はRTC(Real Time Clock)ICであり、時間管理/カレンダ管理を行う専用デバイスである。通信インターフェース部308は、宅内の回線接続装置(各種モデムやルーター)と本装置とを接続するために必要な処理部である。通信インターフェース部308は、例えば、無線LAN(IEEE802.11b/IEEE802.11a/IEEE802.11g等)の物理層及び下位レイヤプロトコルを処理する。   Reference numeral 307 denotes an RTC (Real Time Clock) IC, which is a dedicated device that performs time management / calendar management. The communication interface unit 308 is a processing unit necessary for connecting the home line connection device (various modems and routers) and the present device. The communication interface unit 308 processes, for example, a physical layer and lower layer protocol of a wireless LAN (IEEE802.11b / IEEE802.11a / IEEE802.11g, etc.).

310は映像入力部であり、CCD(Charge-Coupled Devices)/CMOS(Complimentary Metal Oxide Semiconductor)センサー等の光電変換デバイスを含む。また、光電変換デバイスを制御するドライバー回路・各種画像補正を司る信号処理回路も含む。   A video input unit 310 includes a photoelectric conversion device such as a charge-coupled device (CCD) / Complimentary Metal Oxide Semiconductor (CMOS) sensor. Also included are a driver circuit that controls the photoelectric conversion device and a signal processing circuit that controls various image corrections.

311は映像入力インターフェース部であり、映像入力部310から同期信号とともに出力されるラスタ画像データをディジタルデータに変換する。そして、フレームバッファ(映像入力インターフェース部311が具備する図示しないメモリ)にバッファリングする。映像入力インターフェース部311にバッファリングされたディジタル画像データは、ブリッジ302に内蔵されたDMACを利用して、RAM305上の所定のアドレスに転送される。   A video input interface unit 311 converts raster image data output from the video input unit 310 together with a synchronization signal into digital data. Then, it is buffered in a frame buffer (a memory (not shown) provided in the video input interface unit 311). The digital image data buffered in the video input interface unit 311 is transferred to a predetermined address on the RAM 305 by using a DMAC built in the bridge 302.

CPU301は、ブリッジ302が生成するDMA転送終了割り込み信号を元に、RAM305に保持されたディジタル画像データに対して各種処理を開始する。なお、画像処理装置300は図示しない電源部も有する。電源部は、例えば充電可能な2次電池により給電される。また、通信インターフェース部308が有線LANの場合は、Power Over Ethernet(登録商標)等により給電される。   The CPU 301 starts various processes for the digital image data held in the RAM 305 based on the DMA transfer end interrupt signal generated by the bridge 302. The image processing apparatus 300 also has a power supply unit (not shown). The power supply unit is powered by a rechargeable secondary battery, for example. When the communication interface unit 308 is a wired LAN, power is supplied by Power Over Ethernet (registered trademark) or the like.

図1は、本実施形態における追尾処理の手順の一例を示すフローチャートである。なお、図1のフローチャートに示す各処理は、EEPROM306などからRAM305にロードされたプログラムをCPU301が実行することによって実現される。
電源が投入されると処理を開始する。まず、ステップS101において、各種初期化処理を実行する。初期化処理では、EEPROM306からRAM305へインストラクションデータのロード、各種ハードウェアの初期化処理、ネットワーク接続のための処理等を実行する。さらに、初期化処理では、CPU301が探索領域設定手段として機能し、人物を検出するための初期探索領域を設定する。
FIG. 1 is a flowchart illustrating an example of the procedure of the tracking process in the present embodiment. 1 is realized by the CPU 301 executing a program loaded from the EEPROM 306 or the like into the RAM 305.
The process starts when the power is turned on. First, in step S101, various initialization processes are executed. In the initialization processing, instruction data is loaded from the EEPROM 306 to the RAM 305, various hardware initialization processing, processing for network connection, and the like are executed. Further, in the initialization process, the CPU 301 functions as a search area setting unit and sets an initial search area for detecting a person.

図4(a)は、初期探索領域の設定例を示す図である。401は入力画像(フレーム)を示し、402は人物を検出するためのフレーム内の初期の探索領域を示す。探索領域402は矩形領域で表され、入力画像401上の開始位置座標403、探索領域水平幅404及び探索領域垂直高さ405の3つのパラメータを有する。そして、CPU301により当該パラメータをRAM305上の所定の領域に保持するようにする。   FIG. 4A is a diagram illustrating an example of setting an initial search area. Reference numeral 401 denotes an input image (frame), and 402 denotes an initial search area in the frame for detecting a person. The search area 402 is represented by a rectangular area, and has three parameters: a start position coordinate 403 on the input image 401, a search area horizontal width 404, and a search area vertical height 405. Then, the CPU 301 holds the parameter in a predetermined area on the RAM 305.

なお、初期の探索領域402は、目的に応じて任意の位置・大きさに設定することができる。例えば、特定の領域に侵入した人物を追尾する様なアプリケーションでは、入力画像401中の該当する領域を初期の探索領域402に設定する。以降、後述するステップS102〜ステップS108において、人物の追尾処理を繰り返す。   The initial search area 402 can be set to an arbitrary position and size according to the purpose. For example, in an application that tracks a person who has entered a specific area, the corresponding area in the input image 401 is set as the initial search area 402. Thereafter, in steps S102 to S108 described later, the person tracking process is repeated.

次に、ステップS102において、映像入力インターフェース部311のフレームバッファに格納された1フレームの画像データをRAM305に転送する。画像データを転送する際には、ブリッジ302に内蔵されたDMACを利用する。   In step S <b> 102, one frame of image data stored in the frame buffer of the video input interface unit 311 is transferred to the RAM 305. When transferring image data, the DMAC built in the bridge 302 is used.

DMACによる画像データの転送が終了すると、ステップS103において、CPU301が被写体検出手段として機能し、人物(被写体)の顔検出処理を開始する。そして、ステップS104において、人物の顔を検出したか否かを判断する。この判断の結果、人物の顔を検出しなかった場合は、ステップS106に進む。一方、ステップS104の判断の結果、人物の顔を検出した場合は、次のステップS105において、CPU301が状況識別手段として機能し、被写体の状況の検出を行う。具体的には、顔の向きの検出を行う。   When the transfer of the image data by the DMAC is completed, in step S103, the CPU 301 functions as a subject detection unit and starts a face detection process for a person (subject). In step S104, it is determined whether a human face has been detected. If the result of this determination is that a person's face has not been detected, processing proceeds to step S106. On the other hand, if the result of determination in step S104 is that a person's face has been detected, in the next step S105, the CPU 301 functions as status identification means and detects the status of the subject. Specifically, the face orientation is detected.

本実施形態では、人物の顔を検出することによって当該人物の追尾を行う。顔検出処理は、RAM305に記録された画像データ内の初期の探索領域402に対して検出処理を行う。本実施形態の顔検出処理は従来提案されている手法を利用する。例えば、非特許文献1には、統計的な手法を用いて画像から人物の顔とその向きを検出する方式が開示されている。   In this embodiment, the person is tracked by detecting the face of the person. In the face detection processing, detection processing is performed on the initial search area 402 in the image data recorded in the RAM 305. The face detection process of the present embodiment uses a conventionally proposed method. For example, Non-Patent Document 1 discloses a method of detecting a person's face and its orientation from an image using a statistical method.

一般的に、向き(姿勢)の異なる人物を高精度に認識する場合は、図5に示すように、検出対象画像に対して向きに応じて、右向き顔検出器501、正面向き顔検出器502、及び左向き顔検出器503を用意する。そして、当該検出器の出力値を統合処理部504で統合判定することにより、顔の存在有無の結果505と顔の向きの結果506とを出力する。   In general, when recognizing a person with a different orientation (posture) with high accuracy, as shown in FIG. 5, a right-facing face detector 501 and a front-facing face detector 502 according to the orientation with respect to the detection target image. , And a left-facing face detector 503 are prepared. Then, the output value of the detector is integrated and determined by the integration processing unit 504, thereby outputting the result 505 of the presence / absence of a face and the result 506 of the face orientation.

統合処理部504は、例えば、右向き顔検出器501、正面向き顔検出器502、及び左向き顔検出器503からの出力結果を比較することによって顔の向きを決定する。なお、出力値に応じた中間角度を顔の向きの結果506として出力する等の方法を用いてもよい。図5に示すような方法を用いる場合は、統合処理部504により、図1のステップS105に相当する処理が行われる。   For example, the integrated processing unit 504 determines the face direction by comparing the output results from the right-facing face detector 501, the front-facing face detector 502, and the left-facing face detector 503. A method of outputting an intermediate angle according to the output value as the face orientation result 506 may be used. When the method shown in FIG. 5 is used, the integration processing unit 504 performs processing corresponding to step S105 in FIG.

次に、ステップS106において、ステップS103、S105で得られた顔の存在有無及び顔の向きに関する情報を出力する。具体的には、ステップS102で得られた画像データを人物の検知情報とともにMotion-JPEG(Joint Photographic Experts Group)等の圧縮方式で圧縮する。そして、通信インターフェース部308を介して遠隔地のユーザに伝送する。圧縮処理及び通信に関するプロトコル処理等は全てCPU301の制御により行われる。   Next, in step S106, information on the presence / absence of the face and the orientation of the face obtained in steps S103 and S105 is output. Specifically, the image data obtained in step S102 is compressed together with human detection information by a compression method such as Motion-JPEG (Joint Photographic Experts Group). Then, the data is transmitted to a remote user via the communication interface unit 308. All the compression processing and protocol processing related to communication are performed under the control of the CPU 301.

次に、ステップS107において、人物の追尾処理が終了したか否かを判断する。1フレームの処理が終了すると次のフレームの処理を開始する。したがって、ステップS107においては、最終フレームまで人物の追尾処理が終了したか否かを判断する。この判断の結果、最終フレームまで人物の追尾処理が終了した場合は、処理を終了する。一方、ステップS107の判断の結果、最終フレームまで人物の追尾処理が終了していない場合は、ステップS108に進む。   Next, in step S107, it is determined whether or not the person tracking process is completed. When processing of one frame is completed, processing of the next frame is started. Therefore, in step S107, it is determined whether or not the person tracking process has been completed up to the final frame. If the result of this determination is that the person tracking process has been completed up to the final frame, the process ends. On the other hand, if it is determined in step S107 that the person tracking process has not been completed up to the final frame, the process proceeds to step S108.

次に、ステップS108において、CPU301が探索領域設定手段として機能し、探索領域を再設定する。ステップS104の判断の結果、人物の顔が検出されなかった場合は、当該処理ステップでは、ステップS101の初期化処理で設定した領域と同じ領域をRAM305に設定する。また、ステップS104の判断の結果、人物の顔が検出された場合、ステップS105の顔向き判定処理の結果に従って所定の探索領域を設定する。   Next, in step S108, the CPU 301 functions as a search area setting unit and resets the search area. If the face of the person is not detected as a result of the determination in step S104, the same area as that set in the initialization process in step S101 is set in the RAM 305 in this processing step. If a human face is detected as a result of the determination in step S104, a predetermined search area is set according to the result of the face orientation determination process in step S105.

図4(b)は顔向きと探索領域の設定との関係を示す図である。406a〜406cは入力画像の領域を示す。408bは正面顔の位置であり、407bは正面顔が検出された場合に設定する次フレーム内の探索領域を示す。正面顔が検出された場合は、探索領域402の水平方向の中心を顔中心に一致させる。408aは右向き顔の位置であり、407aは右向き顔が検出された場合に設定する次フレーム内の探索領域を示す。右向き顔が検出された場合は、探索領域402の水平方向中心位置を右側にずらす。また、408cは左向き顔の位置であり、407cは左向き顔が検出された場合に設定する次フレーム内の探索領域を示す。左向き顔が検出された場合は、探索領域402の水平方向中心位置を左側にずらす。   FIG. 4B is a diagram showing the relationship between the face orientation and the search area setting. Reference numerals 406a to 406c denote areas of the input image. Reference numeral 408b denotes the position of the front face, and reference numeral 407b denotes a search area in the next frame set when the front face is detected. When a front face is detected, the horizontal center of the search area 402 is matched with the face center. Reference numeral 408a denotes a position of the right-facing face, and reference numeral 407a denotes a search area in the next frame set when the right-facing face is detected. When a rightward face is detected, the horizontal center position of the search area 402 is shifted to the right. Reference numeral 408c denotes the position of the left-facing face, and reference numeral 407c denotes a search area in the next frame set when the left-facing face is detected. When the left face is detected, the horizontal center position of the search area 402 is shifted to the left.

例えば、予め定める比率α(%)とすると、現在の顔向きの検出結果に応じて以下の式により探索領域402の水平方向開始位置(以下のX start)を決定する。
X start = X face −(1+顔向き×α)×探索領域幅/2
(X face:顔中心水平位置、X start:探索領域開始水平位置、顔向き:右向き=−1/左向き=1/正面顔=0)
For example, assuming a predetermined ratio α (%), the horizontal direction start position (hereinafter referred to as X start) of the search region 402 is determined by the following equation according to the current face orientation detection result.
X start = X face − (1 + face orientation × α) × search area width / 2
(X face: face center horizontal position, X start: search area start horizontal position, face orientation: right facing = -1 / left facing = 1 / front face = 0)

以上の式により、顔の向きと同じ方向に所定の割合で探索領域402をずらす。
以上、ステップS107では顔向き検出結果を利用して探索領域402の水平方向開始位置を補正する。ここで決定した探索領域を示す座標データはRAM305の所定の領域に格納され、次のフレームの顔検出処理(ステップS103)及び顔向き判定処理(ステップS105)の処理領域として利用される。
By the above formula, the search area 402 is shifted at a predetermined rate in the same direction as the face direction.
As described above, in step S107, the horizontal direction start position of the search area 402 is corrected using the face orientation detection result. The coordinate data indicating the search area determined here is stored in a predetermined area of the RAM 305 and is used as a process area for the face detection process (step S103) and the face orientation determination process (step S105) of the next frame.

以上のようにステップS101〜ステップS108を繰り返すことにより、映像中の人物を追跡し、その映像及び情報を遠隔地のユーザに通知する。なお、本実施形態では顔の向き(正面或いは横)に応じて探索領域を一定の比率でずらしたが、より正確な顔の角度が得られる場合は、当該角度に応じて探索領域をずらすように比率を変更してもよい。   By repeating steps S101 to S108 as described above, the person in the video is tracked, and the video and information are notified to the remote user. In this embodiment, the search area is shifted at a constant ratio according to the face direction (front or side). However, when a more accurate face angle is obtained, the search area is shifted according to the angle. The ratio may be changed.

また、顔の向きに応じた探索領域をテーブルデータとしてRAM305に予め保持し、顔向きの判定結果に従ってテーブルを参照する様な構成でもよい。さらに、顔の上下方向の向きも考慮して探索領域を決定してもよい。その場合、探索領域の垂直方向の位置も顔向き判定結果に従ってずらすことになる。   Alternatively, the search area corresponding to the face orientation may be stored in advance in the RAM 305 as table data, and the table may be referred to according to the face orientation determination result. Further, the search area may be determined in consideration of the vertical direction of the face. In this case, the vertical position of the search area is also shifted according to the face orientation determination result.

以上のように本実施形態によれば、人物の顔の向きに基づいて当該人物の移動方向を予測し、この予測に基づいて探索領域を設定するようにしたので、人物が停止している場合等であっても、最適な探索領域を設定することが可能になる。これにより、追跡性能を向上させることが可能になる。   As described above, according to the present embodiment, the movement direction of the person is predicted based on the orientation of the person's face, and the search area is set based on the prediction. Even in such a case, it is possible to set an optimal search area. As a result, the tracking performance can be improved.

(第2の実施形態)
以下、図面を参照しながら本発明に係る第2の実施形態の追尾処理に関して詳細に説明する。
図6は、本実施形態における追尾処理の手順の一例を示すフローチャートである。本実施形態は、人物の属性情報を識別する機能を有する行動パターン記録システムや監視システム等に応用した場合の例である。なお、機能構成については、第1の実施形態の図3に示した画像処理装置300と同様であるため、説明は省略する。また、図6のフローチャートに示す各処理は、RAM305にロードされたプログラムを用いて、CPU301によって制御される。
(Second Embodiment)
Hereinafter, the tracking process according to the second embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 6 is a flowchart illustrating an example of the procedure of the tracking process in the present embodiment. The present embodiment is an example when applied to an action pattern recording system or a monitoring system having a function of identifying person attribute information. The functional configuration is the same as that of the image processing apparatus 300 shown in FIG. 3 of the first embodiment, and a description thereof will be omitted. Each process shown in the flowchart of FIG. 6 is controlled by the CPU 301 using a program loaded in the RAM 305.

電源が投入されると処理を開始する。まず、ステップS601において、各種初期化処理を実行する。なお、ステップS601の初期化処理は第1の実施形態のステップS101と同じであるため説明を省略する。以降、後述するステップS602〜ステップS608で人物の追尾処理を繰り返す。   The process starts when the power is turned on. First, in step S601, various initialization processes are executed. Note that the initialization process in step S601 is the same as step S101 in the first embodiment, and a description thereof will be omitted. Thereafter, the person tracking process is repeated in steps S602 to S608 described later.

次に、ステップS602において、映像入力インターフェース部311のフレームバッファに格納された1フレームの画像データをRAM305に転送する。画像データを転送する際には、ブリッジ302に内蔵されたDMACを利用する。   In step S <b> 602, one frame of image data stored in the frame buffer of the video input interface unit 311 is transferred to the RAM 305. When transferring image data, the DMAC built in the bridge 302 is used.

DMACによる転送が終了すると、ステップS603において、CPU301が被写体検出手段として機能し、人物(被写体)の顔検出処理を開始する。そして、ステップS604において、人物の顔を検出したか否かを判断する。この判断の結果、人物の顔を検出しなかった場合は、ステップS606に進む。一方、ステップS604の判断の結果、人物の顔を検出した場合は、次のステップS605に進む。本実施形態においても第1の実施形態と同様に人物の顔を検出することによって当該人物の追尾を行う。顔検出処理は、RAM305に記録された画像データ内の探索領域に対して検出処理を行う。なお、ステップS603の顔検出処理は、第1の実施形態と同様でよい。   When the transfer by the DMAC is completed, in step S603, the CPU 301 functions as a subject detection unit and starts a face detection process for a person (subject). In step S604, it is determined whether a human face has been detected. If the result of this determination is that a person's face has not been detected, processing proceeds to step S606. On the other hand, if it is determined in step S604 that a person's face has been detected, the process proceeds to the next step S605. Also in this embodiment, the person is tracked by detecting the face of the person as in the first embodiment. In the face detection process, the detection process is performed on the search area in the image data recorded in the RAM 305. Note that the face detection processing in step S603 may be the same as in the first embodiment.

次に、ステップS605において、CPU301が属性識別手段として機能し、人物の属性を判定する。本実施形態では、第1の実施形態とは異なり、人物の年齢を判定する。本実施形態における年齢の判定に関しては、従来提案されている手法を利用する。例えば、特許文献3には、顔画像データを用いて人物の年齢を推定する手法が開示されている。   Next, in step S605, the CPU 301 functions as an attribute identification unit, and determines the attribute of the person. In the present embodiment, unlike the first embodiment, the age of a person is determined. For age determination in the present embodiment, a conventionally proposed method is used. For example, Patent Literature 3 discloses a technique for estimating the age of a person using face image data.

次に、ステップS606において、ステップS603、S605で得られた顔の存在有無及び人物の年齢に関する情報を出力する。具体的には、ステップS602で得られた画像データを人物の検知情報とともにMotion-JPEG等の圧縮方式で圧縮する。そして、通信インターフェース部308を介して遠隔地のユーザに伝送する。   Next, in step S606, information regarding the presence / absence of the face and the age of the person obtained in steps S603 and S605 is output. Specifically, the image data obtained in step S602 is compressed together with the person detection information by a compression method such as Motion-JPEG. Then, the data is transmitted to a remote user via the communication interface unit 308.

次に、ステップS607において、人物の追尾処理が終了したか否かを判断する。1フレームの処理が終了すると次のフレームの処理を開始する。したがって、ステップS607においては、最終フレームまで人物の追尾処理が終了したか否かを判断する。この判断の結果、最終フレームまで人物の追尾処理が終了した場合は、処理を終了する。一方、ステップS607の判断の結果、最終フレームまで人物の追尾処理が終了していない場合は、ステップS608に進む。   Next, in step S607, it is determined whether or not the person tracking process is completed. When processing of one frame is completed, processing of the next frame is started. Therefore, in step S607, it is determined whether or not the person tracking process has been completed up to the final frame. If the result of this determination is that the person tracking process has been completed up to the final frame, the process ends. On the other hand, if it is determined in step S607 that the person tracking process has not been completed up to the final frame, the process proceeds to step S608.

次に、ステップS608において、CPU301が探索領域設定手段として機能し、探索領域を再設定する。ステップS604の判断の結果、人物の顔が検出されなかった場合は、当該処理ステップでは、ステップS601の初期化処理で設定した領域と同じ領域をRAM305に設定する。また、ステップS604の判断の結果、人物の顔が検出された場合は、ステップS605の属性判定処理の結果に従って所定の探索領域を設定する。   Next, in step S608, the CPU 301 functions as a search area setting unit and resets the search area. If the face of the person is not detected as a result of the determination in step S604, the same area as that set in the initialization process in step S601 is set in the RAM 305 in this processing step. If a face of a person is detected as a result of the determination in step S604, a predetermined search area is set according to the result of the attribute determination process in step S605.

図7は、人物の年齢と探索領域の設定との関係を示す図である。701a、701bは入力画像の領域を示す。702aはステップS605で子供の年齢と判定された場合に設定する次フレームの探索領域を示し、703aは検出された顔の位置を示す。また、702bはステップS605で高齢者の年齢と判定された場合に設定する次フレームの探索領域を示し、703bは検出された顔の位置を示す。ここでは、子供の場合は、よく動き回るので探索範囲を大きくとり、高齢者の場合は探索範囲を小さくしている。   FIG. 7 is a diagram illustrating the relationship between the age of a person and the setting of a search area. Reference numerals 701a and 701b denote input image areas. Reference numeral 702a denotes a search area for the next frame to be set when it is determined that the child's age is determined in step S605, and reference numeral 703a denotes a detected face position. Reference numeral 702b denotes a search area of the next frame that is set when it is determined that the age of the elderly is determined in step S605, and reference numeral 703b denotes the position of the detected face. In this case, since the child moves around frequently, the search range is set large, and for the elderly, the search range is set small.

本実施形態では、検出された人物の年齢に応じて次フレームで設定する探索領域の幅及び高さを補正する。例えば、予め定める比率α(%)とすると、年齢の検出結果に応じて以下の式により探索領域水平幅404及び探索領域垂直高さ405を決定する。なお、探索領域の中心位置は顔位置の中心とする。
W horizontal=(1+年齢パラメータ×α)×標準探索領域幅
W vertical=(1+年齢パラメータ×α)×標準探索領域高さ
(ここで、W horizontal:探索領域水平幅、W vertical:探索領域垂直高さ、年齢パラメータ:高齢者=−1/子供=1/一般成人=0)
In this embodiment, the width and height of the search area set in the next frame are corrected according to the detected age of the person. For example, assuming a predetermined ratio α (%), the search area horizontal width 404 and the search area vertical height 405 are determined by the following formulas according to the age detection result. The center position of the search area is the center of the face position.
W horizontal = (1 + age parameter × α) × standard search area width
W vertical = (1 + age parameter × α) × standard search area height (W horizontal: search area horizontal width, W vertical: search area vertical height, age parameter: elderly = −1 / child = 1 / General adult = 0)

以上の式により、ステップS608においては、年齢の検出結果を利用して探索領域の水平方向の幅及び垂直方向の高さを補正する。ここで決定した探索領域を示す座標データはRAM305の所定の領域に格納され、次のフレームの顔検出処理(ステップS603)及び属性判定処理(ステップS605)の処理領域として利用される。なお、探索領域の決定は前述した式に限定するわけではない。例えば、年齢に応じた探索領域をテーブルデータとしてRAM305に予め保持し、年齢判定結果に従ってテーブルを参照する様な構成でもよい。   From the above formula, in step S608, the horizontal width and vertical height of the search area are corrected using the age detection result. The coordinate data indicating the search area determined here is stored in a predetermined area of the RAM 305 and used as a process area for the face detection process (step S603) and attribute determination process (step S605) of the next frame. The determination of the search area is not limited to the above formula. For example, a configuration in which a search area corresponding to age is previously stored in the RAM 305 as table data and the table is referred to according to the age determination result may be used.

以上のように本実施形態によれば、人物の年齢を認識する機能を有する行動パターン記録装置や監視システム等において、人物の年齢に基づいて当該人物の移動範囲を予測するようにした。これにより、人物が停止している場合等でも、最適な探索領域を予測することが可能になる。したがって、検出・追跡に関わる処理負荷を低減することが可能になる。   As described above, according to the present embodiment, the movement range of the person is predicted based on the age of the person in the behavior pattern recording device or the monitoring system having a function of recognizing the age of the person. This makes it possible to predict an optimal search area even when a person is stopped. Therefore, it is possible to reduce the processing load related to detection / tracking.

(第3の実施形態)
以下、図面を参照しながら本発明に係る第3の実施形態の追尾処理に関して詳細に説明する。
図8は、本実施形態における追尾処理の手順の一例を示すフローチャートである。本実施形態は、人物の認証機能を有するホームセキュリティシステムや監視システム等に応用した場合の例である。なお、機能構成については、第1の実施形態の図3に示した画像処理装置300と同様であるため、説明は省略する。また、図8のフローチャートに示す各処理は、RAM305にロードされたプログラムを用いて、CPU301によって制御される。
(Third embodiment)
Hereinafter, the tracking process according to the third embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 8 is a flowchart illustrating an example of the procedure of the tracking process in the present embodiment. This embodiment is an example when applied to a home security system or a monitoring system having a person authentication function. The functional configuration is the same as that of the image processing apparatus 300 shown in FIG. 3 of the first embodiment, and a description thereof will be omitted. Each process shown in the flowchart of FIG. 8 is controlled by the CPU 301 using a program loaded in the RAM 305.

電源が投入されると処理を開始する。まず、ステップS801において、各種初期化処理を実行する。なお、ステップS801の初期化処理は第1の実施形態のステップS101と同じであるため説明を省略する。以降、後述するステップS802〜ステップS808で人物の追尾処理を繰り返す。   The process starts when the power is turned on. First, in step S801, various initialization processes are executed. Note that the initialization process in step S801 is the same as step S101 in the first embodiment, and a description thereof will be omitted. Thereafter, the person tracking process is repeated in steps S802 to S808 described later.

次に、ステップS802において、映像入力インターフェース部311のフレームバッファに格納された1フレームの画像データをRAM305に転送する。画像データを転送する際には、ブリッジ302に内蔵するDMACを利用する。   In step S <b> 802, one frame of image data stored in the frame buffer of the video input interface unit 311 is transferred to the RAM 305. When transferring image data, a DMAC built in the bridge 302 is used.

DMACによる転送が終了すると、ステップS803において、CPU301が被写体検出手段として機能し、人物(被写体)の顔検出処理を開始する。そして、ステップS804において、人物の顔を検出したか否かを判断する。この判断の結果、人物の顔を検出しなかった場合は、ステップS806に進む。一方、ステップS804の判断の結果、人物の顔を検出した場合は、次のステップS805に進む。本実施形態においても、第1及び第2の実施形態と同様に、人物の顔を検出することによって当該人物の追尾を行う。顔検出処理は、RAM305に記録された画像データ内の探索領域に対して検出処理を行う。なお、ステップS803の顔検出処理は第1の実施形態と同様の方法で行う。   When the transfer by the DMAC is completed, in step S803, the CPU 301 functions as a subject detection unit and starts face detection processing of a person (subject). In step S804, it is determined whether a human face has been detected. If the result of this determination is that a person's face has not been detected, processing proceeds to step S806. On the other hand, if it is determined in step S804 that a human face has been detected, the process proceeds to next step S805. Also in the present embodiment, as in the first and second embodiments, the person is tracked by detecting the face of the person. In the face detection process, the detection process is performed on the search area in the image data recorded in the RAM 305. Note that the face detection processing in step S803 is performed by the same method as in the first embodiment.

次に、ステップS805において、CPU301が属性識別手段として機能し、画像データ内で検出された人物から個人を特定する。本実施形態の画像データを利用した個人の特定(識別)に関しては、従来提案されている手法を利用する。例えば、非特許文献2等に、様々な手法が開示されている。   In step S805, the CPU 301 functions as an attribute identification unit, and identifies an individual from the persons detected in the image data. For the identification (identification) of an individual using the image data of this embodiment, a conventionally proposed method is used. For example, various methods are disclosed in Non-Patent Document 2 and the like.

次に、ステップS806において、ステップS803、S805で得られた顔の存在有無及び個人識別結果に関する情報を出力する。具体的には、ステップS802で得られた画像データを個人の検知情報とともにMotion-JPEG等の圧縮方式で圧縮する。そして、通信インターフェース部308を介して遠隔地のユーザに伝送する。   Next, in step S806, information on the presence / absence of the face and the personal identification result obtained in steps S803 and S805 is output. Specifically, the image data obtained in step S802 is compressed together with personal detection information by a compression method such as Motion-JPEG. Then, the data is transmitted to a remote user via the communication interface unit 308.

次に、ステップS807において、人物の追尾処理が終了したか否かを判断する。1フレームの処理が終了すると次のフレームの処理を開始する。したがって、ステップS807においては、最終フレームまで人物の追尾処理が終了したか否かを判断する。この判断の結果、最終フレームまで人物の追尾処理が終了した場合は、処理を終了する。一方、ステップS807の判断の結果、最終フレームまで人物の追尾処理が終了していない場合は、ステップS808に進む。   Next, in step S807, it is determined whether or not the person tracking process is completed. When processing of one frame is completed, processing of the next frame is started. Accordingly, in step S807, it is determined whether or not the person tracking process has been completed up to the final frame. If the result of this determination is that the person tracking process has been completed up to the final frame, the process ends. On the other hand, if it is determined in step S807 that the person tracking process has not been completed up to the final frame, the process proceeds to step S808.

次に、ステップS808においては、CPU301が探索領域設定手段として機能し、探索領域を再設定する。ステップS804の判断の結果、人物の顔が検出されなかった場合は、当該処理ステップでは、ステップS801の初期化処理で設定した領域と同じ領域をRAM305に設定する。また、ステップS803の判断の結果、人物の顔が検出された場合は、ステップS805の個人識別処理の結果に従って、所定の探索領域を設定する。   Next, in step S808, the CPU 301 functions as a search area setting unit and resets the search area. If the face of the person is not detected as a result of the determination in step S804, in this processing step, the same area as that set in the initialization process in step S801 is set in the RAM 305. If a face of a person is detected as a result of the determination in step S803, a predetermined search area is set according to the result of the personal identification process in step S805.

ステップS808における探索領域を再設定する処理は、特定の人物についての個人情報とその人物に対応する探索領域とが関連付けされたテーブルを用いて行われる。ステップS805の個人識別処理の結果からこのテーブルを検索し、探索領域に関する情報を取得する。なお、このテーブルはRAM305に予め格納されている。   The process of resetting the search area in step S808 is performed using a table in which personal information about a specific person is associated with the search area corresponding to the person. This table is searched from the result of the personal identification processing in step S805, and information regarding the search area is acquired. This table is stored in the RAM 305 in advance.

特定の個人と探索領域との関係について図7を参照しながら説明する。704aは探索領域がテーブルに登録されている第1の人物である。また、704bは探索領域がテーブルに登録されている第2の人物である。第1の人物704aの顔を検出した場合は、探索領域702aを広く設定し、第2の人物704bの顔を検出した場合は、探索領域702bを狭く設定する。なお、第1の人物703a及び第2の人物703bに対応する探索領域に関する情報(探索領域水平幅404と探索領域垂直高さ405)は、ステップS801の初期化処理時にRAM305にテーブルとしてロードされているものとする。   The relationship between a specific individual and the search area will be described with reference to FIG. Reference numeral 704a denotes a first person whose search area is registered in the table. Reference numeral 704b denotes a second person whose search area is registered in the table. When the face of the first person 704a is detected, the search area 702a is set wide, and when the face of the second person 704b is detected, the search area 702b is set narrow. Note that information (search area horizontal width 404 and search area vertical height 405) related to the search areas corresponding to the first person 703a and the second person 703b is loaded as a table into the RAM 305 during the initialization process in step S801. It shall be.

一方、ステップS805の個人識別処理において、登録された人物以外の人物を認識した場合は、非登録者としてテーブルに保持されている探索領域情報を使用する。例えば、ホームセキュリティシステム等に適用する場合、非登録者は侵入者の可能性が高いため、広い探索領域で確実に追跡可能な設定とする。   On the other hand, when a person other than the registered person is recognized in the personal identification process in step S805, the search area information held in the table as a non-registered person is used. For example, when applied to a home security system or the like, since the non-registered person is highly likely to be an intruder, the setting is made so that it can be reliably traced in a wide search area.

このように、本実施形態では検出された人物に応じて探索領域を決定する。このステップS808で決定した探索領域を示す座標データは、RAM305の所定の領域に格納され、次のフレームの顔検出処理(ステップS803)及び個人識別処理(ステップS805)の処理対象領域として利用される。   Thus, in this embodiment, a search area is determined according to the detected person. The coordinate data indicating the search area determined in step S808 is stored in a predetermined area of the RAM 305, and is used as a processing target area for the face detection process (step S803) and the personal identification process (step S805) of the next frame. .

本実施形態では、RAM305に予め格納した固定テーブルを参照して探索領域を決定する例について説明したが、対象者の追尾状況を記録して、テーブルに修正を加えるようにしてもよい。例えば、過去に追尾した際の移動速度の平均値等の追尾結果を利用して、CPU301がテーブル更新手段として機能することにより、ステップS807で探索領域を決定するために用いられるテーブルを修正する。具体的には、テーブル上の個人の探索領域水平幅(W horizontal)を下記の式を用いて修正(更新)する。
W horizontal=(1+α×(個人平均移動速度−標準移動速度)/標準移動速度)×標準探索領域幅
(α:係数、ここで、「標準移動速度」、「標準探索領域幅」及び「α」は予め定める値である。)
In the present embodiment, the example in which the search area is determined with reference to the fixed table stored in advance in the RAM 305 has been described. However, the tracking status of the target person may be recorded and the table may be modified. For example, the CPU 301 functions as a table updating unit using the tracking result such as the average value of the moving speed when tracking is performed in the past, thereby correcting the table used for determining the search area in step S807. Specifically, the individual search area horizontal width (W horizontal) on the table is corrected (updated) using the following equation.
W horizontal = (1 + α × (personal average movement speed−standard movement speed) / standard movement speed) × standard search area width (α: coefficient, where “standard movement speed”, “standard search area width”, and “α” Is a predetermined value.)

この場合、当該装置を設置した時は、標準的な探索領域情報が設定され、検出状況に合わせて特定の人物に対する探索領域情報をテーブルに学習させていくことができ、利便性が向上する。   In this case, when the apparatus is installed, standard search area information is set, and search area information for a specific person can be learned in a table in accordance with the detection situation, which improves convenience.

以上のように本実施形態によれば、特定人物を認識する機能を有する見守りシステムや監視システム等において、人物識別結果を移動方向の予測に利用するようにしたので、より最適に探索領域を予測することが可能になる。これにより、検出・追跡に関わる処理負荷を低減することが可能になる。   As described above, according to the present embodiment, a person identification result is used for prediction of a moving direction in a monitoring system or a monitoring system having a function of recognizing a specific person, so that a search area is predicted more optimally. It becomes possible to do. As a result, the processing load related to detection / tracking can be reduced.

(本発明に係る他の実施形態)
第1の実施形態では、人物の顔の向きに従って探索領域を設定する例について説明したが、本実施形態では、人物のさまざまな状況に従って適切な探索領域を設定することにより、より最適な探索領域の予測が可能になる。例えば、「座っている」/「立っている」/「運動をしている」等といった対象人物の状況を認識し、当該結果に従って探索領域を設定するようにしてもよい。
(Other embodiments according to the present invention)
In the first embodiment, the example in which the search area is set according to the orientation of the person's face has been described. However, in the present embodiment, the optimal search area is set according to the various situations of the person, so Can be predicted. For example, the situation of the target person such as “sitting” / “standing” / “exercising” may be recognized, and the search area may be set according to the result.

具体的には、座っている姿勢の場合等、移動する可能性が低いと判断される状況では探索領域を狭く設定し、立っている姿勢の場合等、移動する可能性が高いと判断される状況では、探索領域を広く設定する。さらには、「車椅子に乗っている」/「自転車に乗っている」等、人物の移動速度が予測される特定の状況を認識して探索領域を設定するようにしてもよい。この場合、例えば、車椅子の場合は移動速度が遅いと判断できるため、探索領域を狭くする。   Specifically, in situations where it is determined that the possibility of moving is low, such as in a sitting posture, the search area is set to be narrow, and in the case of a standing posture, it is determined that there is a high possibility of moving. In the situation, a wide search area is set. Furthermore, the search area may be set by recognizing a specific situation in which the movement speed of the person is predicted, such as “in a wheelchair” / “in a bicycle”. In this case, for example, in the case of a wheelchair, since it can be determined that the moving speed is slow, the search area is narrowed.

第1〜第3の実施形態では、人物の顔を検出する例について説明したが、これに限るわけではなく、人物のシルエットを検出する等の他の手法を用いてもよい。また、人物の向き、年齢及び個人の特定についても、人物の顔を利用した方法に限るわけではなく、シルエット全体の様子や動作から認識する手法を用いてもよい。   In the first to third embodiments, the example of detecting the face of a person has been described. However, the present invention is not limited to this, and other methods such as detecting the silhouette of a person may be used. Further, the direction of the person, the age, and the identification of the individual are not limited to the method using the person's face, and a method of recognizing from the state and motion of the entire silhouette may be used.

また、第1〜第3の実施形態では、人物の追尾に関して説明したが、本発明はこれに限るわけでなく、さまざまな物体(被写体)の追尾に適用可能である。例えば、犬や猫などの動物を追尾する場合、前述した第1〜第3の実施形態で人物に適用した手法と同様の手法を利用して、その状態や属性に応じた追尾を実現することができる。   In the first to third embodiments, the tracking of a person has been described. However, the present invention is not limited to this, and can be applied to tracking of various objects (subjects). For example, when tracking an animal such as a dog or a cat, the tracking according to the state or attribute is realized by using a method similar to the method applied to the person in the first to third embodiments described above. Can do.

さらに、動物だけでなく様々な移動物体の追跡に応用することも可能である。例えば、車両等の移動物体の追尾に適用した場合、車両の向きを検出し、進行方向を予測することにより探索領域を最適化することができる。また、固有の動きパターンを有する複数の物体を追跡するような場合、その動きパターンに応じた探索領域をテーブル情報として用意し、物体識別結果に従ってテーブルを参照する手法で探索領域を最適化できる。   Furthermore, it can be applied to tracking various moving objects as well as animals. For example, when applied to tracking a moving object such as a vehicle, the search area can be optimized by detecting the direction of the vehicle and predicting the traveling direction. Further, when a plurality of objects having unique motion patterns are tracked, a search region corresponding to the motion pattern is prepared as table information, and the search region can be optimized by referring to the table according to the object identification result.

また、ロボット等の様にその種類や動作プログラムに応じて動作パターンが限定される場合、その種類等の識別結果に応じて探索領域を決定してもよい。これにより、ロボットを対象にしたより高性能なモニタリングシステムを構築することが可能である。   Further, when the operation pattern is limited according to the type or operation program, such as a robot, the search area may be determined according to the identification result of the type or the like. This makes it possible to construct a higher performance monitoring system for robots.

さらに、第1〜第3の実施形態では、物体の状況や属性を画像データから認識する例について説明したが、他の方法でもよい。例えば、ICタグ等を利用して物体の属性を判定する手法と組み合わせてもよい。また、赤外線センサー・音声センサー等他のセンシング結果を利用して物体の状況や属性を判断する手法を組み合わせてもよい。   Furthermore, in the first to third embodiments, examples of recognizing the status and attributes of an object from image data have been described, but other methods may be used. For example, it may be combined with a method for determining an attribute of an object using an IC tag or the like. In addition, a method of determining the state and attributes of an object using other sensing results such as an infrared sensor and a voice sensor may be combined.

また、第1〜第3の実施形態では、探索領域が矩形領域である例について説明したが、他の形状でもよい。さらに、第1〜第3の実施形態では、物体の状況識別結果や属性識別結果のみから探索領域を設定する例について説明したが、もちろん、従来技術である物体の移動ベクトルによる探索領域設定手法を本発明と組み合わせて利用してもよい。その場合、移動ベクトルのみで探索領域を決定する場合に比べて、性能がより向上する。   In the first to third embodiments, the example in which the search area is a rectangular area has been described, but other shapes may be used. Furthermore, in the first to third embodiments, the example in which the search area is set only from the object situation identification result and the attribute identification result has been described. Of course, the search area setting method based on the object movement vector, which is a conventional technique, is used. You may utilize in combination with this invention. In this case, the performance is further improved as compared with the case where the search area is determined only by the movement vector.

また、第1〜第3の実施形態では、映像画面中の物体を追尾する例について説明したが、撮像方向を機械的に制御可能な駆動部を有するカメラシステムに適用して、物体を追尾する装置に適用してもよい。さらに、本発明による手法を監視カメラ装置や行動記録システム、ホームセキュリティシステム等に応用した場合について説明したが、これに限るわけではない。また、第1〜第3の実施形態ではマイクロプロセッサを用いて本発明を実施する場合について説明したが、全て或いはその一部をハードウェアで実現してもよい。   In the first to third embodiments, an example of tracking an object in a video screen has been described, but the object is tracked by being applied to a camera system having a drive unit that can mechanically control the imaging direction. You may apply to an apparatus. Furthermore, although the case where the method according to the present invention is applied to a monitoring camera device, an action recording system, a home security system, and the like has been described, the present invention is not limited to this. Moreover, although the case where this invention was implemented using a microprocessor was demonstrated in the 1st-3rd embodiment, you may implement | achieve all or one part by hardware.

前述した本発明の実施形態における画像処理装置を構成する各手段、並びに画像処理方法の各工程は、コンピュータのRAMやROMなどに記憶されたプログラムが動作することによって実現できる。このプログラム及び前記プログラムを記録したコンピュータ読み取り可能な記録媒体は本発明に含まれる。   Each means constituting the image processing apparatus and each step of the image processing method in the embodiment of the present invention described above can be realized by operating a program stored in a RAM or ROM of a computer. This program and a computer-readable recording medium recording the program are included in the present invention.

また、本発明は、例えば、システム、装置、方法、プログラムもしくは記録媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、一つの機器からなる装置に適用してもよい。   Further, the present invention can be implemented as, for example, a system, apparatus, method, program, or recording medium. Specifically, the present invention may be applied to a system including a plurality of devices. The present invention may be applied to an apparatus composed of a single device.

なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(実施形態では図1、6、8に示すフローチャートに対応したプログラム)を、システムまたは装置に直接、または遠隔から供給する場合も含む。そして、そのシステムまたは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。   In the present invention, a software program (in the embodiment, a program corresponding to the flowcharts shown in FIGS. 1, 6, and 8) that realizes the functions of the above-described embodiments is directly or remotely supplied to the system or apparatus. Including. This includes the case where the system or the computer of the apparatus is also achieved by reading and executing the supplied program code.

したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, and the like.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスクなどがある。さらに、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM、DVD−R)などもある。   Examples of the recording medium for supplying the program include a flexible disk, a hard disk, an optical disk, and a magneto-optical disk. Further, there are MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R) and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する方法がある。そして、前記ホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。   As another program supply method, there is a method of connecting to a homepage on the Internet using a browser of a client computer. The computer program itself of the present invention or a compressed file including an automatic installation function can be downloaded from the homepage by downloading it to a recording medium such as a hard disk.

また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.

また、その他の方法として、本発明のプログラムを暗号化してCD−ROM等の記録媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   As another method, the program of the present invention is encrypted, stored in a recording medium such as a CD-ROM, distributed to users, and encrypted from a homepage via the Internet to users who have cleared predetermined conditions. Download the key information to be solved. It is also possible to execute the encrypted program by using the key information and install the program on a computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。さらに、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   Further, the functions of the above-described embodiments are realized by the computer executing the read program. Furthermore, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can be realized by the processing.

さらに、その他の方法として、まず記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。そして、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現される。   As another method, the program read from the recording medium is first written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Then, based on the instructions of the program, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are also realized by the processing.

本発明の第1の実施形態における追尾処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the tracking process in the 1st Embodiment of this invention. 従来の追尾方法を説明する図である。It is a figure explaining the conventional tracking method. 本発明の第1の実施形態における画像処理装置のハードウェア構成例を示すブロック図である。1 is a block diagram illustrating a hardware configuration example of an image processing apparatus according to a first embodiment of the present invention. 本発明の第1の実施形態において、設定する探索領域の一例を示す図である。It is a figure which shows an example of the search area | region to set in the 1st Embodiment of this invention. 本発明の第1の実施形態において、顔向き判定処理を行うための構成例を示すブロック図である。In the 1st Embodiment of this invention, it is a block diagram which shows the structural example for performing a face orientation determination process. 本発明の第2の実施形態における追尾処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the tracking process in the 2nd Embodiment of this invention. 本発明の第2の実施形態において、設定する探索領域の一例を示す図である。It is a figure which shows an example of the search area | region to set in the 2nd Embodiment of this invention. 本発明の第3の実施形態における追尾処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the tracking process in the 3rd Embodiment of this invention.

符号の説明Explanation of symbols

300 画像処理装置
301 CPU
302 ブリッジ
303 CPUバス
304 システムバス
305 RAM
306 EEPROM
307 RTC
308 通信インターフェース部
310 映像入力部
311 映像入力インターフェース部
300 Image processing apparatus 301 CPU
302 Bridge 303 CPU bus 304 System bus 305 RAM
306 EEPROM
307 RTC
308 Communication interface unit 310 Video input unit 311 Video input interface unit

Claims (10)

映像データを入力する映像入力手段と、
前記映像入力手段によって入力された映像データを構成するフレーム内の探索領域を設定する探索領域設定手段と、
前記探索領域設定手段によって設定された探索領域から人物を検出する人物検出手段と、
前記人物検出手段によって検出された人物年齢判定する年齢判定手段とを有し、
前記探索領域設定手段は、前記年齢判定手段による判定の結果に基づいて、次のフレームの探索領域を設定することを特徴とする画像処理装置。
Video input means for inputting video data;
Search area setting means for setting a search area in a frame constituting the video data input by the video input means;
A person detection means for detecting a person from the search area set by the search area setting means,
And a age determining means for determining the age of the person detected by the person detecting unit,
The image processing apparatus, wherein the search area setting means sets a search area for the next frame based on a result of determination by the age determination means.
前記年齢判定手段による判定の結果と探索領域とを関連付けたテーブルと、過去の追尾結果に従って前記テーブルを更新するテーブル更新手段とを有し、前記探索領域設定手段が前記テーブルを参照して次のフレームの探索領域を設定することを特徴とする請求項に記載の画像処理装置。 A table associating the result of determination by the age determination means with a search area; and a table updating means for updating the table according to a past tracking result, wherein the search area setting means refers to the table and The image processing apparatus according to claim 1 , wherein a frame search area is set. 映像データを入力する映像入力手段と、
前記映像入力手段によって入力された映像データを構成するフレーム内の探索領域を設定する探索領域設定手段と、
前記探索領域設定手段によって設定された探索領域から人物を検出する人物検出手段と、
前記人物検出手段によって検出された人物がどの個人であるかを識別する個人識別手段とを有し、
前記探索領域設定手段は、前記個人識別手段による識別の結果に基づいて、次のフレームの探索領域を設定することを特徴とする画像処理装置。
Video input means for inputting video data;
Search area setting means for setting a search area in a frame constituting the video data input by the video input means;
A person detection means for detecting a person from the search area set by the search area setting means,
Personal identification means for identifying which person the person detected by the person detection means is,
The image processing apparatus according to claim 1, wherein the search area setting means sets a search area for the next frame based on a result of identification by the personal identification means.
前記個人識別手段による識別の結果と探索領域とを関連付けたテーブルと、過去の追尾結果に従って前記テーブルを更新するテーブル更新手段とを有し、前記探索領域設定手段が前記テーブルを参照して次のフレームの探索領域を設定することを特徴とする請求項に記載の画像処理装置。 A table associating a result of identification by the personal identification means with a search area; and a table updating means for updating the table according to a past tracking result, wherein the search area setting means refers to the table and The image processing apparatus according to claim 3 , wherein a frame search area is set. 前記探索領域が前記人物の顔を含む領域であることを特徴とする請求項1〜4の何れか1項に記載の画像処理装置。 The image processing apparatus according to claim 1 , wherein the search area is an area including the face of the person. 映像データを入力する映像入力工程と、
前記映像入力工程において入力した映像データを構成するフレーム内の探索領域を設定する探索領域設定工程と、
前記探索領域設定工程において設定した探索領域から人物を検出する被写体検出工程と、
前記被写体検出工程において検出した人物年齢判定する年齢判定工程とを有し、
前記探索領域設定工程においては、前記年齢判定工程における判定の結果に基づいて、次のフレームの探索領域を設定することを特徴とする画像処理方法。
A video input process for inputting video data;
A search area setting step for setting a search area in a frame constituting the video data input in the video input step;
A subject detection step of detecting a person from the search region set in the search region setting step;
And a age determination step of determining the age of a person detected in the subject detection step,
In the search area setting step, the search area of the next frame is set based on the determination result in the age determination step.
映像データを入力する映像入力工程と、
前記映像入力工程において入力した映像データを構成するフレーム内の探索領域を設定する探索領域設定工程と、
前記探索領域設定工程において設定した探索領域から人物を検出する被写体検出工程と、
前記被写体検出工程において検出した人物がどの個人であるかを識別する個人識別工程とを有し、
前記探索領域設定工程においては、前記個人識別工程における識別の結果に基づいて、次のフレームの探索領域を設定することを特徴とする画像処理方法。
A video input process for inputting video data;
A search area setting step for setting a search area in a frame constituting the video data input in the video input step;
A subject detection step of detecting a person from the search region set in the search region setting step;
A personal identification step for identifying which person the person detected in the subject detection step is,
In the search area setting step, the search area of the next frame is set based on the identification result in the personal identification step.
映像データを入力する映像入力工程と、
前記映像入力工程において入力した映像データを構成するフレーム内の探索領域を設定する探索領域設定工程と、
前記探索領域設定工程において設定した探索領域から人物を検出する被写体検出工程と、
前記被写体検出工程において検出した人物年齢判定する年齢判定工程とをコンピュータに実行させ、
前記探索領域設定工程においては、前記年齢判定工程における判定の結果に基づいて、次のフレームの探索領域を設定することを特徴とするプログラム。
A video input process for inputting video data;
A search area setting step for setting a search area in a frame constituting the video data input in the video input step;
A subject detection step of detecting a person from the search region set in the search region setting step;
And age determination step of determining the age of a person detected cause the computer to execute in the subject detection step,
The search in the area setting step, based on the result of determination in the age determination step, program characterized and Turkey to set the search region of the next frame.
映像データを入力する映像入力工程と、
前記映像入力工程において入力した映像データを構成するフレーム内の探索領域を設定する探索領域設定工程と、
前記探索領域設定工程において設定した探索領域から人物を検出する被写体検出工程と、
前記被写体検出工程において検出した人物がどの個人であるかを識別する個人識別工程とをコンピュータに実行させ、
前記探索領域設定工程においては、前記個人識別工程における識別の結果に基づいて、次のフレームの探索領域を設定することを特徴とするプログラム。
A video input process for inputting video data;
A search area setting step for setting a search area in a frame constituting the video data input in the video input step;
A subject detection step of detecting a person from the search region set in the search region setting step;
Causing the computer to execute a personal identification step for identifying which person the person detected in the subject detection step is.
The search in the area setting step, based on the result of the identification in the personal identification process, the program characterized by the Turkey to set the search region of the next frame.
請求項またはに記載のプログラムを記録したことを特徴とするコンピュータ読み取り可能な記録媒体。 10. A computer-readable recording medium on which the program according to claim 8 or 9 is recorded.
JP2007189954A 2007-07-20 2007-07-20 Image processing apparatus and image processing method Expired - Fee Related JP4968929B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007189954A JP4968929B2 (en) 2007-07-20 2007-07-20 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007189954A JP4968929B2 (en) 2007-07-20 2007-07-20 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2009026146A JP2009026146A (en) 2009-02-05
JP4968929B2 true JP4968929B2 (en) 2012-07-04

Family

ID=40397881

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007189954A Expired - Fee Related JP4968929B2 (en) 2007-07-20 2007-07-20 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4968929B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4891144B2 (en) * 2007-05-08 2012-03-07 キヤノン株式会社 Image search apparatus and image search method
JP5380833B2 (en) * 2007-12-13 2014-01-08 カシオ計算機株式会社 Imaging apparatus, subject detection method and program
JP2012060529A (en) * 2010-09-10 2012-03-22 Toshiba Corp Image processing system and image processing method
JP5678546B2 (en) * 2010-09-28 2015-03-04 カシオ計算機株式会社 Imaging apparatus, imaging method, and program
JP6123162B2 (en) * 2012-03-16 2017-05-10 株式会社ニコン IMAGING DEVICE AND IMAGING DEVICE CONTROL PROGRAM
WO2015133159A1 (en) * 2014-03-05 2015-09-11 コニカミノルタ株式会社 Image processing device, image processing method, and image processing program
CN105357442A (en) 2015-11-27 2016-02-24 小米科技有限责任公司 Shooting angle adjustment method and device for camera
JP6702746B2 (en) * 2016-02-10 2020-06-03 キヤノン株式会社 Imaging device, control method thereof, program, and storage medium
JP2018147311A (en) * 2017-03-07 2018-09-20 オムロン株式会社 Image processing apparatus, tracking method, and tracking program
CN111052184A (en) * 2017-06-15 2020-04-21 夏普株式会社 Moving image processing device, display device, moving image processing method, and control program
JP7283037B2 (en) 2018-07-26 2023-05-30 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2021005702A1 (en) * 2019-07-09 2021-01-14 三菱電機株式会社 Face detection processing device and face detection processing method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3828096B2 (en) * 2003-07-24 2006-09-27 株式会社日立国際電気 Object tracking device
JP2008288684A (en) * 2007-05-15 2008-11-27 Toyota Central R&D Labs Inc Person detection device and program

Also Published As

Publication number Publication date
JP2009026146A (en) 2009-02-05

Similar Documents

Publication Publication Date Title
JP4968929B2 (en) Image processing apparatus and image processing method
KR102213328B1 (en) Video processing apparatus, video processing method, and program
TWI438719B (en) Detection information registration device, electronic device, method for controlling detection information registration device, method for controlling electronic device, program for controlling detection information device, and program for controlling el
JP4345722B2 (en) Moving object tracking control device, moving object tracking system, moving object tracking control method, and program
JP6141079B2 (en) Image processing system, image processing apparatus, control method therefor, and program
US20160300100A1 (en) Image capturing apparatus and method
JP2019536187A (en) Hybrid tracker system and method for match moves
JP6049448B2 (en) Subject area tracking device, control method thereof, and program
JP2004513442A (en) Tagging People in Image Processing Systems Utilizing Statistical Models Based on Appearance and Geometric Features
JP2011192141A (en) Moving body detecting device and moving body detection method and program
JP4553384B2 (en) Imaging apparatus and control method therefor, computer program, and storage medium
JP5839796B2 (en) Information processing apparatus, information processing system, information processing method, and program
JP4537143B2 (en) Image processing apparatus and method, imaging apparatus, and program
JP2007067559A (en) Image processing method, image processing apparatus, and control method of imaging apparatus
JP2005242759A (en) Action/intention presumption system, action/intention presumption method, action/intention pesumption program and computer-readable recording medium with program recorded thereon
CN110378183B (en) Image analysis device, image analysis method, and recording medium
JP3910871B2 (en) Robot and visual field control method of robot
JP5441151B2 (en) Facial image tracking device, facial image tracking method, and program
JP5329940B2 (en) Image processing apparatus, control method therefor, and imaging apparatus
JP2000268161A (en) Real time expression detector
JP5539565B2 (en) Imaging apparatus and subject tracking method
JP6555940B2 (en) Subject tracking device, imaging device, and method for controlling subject tracking device
JP7153505B2 (en) moving body
JP5247419B2 (en) Imaging apparatus and subject tracking method
JP7211601B2 (en) Action trajectory estimation device, action trajectory estimation program, and action trajectory estimation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120306

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120402

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150413

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4968929

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150413

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees