JP3927980B2 - 物体検出装置、物体検出サーバおよび物体検出方法 - Google Patents

物体検出装置、物体検出サーバおよび物体検出方法 Download PDF

Info

Publication number
JP3927980B2
JP3927980B2 JP2004501982A JP2004501982A JP3927980B2 JP 3927980 B2 JP3927980 B2 JP 3927980B2 JP 2004501982 A JP2004501982 A JP 2004501982A JP 2004501982 A JP2004501982 A JP 2004501982A JP 3927980 B2 JP3927980 B2 JP 3927980B2
Authority
JP
Japan
Prior art keywords
information
tag
image
detection
object detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004501982A
Other languages
English (en)
Other versions
JPWO2003092291A1 (ja
Inventor
太郎 今川
雅通 中川
健夫 吾妻
修作 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Publication of JPWO2003092291A1 publication Critical patent/JPWO2003092291A1/ja
Application granted granted Critical
Publication of JP3927980B2 publication Critical patent/JP3927980B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/14Systems for determining distance or velocity not using reflection or reradiation using ultrasonic, sonic, or infrasonic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Alarm Systems (AREA)

Description

本発明は、人や物等の所定の検出対象について、画像の中で、その正確な位置や姿勢等を検出する技術に関する。
特許文献1には、監視カメラの向きやズームの制御を発信機の接近に応じて行う技術が開示されている。具体的には、監視対象となる人にIDコードを発する電波発信機を付け、立ち入り禁止区域に発信機の接近を検知するアンテナを設置し、発信機の接近をアンテナで検知したとき、複数の監視カメラの中から、アンテナの位置付近を撮影可能な監視カメラを自動的に選択し、選択したカメラの映像を監視モニタに表示する。また、発信機が有するIDコードをアンテナを介して読み込み、このIDコードに予め対応付けられた人の身長を用いて、監視カメラの向きの設定やズームの設定を行う。
特開平9−46694号公報
近年、インターネットの普及に伴い、監視カメラをインターネットに接続して映像の伝送を行う監視システムが利用され始めている。このようなシステムは、専用線を用いたシステムに比べて、コストが低く、しかも、監視カメラの設置が容易である。ところが、このようなシステムでも、映像をモニタするオペレータはやはり必要となる。このため、今後は、監視対象を自動的に映すだけではなく、有用な情報を画像から自動的に取り出せる技術が望まれている。
また、昨今のロボット技術の進歩から、人間の生活を支援するための家庭内ロボットもその実現が期待されている。このようなロボットには、自分自身の周辺の様子を検知し、周辺の様子に合わせて行動する、といった機能が必須となる。例えば、家の中での移動や人や物体に対する作業を適切に行うためには、ロボットは、周囲の人や物の位置、姿勢、動きを正確に検出できなければならない。そうでなければ、移動や作業を正確に行うことができず、人間の生活支援を行うどころではない。
また、ハンディムービー、デジタルカメラ、カメラ付き携帯電話などの携帯型撮影機器の普及に伴い、たとえ撮影に不慣れなユーザであっても、被写体を適切に撮影できることが望まれてきている。このためには、撮影の対象の位置等を正確に検出することが重要となる。
ところが、上述の従来技術では、このようなニーズに応えることは難しい。すなわち、上述の技術では、発信機の接近に応じて、検出対象が映るカメラを選択しているだけであって、映された画像の中で、検出対象がどこにいるのか、どのような姿勢をとっているのか、といった詳細な情報までは取得できない。また、アンテナを用いて位置を特定するため、位置情報に比較的大きな誤差(数m〜十数m)が生じ、したがって、検出対象の付近に他の人間がいるような場合に、画像の中で両者を識別することは困難である。
また、従来から、カメラ画像から画像処理のみを用いて物体検出を行う技術はいくつか知られているが、そのほとんどは、非常に限定された条件下では使用に耐えるものの、人間が普段生活するような環境下では誤検出が多発してしまい、その適用は困難である。これは、カメラ自身のダイナミックレンジの制限や、検出対象以外の多種多様な物体や背景の存在、または、日照や照明の変化によって、たとえ同一場所の同一対象であってもその映像が多種多様に変化すること、などに起因する。
人間の視覚機構は、経験を通じて得た膨大な知識や規則を活用して、変化の大きい環境下でも正確な検出を行うことができるが、装置に人間と同様の知識や規則を組み込むことは、現状ではきわめて困難である。また、そのような処理には、膨大な処理量とメモリが必要になり、処理時間やコストの上昇をもたらすという問題も生じる。
前記の問題に鑑み、本発明は、画像の中で、検出対象の位置や姿勢等を、精度良く、しかも、膨大な処理量を要することなく、検出できる物体検出技術を提供することを目的とする。
本発明は、物体検出方法として、少なくとも複数の移動体を含む画像を撮像する撮像ステップと、前記複数の移動体のうちの所定の対象に付属した情報タグから発信された少なくとも前記情報タグの位置情報を含むタグ情報を受信するタグ通信ステップと、前記タグ通信部によって受信されたタグ情報を用いて、前記撮像部によって撮像された画像中の前記情報タグの位置情報を取得し、当該取得した位置情報を参照して、画像処理を行うことにより、前記画像の中で、前記所定の対象を検出する対象検出ステップとを備え、前記対象検出ステップは、前記タグ情報を用いて、前記画像中の前記情報タグの位置情報を取得し、当該取得した位置情報と、前記複数の各移動体について、画像処理を用いて取得した、前記画像中の前記移動体が含まれる可能性がある領域とを参照して、前記画像の中で、前記所定の対象が含まれる可能性のある部分画像領域を決定する画像切り出しステップと、前記画像切り出しステップによって決定された部分画像領域において、前記所定の対象の検出を行う画像認識ステップとを備えたものである。
これにより、対象検出ステップは、撮像部によって撮影された画像の中で、所定の対象を検出する際に、この所定の対象に付属した情報タグから発信されたタグ情報を用いる。すなわち、画像からでは得られないような情報を、タグ情報から得たり、あるいはタグ情報を基にして参照したりすることができ、これを画像処理に活かすことができる。したがって、膨大な処理量を要することなく、画像の中から、所定の対象を精度良く検出することができる。
また、前記本発明に係る物体検出方法において、前記対象検出ステップは、前記所定の対象が存在する3次元空間における位置座標と前記画像中の座標との対応付けを予め行い、当該対応付けを参照することにより、前記タグ情報を用いて、前記画像中の前記情報タグの位置情報を取得することが好ましい。
そして、前記本発明に係る物体検出方法において、前記タグ情報は、前記所定の対象の属性を表す属性情報を含み、前記対象検出ステップは、前記タグ通信ステップによって受信されたタグ情報が含む属性情報を用いて検出を行うのが好ましい。
また、前記本発明に係る物体検出方法において、前記タグ情報は、前記所定の対象のID情報を含み、当該物体検出方法は、前記タグ通信ステップによって受信されたタグ情報が含むID情報を用いて、属性記憶部が記憶するID情報と属性情報との対応関係を参照し、前記所定の対象の属性情報を得る属性参照ステップとを備え、前記対象検出ステップは、前記属性参照ステップによって得られた属性情報を用いて検出を行うのが好ましい。
た、前記本発明に係る物体検出方法において、前記タグ通信ステップは、さらに、前記タグ情報の受信状態から前記情報タグの位置を推定するものであり、前記画像切り出しステップは、前記タグ通信ステップによって推定された位置を参照して検出を行うのが好ましい。
また、前記本発明に係る物体検出方法において、前記タグ情報は、前記所定の対象の検出処理手続きを含み、前記対象検出ステップは、前記タグ通信ステップによって受信されたタグ情報が含む前記検出処理手続を実行することによって検出を行うのが好ましい。
また、前記本発明に係る物体検出方法において、前記対象検出ステップは、前記タグ通信ステップの受信状態が不良であるとき、前記タグ情報を用いないで、画像処理のみによって、検出を行うのが好ましい。
また、本発明は、物体検出装置として、少なくとも複数の移動体を含む画像を撮像する撮像部と、前記複数の移動体のうちの所定の対象に付属した情報タグから発信された少なくとも前記情報タグの位置情報を含むタグ情報を受信するタグ通信部と、前記タグ通信部によって受信されたタグ情報を用いて、前記画像中の前記情報タグの位置情報を取得し、当該取得した位置情報を参照して、画像処理を行うことにより、前記画像の中で、前記所定の対象を検出する対象検出部とを備え、前記対象検出部は、前記タグ情報を用いて、前記画像中の前記情報タグの位置情報を取得し、当該取得した位置情報と、前記複数の各移動体について、画像処理を用いて取得した、前記画像中の前記移動体が含まれる可能性がある領域とを参照して、前記画像の中で、前記所定の対象が含まれる可能性のある部分画像領域を決定する画像切り出し部と、前記画像切り出し部によって決定された部分画像領域において、前記所定の対象の検出を行う画像認識部とを備えたものである。
また、本発明は、物体検出サーバとして、少なくとも複数の移動体を含む撮像部によって撮像された画像と、前記複数の移動体のうちの所定の対象に付属した情報タグが発信する少なくとも前記情報タグの位置情報を含むタグ情報とを、受け、前記タグ情報を用いて、前記画像中の前記情報タグの位置情報を取得し、当該取得した位置情報を参照して、画像処理を行うことにより、前記画像の中で、前記所定の対象を検出するものであり、前記所定の対象の検出において、前記タグ情報を用いて、前記画像中の前記情報タグの位置情報を取得し、当該取得した位置情報と、前記複数の各移動体について、画像処理を用いて取得した、前記画像中の前記移動体が含まれる可能性がある領域とを参照して、前記画像の中で、前記所定の対象が含まれる可能性のある部分画像領域を決定し、前記決定された部分画像領域において、前記所定の対象の検出を行うものである。
本発明によると、画像と、所定の対象に付属した情報タグから発信されたタグ情報とを統合して利用することによって、屋外のような照明条件の変化の激しい場所や、複数の人や物がいるような状況であっても、対象を画像の中で正確に検出でき、その姿勢や動き等を特定できる。しかも、処理量の増加を抑えることができるので、画像処理のみを行う場合に比べて、処理時間やコストが格段に小さくなる。
以下、本発明の実施の形態について、図面を参照して説明する。なお、複数の図面に共通の構成要素については、同一の符号を付し、その詳細な説明を省略する場合がある。
(第1の実施形態)
図1は本発明の第1の実施形態に係る物体検出装置の構成例を示すブロック図である。図1の構成では、人Pが所定の検出対象になっている。図1において、12は人Pに付属した情報タグ11が発信するタグ情報を受信するタグ通信部、13は画像を撮像する撮像部、14はタグ通信部12によって受信されたタグ情報を用いて、撮像部13によって撮像された画像の中で、人Pを検出する対象検出部である。撮像部13は人Pを含む画像が撮像できる位置に設置されている。
図2は情報タグ11の内部構成を概念的に示すブロック図である。図2において、通信部110は電波、音波または光などを媒介としてタグ通信部12と非接触に通信を行い、所定のタグ情報を送信する。記憶部111はタグ情報として、例えば情報タグ11が付属する人Pの属性(身長、年齢、性別など)情報やID情報等を記憶する。位置検出部112は例えばGPS(Global Positioning System )などの人工衛星を用いた測位システムによって情報タグ11の位置を検出し、タグ情報として出力する。情報タグ11は記憶部111および位置検出部112から出力されたタグ情報を、通信部110によって発信する。
情報タグ11は例えば、人Pが持つ携帯電話に付属されているものとする。なお、記憶部111および位置検出部112は両方用いてもよいし、いずれか一方のみを用いてもよい。また、位置情報を得るための測位システムとしては、GPSの他に、例えば携帯電話やPHSの基地局までの距離計測に基づいたシステムなどを利用してもよい。
また図1の構成では、ID情報と属性情報との対応関係を記憶する属性記憶部16と、タグ通信部12によって受信されたタグ情報が含むID情報を用いて属性記憶部16の記憶内容を参照し、人Pの属性情報を得る属性参照部15とを備えている。
ここで、ID情報とは、各対象と予めそれぞれ対応付けられている記号または符号のことをいう。ID情報は、対象の個体毎に付してもよいし、対象が属するカテゴリ毎に付してもよい。例えば、本実施形態のように対象が人の場合には、各個人毎に異なるID情報を与えてもよいし、あるいは世帯毎に異なるID情報を与え、同一世帯に属する人には共通のID情報を付与するようにしてもよい。また、対象が物、例えばペンの場合には、ペン1本ごとに異なるID情報を付与しても良いし、色や形毎に異なるID情報を付与し、同じ色や形のペンには共通のID情報を付してもよい。
また対象検出部14は、タグ通信部12によって得られたタグ情報、または属性参照部15によって得られた属性情報、あるいはその両方を用いて、撮像部13によって得られた画像から人Pを検出する。対象検出部14は画像切り出し部141および画像認識部142を有する。
画像切り出し部141は、撮像部13によって得られた画像の中で、人Pが含まれる可能性のある部分画像領域を決定する。ここで、上述したように情報タグ11の位置検出にGPS等を用いる場合、大きな誤差は発生しにくいものの、高精度の位置検出や、姿勢または顔位置などの詳細情報の取得は困難である。これは、センサの原理的な精度の限界や、実使用環境下での誤差や外乱の影響、および、使用できるセンサの数が事実上制限されること、などに起因する。一方、画像処理の場合、理想的な条件下(照明にむらや変化が少なく、限られた物体のみしか写らない場合など)では比較的高精度で部分画像領域を決定しうるものの、屋外の映像のように、様々な物体が存在したり、照明条件が変動したりする場合には、誤検出が起こりやすい。
そこで、画像切り出し手段141が、タグ情報や属性情報を画像と統合して用いることによって、より高い精度で部分画像領域を決定することができる。なお、部分画像領域は、複数個決定してもよいし、検出対象が存在し得ない場合は、検出されない場合もあり得る。
また画像認識部142は画像切り出し部141によって決定された部分画像領域において、人Pが存在するか否か、および、存在するときはその位置や姿勢、動きを検出する。上述したように、情報タグ11からの位置情報は、大きな誤差は発生しにくいものの、そこから高精度の情報や詳細情報を得ることは困難である。一方、画像処理のみでは、不特定多数の人を高精度で検出することは困難である。ここで、画像認識部142がタグ情報または属性情報として例えば人Pの身長を用いることによって、画像認識処理の精度が向上する。例えば認識手法としてテンプレートマッチングを用いる場合、テンプレートのサイズを人Pの身長に応じて設定することができる。これにより、検出精度が向上するとともに、認識処理に用いるテンプレートが限定されるので、処理量も軽減できる。
このように、図1の構成によると、タグ通信部12によって受信されたタグ情報や、属性参照手段15によって得られた属性情報を、画像と併せて利用することによって、画像の中で、所定の対象である人Pを、処理量の増大を抑えつつ、且つ、高い精度で、検出することができる。
図3は本実施形態に係る物体検出の処理の流れを示すフローチャートである。ここで、画像を用いた処理(S2,S3,S4)と情報タグを用いた情報取得処理(S5,S6,S7)とは並列に行い得る。図3において、まず最初に、特定の対象を検出する指令を出す(S1)。対象の指定は、システムの使用者が行ってもよいし、被検出者が自ら行ってもよい。また、時刻や場所に対応させて自動的に対象を指定するようにしてもよいし、情報タグからタグ情報が取得できる対象を全て指定するようにしてもよい。
次に、検出対象を撮影するカメラを特定する(S2)。後述のように複数のカメラを用いる場合は、対象を撮影し得るカメラを全て選択する。ここでは、検出対象を映す可能性のあるカメラを予め指定しておいてもよいし、後述するステップS7で得られた情報タグの位置情報を用いて、カメラを選択してもよい。その後、ステップS2で特定したカメラから画像を取得する(S3)。
一方、指定した対象と対応付けられた情報タグを特定する(S5)。その後、特定した情報タグからタグ情報を取得する(S6)。そして、取得したタグ情報から対象に関する情報を取得する(S7)。ここで取得される情報としては、例えば、属性記憶部16から読み出された身長、年齢、性別などの属性情報や、タグ情報が含む位置情報等がある。そして最後に、ステップS7で得た所定の情報を用いて、ステップS3で取得した画像から、対象の位置などの詳細情報を特定する(S4)。
図4はステップS4における処理の一例を示すフローチャートである。まず、画像内の動きベクトルを計算する(S41)。次に、ステップS41で求めた動きベクトルを用いて、画像内で同じ方向に移動する画像領域の集合Mを求める(S42)。そして、画像領域集合Mの中から、情報タグから得た対象の位置や動きと整合する領域を集合Msとして選択する(S43)。次に、情報タグから得た身長・年齢・性別などの属性に応じた人形状のテンプレートHを生成する(S44)。次に、画像領域集合Ms内において、ステップS44で生成した人形状テンプレートHを用いて形状照合を行う(S45)。最後に、ステップS45における形状照合において一致度合が最も高い位置を対象の位置として検出する(S46)。
図5〜図9を用いて、本実施形態における処理を具体的に説明する。
図5では、タグ通信部12は通信センタ30に設けられており、対象検出部14、属性参照部15および属性記憶部16は監視センタ31に設けられている。ここで、屋外において路側に設置したカメラ(撮像部13)を用いて、情報タグ11(携帯機器33に設置)を所持した所定の人Paを検出するものとする。情報タグ11は人PaのID情報と、GPSによって得たおおまかな位置情報(誤差10m程度)とを発信する。通信センタ30は、タグ通信部12によって情報タグ11の発信情報を受信する。物体検出サーバとしての監視センタ31は、カメラ13の映像と、通信センタ30で受信されたタグ情報を通信網を通じて得る。属性記憶部16には、ID情報に対応付けられた属性情報として、身長、年齢および性別が記憶されている。
いま、人Paの付近には人Pbおよび車cが存在し、人Paは撮像部13に近づく方向に、人Pbおよび車Cは撮像部13から遠ざかる方向に、それぞれ移動しているものとする。このとき、図6のような画像がカメラ13によって撮影される。図6の画像には、人Pa,Pb,および車Cが映っている。
ここで、まず対象検出部14の画像切り出し部141が、図4のステップS41〜S43を実行し、人Paが含まれる可能性のある部分画像領域を決定する。
すなわち、図6の画像内の動きベクトルを計算し、同じ方向に移動する画像領域を求める。図7はここで得られた領域を示す。図7では、同じ方向に移動する領域として、人Pa、人Pbおよび車Cが存在する付近に、それぞれ領域APa,APb,ACが得られている。
その後、図7に示す領域から、タグ情報から得た人Paの位置や動きと整合する領域を選択する。図8は情報タグ11から得た位置情報のみを用いた場合の候補領域を示す。図8では、位置情報が示す位置をカメラ画像上の位置に変換し、領域A1として示している。ここで、GPSの位置情報には誤差が含まれるため、候補領域A1も誤差を考慮して人Pa,Pbを含む大きな領域になっている。図7および図8から、重なる領域すなわち領域APa,APbが候補領域になる。すなわち、人Paの位置情報から、車Cの領域ACを排除することができる。
さらに、位置情報の変化を参照することによって、対象の移動方向が手前に近づく方向であることが分かる。このため、領域APa,APbの動きベクトルの方向との整合から、図9のように、候補領域は領域APaのみに限定することができる。
次に、対象検出部14の画像認識部142が、図4のステップS44〜S46を実行し、画像における人Paの位置や姿勢を特定する。すなわち、領域APaに対してテンプレートマッチングを行い、人Paのより正確な位置や動きを検出する。
このとき、徒に数多くのテンプレートを用いると、検出対象と異なる人や物を誤って検出してしまう可能性が増大するとともに、マッチングに必要な処理も膨大なものになる。そこで、属性参照部15によって得た身長、年齢、性別等の属性情報に応じて、マッチングに利用するテンプレートを絞り込む。これにより、検出精度を向上させることができ、処理量も軽減することができる。
テンプレートの絞込みの例について説明する。図10はテンプレート生成の際に用いる情報の一例であり、年齢層(子供、成人、老人)と、身長の範囲、平均的な体型、および平均的な服のサイズとの関係を表している。いま、属性情報から、人Paの年齢として「20歳」を得たとする。このとき、年齢層は「成年」と特定できるので、図10の関係から、平均的な身長や体型を得ることができる。そして、得られた身長や体型をカメラ画像上のサイズや形状に変換することによって、マッチングに用いる形状テンプレートを生成することができる。
もちろん、身長の値に幅がある場合は、その範囲内で大きさの異なるテンプレートを複数生成してもよい。また、属性情報として、身長の値が直接得られる場合は、その値を用いればよい。また、対象の人が着ている衣服に情報タグが付されており、タグ情報として服のサイズが得られる場合にも、図10の関係から、身長を得てテンプレートを生成することも可能である。
テンプレートマッチングによって、領域APaにおける人Paの正確な位置が検出できると、さらに、その位置の時間的変化を追うことによって、人Paの正確な動きも得ることができる。また、異なる姿勢に対応する形状テンプレートを用いることによって、人Paの姿勢も検出することが可能である。なお、マッチングに用いるテンプレートは、形状を表す濃淡画像や2値画像であってもよいし、色を含めたカラー画像であってもよい。あるいは、輪郭だけを表す画像であってもよい。
画像中において人Paの正確な位置が検出できたら、例えば、人Paのみを拡大して撮影することができる。あるいは、ズーム拡大率を下げて、人Paの周囲を常に撮影するようにすることもできる。これにより、人Paの状態のみならず、人Paと周囲の人との接触の様子を常に監視することが可能になり、犯罪捜査や行動調査などに有効となる。
以上のように本実施形態によると、画像の中で所定の対象Paを検出する際に、この対象paに付属した情報タグ11から発信されたタグ情報を用いて、画像からでは得られないような情報を、タグ情報そのものから得たり(例えば情報タグ11から発信された属性情報や位置情報)、あるいはタグ情報を基にして参照したり(例えば属性記憶部16から読み出した属性情報)することができ、これを画像処理に活かすことがでできる。したがって、膨大な処理量を要することなく、画像の中から、所定の対象を検出することができる。
なお、本実施形態では、画像切り出し部141および画像認識部142は、ともに、タグ通信部12または属性参照部15からの情報を参照するものとしたが、この代わりに、画像切り出し部141および画像認識部142のうちいずれか一方のみが、タグ通信部12および属性参照部15からの情報を参照し、他方は画像情報のみを用いて処理を行うようにしてもかまわない。
また、本実施形態では、情報タグ11は人Paが所有する携帯電話に設けられているものとしたが、この代わりに、PDA等の他の携帯機器に設けてもよい。あるいは、つえや買い物かごのような持ち運ぶ物に設けてもよいし、車椅子や買い物用カートのような対象となる人と一緒に移動する物に設けてもよいし、衣服、メガネや靴のような身に付ける物に設けてもよい。さらには、体内に埋め込んでもかまわない。
また、本実施形態では、情報タグ11は、記憶部111が記憶する属性情報やID情報、および位置検出部112が検出した位置情報を発信するものとしたが、発信する情報はこれらに限定されるものではない。例えば、加速度センサや方位磁石、ジャイロ装置などを用いて検出対象の動きに関する情報を発信したり、ジャイロ装置などを用いて検出対象の姿勢の情報を発信してもよい。姿勢の情報を発信する場合には、画像認識部142が認識に用いるテンプレートを特定の姿勢の形状テンプレートに限定できるので、さらなる検出精度の向上と処理の削減が可能となる。
また、情報タグ11または属性記憶部16に記憶する属性情報も、本実施形態で示したものに限定されるものではない。例えば、検出対象が人の場合に、肌の色や髪の色を属性情報として記憶しておいてもよい。これにより、画像切り出し部141が特定色の領域を検出したり、画像認識部142が肌や髪の色に合わせたテンプレートを用いることによって、検出精度の向上が期待できる。
また、属性情報として、検出対象の過去の情報、例えば検出時刻や検出位置、移動速度、着衣などを記憶しておいてもよい。このような過去の情報を、現在得られた情報と比べることによって、検出結果における異常の有無を判定することができる。
なお、検出の対象は、人に限られるものではなく、例えばペットや自動車などであってもよい。ペットを検出対象とする場合、ペットの首輪などに情報タグを設置しておくとよい。屋内のカメラで撮影すれば、外出先からペットの詳細な画像や行動を把握することが可能である。この場合、携帯電話等のように小型の表示画面でペットの様子を確認する場合、部屋を広く映す画像ではペットの様子は把握できない。しかしながら、本発明のように画像内でのペットの位置を正確に検出できることができれば、小さい表示画像でもペットが映る画像領域だけを表示できるので、ペットの様子を把握しやすくすることができる。
また、屋外の監視システムなどで自動車を監視する場合にも、あらかじめ情報タグを自動車に設置することによって、監視画像内での特定車の位置を正確に検出し、運転者の画像の自動取得などが容易となり、盗難対策等に利用することが可能となる。
<移動軌跡の利用>
上述の例では、画像情報と情報タグから得た情報とを融合して用いる際に、検出対象の位置や動き方向を利用して候補領域を限定したが、本発明はこれに限られるものではなく、例えば、移動軌跡を用いてもよい。この点について、説明する。
いま、図5に示す状況において、車Cが存在せず、かつ、情報タグ11を有する人Paと情報タグを持たない人Pbとが、ともに、カメラ13に向かって歩いているものとする。ただし、歩行の軌跡は、人Paと人Pbとで異なっている。
図11はこのときのカメラ13の撮像画像である。図11では、画像から得られた動きの軌跡TPa,TPbが実線の矢印で示されている。ただし,画像処理では、細かな移動軌跡は得られるものの、人Paと人Pbの判別は困難である。
一方、図12では画像上に、情報タグ11から得た位置情報に基づく移動軌跡T11を示している。位置情報の精度は低いので、図12では位置の誤差範囲を矢印の幅によって表現している。ただし、位置の精度は低いものの、移動軌跡の形状は得ることはできる。
そこで、図12の移動軌跡T11を図11の軌跡TPa,TPbと対比し、類似度を判定する。ここでは、軌跡TPaの方が移動軌跡T11との類似度が高いので、検出対象として人Paを特定し、画像内での正確な位置を得る。
このように、移動軌跡の類似性を用いることによって、位置や動き方向が比較的似通った人や物を区別することが容易になるる。移動軌跡の類似度の判定には、例えば、軌跡が重なる範囲の割合の比較や、軌跡の長さの比較、方向転換した位置の比較、または移動ベクトル系列の比較等を行えばよい。
<複数のカメラの利用>
上述の例では、1個のカメラを用いたが、もちろん複数のカメラを用いてもよい。例えば図13に示すように、見通しの悪い場所で監視を行う場合、複数のカメラC1〜C3を設置することによって、死角をなくすことができる。ここで、図13のような折れ曲がった通路では、人Pは、右側に少し移動するだけで、カメラC1から映らなくなる。このように、死角が無いカメラ配置であっても、人Pの位置が正確に分からないと、撮影に適したカメラの選択や追跡が難しい。そこで、本発明を適用することによって、見通しの悪い場所を広範囲にわたって監視し、人Pの位置を映像の中で特定することが可能となる。
すなわち、情報タグから得る位置情報に基づいて、人Pを撮影し得るカメラを特定することができる。また、図13に示す位置に人Pがいるとき、カメラC1,C2の画像から、タグ情報を利用して人Pの検出を行うことによって、人Pが最も大きく映るカメラ画像を自動的に表示する、といったことが可能になる。
<情報タグの位置情報と画像座標との対応付け>
本発明を実現するためには、情報タグ11の位置情報が示す位置とカメラ画像上の座標との対応付けが、予めなされている必要がある。この点について、簡単に説明する。
情報タグ11の位置情報と画像座標との対応付けは、検出対象が存在する3次元空間における位置座標(ワールド座標)を撮影画像内の座標値に変換する座標変換Tを用いて行う。予め座標変換Tを求めておくことによって、情報タグの位置座標と画像内座標とを対応付けることができる。
この座標変換Tは、一般には、カメラの構成(レンズの焦点距離、レンズ歪特性、撮像素子のサイズと画素数)およびカメラの設置条件(カメラの設置位置・姿勢)を用いて理論的に算出するか、後述するカメラキャリブレーションの手続を用いて求める。カメラ構成およびカメラの設置条件が既知の場合は、幾何学変換等を組み合わせた計算によって、座標変換Tを求めることができる。一方、カメラ構成やカメラの設置姿勢が既知でない場合は、カメラキャリブレーションによって座標変換Tを求めることができる。
図14のフローを参照して、カメラキャリブレーションによって座標変換Tを求める方法を説明する。ここでは、カメラの位置や姿勢・ズームは固定であるものとする。まず、検出対象が存在する3次元空間における位置座標(ワールド座標値)と、これに対応する画像内の位置座標(画像座標値)との組を、少なくとも6組以上準備する(E11)。次に、ステップE11で準備した座標値の組の対応関係を満たす線形変換を最小二乗法等を用いて決定する(E12)。そして、算出した線形変換のパラメータ(カメラパラメータ)を保存する(E13)。
その後、情報タグの位置座標を画像座標に変換する場合は、保存したカメラパラメータを用いて、座標変換を行えばよい。
なお、カメラの位置や姿勢・ズームが変更されたときは、変更後の状態に応じた座標変換を再度キャリブレーションによって作成する。または、カメラの位置や姿勢・ズーム度合(レンズの焦点距離)が別途センサによって検知可能に構成されている場合は、計算によって、新たなカメラパラメータを求めることができる。ロボットや車等の移動体に設けられたカメラのように、その位置や姿勢が頻繁に変化する場合は、カメラの位置や姿勢を他のセンサによって検知し、その都度計算によってカメラパラメータを算出することが望ましい。
(第2の実施形態)
本発明の第2の実施形態では、カメラを有する移動型のロボットが、所定の検出対象として、物体を検出するものとする。
図15は本実施形態の状況を示す図である。図15において、家庭内の床面FLに可動型のロボット40が置かれている。物体検出装置としてのロボット40は、撮像部となるカメラ13と、第1の実施形態で説明したタグ通信部12、対象検出部14および属性参照部15とを備えている。また属性記憶部16はロボット40とは異なる場所に設けられており、属性参照部15は無線通信によって属性記憶部16に記憶された属性情報を参照する。
床面FLには、倒れた円筒の物体Oaおよび球形の物体Obがある。物体Oa,Obはともに赤色である。物体Oa,Obにはそれぞれ情報タグ11が内蔵されており、タグ情報としてID情報をそれぞれ発信している。床面FLの4隅にはアンテナ43a〜43dが設置されており、情報タグ11から発信された情報は、アンテナ43a〜43dを経て、ロボット40のアンテナ42を通してタグ通信部12によって受信される。属性参照部15は、タグ通信部12によって受信されたID情報を基にして、属性記憶部16から当該物体の形状および色を属性情報として読み出す。また、タグ通信部12は、4箇所に設置したアンテナ43a〜43dの受信強度の比率から、情報タグ11のおおよその位置を推定する。
ここで、ロボット40が、移動して、所定の検出対象である物体Oa,Obを手41によってつかみ、移動させるものとする。物体を手41によってつかむためには、ロボット40は、物体の位置や形状、向きを正確に検出する必要がある。
図16は図15の状況において、カメラ13によって映された画像である。ここで、情報タグ11からのID情報によって、2種類の物体の存在が認識される。また、アンテナ43a〜43dの受信強度の比率から、各情報タグ11のおおよその位置が推定される。この場合、情報タグ11からの情報として、ID情報と電波強度が利用されている。
まず、2種類の物体の一方、例えば物体Oaについて、ID情報を用いて属性記憶部16を参照した結果、形状は円筒形、色は赤という属性情報が得られたものとする。このとき、対象検出部14が有する画像切り出し部141(図15では図示せず)は、検出対象である物体が赤色であるという属性情報に基づいて、画像中から赤色の候補領域を決定する。図17はその結果を示す画像であり、赤色の物体Oa,OBにそれぞれ対応する2個の候補領域BOa,BObが示されている。
一方、受信強度から推定した物体Oaの位置情報を基にして、図18に示すような候補領域B1が得られる。図17の候補領域BOa,BObと図18の候補領域B1を統合することによって、図19に示すような領域B2が得られる。ここで、物体Oaの位置が正確に得られたことになる。
さらに、対象検出部14が有する画像認識部142(図15では図示せず)は、円筒形であるという属性情報に基づいて、円筒形の物体がとり得る様々な向きの形状テンプレート画像を生成する。これらの形状テンプレートを用いて領域B2の画像とマッチングを行うことによって、マッチング度合の最も高い形状テンプレートに対応する物体の向きから、物体の向き(姿勢)を正確に決定することができる。
もう一方の物体Obについても、同様の処理によって、位置や姿勢を正確に検出することができる。この結果、ロボット40は、手41を用いて物体Oa,Obを移動させるために必要な情報を得ることができる。すなわち、属性情報として色や形状を得て、特定の色や形状に特化した画像切り出しや画像認識を行うことによって、高精度で効率的な物体検出が実現される。
このように、物体に設置した情報タグ11からの情報と画像の情報を効果的に活用することによって、物体の位置や姿勢を高い精度で検出することができ、しかも検出に必要な処理量も低く抑えることが可能になる。よって、家庭の室内のような複雑な環境下でのロボットの作業に必要な物体検出が、実現できる。
ロボットが対象の検出を行う場合は、正確かつリアルタイムの処理が望まれるため、本発明のような、処理量を抑えつつ検出精度を向上できる技術が有効となる。例えば、救助活動や介護などに用いられるロボットでは、処理時間の遅れが人命や怪我につながる可能性がある。また、ロボットに、多勢の人の中の特定の人にコンタクトさせたい場合、たとえ人の特定が正確に実行できたとしても、処理時間がかかりすぎると、対象となる人が、処理を実行している間にロボットの前を通り過ぎ去ってしまう、といったことにもなりかねない。このような場合にも、本発明を用いることによって、早く正確に対象を画像の中から検出することが可能となる。
なお、上述の例では、属性記憶部16にID情報と属性情報との関係を記憶させていたが、属性情報を、個々の物体に付いた情報タグ11に直接記憶しておいてもよい。この場合、属性記憶部や属性参照部を省くことが可能になり、システム構成を簡易にできる利点がある。一方、属性記憶部16を利用することによって、たとえ検出に用いる情報量が多くても、情報タグ11の記憶容量を抑えることができるので、情報タグ11を小型化、低価格化できるとともに、情報タグ11とタグ通信部12との間の通信容量も抑えることができる。
また、情報タグ11に、検出処理の手続き自体を記録しておいてもよい。例えば上述の例の場合、物体Oaの情報タグ11から、「赤色の物体を検出する」「円筒形の形状テンプレートを生成して形状マッチングを行う」といった検出処理手続の情報を発信する。あるいは、属性記憶部16にID情報と対応付けて検出処理手続の情報を記憶させておき、情報タグ11から受信したID情報を基にして、属性記憶部16から検出処理手続の情報を読み出すようにしてもよい。この場合、対象検出部14は、受信した、または属性記憶部16から読み出された検出処理手続の手順に従って、処理を実行するだけなので、ロボット本体が有する検出処理プログラムを簡素化できる。また、異なる種類の物体が追加された場合でも、ロボットが有する検出処理プログラムを変更する必要はないので、メンテナンスが簡易になるという効果が得られる。
(第3の実施形態)
本発明の第3の実施形態では、ポータブル型のカメラによって、所定の検出対象として、被写体となる人を検出するものとする。ここでいうポータブル型のカメラは、ハンディムービーカメラやデジタルカメラ、カメラ付きの携帯電話や情報端末などを含む。
図20は本実施形態の状況を示す図である。図20において、屋外にて、人Pdを、撮像部13を有するポータブル型のカメラ50を用いて撮影する。人Pdは情報タグ11を有しており、情報タグ11は超音波を用いてタグ情報として人Pdを特定するID情報を発信する。一般に測距に用いられるような超音波発信機を利用した場合、カメラから20m程度の範囲で検出が可能である。もちろん、検出範囲は、超音波の発信強度によって変わる。
カメラ50は2個のマイク51a,51b、タグ通信部12Aおよび対象検出部14Aを備えている。マイク51a,51bは情報タグ11が発信する超音波を受信する。タグ通信部12Aはマイク51a,51bによって得られた超音波信号から、ID情報を取得するとともに、情報タグ11のカメラ50に対する方向および距離を算出する。情報タグ11の方向は、2個のマイク51a,51bによってそれぞれ受信した超音波信号の時間差(位相差)または強度比から推定可能である。また、情報タグ11までの距離は、受信した超音波信号の減衰度(強度や波形の鈍り方)から推定可能である。
図21は物体検出装置としてのカメラ50の構成例を示すブロック図である。図21において、マイク51a,51b、距離決定部52、時間差算出部53、方向決定部54およびID抽出部55によって、タグ通信部12Aが構成されており、画像内座標決定部56および画像切り出し部142によって、対象検出部14Aが構成されている。なお、2個のマイク51a,51bは水平方向に異なる位置に配置されているものとする。
距離決定部52はマイク51a,51bによって受信した超音波の強度を用いて、情報タグ11までの距離を算出する。一方、時間差算出部53はマイク51a,51bによってそれぞれ受信した超音波信号の検出時間差を算出し、方向決定部54は時間差算出部53によって得られた検出時間差を用いて、カメラ50からみた情報タグ11の方向(マイク51a,51bを含む水平面内での方向)を算出する。検出時間差と方向との対応関係は、予め方向決定部54に保持されているものとする。
画像内座標決定部56は、方向決定部54によって得られた情報タグ11の方向と、カメラ制御部57から受けた撮像部13のレンズ焦点距離(ズーム度合)とを用いて、画像内における水平方向での情報タグ11の位置を決定する。ここでの処理は、第1の実施形態で説明した,情報タグの位置情報を画像内の位置座標に対応付ける処理と同様である。
一方、ID抽出部55は、マイク51a,51bによって得られた超音波信号から、ID情報を取得する。属性参照部15はID情報を用いて属性記憶部16を参照し、検出対象となる人Pdの身長を読み出す。画像切り出し部142において、テンプレート生成部143は、距離決定部52によって得られた距離、属性参照部15によって得られた人Pdの身長、およびカメラ制御部57から得たレンズ焦点距離の情報から、画像内における人Pdのサイズを反映した形状テンプレートを生成する。テンプレートマッチング部144は、画像内座標決定部56によって得られた,画像内での情報タグ11の位置付近において、テンプレート生成部143によって生成されたテンプレートを用いてマッチングを行い、人Pdの位置検出を行う。ここで検出された人Pdの位置情報はカメラ制御部57に与えられ、カメラ制御部57はこの位置情報を用いて、撮像部13に対して、より正確な焦点調整、露出調整、色補正、ズーム調整などを行う。
図22のフローチャートを参照して、本実施形態における処理の流れを、図20の状況を例にとって説明する。
まず、被写体すなわち検出対象となる人Pdが有する情報タグ11が超音波信号によってID情報を発信する(T1)。カメラ50は発信された超音波信号をマイク51a,51bによって受信する(T2)。そして、マイク51a,51bによって受信した超音波信号の受信時間のずれを算出し(T3)、この受信時間のずれから、カメラ50に対する情報タグ11の方向θを算出する(T4)。
その一方で、マイク51a,51bが受信した超音波信号の強度から、情報タグ11までの距離Dを算出する(T5)。ここで、撮像部13のズーム倍率を考慮して、画像内に方向θが映るか否かを判定する(T6)。映らないと判定したとき(T6でNO)は、ズーム倍率を下げて方向θが映るようにするか、撮像部13の向きを方向θに向けるか(撮像部13が可動式の雲台に搭載されている場合)、あるいはカメラ50のモニタに、検出対象が範囲外である旨を表示したり、検出対象が画像のどちら側に存在するかなどを表示して、撮影者にカメラ50の向きを変えることを促す(T7)。ここで、対象が範囲外であると判定している間は、録画を自動的に停止するようにし、対象が範囲内に入ったときに自動的に録画を開始するようにしてもよい。
一方、方向θが画像内に映っていると判定したとき(T6でYES)は、距離Dに合わせてカメラの焦点調整を行う(T8)。このとき、図23のような画像が得られるものとする。次に、ズーム倍率と方向θとを用いて、画像内での情報タグ11の位置(領域)L1を決定する(T9)。ただし、超音波信号を利用して方向を算出する場合、気温・風・周辺物体での反射やノイズ等の影響によって誤差が発生するため、ステップT9において、単一の人を特定するほど領域を限定することは難しい。図23の画像例では、領域L1に、検出対象の人Pd以外に人Peも含まれている。
そこで、超音波信号からID情報を取得し(T10)、このID情報を用いて対象の身長Hを取得する(T11)。そして、身長H、距離Dおよびズーム倍率を用いて、対象が画像内で映るはずのサイズに応じた形状テンプレートTを生成する(T12)。図24はここで生成されたテンプレートTの一例である。図24のようなテンプレートTを用いて、画像内の位置L1付近においてマッチングを行い、最もマッチング度合の高い位置を対象の正確な位置L2として検出する(T13)。このとき、人Peは人Pdと画像上での大きさが異なるので、人Pdのみが検出される。そして、画像内に位置L2を表示し、撮影者が必要に応じてカメラの向きなどを調整しやすいようにする。また、位置L2付近の領域の色・明るさ・画質に応じて、撮像部13の絞りや露出、色補正、焦点調整などを行う(T14)。これにより、たとえ撮影に不慣れな人であっても、被写体である人Pdを的確に撮影することができる。
なお、ステップT5は、ステップT2以降、距離Dを参照するまでの間であればいつ実行してもよい。また、ステップT10は、ステップT2からステップT11までの間であればいつ実行してもよい。
このように本実施形態によると、情報タグからのID情報や、超音波信号の受信状態から推定した距離と方向の情報を、画像処理に統合することによって、画像上でサイズが似た人同士(人Pdと人Pf)や、位置が近い人同士(人Pdと人Pe)も正確に識別することができる。したがって、多人数がいるような複雑な状況下であっても、処理量を大きく増やすことなく、対象の位置を正確に検出することが可能となる。また、超音波発信機を情報タグに利用することによって、簡易かつ安価なシステムによって方位や距離を算出できるという利点がある。
なお、上述の例では、2個のマイクを用いるものとしたが、マイクの個数はこれに限られるものではなく、3個以上であってもよい。3個以上のマイクを用いることによって、例えば、2個のマイクの複数の組合せから情報タグの方向をそれぞれ算出し、その算出結果を平均化する、といった処理を行うことによって、方向の算出精度を向上させることができる。
また、カメラから情報タグに対して、超音波、電波または光などを用いて、超音波を発信させるためのトリガをかけるようにしてもよい。この場合、トリガをかけてから超音波信号を受信するまでの時間を計測し、この計測時間と音速から、情報タグまでの距離を算出することができる。
また、特定のID情報を得たときにのみ、上述したような検出処理を行うようにしてもよい。これにより、複数の情報タグが存在する状況において、所望の情報タグを持つ対象のみを検出することができる。
また、情報タグの情報と画像処理とは、常時併用する必要は無く、例えば情報タグからの信号が雑音等の影響により一時的に受信できない場合は、受信状態が不良であることを判定して、画像による検出処理のみに自動的に切り替えてもよい。このとき、例えばテンプレートは直前に用いたものを利用するようにすればよい。逆に、画像におけるテンプレート検出が日照変化の影響などで一時的に成功しない場合は、検出が成功しないことを判断して、情報タグによる方向と距離の情報のみを用いて検出するように自動的に切り替えてもよい。このように、一方の情報が利用できない場合、自動的に他方の情報のみを利用することによって、検出精度は低下しても対象を完全に見失うことはない、という状況変化に対して強い物体検出装置が実現できる。
図25は処理の切替の行う手順の一例を示すフローチャートである。図25において、まず、超音波信号がマイクによって正常に受信できたか否かを判定する(K1)。正常に受信できたときは(K1でYES)、上述の処理によって得られた、画像内での情報タグの推定位置付近においてテンプレートマッチングを行う(K2)。そして、マッチング度合の最大値が所定の閾値以上か否かを判定し(K4)、閾値以上のときは(YES)、マッチング度合が最大となる位置を人の検出位置とする(K7)。一方、閾値よりも小さいときは(K4でNO)、超音波信号から推定した位置を人の検出位置として採用する(K6)。このとき、検出の信頼性は低いので、検出精度が低下していることや、画像による検出が困難であることをモニタに表示してもよい。
一方、ステップK1において、超音波信号の受信が正常に行えない場合は(K1でNO)、画像全体においてテンプレートマッチングを行う(K3)。あるいはこのとき、前フレームにおける検出位置付近においてテンプレートマッチングを行ってもよい。そして、マッチング度合の最大値が所定の閾値以上か否かを判定し(K5)、閾値以上のときは(YES)、マッチング度合が最大となる位置を人の検出位置とする(K9)。このときも検出の信頼性は低いので、検出精度が低下していることや、超音波による位置検出が困難であることをモニタに表示してもよい。一方、閾値よりも小さいときは(K5でのNO)、位置検出が不能と判断し、その旨をモニタに表示したり、あるいは、前フレームで求めた検出位置を採用する(K8)。
この例では、一方の情報が利用できないときに検出手続きを切替えるものとしたが、検出手続きを変更する手法としては、以下のようなものも考えられる。
例えば、情報タグから得られるID情報が複数種類存在する場合に、マッチングを行う画像内の範囲を、単独のID情報のみが得られる場合に比べて、広く設定するようにしてもよい。これにより、複数の発信源の存在によって超音波信号の相互干渉や混信が発生し、超音波信号による位置検出精度が低下した場合にでも、検出ミスの発生を抑制することができる。
また、マッチング度合が高い位置が複数ある場合に、情報タグから得た人の位置を検出位置とするように変更してもよい。これにより、画像上で非常に似通った人が近接して存在する場合に、他の人を誤って検出してしまい、検出位置が頻繁にずれる、といった検出ミスを抑制することができる。
また、本発明の物体検出装置が行う処理の一部または全部は、専用の機器によって行われてもよいし、コンピュータに内蔵されたCPUが処理プログラムを実行することによって、行われてもよい。また、図5に示す監視センタ31のように、物体検出サーバが、撮像部によって撮像された画像と、所定の対象に付属した情報タグが発信するタグ情報とを受け、このタグ情報を用いて、画像の中から所定の対象を検出する、ように構成してもよい。
本発明の第1の実施形態に係る物体検出装置の構成を示すブロック図である。 本発明の第1の実施形態における情報タグの内部構成を概念的に示すブロック図である。 本発明の第1の実施形態に係る物体検出の処理の流れを示すフローチャートである。 図3のステップS4における処理の一例を示すフローチャートである。 本発明の第1の実施形態において物体検出を行う状況を示す図である。 図5の状況において撮像部が映した画像の例である。 図6の画像において、画像切り出し部が求めた候補領域を示す図である。 図6の画像において、情報タグから得た位置情報を用いて求めた候補領域を示す図である。 図7および図8に示す候補領域から決定された領域を示す図である。 テンプレート生成に用いる情報の一例である。 画像から得た動きの軌跡を示す図である。 情報タグから得た位置情報に基づく移動軌跡を示す図である。 複数のカメラの配置の例を示す図である。 検出対象の空間位置座標を画像座標に変換する座標変換をカメラキャリブレーションによって求める方法を示すフローチャートである。 本発明の第2の実施形態において物体検出を行う状況を示す図である。 図15の状況において撮像部が映した画像の例である。 図16の画像において、画像切り出し部が求めた候補領域を示す図である。 図16の画像において、情報タグから得た位置情報を用いて求めた候補領域を示す図である。 図17および図18に示す候補領域から決定された領域を示す図である。 本発明の第3の実施形態において物体検出を行う状況を示す図である。 図20におけるカメラ40の構成例を示すブロック図である。 本発明の第3の実施形態に係る処理の流れを示すフローチャートである。 図22の処理過程において得られる画像の例である。 図22の処理過程において用いる人型テンプレートの一例である。 検出処理の切替を行う手順の一例を示すフローチャートである。

Claims (9)

  1. 少なくとも複数の移動体を含む画像を撮像する撮像ステップと、
    前記複数の移動体のうちの所定の対象に付属した情報タグから発信された少なくとも前記情報タグの位置情報を含むタグ情報を受信するタグ通信ステップと、
    前記タグ通信ステップで受信されたタグ情報を用いて、前記画像中の前記情報タグの位置情報を取得し、当該取得した位置情報を参照して、画像処理を行うことにより、前記画像の中で、前記所定の対象を検出する対象検出ステップとを有し、
    前記対象検出ステップは、
    前記タグ情報を用いて、前記画像中の前記情報タグの位置情報を取得し、当該取得した位置情報と、前記複数の各移動体について、画像処理を用いて取得した、前記画像中の前記移動体が含まれる可能性がある領域とを参照して、前記画像の中で、前記所定の対象が含まれる可能性のある部分画像領域を決定する画像切り出しステップと、
    前記画像切り出しステップによって決定された部分画像領域において、前記所定の対象の検出を行う画像認識ステップとを備えた
    ことを特徴とする物体検出方法。
  2. 請求項1において、
    前記対象検出ステップは、
    前記所定の対象が存在する3次元空間における位置座標と前記画像中の座標との対応付けを予め行い、当該対応付けを参照することにより、前記タグ情報を用いて、前記画像中の前記情報タグの位置情報を取得する
    ことを特徴とする物体検出方法。
  3. 請求項1において、
    前記タグ情報は、前記所定の対象の属性を表す属性情報を含み、
    前記対象検出ステップは、前記タグ通信ステップによって受信されたタグ情報が含む属性情報を用いて、検出を行う
    ことを特徴とする物体検出方法。
  4. 請求項1において、
    前記タグ情報は、前記所定の対象のID情報を含み、
    当該物体検出方法は、
    前記タグ通信ステップによって受信されたタグ情報が含むID情報を用いて、属性記憶部が記憶するID情報と属性情報との対応関係を参照し、前記所定の対象の属性情報を得る属性参照ステップを備え、
    前記対象検出ステップは、前記属性参照ステップによって得られた属性情報を用いて、検出を行う
    ことを特徴とする物体検出方法。
  5. 請求項1において、
    前記タグ通信ステップは、さらに、前記タグ情報の受信状態から、前記情報タグの位置を推定するものであり、
    前記画像切り出しステップは、前記タグ通信ステップによって推定された位置を参照して、検出を行う
    ことを特徴とする物体検出方法。
  6. 請求項1において、
    前記タグ情報は、前記所定の対象の検出処理手続きを含み、
    前記対象検出ステップは、前記タグ通信ステップによって受信されたタグ情報が含む前記検出処理手続を実行することによって、検出を行う
    ことを特徴とする物体検出方法。
  7. 請求項1において、
    前記対象検出ステップは、前記タグ通信ステップの受信状態が不良であるとき、前記タグ情報を用いないで、画像処理のみによって、検出を行う
    ことを特徴とする物体検出方法。
  8. 少なくとも複数の移動体を含む画像を撮像する撮像部と、
    前記複数の移動体のうちの所定の対象に付属した情報タグから発信された少なくとも前記情報タグの位置情報を含むタグ情報を、受信するタグ通信部と、
    前記タグ通信部によって受信されたタグ情報を用いて、前記画像中の前記情報タグの位置情報を取得し、当該取得した位置情報を参照して、画像処理を行うことにより、前記画像の中で、前記所定の対象を検出する対象検出部とを備え、
    前記対象検出部は、
    前記タグ情報を用いて、前記画像中の前記情報タグの位置情報を取得し、当該取得した位置情報と、前記複数の各移動体について、画像処理を用いて取得した、前記画像中の前記移動体が含まれる可能性がある領域とを参照して、前記画像の中で、前記所定の対象が含まれる可能性のある部分画像領域を決定する画像切り出し部と、
    前記画像切り出し部によって決定された部分画像領域において、前記所定の対象の検出を行う画像認識部とを備えた
    ことを特徴とする物体検出装置。
  9. 少なくとも複数の移動体を含む撮像部によって撮像された画像と、前記複数の移動体のうちの所定の対象に付属した情報タグが発信する少なくとも前記情報タグの位置情報を含むタグ情報とを、受け、
    前記タグ情報を用いて、前記画像中の前記情報タグの位置情報を取得し、当該取得した位置情報を参照して、画像処理を行うことにより、前記画像の中で、前記所定の対象を検出する物体検出サーバであって、
    前記所定の対象の検出において、
    前記タグ情報を用いて、前記画像中の前記情報タグの位置情報を取得し、当該取得した位置情報と、前記複数の各移動体について、画像処理を用いて取得した、前記画像中の前記移動体が含まれる可能性がある領域とを参照して、前記画像の中で、前記所定の対象が含まれる可能性のある部分画像領域を決定し、
    前記決定された部分画像領域において、前記所定の対象の検出を行う
    ことを特徴とする物体検出サーバ。
JP2004501982A 2002-04-25 2003-04-25 物体検出装置、物体検出サーバおよび物体検出方法 Expired - Lifetime JP3927980B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2002123977 2002-04-25
JP2002123977 2002-04-25
PCT/JP2003/005407 WO2003092291A1 (fr) 2002-04-25 2003-04-25 Dispositif de detection d'objet, serveur de detection d'objet et procede de detection d'objet

Publications (2)

Publication Number Publication Date
JPWO2003092291A1 JPWO2003092291A1 (ja) 2005-09-08
JP3927980B2 true JP3927980B2 (ja) 2007-06-13

Family

ID=29267513

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004501982A Expired - Lifetime JP3927980B2 (ja) 2002-04-25 2003-04-25 物体検出装置、物体検出サーバおよび物体検出方法

Country Status (7)

Country Link
US (1) US7180050B2 (ja)
EP (1) EP1499129B1 (ja)
JP (1) JP3927980B2 (ja)
CN (1) CN100369487C (ja)
AT (1) ATE539558T1 (ja)
AU (1) AU2003234995A1 (ja)
WO (1) WO2003092291A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170041636A (ko) * 2015-10-07 2017-04-17 캐논 가부시끼가이샤 표시 제어장치, 표시 제어방법 및 프로그램
WO2020202530A1 (ja) * 2019-04-04 2020-10-08 三菱電機株式会社 画像による移動体測位システム

Families Citing this family (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2403363A (en) * 2003-06-25 2004-12-29 Hewlett Packard Development Co Tags for automated image processing
JP3963162B2 (ja) * 2003-08-28 2007-08-22 ソニー株式会社 ロボット装置及びロボット装置の制御方法ロボット装置
JP2005078376A (ja) * 2003-08-29 2005-03-24 Sony Corp 対象物検出装置、対象物方法、及びロボット装置
KR100601933B1 (ko) * 2003-11-18 2006-07-14 삼성전자주식회사 사람검출방법 및 장치와 이를 이용한 사생활 보호방법 및 시스템
JP4524741B2 (ja) * 2003-12-26 2010-08-18 ブラザー工業株式会社 無線タグ読み取り装置
EP1571584A1 (en) * 2004-03-03 2005-09-07 Honda Research Institute Europe GmbH Integrating visual and object information in a pervasive computing environment
US7463143B2 (en) * 2004-03-15 2008-12-09 Arbioran Methods and systems for gathering market research data within commercial establishments
AT501370B1 (de) * 2004-06-03 2007-03-15 X Pin Com Gmbh Vorrichtung zur biometrischen steuerung von anlagen
WO2006004043A1 (ja) * 2004-07-07 2006-01-12 Nec Corporation 広視野画像入力方法及び装置
US7080778B1 (en) * 2004-07-26 2006-07-25 Advermotion, Inc. Moveable object accountability system
US7362219B2 (en) * 2004-07-28 2008-04-22 Canon Kabushiki Kaisha Information acquisition apparatus
JP2006079312A (ja) * 2004-09-09 2006-03-23 Matsushita Electric Ind Co Ltd 携帯型ビューワ
JP4086024B2 (ja) * 2004-09-14 2008-05-14 ソニー株式会社 ロボット装置及びその行動制御方法
JP4492300B2 (ja) * 2004-11-02 2010-06-30 マツダ株式会社 シート装置を搭載した車両
JP4573634B2 (ja) * 2004-11-26 2010-11-04 オリンパス株式会社 情報端末装置及び状態表示システム
WO2006064607A1 (ja) * 2004-12-17 2006-06-22 Olympus Corporation 複合マーカ及び複合マーカ情報取得装置
JP2006229833A (ja) * 2005-02-21 2006-08-31 Konica Minolta Photo Imaging Inc 撮像装置
JP2006279568A (ja) * 2005-03-29 2006-10-12 Fujitsu Ltd 撮影装置
KR100714098B1 (ko) * 2005-06-24 2007-05-02 한국전자통신연구원 전자태그 방송 시스템 및 전자태그를 이용한 방송 방법
KR100798917B1 (ko) * 2005-12-07 2008-01-29 한국전자통신연구원 디지털 사진 컨텐츠 처리 시스템 및 그 시스템에서의디지털 사진 컨텐츠 송/수신 방법 및 장치
WO2007074671A1 (ja) * 2005-12-28 2007-07-05 Matsushita Electric Industrial Co., Ltd. 物体検出装置、物体検出方法、及び、物体検出用コンピュータプログラム
JP2007219948A (ja) * 2006-02-17 2007-08-30 Advanced Telecommunication Research Institute International ユーザ異常検出装置、及びユーザ異常検出方法
US20070200701A1 (en) * 2006-02-27 2007-08-30 English Kent L Network centric sensor fusion for shipping container security
JP5147036B2 (ja) * 2006-03-08 2013-02-20 株式会社国際電気通信基礎技術研究所 位置推定装置、位置推定方法及び位置推定プログラム
US7742624B2 (en) * 2006-04-25 2010-06-22 Motorola, Inc. Perspective improvement for image and video applications
US20070273479A1 (en) * 2006-05-25 2007-11-29 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Personalized device owner identifier
US20100265036A1 (en) * 2006-05-25 2010-10-21 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Personalized device owner identifier
US20080008371A1 (en) * 2006-06-13 2008-01-10 Kevin Woods Considerations when colon segmentation differs between CAD processing and visualization
US7564564B2 (en) * 2006-08-22 2009-07-21 Artium Technologies, Inc. Automatic set-up for instrument functions
JP4910613B2 (ja) * 2006-10-05 2012-04-04 株式会社デンソーウェーブ リーダライタ
US8620487B2 (en) * 2006-12-15 2013-12-31 Honeywell International Inc. For a kiosk for a vehicle screening system
US8089340B2 (en) * 2007-01-05 2012-01-03 Honeywell International Inc. Real-time screening interface for a vehicle screening system
CN101617197B (zh) 2007-02-16 2011-06-22 三菱电机株式会社 测量装置、测量方法及地物识别装置
US7916969B2 (en) * 2007-03-23 2011-03-29 Seiko Epson Corporation Varying the exposure of a digital image by region
CN102248537B (zh) * 2007-06-27 2013-12-04 松下电器产业株式会社 机器手控制装置及控制方法、机器人
JP5023868B2 (ja) * 2007-07-31 2012-09-12 富士通株式会社 無線タグの決定方法、無線タグの決定システム、リーダ制御装置及びプログラム
WO2009036782A1 (en) * 2007-09-18 2009-03-26 Vrmedia S.R.L. Information processing apparatus and method for remote technical assistance
US8773266B2 (en) 2007-11-16 2014-07-08 Intermec Ip Corp. RFID tag reader station with image capabilities
JP2009237197A (ja) * 2008-03-27 2009-10-15 Sanyo Electric Co Ltd 携帯プロジェクタ装置
JP2009245286A (ja) * 2008-03-31 2009-10-22 Panasonic Corp 人数の分布算出方法、人数の分布算出システム、無線通信装置及びサーバ
US20100225498A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Postural information system and method
US20100271200A1 (en) * 2009-03-05 2010-10-28 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method including determining response to subject advisory information
US20100228493A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method including direction generation based on collection of subject advisory information
US20100225491A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method
US20100228154A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method including determining response to subject advisory information
US20100228158A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method including device level determining of subject advisory information based on subject status information and postural influencer status information
US20100228488A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method
US20100228492A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of State Of Delaware Postural information system and method including direction generation based on collection of subject advisory information
US20100225474A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method
US20100228487A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method
US20100228495A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method including determining subject advisory information based on prior determined subject advisory information
US20100225490A1 (en) * 2009-03-05 2010-09-09 Leuthardt Eric C Postural information system and method including central determining of subject advisory information based on subject status information and postural influencer status information
US20100228159A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method
US20100228494A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method including determining subject advisory information based on prior determined subject advisory information
US9024976B2 (en) 2009-03-05 2015-05-05 The Invention Science Fund I, Llc Postural information system and method
DK177946B9 (da) * 2009-10-30 2015-04-20 Maersk Oil Qatar As Brøndindretning
JP2011128107A (ja) * 2009-12-21 2011-06-30 Mitsubishi Electric Corp 移動体管理装置
WO2011083733A1 (ja) 2010-01-07 2011-07-14 株式会社ニコン 画像判定装置
CN102200578B (zh) * 2010-03-25 2013-09-04 日电(中国)有限公司 数据关联设备和方法
EP2618566A1 (en) * 2012-01-23 2013-07-24 FilmMe Group Oy Controlling controllable device during performance
TWI476702B (zh) * 2012-03-16 2015-03-11 Pixart Imaging Inc 使用者辨識系統及辨識使用者的方法
ITBO20130431A1 (it) * 2013-08-01 2015-02-02 01Wiring S R L Metodo per controllare l'orientamento di una videocamera mobile atta a filmare una coppia di atleti in movimento su di un campo di gara, e corrispondente sistema per filmare atleti in movimento
US9659350B2 (en) * 2014-01-31 2017-05-23 Morpho, Inc. Image processing device and image processing method for image correction, and non-transitory computer readable recording medium thereof
US10932103B1 (en) * 2014-03-21 2021-02-23 Amazon Technologies, Inc. Determining position of a user relative to a tote
CN105224897B (zh) * 2014-04-29 2020-12-29 杭州美盛红外光电技术有限公司 信息提供装置、检测装置、检测***和信息提供方法
JP6372388B2 (ja) * 2014-06-23 2018-08-15 株式会社デンソー ドライバの運転不能状態検出装置
TWI530821B (zh) * 2014-09-25 2016-04-21 中強光電股份有限公司 頭戴式顯示系統及其操作方法
JP2015097089A (ja) * 2014-11-21 2015-05-21 株式会社Jvcケンウッド 対象物検出装置、対象物検出方法
CN108292469B (zh) * 2015-12-09 2021-02-05 笠原一 位置信息确定方法、装置以及计算机存储介质
JP6393360B2 (ja) * 2016-05-11 2018-09-19 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 撮影制御方法、撮影制御システム及び撮影制御サーバ
CN106761351A (zh) * 2017-02-24 2017-05-31 成都华固特种门窗有限公司 一种应用于医院门口的自动伸缩门
CN110023712A (zh) * 2017-02-28 2019-07-16 松下知识产权经营株式会社 位移计测装置以及位移计测方法
JP6708154B2 (ja) * 2017-03-28 2020-06-10 カシオ計算機株式会社 対象物検出装置、対象物検出方法、及びプログラム
JP6822906B2 (ja) * 2017-06-23 2021-01-27 株式会社東芝 変換行列算出装置、位置推定装置、変換行列算出方法および位置推定方法
DE112018007190T5 (de) * 2018-03-29 2020-12-10 Mitsubishi Electric Corporation Fahrzeugbeleuchtungssteuerungsvorrichtung,fahrzeugbeleuchtungssteuerungsverfahren undfahrzeugbeleuchtungssteuerungsprogramm
JP2020008929A (ja) * 2018-07-03 2020-01-16 富士ゼロックス株式会社 身長算出システム、情報処理装置およびプログラム
CN109186584B (zh) * 2018-07-18 2020-09-29 浙江臻万科技有限公司 一种基于人脸识别的室内定位方法及定位***
WO2020044797A1 (ja) * 2018-08-27 2020-03-05 三菱電機株式会社 情報処理装置、情報処理システム、及び情報処理方法
CN111971529A (zh) * 2018-09-03 2020-11-20 Abb瑞士股份有限公司 用于管理机器人***的方法和装置
EP3651056A1 (en) * 2018-11-06 2020-05-13 Rovco Limited Computing device and method for video object detection
CN112584091B (zh) * 2019-09-29 2022-04-26 杭州海康威视数字技术股份有限公司 报警信息生成方法、报警信息解析方法、***和装置
GB2598133A (en) 2020-08-20 2022-02-23 Daimler Ag A cargo tracking system for tracking a cargo, as well as a corresponding method

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3267773B2 (ja) 1993-11-29 2002-03-25 株式会社野村総合研究所 移動***置認識システム
DE69425499T2 (de) 1994-05-30 2001-01-04 Makoto Hyuga Bilderzeugungsverfahren und dazugehöriges gerät
US5521634A (en) * 1994-06-17 1996-05-28 Harris Corporation Automatic detection and prioritized image transmission system and method
US5666157A (en) 1995-01-03 1997-09-09 Arc Incorporated Abnormality detection and surveillance system
JPH0946694A (ja) 1995-07-31 1997-02-14 Mitsubishi Electric Corp 監視カメラ自動制御装置
EP0813073A3 (en) 1996-06-14 1999-05-26 Xerox Corporation Object identification and precision localization through combined video and infrared signals
JP3651745B2 (ja) 1998-03-17 2005-05-25 株式会社東芝 物体領域追跡装置および物体領域追跡方法
AU4646099A (en) * 1998-07-16 2000-02-07 Imageid Ltd. Image identification and delivery system
JP2001032075A (ja) * 1999-07-19 2001-02-06 Kanegafuchi Chem Ind Co Ltd プラズマcvd装置およびそれを用いた成膜方法
JP2001056853A (ja) 1999-08-19 2001-02-27 Matsushita Electric Ind Co Ltd 挙動検出装置および種類識別装置、並びに挙動検出方法および挙動検出用プログラムが記録された記録媒体
JP3850602B2 (ja) 1999-10-18 2006-11-29 三菱電機株式会社 移動体検出装置および移動体検出方法
GB9925140D0 (en) 1999-10-25 1999-12-22 Roke Manor Research Tag tracking system
JP2001167306A (ja) 1999-12-09 2001-06-22 Hitachi Kokusai Electric Inc Icカード管理システム
JP2001202577A (ja) 2000-01-20 2001-07-27 Mitsubishi Electric Corp 事故車両監視カメラシステム
JP2001307072A (ja) 2000-04-21 2001-11-02 Canon Inc 認識システム、認識装置、認識方法および記憶媒体
JP2001307095A (ja) 2000-04-21 2001-11-02 Canon Inc 認識システム、認識装置、認識方法および記憶媒体
JP2002099907A (ja) * 2000-09-22 2002-04-05 Mazda Motor Corp 物体認識装置
JP2002112074A (ja) * 2000-09-29 2002-04-12 Casio Comput Co Ltd 撮影画像管理システムおよび記録媒体
JP2002262163A (ja) 2001-03-05 2002-09-13 Nippon Telegr & Teleph Corp <Ntt> クリッカブル映像撮影方法及び装置
GB2373942A (en) * 2001-03-28 2002-10-02 Hewlett Packard Co Camera records images only when a tag is present
JP2003061074A (ja) * 2001-08-09 2003-02-28 Mitsubishi Electric Corp 画像認識処理システム
US7817013B2 (en) * 2003-09-05 2010-10-19 Honeywell International Inc. Distributed stand-off ID verification compatible with multiple face recognition systems (FRS)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170041636A (ko) * 2015-10-07 2017-04-17 캐논 가부시끼가이샤 표시 제어장치, 표시 제어방법 및 프로그램
KR102111935B1 (ko) * 2015-10-07 2020-05-18 캐논 가부시끼가이샤 표시 제어장치, 표시 제어방법 및 프로그램
WO2020202530A1 (ja) * 2019-04-04 2020-10-08 三菱電機株式会社 画像による移動体測位システム

Also Published As

Publication number Publication date
ATE539558T1 (de) 2012-01-15
EP1499129A4 (en) 2007-05-09
EP1499129A1 (en) 2005-01-19
AU2003234995A1 (en) 2003-11-10
CN1647535A (zh) 2005-07-27
EP1499129B1 (en) 2011-12-28
JPWO2003092291A1 (ja) 2005-09-08
CN100369487C (zh) 2008-02-13
US7180050B2 (en) 2007-02-20
US20040211883A1 (en) 2004-10-28
WO2003092291A1 (fr) 2003-11-06

Similar Documents

Publication Publication Date Title
JP3927980B2 (ja) 物体検出装置、物体検出サーバおよび物体検出方法
KR100790860B1 (ko) 사람 추적 장치 및 방법, 그 방법을 수행하기 위한프로그램이 저장된 기록매체와 그 장치를 포함하는 이동형전자기기
Wheeler et al. Face recognition at a distance system for surveillance applications
US7769203B2 (en) Target object detection apparatus and robot provided with the same
US8090193B2 (en) Mobile robot
US20050084179A1 (en) Method and apparatus for performing iris recognition from an image
CN108459597B (zh) 一种用于处理任务区域的任务的移动电子设备以及方法
JP4774818B2 (ja) 画像処理装置及び画像処理方法
KR101634355B1 (ko) 동작 검출 장치 및 방법
JP2006086591A (ja) 移動体追跡システム、撮影装置及び撮影方法
JP2007240295A (ja) 位置推定装置、位置推定方法及び位置推定プログラム
CN111353355A (zh) 动作追踪***及方法
JP2020149641A (ja) 物体追跡装置および物体追跡方法
US11831906B2 (en) Automated film-making using image-based object tracking
CN110991306A (zh) 自适应的宽视场高分辨率智能传感方法和***
Fahn et al. A high-definition human face tracking system using the fusion of omni-directional and PTZ cameras mounted on a mobile robot
JP2019036213A (ja) 画像処理装置
JP2005202578A (ja) コミュニケーション装置およびコミュニケーション方法
US11900616B2 (en) Determining region-of-interest of an object using image-based object tracking
US20200226787A1 (en) Information processing apparatus, information processing method, and program
Tarokh et al. Vision-based robotic person following in fast walking
JPH09322153A (ja) 自動監視装置
KR20150091808A (ko) 범죄 사건의 예측을 위한 영상 처리 장치 및 방법
CN115004186A (zh) 三维(3d)建模
Huang et al. Distributed video arrays for tracking, human identification, and activity analysis

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060810

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061005

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20061113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070305

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3927980

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110309

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110309

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120309

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130309

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130309

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140309

Year of fee payment: 7

EXPY Cancellation because of completion of term