JP2015036980A - 駐車区画占有率判定のための映像および視覚ベースのアクセス制御のハイブリッド方法およびシステム - Google Patents

駐車区画占有率判定のための映像および視覚ベースのアクセス制御のハイブリッド方法およびシステム Download PDF

Info

Publication number
JP2015036980A
JP2015036980A JP2014149014A JP2014149014A JP2015036980A JP 2015036980 A JP2015036980 A JP 2015036980A JP 2014149014 A JP2014149014 A JP 2014149014A JP 2014149014 A JP2014149014 A JP 2014149014A JP 2015036980 A JP2015036980 A JP 2015036980A
Authority
JP
Japan
Prior art keywords
target
parking area
image content
result
content classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014149014A
Other languages
English (en)
Other versions
JP6488083B2 (ja
Inventor
ウェンチェン・ウー
Wencheng Wu
ヤオ・ロング・ワン
Yao Rong Wang
グラハム・ペニントン
Pennington Graham
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xerox Corp
Original Assignee
Xerox Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xerox Corp filed Critical Xerox Corp
Publication of JP2015036980A publication Critical patent/JP2015036980A/ja
Application granted granted Critical
Publication of JP6488083B2 publication Critical patent/JP6488083B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】駐車場占有率を費用を抑えて判定する。
【解決手段】対象駐車エリアの1つ以上の画像フレームは、対象駐車エリアに対して規定される2つ以上の対象領域の中から取得される14。対象領域は、移動検出または画像コンテンツ変化検出のために分析される16。画像コンテンツ分類工程20は、対象領域の中の第1の対象領域に対して画像コンテンツ変化検出の結果に基づいて行われる。その後、物体追跡工程22は、対象領域の中の第2の対象領域に対して、画像コンテンツ分類工程の結果が対象駐車エリア内に1つ以上の対象物体が存在することを示す場合に、行われる。
【選択図】図1

Description

実施形態は、一般的には駐車管理システムに関する。また、実施形態は、リアルタイムの占有率データを運転者に提供して、燃料消費および交通渋滞を減少させる技術およびシステムに関する。さらに、実施形態は、映像および視覚ベースのアクセス制御方法およびシステムに関する。
リアルタイムの駐車占有率データを運転者に提供して、燃料消費および交通渋滞を減少させる駐車管理システムが提案される。駐車区画占有率判定の状況において、所望の用途に応じて満たさなければならない様々なレベルの性能計量がある。例えば、あるレベルの性能計量は、駐車場における経時的な利用可能空間の総数の精度により測定される。この利用可能空間の総数は、この用途のための最低(すなわち、最も到達可能な)レベルの情報と見なされ得るが、最も普及している有用な情報も提供する。
他のレベルの情報は、駐車ビル(屋内)の各階ごとの利用可能空間の総数、または、各領域(屋外)の利用可能空間の総数に関与する。これは、効率的なナビゲーションを大きな駐車場に入場する駐車者へ提供するのに有用であり得る。最高レベルの情報は、駐車場の各駐車区画(それらのすべての利用可能空間)の状態であり得る。正確な情報がこのレベルにおいて達成され得る場合、より好適な管理および構成のために駐車パターンを取り出すこと、不完全に駐車された車両および悪天候の状況(積雪)などに起因する予想外の駐車容量の減少を管理/監視することなど、いくつかの追加的な用途が広がる。さらに、高レベルの情報は容易に統合され、簡潔に要約することにより低レベルの情報を生じさせ得る。
このような理由を考慮すると、最高レベルの情報を提供する際に好適に行う方法を開発すればよいのではないかという議論が起こる。これには多くの理由がある。例えば、多くの用途では最低レベルの情報しか必要としない。また、最高レベルの情報を提供する場合、問題はさらに複雑になる。精度の観点で未解決の問題が、いまだ多くある。加えて、敷地の区画ごとに個々の占有率を判定しようとする方法のための計算は、とても費用がかかる。リアルタイムで効率的に動作させるには、いまだ大きな隔たりがある。他の理由は、駐車場の各区画の個々の占有率を判定しようとする方法のための画像/映像取得は、典型的には好適に行うために高い空間分解能(例えば、より高価なカメラ、より高いデータ転送速度)を必要とすることを含む。さらに、他の理由は、低レベルの情報(例えば、敷地の総占有率)を正確に判定し得るモジュールが、高レベルの情報を提供しようとする方法を改良するのに有用であり得ることに関与する。
駐車占有率判定のための映像および視覚ベースのアクセス制御のハイブリッド方法、システム、および処理装置可読媒体が描写される。対象駐車エリアの1つ以上の画像フレームは、対象駐車エリアに対して規定される2つ以上の対象エリアから取得され得る。対象駐車エリア内に規定される2つ以上の対象領域は、移動検出または変化検出のために分析され得る。画像コンテンツ分類工程は、2つ以上の対象領域の中の第1の対象領域に対して変化検出の結果に基づいて行われ得る。そして、物体追跡工程は、2つ以上の対象領域の中の第2の対象領域に対して、画像コンテンツ分類工程の結果が対象駐車エリア内に対象物体が存在することを示す場合に行われ、その後、対象駐車エリアに対して認可されるアクセスの種類を物体追跡工程の結果に基づいて判定する。
開示される実施形態は、一般的には、駐車区画占有率判定のための映像および視覚ベースのアクセス制御のハイブリッド手法を描写する。この手法は、以下のステップを含み得る:(1)少なくとも2つの対象領域(ROI)を対象の駐車エリア内に映像および視覚ベースのアクセス制御のために規定すること、(2)駐車エリアの画像フレーム(複数可)を取得すること、(3)第1の規定ROIを移動検出または画像コンテンツ変化検出のために分析すること、(4)選択的に、視覚ベースの画像コンテンツ分類を第1の規定ROIのために訓練すること、(5)画像コンテンツ分類を第1の規定ROIのためにステップ3における変化検出の結果に基づいて行うこと、(6)物体追跡を第2の規定ROI内で、画像コンテンツ分類の結果が対象物体の存在を示す場合に行うこと、および(7)アクセスの種類を対象物体の追跡結果に基づいて判定すること。
添付の図において、同様の参照番号は、別個の図全体を通して同一または機能的に同様の要素を指す。添付の図は本明細書の一部に組み込まれ、かつ本明細書の一部を形成する。さらに、添付の図は本発明を図示し、本発明の詳細な説明と共に、本発明の原理を説明する役割を果たす。
図1は、所望の実施形態にしたがって、駐車区画占有率判定のための映像および視覚ベースのアクセス制御のハイブリッド方法を図示する。 図2は、開示される実施形態にしたがって、少なくとも2つのROIが、用地の映像を分析するために規定および利用される例示的な画像を図示する。 図3Aは、例示的な実施形態にしたがって、試験的用地から収集される肯定サンプルを描写する画像を図示する。 図3Bは、例示的な実施形態にしたがって、試験的用地から収集される否定サンプルを描写する画像を図示する。 図4Aは、例示的な実施形態にしたがって、グランドトルースと対照する開示される手法を使用した結果得られる総占有率の性能の5日目の結果を描写するグラフを図示する。 図4Bは、例示的な実施形態にしたがって、グランドトルースと対照する開示される手法を使用した結果得られる総占有率の性能の9日目の結果を描写するグラフを図示する。 図5Aは、例示的な実施形態にしたがって、1分間隔で評価される9つの映像全体にわたる現在のシステムの全体性能を示すデータを描くグラフを図示する。 図5Bは、例示的な実施形態にしたがって、0.5分間隔で評価される9つの映像全体にわたる現在のシステムの全体性能を示すデータを描くグラフを図示する。 図6は、代替の実施形態にしたがって、駐車区画(例えば、駐車地点)占有率判定のための映像および視覚ベースのアクセス制御のハイブリッド方法の論理演算ステップを描写する工程の高レベルフローチャートを図示する。 図7は、代替の実施形態にしたがって、駐車区画(例えば、駐車地点)占有率判定のための映像および視覚ベースのアクセス制御のハイブリッド方法の論理演算ステップを描写する工程の高レベルフローチャートを図示する。 図8は、1つ以上の開示される実施形態にしたがって実装され得るコンピュータシステムの概略図を図示する。 図9は、1つ以上の実施形態にしたがって、異常検出モジュール、オペレーティングシステム、およびユーザインタフェースを含むソフトウェアシステムの概略図を図示する。
これらの限定されない例において述べられる特定値および構成は、変化し得る。これらは単に少なくとも1つの実施形態を図示するために引用され、それらの範囲を限定する目的のものではない。
図1は、所望の実施形態にしたがって、駐車区画占有率判定のための映像および視覚ベースのアクセス制御のハイブリッド方法10を図示する。したがって、工程のフローチャートは、一般的に方法10の論理演算ステップまたは命令を描写する図1に示される。ブロック12で示されるように、少なくとも2つの対象領域(ROI)は、対象駐車エリア内に映像および視覚ベースのアクセス制御のために規定され得る。ブロック14で示されるように、論理演算またはステップは、駐車エリアの画像フレーム(複数可)を取得するために提供され得る。次に、ブロック16で描写されるように、ステップまたは論理演算は、第1の規定ROIを移動検出または画像コンテンツ変化検出のために分析するよう実装され得る。その後、ブロック18で示されるように、選択的なステップまたは工程は、視覚ベースの画像コンテンツ分類を第1の規定ROIのために変化検出の結果(ブロック16参照)およびグランドトルースラベリングに基づいて訓練するよう実装され得る。ブロック20で示されるように、ステップまたは論理演算は、画像コンテンツ分類を第1の規定ROIのために変化検出で生じる結果(ブロック16参照)に基づいて行うよう実装され得る。ブロック20で示される工程の処理に続いて、ステップまたは論理演算は、ブロック22で図示されるように、物体追跡を第2の規定ROI内で、画像コンテンツ分類の結果が対象物体の存在を示す場合に実装されるよう行われ得る。最終的には、ブロック24で示されるように、ステップまたは論理演算は、アクセスの種類を対象物体の追跡結果に基づいて判定するよう実装され得る。
図1のブロック12に示されるように、少なくとも2つの対象領域(ROI)を対象駐車エリア内に規定するステップまたは論理演算に関連し、2つ以上の対象領域(すなわち、少なくとも2つのROI)は、対象駐車エリア内に規定され得る。ここで、第1の規定ROIは対象物体の追跡開始のために使用され(この用途では車両の存在を意味する)、第2の規定ROIはこれらの対象物体の物体追跡を行うために使用される。選択的には、サブ領域がさらに第1の規定ROI内に、追跡の開始をより困難にするよう規定され得る(すなわち、ほぼ確実に対象物体がサブ領域に到達しない限り、開始の回数を限定する)。
図2は、開示される実施形態にしたがって、例示的な用地の第1の規定ROI34(すなわち、小さい破線の四角形)、第2の規定ROI36(すなわち、大きい破線の四角形)、および第1のROI34内のサブ領域(すなわち、平行四辺形)の例示的な画像30を図示する。平行四辺形のROI32は、この特定の駐車場の入場エリアを規定する。しかしながら、長方形のROI34(小さい四角形)を、後述される視覚ベースの画像コンテンツ分類器のために規定するのに、より好都合である。したがって、第1の規定ROI34は、平行四辺形のROI32より大きい四角形に設定され得る。しかし、開示される方法は、物体追跡を開始するために平行四辺形をさらに(選択的に)使用し得る。第2の規定ROI36は、駐車場へ入場または駐車場から出場する車両を追跡するために利用され得る。したがって、この敷地へアクセスするすべての可能経路を網羅するのに十分な大きさに設定される。理想的には、第2のROI36を、敷地のちょうど外側の領域(すなわち、赤い四角形が中心となるような青い四角形の配置)も網羅するよう設定するのがよい。この例示的な用地のカメラ構成はこのような最適な配置を許容しないので、ROI36の次に最適な配置が、図2に描写される例示的な状況において規定および図示される。ROIを規定するこのステップは、カメラ構成が固定される場合、オフラインで一度だけ行われ得ることに留意されたい。
ブロック14に示されるように、駐車エリアの画像フレーム(複数可)を取得するステップに関して、実行時間で駐車エリアの画像フレームが継続的に取得され、その後、さらに後続のステップで処理され、対象駐車エリアの総占有率を経時的に判定する。この手法は、入口へのアクセスの制御/監視を介して敷地における車両の総数を提供し得ることに留意されたい(したがって、この文書全体にわたってアクセス制御と称する)。
ブロック16で示されるように、第1の規定ROIを移動検出または画像コンテンツ変化検出のために分析するステップに関して、このステップにおいて第1の規定ROIの画像コンテンツは、ROI内での時間的変化を検出するよう分析され得る。検出された場合、駐車エリアの総占有率の潜在的な変化があることを示す。変化検出を行う方法は複数ある。
例えば、1つの手法は、色変化を経時的に監視して画像コンテンツ変化を検出することに関与する。1つの手法は、時間的なRGBプロファイルを計算および保存し得る。ここで、時間における各RGB点は、第1の規定ROIにおけるすべての画素の算出された平均的なRGB値に対応する。時間的な低域または中間値フィルタバージョンは、その後ROI場面における物体(複数可)の存在に起因しないROIでの輝度変化を表すために計算され得る。最終的には、変化は2つのプロファイルのセット間の差異に基づいて検出され得る。
他の手法は、例えば、移動検出を経時的に行って画像コンテンツ変化を検出する(すなわち、所望の方法)ことに関与する。例えば、1つの手法は、形態学的フィルタリングおよび振幅および/またはサイズ閾値化と共に、フレーム間差異または背景控除法を使用して、現行フレームの移動検出を行い得る。検出される移動ブロブがある場合、画像コンテンツの潜在的変化が示され得る。移動変化が第1のROIにおける変化検出のために使用される場合、移動変化も必要であるが異なる領域であるため、このステップが第2のROIにおける物体追跡と共に行われ得ることに留意されたい。
これらの技術は、フレーム間の時間的相対関係を探索するため、映像ベースの手法と称され得る。このような技術は、工程がさらなる情報なしに事象(すなわち、変化)が起こる回数を数えるため、仮想ループセンサに関与すると称されることもある。これらの技術は、計算において非常に効率的である。しかしながら、前述の方法だけを変化検出のために適用する際に、これらは技術的な課題をもたらす。例えば、物体の背景に対する明暗差が低いことに起因するエラー(すなわち、物体の色または場面の輝度のいずれかに起因)が結果として生じる可能性がある。さらに、対象でない移動物体に起因するエラー(例えば、主要道路上の移動車両の影、人々または群衆+それらの影)が結果として生じることもある。
振幅の調整(例えば、場面の輝度に適合するよう閾値を動的に変化)および/またはサイズ閾値の一部は実装されてもよいが、誤検出および検出漏れの結果の間には、いまだトレードオフがある。代わりに、そのシステムを含む開示される手順は、閾値を調整して堅調に誤検出へバイアスをかけ、その後、視覚ベースの画像コンテンツ分類を統合して真の検出から誤検出を取り除くことができる。簡潔に言えば、移動する影、移動する群衆および影などを誤って含むエラー(すなわち、誤検出)を最初に許容することで、全く/ほとんど動かない車両(すなわち、真の検出)は見逃される。その後、人間の視覚システムに類似して実行され得るプロセスをさらに課し、対象物体が車両であるか車両でないかを認識する。
選択的に視覚ベースの画像コンテンツ分類を第1の規定ROIのために変化検出およびグランドトルースラベリングの結果に基づいて訓練する選択的なステップまたは論理演算に関して、図1のブロック16で示されるように、視覚ベースの画像コンテンツ分類器は、車両の一部または全部が第1のROIに存在するか認識するよう訓練され得る。十分な分類器が一旦訓練されれば、日常の分析においてこのステップを行う必要はないため、この特定のステップは選択的と見なされる。
ここで、標準的な機器の学習手法が、開示される分類器を訓練するために行われ得る。つまり、特性を規定し、肯定および否定サンプルを収集した後、分類器を訓練する。しかしながら、言及または考察する価値がある特定の実際の差異がいくつかある。ここで訓練する分類器は、例えば、線形HOG−SVM分類器であり、これは多くの物体認識/検出タスクにおいて効果的であることが証明されている。もちろん、他の種類の分類器が線形HOG−SVM分類器の代わりに採用されてもよい。
任意の事象において、典型的な物体認識/検出タスクのために、物体の存在を検出および配置する必要がある。したがって、肯定の訓練サンプルは物体の境界まで正確にトリミングすることにより収集され得る一方で、否定サンプルは範囲内の画像からの該当するすべての無作為な生成物であり得る。実行時間で、様々な規模のスライディングウィンドウ手法が、テスト画像において対象物体を検出するために使用され得る。1つの可能な状況において、第1のROIの画像コンテンツを、車両が存在する場合と車両が存在しない場合とに分類することにのみ注目してもよい。実行時間で、スライディングウィンドウは不要である。これにより、訓練サンプルおよびトルースラベリングの収集がより簡潔になる。これは、(1)手動トリミングは不要であり、すなわち、訓練サンプルは単に、一日のうちの様々な時間から、および/または様々な日にわたって収集される第1のROIの生成画像である、(2)グランドトルースラベリングは、生成画像に車両が見えるかをラベルづけするよう人に依頼するのと同じくらい単純である、からである。
一見して、開示される分類器のタスクは典型的な物体認識/検出タスクより簡潔であるように思われる。これは、第1のROI内に車両が存在することが、様々な姿勢およびROIの様々な位置で不完全であり得るため、正しくない可能性がある。動く影および歩行者(複数可)が存在しても、同様に当てはまる。これにより、訓練サンプル(肯定または否定)における画像コンテンツの多様性が増し、分類タスクがより困難になるであろう。この問題に対処するために、映像ベースの変化検出の分析を視覚ベースの分類器に、サンプル(肯定または否定)を収集することにより、変化が映像ベースの方法で検出される場合にのみ統合する(それ故、「映像ベースおよび視覚ベースのハイブリッド手法」と名付ける)。そうすることにより、開示される画像コンテンツ分類器は、場面に車両が存在する場合としない場合とを区別する一般的な範囲よりも、ROIに移動する車両がある場合と移動する車両がない場合とを区別するエリアにのみ特化するよう調整され得る。
図3は、開示される実施形態にしたがって、試験的用地から収集される肯定および否定サンプルの例示的な画像37、39を図示する。実際には、提案する画像コンテンツ分類器の訓練(主にサンプル収集およびラベリング)は、人的努力のコストが極めて低く非常に効率的である。所与の対象駐車用地で、用地の映像(複数可)上のブロック12、14、16、18に示されるステップを行い得る。映像ベースの処理において変化が検出されるごとに(すなわち、図1のブロック16参照)、第1のROIの画像が保存され得る。十分なサンプルが保存された後、人が素早く画像サムネイルを調べ、それぞれを車両が存在する場合と車両が存在しない場合とにラベルづけする(さらなるトリミングは不要)。図3に示されるように、このタスクは非常に簡潔であり、非常に効果的に行われ得る(例えば、典型的な処理者が数百枚の画像をラベルづけするのに数分しかかからない)。また、期間外により多くのサンプルを収集するために、変化検出(図1のブロック16参照)のために判定される閾値を変化させて、第1のROIに現れる同じ車両の姿勢および位置をより多く収集し得ることに留意されたい。
画像コンテンツ分類を第1の規定ROIのためにブロック16における変化検出の結果に基づいて行うステップまたは論理演算に関して、図1のブロック20で示されるように、実行時間でこのステップは、第1のROIにおける画像コンテンツの変化がブロック16の工程の映像ベースの処理において検出される際に行われ得る。つまり、このプロセスは単に、第1のROIの画像をHOG特性空間に変換し、訓練された線形SVMを通過させて、車両(複数可)が第1のROIに存在するかを表す。車両が存在する場合、次に追跡のプロセスを継続する。存在しない場合はさらなるプロセスが必要であり、手順は次の映像フレームを処理するために継続される。
物体追跡を第2の規定ROI内で、画像コンテンツ分類の結果が対象物体の存在を示す場合に行うステップまたは論理演算に関して、図1のブロック22で示されるように、このステップにおいて物体追跡は、第2のROI内で、対象物体が第1のROI内に存在した後に行われ得る。すなわち、追跡はブロック22により図示されるステップまたは論理演算において開始される。移動ブロブの近接一致、ミーンシフト追跡、粒子フィルタリング追跡など、多くの物体追跡アルゴリズムが採用され得る。簡潔さと計算上の利点のため、この作業のために移動ブロブの近接一致を使用する。次のステップで入場または出場動作を判定するのに十分詳しく追跡すればよいため、これで十分である。
図2に描写される現行の構成において、カメラの視野は敷地の外側のエリアを十分網羅しておらず、一部の場合において、追跡が開始された時点で(特に敷地から出場する車両)、車両を戻り追跡(過去の物体追跡に矛盾する)する必要があるかもしれないことに留意されたい。この工程を可能にするために、バッファ(例えば、現行フレームから30秒まで)は過去に検出された移動ブロブを保存するよう管理され得る。その結果、このステップは、ブロック16および22で描写される工程の結果に関わらず、常にバッファを満たすよう稼働され得る。検出されたバッファのブロブは、一定時間(例えば、30秒)戻り追跡で使用されない場合、破棄される。カメラ構成がこの用途のために最適化される場合、計算およびロバスト性は現行の実装よりも向上する。しかしながら、これは開示される実施形態を限定するものではない。
アクセスの種類を対象物体の追跡結果に基づいて判定するステップでは、アクセスの種類は、この用途における入場または出場により、検出される変化事象の追跡結果に基づいて(すなわち、第1のROIに車両(複数可)が存在することにより事象が開始されてから)算出され得る。このステップの最も簡潔なルールは、最終的に利用可能な追跡地点が敷地エリアの内部か外部かをチェックすることである。現行の構成において、カメラの視野は敷地の外側で十分なエリアを網羅しておらず、よい策ではない。さらに、追跡はノイジーである可能性がある。代わりに、結果として追跡された軌道への平滑化が行われ、アクセスの種類は、平滑化された軌道の方向および走行距離に基づいて判定される。
開示される手法と従来の手順との一部の重要な差異は、2つの要素からなる:すなわち、(1)それら(すなわち、従来の手法)は映像ベースであり、先に述べたような映像ベースと視覚ベースとのハイブリッドではなく、(2)局所的な追跡情報を伴う仮想ループを増加させる。(2)がない場合、典型的な仮想ループの概念は対のループを必要とし、対のループの中で発生するタイミングの順番を使用してアクセスの種類を判定する。これは、一部の運転者が最初に車両を駐車してから支払いのためにブースへ行く一方で、他の運転者は、支払いのためにブース近くに車両を停め、その後に駐車する設定において困難であり得る(両者のタイミングがまったく異なる)。結果として、対のループが起こるべき場所、離れている距離、および適切なタイミングなどを決定するのが難しいかもしれない。このように、開示される実施形態はより好適な代替案を提示し、より短い開発期間に関与するものである。
視覚ベースの手法のみをこの作業に使用すればよいのでは、と疑問に思うかもしれない。その答えは以下のとおりである。まず、視覚ベースの方法は計算的により高価である。画像コンテンツが最後の実行から変化していないことが確かである場合、すべてのフレームに対して第1のROI上で視覚ベースの分類器を稼働させるのは割に合わない。仮に計算が手頃であったとしても、本明細書で述べられる視覚ベースの分類器は、映像ベースの移動変化により事前にフィルタリングされなかった場面の輝度または他の変動に起因する背景の変化に対処するよう修正の必要がある。これにより、分類タスクはより困難になり(先に述べたとおり)、したがって、結局は全体性能を低下させる可能性がある。
対象用地の取得映像のサンプルフレームは、図2に図示される例に描写される。この状況で使用される規定ROIは、図2にさらに示される。映像ベースの処理(例えば、図1のブロック16)では、振幅の動的閾値は、現行のフレームでの第1のROIの平均的な背景RGBに基づいて使用され得る一方で、一定のサイズ閾値を使用する。閾値は誤検出を許容し、検出漏れの発生を最少化するようバイアスをかける。本明細書で先に述べた画像コンテンツ分類器は、先に述べた方法を使用してテスト映像の1つから収集されるデータを使用して、訓練され得る(例えば、移動検出のために異なる閾値レベルを使用して収集される映像のうち一日に収集される約1,800の訓練サンプルについて)。分類器は、その後、すべてのテスト映像を処理するために適用され得る。訓練サンプルの例は、図3に示される。移動検出はすべてのフレームに対して稼働され、移動ブロブの稼働バッファが戻り追跡のために保存され得る一方で、開始後に物体追跡が行われるのみである。そうする理由は、前に述べられている。
図4Aおよび図4Bは、特定の実施形態にしたがって、グランドトルースと対照する開示される手法を使用した結果得られる総占有率の性能を描写するグラフ42、44を図示し、それぞれ(a)5日目の結果、および(b)9日目の結果を示す。図4Aおよび図4Bは、グランドトルースと対照するアルゴリズムを使用した結果得られる総占有率の性能の2つの例を描写する。ここで、5日目の結果は性能が最も良い場合の一例であり、9日目の結果は性能が最も悪い場合の例である。
図5Aおよび図5Bは、特定の実施形態にしたがって、現行システムの全体性能(例えば、駐車場の総占有率を判定する際のパーセント誤差)を、(a)1分間隔で評価、および(b)0.5分間隔で評価されるテスト映像全体にわたって示すデータを描写するグラフ52、54を図示する。図5Aおよび図5Bは、現行システムの全体性能を、すべてのテスト映像(すべての日)にわたって実証する。性能は次の様式において評価される。日ごとに、1分間のサンプリング(すなわち、グラフ52)は、システムにより推定される総占有率の精度を評価するために使用される。所与される対象の分単位ごとに、実際の総占有率は、図4Aおよび図4Bに示される実線曲線の表参照により得られる一方で、推定の総占有率は、図4Aおよび図4Bに示される破線曲線の表参照により得られる。総占有率を推定する際のパーセント誤差は、2を65(この駐車場の容量)で割った後、100を掛ける(パーセントへの変換)ことにより算出される。この選択される評価方法は、システムが1分の遅延を有することを許容することに留意されたい。0.5分間のサンプリングの評価(リアルタイム用途では十分と考えられる)は、グラフ54に示される。図5Aおよび図5Bで分かるように、性能はほぼ同じである。システムの本質的な遅延は、物体の追跡から生じる。現行の実装は、物体が第2のROIから離れるか、または移動が2秒を超える間停止される場合、追跡を停止する。これにより数秒の遅延が生じることになるが、この用途では問題にならない。
図6は、代替の実施形態にしたがって、駐車区画(例えば、駐車地点)占有率判定のための映像および視覚ベースのアクセス制御のハイブリッド方法60の論理演算ステップを描写する工程の高レベルフローチャートを図示する。ブロック62で示されるように、プロセスは開始され得る。次にブロック64で描写されるように、ステップまたは論理演算は、対象駐車エリアの画像フレーム(複数可)を、対象駐車エリアに対して規定される2つ以上の対象領域から取得するよう行われ得る。その後、ブロック66で示されるように、ステップまたは論理演算は、対象駐車エリア内に規定される2つ以上の対象領域を、移動検出および/または変化検出のために分析するよう行われ得る。
そして、ブロック68で示されるように、ステップまたは論理演算は、画像コンテンツ分類工程を、2つ以上の対象領域の中の第1の対象領域に対して変化検出の結果に基づいて行うよう実装され得る。その後、ブロック70で描写されるように、物体追跡ステップまたは論理演算は、2つ以上の対象領域の中の第2の対象領域に対して、画像コンテンツ分類の結果が対象駐車エリア内に対象物体が存在することを示す場合に行われ得る。そして、ブロック72で描写されるように、ステップまたは論理演算は、対象駐車エリアに対して認可されるアクセスの種類を、物体追跡工程の結果に基づいて判定するよう行われ得る。その後、プロセスはブロック74で示されるように終了され得る。
図7は、代替の実施形態にしたがって、駐車区画(例えば、駐車地点)占有率判定のための映像および視覚ベースのアクセス制御のハイブリッド方法80の論理演算ステップを描写する工程の高レベルフローチャートを図示する。図7に示される工程は、図6に示される方法60の工程またはステップに追加され得ることに留意されたい。つまり、図7に示される方法80は、図6の方法60を補完し得る。プロセスは、ブロック82で描写されるように開始され得る。そして、ブロック84で示されるように、ステップまたは論理演算は、画像コンテンツ分類が、車両等級(複数可)が存在する場合と車両等級が存在しない場合とに対する分類を確実に含むよう行われ得る。その後、ブロック86で示されるように、ステップまたは論理演算は、分類器の訓練を、画像コンテンツ分類を行うために開始するよう実装され得る。
その後、ブロック88で描写されるように、ステップまたは論理演算は、訓練映像の2つ以上のフレームを第1の対象領域で移動検出のために分析するよう行われ得る。次に、ステップまたは論理演算は、ブロック90で示されるように、訓練サンプル、2つ以上のフレームのうちの1つにおける第1の対象領域の画像を、移動検出が閾値を超える場合に自動的に収集するよう実装され得る。そして、ブロック92で示されるように、ステップまたは論理演算は、収集されたサンプルを(例えば、人的作業により)1つ以上の車両等級が存在する場合と車両等級が存在しない場合とからなる2つの等級にグループ化するよう実装され得る。その後、プロセスはブロック94で示されるように終了され得る。
実施形態は、本発明の実施形態にしたがって、方法、システム、およびコンピュータプログラム製品およびデータ構造のフローチャート図および/またはブロック図を参照して、少なくとも部分的に本明細書に描写される。例えば、図1および図6〜図7は、このような方法を図示する。図の各ブロックおよびブロックの組み合わせは、コンピュータプログラム命令により実装され得ることが理解されよう。これらのコンピュータプログラム命令は、汎用コンピュータ、特殊用途コンピュータ、または他のプログラマブルデータ処理器の処理装置に提供されて機器を生産してもよく、これにより、コンピュータまたは他のプログラマブルデータ処理器の処理装置を介して実行する命令は、例えば本明細書の図に対して考察および図示される様々な命令など、本明細書で考察されるブロック(複数可)で特定される機能/動作を実装する手段を作成する。
これらのコンピュータプログラム命令は、コンピュータまたは他のプログラマブルデータ処理装置が特定の方法で機能するようにし得るコンピュータ可読メモリにさらに保存されてもよく、これにより、コンピュータ可読メモリに保存される命令は、ブロック(複数可)において特定される機能/動作を実装する命令手段を含む製造品を生産する。
図8〜図9は、本発明の実施形態が実装されてもよいデータ処理環境の例示的な図として提供される。図8〜図9は単なる例示であり、開示される実施形態の態様または実施形態が実装されてもよい環境に関連して、いかなる限定をも主張または暗示するものではないことを理解されたい。描写される環境への多くの修正が、開示される実施形態の意図および範囲から逸脱せずになされてもよい。図8〜図9は、一般的に、実施形態が実装されてもよいデータ処理システム(例えば、「アプリケーション」など)を図示することを留意されたい。このように、図8〜図9は、例えばサーバ、ラップトップコンピュータ、スマートフォン、「パッド」またはタブレットコンピュータデバイス、デスクトップコンピュータ、および他のコンピュータデバイスを含む、様々な異なる種類のデータ処理システムおよびデバイスの代表例である。
図8に図示されるように、開示される実施形態は、例えば中央処理装置301(または、他の処理装置)、メインメモリ302、制御装置303、および一部の実施形態においては、USB(ユニバーサルシリアルバス)304、または他の適切な周辺接続部を含み得るデータ処理システム300の状況において実装されてもよい。システム300は、入力デバイス305(例えば、キーボード、マウスなどのポインティングデバイスなど)、表示装置306、およびHDD(ハードディスクドライブ)307(例えば、大容量記憶装置)をさらに含み得る。図示されるように、データ処理システム300の様々なコンポーネントは、システムバス310または同様のアーキテクチャを介して電気的に通信し得る。システムバス310は、例えば、データ処理システム300内のコンピュータコンポーネント間で、または他のデータ処理デバイス、コンポーネント、コンピュータなどと、データ転送を行うサブシステムであってもよい。
図9はコンピュータソフトウェアシステム350を図示し、図8に描写されるデータ処理システム300の工程を指示するために採用されてもよい。メモリ302および/またはHDD307に保存されるソフトウェアアプリケーション354は、一般的にカーネルまたはオペレーティングシステム351およびシェルまたはインタフェース353を包含する、および/または関連付けられる。モジュール(複数可)352など1つ以上のアプリケーションプログラムは、実行のためにデータ処理システム300により「ロード」(すなわち、大容量記憶装置またはHDD307からメインメモリ302へ転送)されてもよい。図9に示される例において、モジュール352は、例えば、図1、図6〜図7などの論理命令または工程を行うソフトウェアモジュールとして実装され得る。
データ処理システム300は、ユーザ349によりアクセス可能なユーザインタフェース353を介してユーザコマンドおよびデータを受信し得る。これらの入力装置は、オペレーティングシステム351および/またはソフトウェアアプリケーション354およびそれらの任意のソフトウェアモジュール(複数可)352からの命令にしたがって、データ処理システム300により起動されてもよい。
このように、本明細書の考察は、システムおよび方法の実装が可能な適切なコンピュータ環境の簡潔で一般的な描写を提供することを目的としている。要求されないが、開示される実施形態は、単一のコンピュータにより実行されるプログラムモジュールなどのコンピュータ実行可能命令の一般的な状況において描写される。ほとんどの場合、「モジュール」はソフトウェアアプリケーションを構成する。
一般的に、プログラムモジュール(例えば、モジュール352)は、特定タスクの遂行または特定のアブストラクトデータ種類および命令の実装を行うルーチン、サブルーチン、ソフトウェアアプリケーション、プログラム、オブジェクト、コンポーネント、データ構造などを含み得るが、それらに限定されない。さらに、当業者は、開示される方法およびシステムは、例えば携帯デバイス、マルチプロセッサシステム、データネットワーク、マイクロプロセッサベースまたはプログラマブル家庭用電化製品、ネットワーク化されたパーソナルコンピュータ、マイクロコンピュータ、メインフレームコンピュータ、サーバなど、他のコンピュータシステム構成で実現されてもよいことを理解するであろう。
本明細書で利用されるモジュールという用語は、特定タスクの遂行または特定のアブストラクトデータ種類の実装を行うルーチンおよびデータ構造の集合を指してもよい。モジュールは、2つの部分から構成されてもよい:すなわち、他のモジュールまたはルーチンによりアクセスされ得る定数、データ種類、変数、およびルーチンを一覧表示するインタフェース、および典型的にはプライベート(例えば、当該モジュールにのみアクセス可能)であり、モジュールのルーチンを実際に実装するソースコードを含む実装である。モジュールという用語は、文書処理、会計、在庫管理など、特定タスクの性能を支援するよう設計されたコンピュータプログラムなどのアプリケーションを単に指してもよい。
インタフェース353(例えば、グラフィカルユーザインタフェース)は結果を表示する働きをし、ユーザは追加入力または特定セッションの終了を行ってもよい。一部の実施形態において、オペレーティングシステム351およびインタフェース353は、「ウィンドウズ(登録商標)」システム環境において実装され得る。もちろん、他の種類のシステムが可能であることも理解され得る。例えば、従来の「ウィンドウズ(登録商標)」システムよりも、例えば無線システムにおいてより広く採用されるリアルタイムオペレーティングシステム(RTOS)など、他のオペレーションシステムが、オペレーティングシステム351およびインタフェース353に対して採用されてもよい。

Claims (10)

  1. 駐車占有率判定のための映像および視覚ベースのアクセス制御のハイブリッド方法であって、前記方法は、
    対象駐車エリアの少なくとも1つの画像フレームを、前記対象駐車エリアに対して規定される少なくとも2つの対象領域から取得することと、
    前記対象駐車エリア内に規定される前記少なくとも2つの対象領域を、移動検出または変化検出のために分析することと、
    画像コンテンツ分類工程を、前記少なくとも2つの対象領域の中の第1の対象領域に対して、前記変化検出の結果に基づいて行うことと、および、
    物体追跡工程を、前記少なくとも2つの対象領域の中の第2の対象領域に対して、前記画像コンテンツ分類工程の結果が前記対象駐車エリア内に対象物体が存在することを示す場合に行い、その後、前記対象駐車エリアに対して認可されるアクセスの種類を、前記物体追跡工程の結果に基づいて判定することと、
    を含む、方法。
  2. 前記対象駐車エリアは、駐車場入口または駐車場出口のうちの少なくとも1つを含む、請求項1に記載の方法。
  3. 前記少なくとも2つの対象領域を、前記対象駐車エリアに対して規定することをさらに含む、請求項1に記載の方法。
  4. 視覚ベースの画像コンテンツ分類を、前記第1の対象領域に対して、前記画像コンテンツ分類工程を行う際に使用するために訓練することをさらに含む、請求項1に記載の方法。
  5. 前記画像コンテンツ分類は、少なくとも1つの車両等級が存在する場合と車両等級が存在しない場合とに対する分類を含む、請求項1に記載の方法。
  6. 駐車占有率判定のための映像および視覚ベースのアクセス制御のハイブリッドシステムであって、前記システムは、
    処理装置と、
    前記処理装置に結合されるデータバスと、および、
    コンピュータプログラムコードを具現化するコンピュータ使用可能媒体であって、前記コンピュータ使用可能媒体は前記データバスと結合され、前記コンピュータプログラムコードは前記処理装置により実行可能な命令を含み、かつ、
    対象駐車エリアの少なくとも1つの画像フレームを、前記対象駐車エリアに対して規定される少なくとも2つの対象領域の中から取得することと、
    前記対象駐車エリア内に規定される前記少なくとも2つの対象領域を、移動検出または変化検出のために分析することと、
    画像コンテンツ分類工程を、前記少なくとも2つの対象領域の中の第1の対象領域に対して、前記変化検出の結果に基づいて行うことと、および、
    物体追跡工程を、前記少なくとも2つの対象領域の中の第2の対象領域に対して、前記画像コンテンツ分類工程の結果が前記対象駐車エリア内に対象物体が存在することを示す場合に行い、その後、前記対象駐車エリアに対して認可されるアクセスの種類を、前記物体追跡工程の結果に基づいて判定することと、
    を行うように構成される、コンピュータ使用可能媒体と、
    を含む、システム。
  7. 前記対象駐車エリアは、駐車場入口または駐車場出口のうちの少なくとも1つを含む、請求項6に記載のシステム。
  8. 前記命令は、前記少なくとも2つの対象範囲を、前記対象駐車エリアに対して規定するようさらに構成される、請求項6に記載のシステム。
  9. 前記画像コンテンツ分類は、少なくとも1つの車両等級が存在する場合と等級クラスが存在しない場合とに対する分類を含む、請求項6に記載のシステム。
  10. 駐車占有率判定のための映像および視覚ベースのアクセス制御のハイブリッドプロセスを引き起こす命令を表すコンピュータコードを保存する処理装置可読媒体であって、前記コンピュータコードは、
    対象駐車エリアの少なくとも1つの画像フレームを、前記対象駐車エリアに対して規定される少なくとも2つの対象領域の中から取得することと、
    前記対象駐車エリア内に規定される前記少なくとも2つの対象領域を、移動検出または変化検出のために分析することと、
    画像コンテンツ分類工程を、前記少なくとも2つの対象領域の中の第1の対象領域に対して、前記変化検出の結果に基づいて行うことと、
    物体追跡工程を、前記少なくとも2つの対象領域の中の第2の対象領域に対して、前記画像コンテンツ分類工程の結果が前記対象駐車エリア内に対象物体が存在することを示す場合に行い、その後、前記対象駐車エリアに対して認可されるアクセスの種類を、前記物体追跡工程の結果に基づいて判定することと、
    を行うコードをさらに含む、処理装置可読媒体。
JP2014149014A 2013-08-09 2014-07-22 駐車区画占有率判定のための映像および視覚ベースのアクセス制御のハイブリッド方法およびシステム Expired - Fee Related JP6488083B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/963,200 2013-08-09
US13/963,200 US9224062B2 (en) 2013-08-09 2013-08-09 Hybrid method and system of video and vision based access control for parking stall occupancy determination

Publications (2)

Publication Number Publication Date
JP2015036980A true JP2015036980A (ja) 2015-02-23
JP6488083B2 JP6488083B2 (ja) 2019-03-20

Family

ID=51265577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014149014A Expired - Fee Related JP6488083B2 (ja) 2013-08-09 2014-07-22 駐車区画占有率判定のための映像および視覚ベースのアクセス制御のハイブリッド方法およびシステム

Country Status (3)

Country Link
US (1) US9224062B2 (ja)
EP (1) EP2835763B1 (ja)
JP (1) JP6488083B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11281927B2 (en) 2018-11-09 2022-03-22 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer-readable recording medium

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9224062B2 (en) * 2013-08-09 2015-12-29 Xerox Corporation Hybrid method and system of video and vision based access control for parking stall occupancy determination
US9424598B1 (en) 2013-12-02 2016-08-23 A9.Com, Inc. Visual search in a controlled shopping environment
JP6331402B2 (ja) * 2014-01-14 2018-05-30 株式会社デンソー 移動体検出装置および移動体検出方法
US9536161B1 (en) * 2014-06-17 2017-01-03 Amazon Technologies, Inc. Visual and audio recognition for scene change events
US20170053192A1 (en) * 2015-08-18 2017-02-23 Parking Vision Information Technologies, INC. Systems and methods for detecting parking occupancy status
CN106611510B (zh) * 2015-10-27 2019-04-23 富士通株式会社 车位检测装置、电子设备及方法
US9946936B2 (en) * 2016-04-12 2018-04-17 Conduent Business Services, Llc Automated video based ingress/egress sensor reset for truck stop occupancy detection
CN105913685A (zh) * 2016-06-25 2016-08-31 上海大学 一种基于视频监控的车位识别及智能引导方法
US10210387B2 (en) * 2017-05-03 2019-02-19 GM Global Technology Operations LLC Method and apparatus for detecting and classifying objects associated with vehicle
DE102017212379A1 (de) * 2017-07-19 2019-01-24 Robert Bosch Gmbh Verfahren und System zum Detektieren eines freien Bereiches innerhalb eines Parkplatzes
CN108229475B (zh) * 2018-01-03 2021-08-31 深圳中兴网信科技有限公司 车辆跟踪方法、***、计算机设备及可读存储介质
US11120300B1 (en) 2018-06-07 2021-09-14 Objectvideo Labs, Llc Event detector training
US20190385449A1 (en) 2018-06-13 2019-12-19 Christos Pateropoulos System and method for providing automatic on-street parking control and unoccupied parking spot availability detection
CN110021174A (zh) * 2019-04-02 2019-07-16 北京同方软件有限公司 一种基于视频图像的适用多场景的车流量计算方法
US11080327B2 (en) * 2019-04-18 2021-08-03 Markus Garcia Method for the physical, in particular optical, detection of at least one usage object
KR20210130330A (ko) * 2020-04-21 2021-11-01 삼성전자주식회사 호스트 차량을 제어하는 전자 장치 및 이의 동작 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001084494A (ja) * 1999-09-14 2001-03-30 Sumitomo Electric Ind Ltd 駐車台数計測装置および駐車台数計測方法
JP2001175876A (ja) * 1999-12-20 2001-06-29 Fujitsu Ltd 移動物体検出方法及び移動物体検出装置
JP2007164375A (ja) * 2005-12-12 2007-06-28 Nippon Syst Wear Kk 三次元対象物の検出装置、検出方法、コンピュータ可読媒体及び三次元対象物の管理システム
JP2011013924A (ja) * 2009-07-02 2011-01-20 Osaka Prefecture Univ 駐車場における車両の検知システムおよび検知方法

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19904093A1 (de) * 1999-02-02 2000-08-03 Bosch Gmbh Robert Verfahren zur automatischen Erfassung von Parkplatzbelegungen
US6285297B1 (en) 1999-05-03 2001-09-04 Jay H. Ball Determining the availability of parking spaces
WO2002063570A2 (en) 2001-02-07 2002-08-15 Vehiclesense, Inc. Parking management systems
US20030123703A1 (en) * 2001-06-29 2003-07-03 Honeywell International Inc. Method for monitoring a moving object and system regarding same
US20030053658A1 (en) * 2001-06-29 2003-03-20 Honeywell International Inc. Surveillance system and methods regarding same
US20030076417A1 (en) * 2001-08-07 2003-04-24 Patrick Thomas Autonomous monitoring and tracking of vehicles in a parking lot to enforce payment rights
AU2002361483A1 (en) * 2002-02-06 2003-09-02 Nice Systems Ltd. System and method for video content analysis-based detection, surveillance and alarm management
US20050201591A1 (en) * 2004-03-10 2005-09-15 Kiselewich Stephen J. Method and apparatus for recognizing the position of an occupant in a vehicle
US7424968B2 (en) 2004-08-27 2008-09-16 Futurelogic, Inc. Method and apparatus for public street parking using RF and RFID technology
JP2006189393A (ja) * 2005-01-07 2006-07-20 Toyota Motor Corp 周辺物体情報取得装置及びこれを用いる駐車支援装置
US7801328B2 (en) * 2005-03-31 2010-09-21 Honeywell International Inc. Methods for defining, detecting, analyzing, indexing and retrieving events using video image processing
JP4020128B2 (ja) * 2005-04-22 2007-12-12 トヨタ自動車株式会社 目標位置設定装置およびそれを備えた駐車支援装置
GB2441382B (en) 2006-08-29 2009-10-14 Ranger Services Ltd Automated parking system
JP5003946B2 (ja) * 2007-05-30 2012-08-22 アイシン精機株式会社 駐車支援装置
US8108055B2 (en) * 2007-12-28 2012-01-31 Larry Wong Method, system and apparatus for controlling an electrical device
KR101188588B1 (ko) * 2008-03-27 2012-10-08 주식회사 만도 모노큘러 모션 스테레오 기반의 주차 공간 검출 장치 및방법
US8614744B2 (en) * 2008-07-21 2013-12-24 International Business Machines Corporation Area monitoring using prototypical tracks
JP2011051403A (ja) * 2009-08-31 2011-03-17 Fujitsu Ltd 駐車支援装置
US8306734B2 (en) 2010-03-12 2012-11-06 Telenav, Inc. Navigation system with parking space locator mechanism and method of operation thereof
US8063797B1 (en) * 2010-07-31 2011-11-22 ParkMe LLC Parking information collection system and method
WO2012054830A1 (en) * 2010-10-21 2012-04-26 SET Corporation Method and system of video object tracking
US20120284146A1 (en) 2011-05-05 2012-11-08 Wong Ye-Ping On-street parking meter system supporting multiple payment tools and signal transmission method thereof
US8855436B2 (en) 2011-10-20 2014-10-07 Xerox Corporation System for and method of selective video frame compression and decompression for efficient event-driven searching in large databases
US9002767B2 (en) 2012-01-10 2015-04-07 Kenneth E. Pringle System and method for managing electrified parking space utilization
KR101374878B1 (ko) * 2012-05-25 2014-03-18 주식회사 만도 차량의 주차제어시스템 및 그를 이용한 주차 제어 방법
US8830322B2 (en) * 2012-08-06 2014-09-09 Cloudparc, Inc. Controlling use of a single multi-vehicle parking space and a restricted location within the single multi-vehicle parking space using multiple cameras
US9317752B2 (en) * 2013-06-20 2016-04-19 Xerox Corporation Method for detecting large size and passenger vehicles from fixed cameras
US9224062B2 (en) * 2013-08-09 2015-12-29 Xerox Corporation Hybrid method and system of video and vision based access control for parking stall occupancy determination

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001084494A (ja) * 1999-09-14 2001-03-30 Sumitomo Electric Ind Ltd 駐車台数計測装置および駐車台数計測方法
JP2001175876A (ja) * 1999-12-20 2001-06-29 Fujitsu Ltd 移動物体検出方法及び移動物体検出装置
JP2007164375A (ja) * 2005-12-12 2007-06-28 Nippon Syst Wear Kk 三次元対象物の検出装置、検出方法、コンピュータ可読媒体及び三次元対象物の管理システム
JP2011013924A (ja) * 2009-07-02 2011-01-20 Osaka Prefecture Univ 駐車場における車両の検知システムおよび検知方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11281927B2 (en) 2018-11-09 2022-03-22 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer-readable recording medium

Also Published As

Publication number Publication date
US9224062B2 (en) 2015-12-29
EP2835763B1 (en) 2019-11-06
US20150043771A1 (en) 2015-02-12
JP6488083B2 (ja) 2019-03-20
EP2835763A3 (en) 2015-06-03
EP2835763A2 (en) 2015-02-11

Similar Documents

Publication Publication Date Title
JP6488083B2 (ja) 駐車区画占有率判定のための映像および視覚ベースのアクセス制御のハイブリッド方法およびシステム
CA2931748C (en) Local caching for object recognition
US10212397B2 (en) Abandoned object detection apparatus and method and system
US9911055B2 (en) Method and system for detection and classification of license plates
US11574481B2 (en) Camera blockage detection for autonomous driving systems
US10009579B2 (en) Method and system for counting people using depth sensor
Tian et al. Robust and efficient foreground analysis in complex surveillance videos
JP2017033554A (ja) ビデオデータ分析方法、装置及び駐車場モニタリングシステム
WO2016149938A1 (zh) 视频监控方法、视频监控***以及计算机程序产品
EP1560161B1 (en) Method and system for searching for events in video surveillance
JP2016219004A (ja) 一般物体提案を用いる複数物体の追跡
CN110533955B (zh) 一种确定停车位的方法、终端设备及计算机可读存储介质
US20170006215A1 (en) Methods and systems for controlling a camera to perform a task
CN105631418A (zh) 一种人数统计的方法和装置
JP2021048617A (ja) 情報処理システム、情報処理方法及びプログラム
JP2011258180A5 (ja)
CN111079621A (zh) 检测对象的方法、装置、电子设备和存储介质
Furuya et al. Road intersection monitoring from video with large perspective deformation
Santos et al. Car recognition based on back lights and rear view features
US20230186639A1 (en) Camera blockage detection for autonomous driving systems
US11917325B2 (en) Automated scope limiting for video analytics
CN110581979B (zh) 一种图像采集***、方法及装置
CN112347853A (zh) 一种基于视频的车牌数据脱敏方法、存储介质及服务器
Dadi et al. Qualitative Performance Metrics For Object Tracking Algorithms
Cheng et al. Segmentation of pedestrians with confidence level computation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180925

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20181010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190225

R150 Certificate of patent or registration of utility model

Ref document number: 6488083

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees