JP2023091670A - 映像に対するオブジェクト検出方法及びオブジェクト検出システム - Google Patents
映像に対するオブジェクト検出方法及びオブジェクト検出システム Download PDFInfo
- Publication number
- JP2023091670A JP2023091670A JP2021206538A JP2021206538A JP2023091670A JP 2023091670 A JP2023091670 A JP 2023091670A JP 2021206538 A JP2021206538 A JP 2021206538A JP 2021206538 A JP2021206538 A JP 2021206538A JP 2023091670 A JP2023091670 A JP 2023091670A
- Authority
- JP
- Japan
- Prior art keywords
- range
- foreground
- background
- unit
- current image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 60
- 239000013598 vector Substances 0.000 claims abstract description 163
- 238000001914 filtration Methods 0.000 claims abstract description 5
- 238000000034 method Methods 0.000 claims description 102
- 238000012417 linear regression Methods 0.000 claims description 6
- 238000006073 displacement reaction Methods 0.000 description 37
- 230000003287 optical effect Effects 0.000 description 11
- 238000013473 artificial intelligence Methods 0.000 description 9
- 210000000707 wrist Anatomy 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 241001533104 Tribulus terrestris Species 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
Claims (24)
- 複数の連続画像のうちの現在画像を受信するステップと、
前記現在画像内のオブジェクト選択範囲をフィルタリングすることにより、背景範囲を取得するステップと、
前記オブジェクト選択範囲に対応する複数の選択範囲動きベクトルと、前記背景範囲に対応する複数の背景動きベクトルとの複数の類似度を比較し、これによって、前記オブジェクト選択範囲内のオブジェクト前景範囲及びオブジェクト背景範囲を取得するステップと、
前記オブジェクト前景範囲に対応する複数のオブジェクト前景動きベクトルの数と、前記オブジェクト背景範囲に対応する複数のオブジェクト背景動きベクトルの数とを比較するステップと、
前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの数が前記オブジェクト背景範囲に対応する前記オブジェクト背景動きベクトルの数よりも多い場合、前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの前景動き傾向を算出するステップと、
前記現在画像内の前記オブジェクト選択範囲を、前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの前記前景動き傾向、又は前記背景範囲に対応する前記背景動きベクトルの背景動き傾向に従って更新するステップと、
を含む、映像に対するオブジェクト検出方法。 - 前記現在画像に対してオブジェクト認識手順を実施する必要があるかどうかを判定するステップと、
前記現在画像に対して前記オブジェクト認識手順を実施する必要がない場合、前記連続画像のうちの先行画像に従って、前記現在画像における前記オブジェクト選択範囲を取得するステップと、
を含む、請求項1に記載の映像に対するオブジェクト検出方法。 - 前記現在画像に対して前記オブジェクト認識手順を実施する必要があるかどうかが、所定の許容経過時間に従って判定される、請求項2に記載の映像に対するオブジェクト検出方法。
- 前記現在画像に対して前記オブジェクト認識手順を実施する必要があるかどうかが、実行画像の許容数に応じて判定される、請求項2に記載の映像に対するオブジェクト検出方法。
- 前記背景範囲に対応する前記背景動きベクトルの前記背景動き傾向を、多数決アルゴリズム、投票アルゴリズム、線形回帰アルゴリズム、又は補間アルゴリズムを用いて算出するステップをさらに含む、請求項1に記載の映像に対するオブジェクト検出方法。
- 前記オブジェクト選択範囲に対応する前記選択範囲動きベクトルと、前記背景範囲に対応する前記背景動きベクトルとの前記類似度を比較する前記ステップでは、前記選択範囲動きベクトルのうちの少なくとも1つが、前記背景範囲に対応する前記背景動きベクトルの前記背景動き傾向と類似していない場合、前記オブジェクト選択範囲からの前記選択範囲動きベクトルのうちの少なくとも1つに従って、前記オブジェクト前景範囲が取得される、請求項1に記載の映像に対するオブジェクト検出方法。
- 前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの数が前記オブジェクト背景範囲に対応する前記オブジェクト背景動きベクトルの数よりも多い場合、前記前景動き傾向に従って前記現在画像内の前記オブジェクト選択範囲が更新され、
前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの数が前記オブジェクト背景範囲に対応する前記オブジェクト背景動きベクトルの数よりも少ない場合、前記背景動き傾向に従って前記現在画像内の前記オブジェクト選択範囲が更新される、請求項1に記載の映像に対するオブジェクト検出方法。 - 前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの前記前景動き傾向を算出する前記ステップでは、所定の距離範囲条件又はオブジェクトの特性条件に従って選択される前記オブジェクト前景動きベクトルの一部が、前記前景動き傾向を算出するために使用される、請求項1に記載の映像に対するオブジェクト検出方法。
- 前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの前記前景動き傾向を算出する前記ステップでは、前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの前記前景動き傾向を取得するために、多数決アルゴリズム、投票アルゴリズム、線形回帰アルゴリズム、又は内部差分アルゴリズムが実行される、請求項1に記載の映像に対するオブジェクト検出方法。
- 前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの前記前景動き傾向を算出する前記ステップでは、前記オブジェクト前景動きベクトルがデフォルトの外れ値と比較され、前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの前記前景動き傾向が、前記デフォルトの外れ値よりも小さい前記オブジェクト前景動きベクトルの一部に従って取得される、請求項1に記載の映像に対するオブジェクト検出方法。
- 前記現在画像内の前記オブジェクト選択範囲を更新する前記ステップを実行した後、前記オブジェクト検出方法が、
前記オブジェクト選択範囲がある精度条件を満たしているかどうかを判定するステップと、
前記オブジェクト選択範囲が前記精度条件を満たしていない場合には、前記オブジェクト認識手順を実施することにより、前記現在画像内の前記オブジェクト選択範囲を更新するステップと、
をさらに含む、請求項1に記載の映像に対するオブジェクト検出方法。 - 前記オブジェクト認識手順を実施する前記ステップでは、前記精度条件に従って前記現在画像から部分画像領域が選択され、また、前記部分画像領域に対して前記オブジェクト認識手順が実施され、その結果、前記部分画像領域内で前記オブジェクト選択範囲が更新される、請求項11に記載の映像に対するオブジェクト検出方法。
- 複数の連続画像のうちの現在画像を受信するように構成されている、受信部と、
前記受信部に接続されている範囲定義部であって、前記範囲定義部が、前記現在画像内のオブジェクト選択範囲をフィルタリングして背景範囲を取得し、かつ前記オブジェクト選択範囲に対応する複数の選択範囲動きベクトルと、前記背景範囲に対応する複数の背景動きベクトルとの複数の類似度を比較し、これによって、前記オブジェクト選択範囲内のオブジェクト前景範囲及びオブジェクト背景範囲を取得するように構成されている、範囲定義部と、
前記範囲定義部に接続されている比較部であって、前記比較部が、前記オブジェクト前景範囲に対応する複数のオブジェクト前景動きベクトルの数と、前記オブジェクト背景範囲に対応する複数のオブジェクト背景動きベクトルの数とを比較するように構成されている、比較部と、
前記比較部及び前記範囲定義部に接続されている傾向分析部であって、前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの数が前記オブジェクト背景範囲に対応する前記オブジェクト背景動きベクトルの数よりも多い場合、前記傾向分析部が、前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの前景動き傾向を算出する、傾向分析部と、
前記傾向分析部及び前記比較部に接続されている更新部であって、前記更新部が、前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの前記前景動き傾向、又は前記背景範囲に対応する前記背景動きベクトルの前記背景動き傾向に従って、前記現在画像内の前記オブジェクト選択範囲を更新するように構成されている、更新部と、
を備える、映像に対するオブジェクト検出システム。 - オブジェクト認識手順を実施するように構成されているオブジェクト認識部と、
前記受信部及び前記オブジェクト認識部に接続されているオブジェクト認識判定部であって、前記オブジェクト認識判定部は、前記現在画像に対して前記オブジェクト認識部が前記オブジェクト認識手順を実施する必要があるかどうかを判定するように構成されている、オブジェクト認識判定部と、
前記オブジェクト認識判定部及び前記範囲定義部に接続されているオブジェクト選択部であって、前記現在画像に対して、前記オブジェクト認識部が前記オブジェクト認識手順を実施する必要がない場合、前記オブジェクト選択部が、前記連続画像のうちの先行画像に従って、前記現在画像における前記オブジェクト選択範囲を取得する、オブジェクト選択部と、
をさらに備える、請求項13に記載の映像に対するオブジェクト検出システム。 - 前記オブジェクト認識判定部が、所定の許容経過時間に従って、前記現在画像に対して前記オブジェクト認識部が前記オブジェクト認識手順を実施する必要があるかどうかを判定している、請求項14に記載の映像に対するオブジェクト検出システム。
- 前記オブジェクト認識判定部は、実行画像の許容数に応じて、前記現在画像に対して前記オブジェクト認識部が前記オブジェクト認識手順を実施する必要があるかどうかを判定している、請求項14に記載の映像に対するオブジェクト検出システム。
- 前記傾向分析部が、前記背景範囲に対応する前記背景動きベクトルの前記背景動き傾向を、多数決アルゴリズム、投票アルゴリズム、線形回帰アルゴリズム、又は補間アルゴリズムを用いて算出している、請求項13に記載の映像に対するオブジェクト検出システム。
- 前記選択範囲動きベクトルのうちの少なくとも1つが、前記背景範囲に対応する前記背景動きベクトルの前記背景動き傾向と類似していない場合、前記範囲定義部が、前記オブジェクト選択範囲からの前記選択範囲動きベクトルのうちの少なくとも1つに従って、前記オブジェクト前景範囲を取得する、請求項13に記載の映像に対するオブジェクト検出システム。
- 前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの数が前記オブジェクト背景範囲に対応する前記オブジェクト背景動きベクトルの数よりも多い場合、前記更新部が、前記前景動き傾向に従って前記現在画像内の前記オブジェクト選択範囲を更新し、前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの数が前記オブジェクト背景範囲に対応する前記オブジェクト背景動きベクトルの数よりも少ない場合、前記更新部が、前記背景動き傾向に従って前記現在画像内の前記オブジェクト選択範囲を更新する、請求項13に記載の映像に対するオブジェクト検出システム。
- 前記傾向分析部が、前記前景動き傾向を算出するために、所定の距離範囲条件又はオブジェクトの特性条件に従って、前記オブジェクト前景動きベクトルの一部を選択している、請求項13に記載の映像に対するオブジェクト検出システム。
- 前記傾向分析部が、多数決アルゴリズム、投票アルゴリズム、線形回帰アルゴリズム、又は内部差分アルゴリズムを実施して、前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの前記前景動き傾向を求めている、請求項13に記載の映像に対するオブジェクト検出システム。
- 前記傾向分析部が、前記オブジェクト前景動きベクトルをデフォルトの外れ値と比較し、前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの前記前景動き傾向を、前記デフォルトの外れ値よりも小さい前記オブジェクト前景動きベクトルに従って取得している、請求項13に記載の映像に対するオブジェクト検出システム。
- 前記更新部に接続されている精度判定部であって、前記精度判定部は、前記オブジェクト選択範囲がある精度条件を満たしているかどうかを判定するように構成されている、精度判定部と、
前記精度判定部に接続されているオブジェクト認識部であって、前記オブジェクト選択範囲が前記精度条件を満たしていない場合には、前記オブジェクト認識部が前記オブジェクト認識手順を実施することにより、前記現在画像内の前記オブジェクト選択範囲を更新する、オブジェクト認識部と、
をさらに備える、請求項13に記載の映像に対するオブジェクト検出システム。 - 前記オブジェクト認識部が、前記精度条件に従って前記現在画像から部分画像領域を選択し、また、前記部分画像領域に対して前記オブジェクト認識手順を実施し、その結果、前記部分画像領域内で前記オブジェクト選択範囲が更新される、請求項23に記載の映像に対するオブジェクト検出システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021206538A JP7346535B2 (ja) | 2021-12-20 | 2021-12-20 | 映像に対するオブジェクト検出方法及びオブジェクト検出システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021206538A JP7346535B2 (ja) | 2021-12-20 | 2021-12-20 | 映像に対するオブジェクト検出方法及びオブジェクト検出システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023091670A true JP2023091670A (ja) | 2023-06-30 |
JP7346535B2 JP7346535B2 (ja) | 2023-09-19 |
Family
ID=86941732
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021206538A Active JP7346535B2 (ja) | 2021-12-20 | 2021-12-20 | 映像に対するオブジェクト検出方法及びオブジェクト検出システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7346535B2 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05227463A (ja) * | 1992-02-15 | 1993-09-03 | Sony Corp | 画像処理装置 |
JP2018508078A (ja) * | 2015-03-12 | 2018-03-22 | クアルコム,インコーポレイテッド | オブジェクト追跡のためのシステムおよび方法 |
-
2021
- 2021-12-20 JP JP2021206538A patent/JP7346535B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05227463A (ja) * | 1992-02-15 | 1993-09-03 | Sony Corp | 画像処理装置 |
JP2018508078A (ja) * | 2015-03-12 | 2018-03-22 | クアルコム,インコーポレイテッド | オブジェクト追跡のためのシステムおよび方法 |
Also Published As
Publication number | Publication date |
---|---|
JP7346535B2 (ja) | 2023-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Development of UAV-based target tracking and recognition systems | |
CN105654512B (zh) | 一种目标跟踪方法和装置 | |
US9232140B2 (en) | Image stabilization techniques for video surveillance systems | |
CN111798487B (zh) | 目标跟踪方法、装置和计算机可读存储介质 | |
TWI469062B (zh) | 影像穩定方法及影像穩定裝置 | |
Zhao et al. | Stacked multilayer self-organizing map for background modeling | |
US11790661B2 (en) | Image prediction system | |
JP2009048240A (ja) | 動画像における移動物体の検出方法、検出装置、監視方法および監視システム | |
Jiang et al. | A 500-fps pan-tilt tracking system with deep-learning-based object detection | |
Nguyen et al. | A continuous real-time hand gesture recognition method based on skeleton | |
Li et al. | A head pose tracking system using RGB-D camera | |
Agarwal et al. | Six object tracking algorithms: A comparative study | |
JP2023091670A (ja) | 映像に対するオブジェクト検出方法及びオブジェクト検出システム | |
Macesanu et al. | A time-delay control approach for a stereo vision based human-machine interaction system | |
JP2021182288A (ja) | 移動体追跡装置及び移動体追跡方法 | |
JP2008085491A (ja) | 画像処理装置及びその方法 | |
US20230196584A1 (en) | Object detection method and object detection system for video | |
EP4198918A1 (en) | Object detection method and object detection system for video | |
Russo et al. | Blurring prediction in monocular slam | |
Xiao et al. | 3D-assisted coarse-to-fine extreme-pose facial landmark detection | |
Hadviger et al. | Stereo event lifetime and disparity estimation for dynamic vision sensors | |
Zhang et al. | The video stabilization based on improved smoothing filtering and curve fitting | |
Al Jilani et al. | Autonomous motion tracking for dynamic objects using a temporal quad-tree algorithm | |
CN104751448A (zh) | 基于pca和噪声分离的在线视频跟踪方法 | |
Tanakian et al. | Digital video stabilization system by adaptive fuzzy Kalman filtering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230529 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230822 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230906 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7346535 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |