RU2676026C1 - Способ анализа видеопотока - Google Patents
Способ анализа видеопотока Download PDFInfo
- Publication number
- RU2676026C1 RU2676026C1 RU2018110397A RU2018110397A RU2676026C1 RU 2676026 C1 RU2676026 C1 RU 2676026C1 RU 2018110397 A RU2018110397 A RU 2018110397A RU 2018110397 A RU2018110397 A RU 2018110397A RU 2676026 C1 RU2676026 C1 RU 2676026C1
- Authority
- RU
- Russia
- Prior art keywords
- pixel
- frame
- shadow
- color
- parameter
- Prior art date
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 10
- 238000000034 method Methods 0.000 claims abstract description 16
- 238000012545 processing Methods 0.000 abstract description 6
- 239000000126 substance Substances 0.000 abstract 1
- 238000001514 detection method Methods 0.000 description 26
- 239000000203 mixture Substances 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Изобретение относится к средствам обработки растровых изображений. Технический результат заключается в повышении точности определения подвижных объектов. В способе: получают первый кадр видеопотока, для каждого пикселя которого определяют значение следующих компонент: компоненты Y яркости, компоненты цветоразности U и компоненты цветоразности V; на основе полученных параметров YUV формируют попиксельное предсказание кадра; получают следующий кадр видеопотока и осуществляют цикл анализа, а именно определяют пиксели, относящиеся к объекту, и формируют бинарную маску обнаруженного объекта; для упомянутых пикселей, относящихся к объекту, определяют, по крайней мере, один параметр цветовой схожести и параметр текстурной схожести; осуществляют сравнение упомянутых параметров цветовой схожести и текстурной схожести с их пороговыми значениями и классифицируют каждый пиксель как «тень/не тень», после чего уточняют попиксельное предсказание следующего кадра и повторяют цикл. 2 з.п. ф-лы, 4 ил.
Description
Область техники, к которой относится изобретение
Изобретение относится к средствам обработки цифровых видеопотоков, а именно к способам автоматического анализа видеопотоков растровых кадров и может использоваться в системах IP-видеонаблюдения.
Уровень техники
В качестве наиболее близкого аналога выбран известный способ анализа видеопотока, состоящий в определении тени от движущихся объектов на основе анализа данных о цвете, яркости и других параметрах пикселей (CN 104899881 (A), G06T 7/00, опубликовано 09.09.2015). Данный известный способ использует сложный алгоритм определения градиентов областей кадра и не исключает ошибок при классификации областей кадра.
Сущность изобретения
Задачей, на решение которой направлено настоящее изобретение, является создание способа анализа видеопотока, обеспечивающего качественное обнаружение и сопровождение движущихся объектов.
Настоящее изобретение обеспечивает достижение следующей совокупности технических результатов: повышение точности обнаружения и сопровождения подвижных объектов за счет эффективного идентифицирования теневых зон, схожих по характеристикам с движущимися объектами; уменьшение количества ложных обнаружений (как ложно положительных, так и ложноотрицательных); упрощение способа за счет совместного использования комплекса параметров пикселей.
Указанная совокупность технических результатов достигается тем, что способ анализа видеопотока состоит в том, что
- получают первый кадр видеопотока, для каждого пикселя которого определяют значение следующих компонент: компоненты Y яркости, компоненты цветоразности U и компоненты цветоразности V;
- на основе полученных параметров YUV формируют попиксельное предсказание кадра;
- получают следующий кадр видеопотока и осуществляют цикл анализа, а именно определяют пиксели, относящиеся к объекту, и формируют бинарную маску обнаруженного объекта;
- для упомянутых пикселей, относящихся к объекту, определяют, по крайней мере, один параметр цветовой схожести и параметр текстурной схожести;
- осуществляют сравнение упомянутых параметров цветовой схожести и текстурной схожести с их пороговыми значениями и классифицируют каждый пиксель как «тень/не тень» следующим образом: если значение параметра цветовой схожести не превышает порогового значения, то пиксель относят к классу «тень», если значение параметра цветовой схожести превышает пороговое значение, а значение параметра текстурной схожести не меньше порогового значения, то пиксель относят к классу «тень», в остальных случаях пиксель классифицируют как «не тень»;
- пиксели, классифицированные как «тень», относят к фоновой составляющей кадра, после чего уточняют попиксельное предсказание следующего кадра и повторяют цикл.
Указанная совокупность технических результатов достигается также тем, что упомянутую бинарную маску формируют на основе значений только компоненты Y.
Указанная совокупность технических результатов достигается также тем, что упомянутый параметр цветовой схожести определяют на основе компоненты U и дополнительно к нему определяют второй параметр цветовой схожести на основе компоненты V.
Отличительной особенностью настоящего изобретения является использование комбинации параметров пикселей в рамках цветовой модели YUV каждого кадра для идентифицирования теневых зон и постоянное обновление фоновой составляющей кадров.
Краткое описание фигур чертежей
На Фиг. 1 показана блок-схема реализации способа.
На Фиг. 2-Фиг. 4 показаны, соответственно, исходный кадр, первичная бинарная маска обнаружения объекта и уточненная бинарная маска на этапе вторичного обнаружения подвижного объекта.
Сведения, подтверждающие возможность осуществления изобретения
Современные стационарные системы 1Р-видеонаблюдения обычно оснащаются подсистемами видеоаналитики для автоматического анализа видеопотока с целью обнаружения движущихся объектов. Видеопоток с видеокамеры наблюдения поступает по сетевому интерфейсу на сервер видеоаналитики для автоматического анализа либо анализируется непосредственно на камере, если камера оснащена встроенным сервером. Сервер выполняет анализ видеопотока с помощью программного обеспечения видеоаналитики и формирует описание видеопотока, как набора объектов. Исходный видеопоток и поток метаданных с формальным описанием объектов поступают по сетевому интерфейсу в центр мониторинга.
Существуют проблемы подсистемы видеоанэлитики, связанные: с ошибками первого рода (ложноположительные срабатывания), когда подсистема обнаруживает несуществующие объекты в сложных условиях наблюдения;
- с ошибками второго рода (ложноотрицательные срабатывания), когда подсистема в условиях плохой видимости не обнаруживает существующие объекты, в первую очередь малоконтрастные и замаскированные.
В общем случае качество работы подсистемы видеоаналитики определяется компромиссом между значениями вероятностей ошибок первого и второго рода. Общепринятым считается подход, когда задается допустимый уровень вероятности ложного обнаружения, то есть ошибки первого рода, и качество работы подсистемы видеоаналитики определяется вероятностью пропуска объекта, то есть ошибкой второго рода при заданном значении вероятности ошибки первого рода. При недостаточно строгом ограничении вероятности ошибки первого рода снижается вероятность пропуска объекта, но ложные срабатывания становятся массовыми, и подсистема видеоаналитики теряет работоспособность. При излишне строгом ограничении вероятности ошибки первого рода ложные срабатывания случаются реже, но повышается вероятность пропуска объекта.
Описанная проблема решается настоящим изобретением следующим образом.
Видеопоток формируют в виде последовательности растровых кадров с последующим двухэтапным обнаружением на каждом кадре движущихся объектов. Под объектами подразумеваются связные множества пикселей, имеющие сходные характеристики при переходе от кадра к кадру и перемещающиеся (перемещавшиеся в известной истории наблюдений) в системе координат кадра.
Суть способа состоит в том, что обнаружение подвижного объекта осуществляют в два этапа.
На этапе первичного обнаружения алгоритм настраивается на гарантированное выявление связных множеств пикселей, иначе говоря, потенциальных объектов, на заданной площади кадра. В основе процедуры первичного обнаружения лежит, например, механизм адаптивного порога: пороговое значение градиента яркости пикселя, при превышении которого пиксель предварительно включается в состав объекта, не является фиксированным, а изменяется от кадра к кадру. Используется следующее обобщенное правило. Если общее количество обнаруженных пикселей меньше заданной в настройках площади кадра, обязательной для обнаружения, порог уменьшается, чувствительность алгоритма повышается. Если общее количество обнаруженных пикселей больше обязательной доли площади кадра, порог увеличивается, чувствительность алгоритма уменьшается. Описанный подход гарантирует выявление наиболее заметных аномалий яркости множества пикселей, объемом равным или большим заданной доли площади кадра. Обнаруженные множества пикселей потенциально являются объектами и могут содержать только существующие объекты, или только ложные объекты (случайные флуктуации яркости кадра), или существующие и ложные объекты в неизвестной пропорции.
На этапе вторичного обнаружения производится фильтрация выявленных на первом этапе множеств пикселей с целью выявления заведомо ложных срабатываний за счет идентифицирования теневых зон. На этапе вторичного обнаружения одной из наиболее сложных проблем является выявление ложных срабатываний, обусловленных появлением теней в сцене, так как формально тень имеет все признаки существующего объекта. Происхождение тени с точки зрения подсистемы видеоаналитики не играет существенной роли. При изменении условий освещения тень может появляться и исчезать на близких по времени кадрах, то есть являться подвижной хотя бы одномоментно в смысле градиента яркости с фоном. Тень от неподвижных элементов сцены может перемещаться, менять пропорции и размеры, если перемещаются источники освещения, находящиеся за кадром. Тень может сопровождать подвижные объекты, пересекаясь или не пересекаясь с ними попиксельно.
Технический результат достигается за счет введения в алгоритм вторичного обнаружения дополнительной процедуры классификации «тень/не тень» каждого пикселя в составе потенциального объекта. В ситуации, когда все или значительное количество пикселей в составе объекта классифицированы как тень, обнаружение не производится. В ситуации, когда незначительное количество пикселей в составе объекта классифицированы как тень, производится уточнение границ объекта путем игнорирования классифицированных как тень пикселей, а затем обнаружение объекта с уточненными границами.
В настоящем изобретении используется цветовая модель YUV, в которой цвет представляется как 3 компонента - яркость (Y) и две цветоразностных (U и V). Данная модель широко применяется в телевещании и хранении/обработке видеоданных. Яркостная компонента содержит «черно-белое» (в оттенках серого) изображение, а оставшиеся две компоненты содержат информацию для восстановления требуемого цвета. В цветовом пространстве YUV есть один компонент, который представляет яркость (сигнал яркости), и два других компонента, которые представляют цвет (сигнал цветности). В то время как яркость передается со всеми деталями, некоторые детали в компонентах цветоразностного сигнала, лишенного информации о яркости, могут быть удалены путем понижения разрешения отсчетов (фильтрация или усреднение), что может быть сделано несколькими способами (то есть много форматов для сохранения изображения в цветовом пространстве YUV).
Таким образом, в настоящем изобретении каждый цветной кадр в видеопотоке приводится к цветовому пространству YUV, иначе говоря, раскладывается на три компоненты:
- яркостную компоненту Y - массив одноцветных пикселей, содержащих информацию об усредненной яркости по красной, зеленой и синей составляющим исходного цветного пиксела;
- цветоразностную компоненту U - массив одноцветных пикселей, содержащих информацию о нормированной разности красной и зеленой составляющих исходного цветного пиксела;
- цветоразностную компоненту V - массив одноцветных пикселей, содержащих информацию о нормированной разности синей и зеленой составляющих исходного цветного пиксела.
Исходный кадр видеопотока (Фиг. 2) попиксельно приводится к цветовой модели YUV. Компоненты Y, U, V копируются в отдельные однокомпонентные кадры, которые в дальнейшем обрабатываются независимо.
Для первого в истории наблюдений кадра выполняется попиксельная инициализация фона Y, иначе говоря, статичной составляющей компоненты Y, текущими значениями кадра Y, фона U -текущими значениями кадра U, фона V - текущими значениями кадра V. Для второго и последующих кадров этот шаг не выполняется, обновление фона производится на шаге 5. Таким образом, для каждого пиксела компонент Y, U и V по результатам статистических наблюдений по предыдущим кадрам строится предсказание значения на текущем кадре. Предсказанное значение считается фоновым, то есть в данном случае наиболее вероятным значением пиксела, а массивы предсказанных значений считаются фоновыми кадрами для каждой из компонент Y, U, V.
Далее на текущем кадре любыми известными методами производится первичное обнаружение, иначе говоря, выделяются области кадра, в которых вероятно присутствует движущийся объект. Это осуществляется следующим образом. Формируется грубый бинарный кадр маски обнаружения (Фиг. З) каждый пиксель которого принимает значение «0» (фон), если разница между значением пикселя текущего кадра Y и значением пикселя фонового кадра Y не превышает текущее значение адаптивного порога, и значение «1» (передний план) в другом случае. Кадры U и V на этапе первичного обнаружения игнорируются. Производится подстройка адаптивного порога для кадра Y: если количество пикселей переднего плана выше заданной доли от общего числа пикселей (настраиваемый параметр), порог повышается на единицу; если ниже, порог понижается на единицу; если равен, порог остается без изменений. Также допустимо использование любого другого алгоритма первичного обнаружения для формирования бинарного кадра маски обнаружения.
После этого производится вторичное обнаружение (фильтрация кандидатов в объекты) по пикселям, отнесенным на этапе первичного обнаружения к переднему плану. Пиксели, отнесенные на этапе первичного обнаружения к фону, игнорируются. Затем в выделенных областях, в пространственной окрестности (локальном плавающем окне) каждого пиксела вычисляются следующие параметры:
Определяется комплексный параметр №1, инвариантный к яркости и содержащий информацию о схожести цветовой составляющей U пикселей текущего кадра с цветовой составляющей пикселей U фонового кадра. Вычисляется как разность между отношением усредненного значения компоненты U к усредненному значению компоненты Y на текущем кадре и отношением значения усредненной компоненты U к значению усредненной компоненты Y на фоновом кадре. Под усредненным значением следует понимать среднее арифметическое по пространственной окрестности 3x3 каждого исследуемого пикселя текущего кадра U, текущего кадра Y, фонового кадра U, фонового кадра Y.
Дополнительно к параметру №1 может определяться параметр №2, инвариантный к яркости и содержащий информацию о схожести цветовой составляющей V пикселей текущего кадра с цветовой составляющей V пикселей фонового кадра. Вычисляется как разность между отношением усредненного значения компоненты V к усредненному значению компоненты Y на текущем кадре и отношением усредненного значения компоненты V к усредненному значению компоненты Y на фоновом кадре. Под усредненным значением следует понимать среднее арифметическое по пространственной окрестности 3x3 каждого исследуемого пикселя текущего кадра V, текущего кадра Y, фонового кадра V, фонового кадра Y.
Далее определяется параметр №3, инвариантный к цвету и содержащий информацию о текстурной схожести пикселей текущего кадра с пикселями фонового кадра, а также ковариация компоненты Y текущего кадра и компоненты Y фонового кадра.
Указанные выше параметры могут определяться на основе следующих зависимостей:
а также:
где IY, IU, IV - значения компонент Y, U, V пикселя; BY, BU, BV - значения компонент Y, U, V пикселя на фоне; - оператор среднего арифметического по пространственной окрестности; DI - дисперсия компоненты IY в пространственной окрестности; DB - дисперсия BY в пространственной окрестности; δ - порог наличия цвета; (β - порог сходства по цвету; ρY_max _ порог сходства по текстуре.
Далее осуществляется выбор бинарного признака «тень/не тень» для каждого пикселя текущего кадра путем сравнения параметров №1 и №3 (при наличии и параметра №2) с экспериментально установленными пороговыми значениями. Проведенные исследования алгоритма в соответствии с настоящим изобретением на большой выборке эталонных видеозаписей показали, что экспериментально полученные пороговые значения в высокой степени инвариантны к условиям наблюдения, применимы к широкому классу изображений и требуют ручной подстройки только в особых случаях. Если параметры №1 и №2 (схожесть по цвету) не превышают порогового значения, пиксель относится к классу «тень», и параметр №3 не вычисляется и не анализируется. Если параметры №1 и №2 превышают пороговое значение, или цветовая информация отсутствует в связи с условиями наблюдения, пиксель не классифицируется, а вычисляется и анализируется параметр №3. Если параметр №3 (схожесть по текстуре) не меньше порогового значения, пиксель классифицируется как «тень». В любом другом случае пиксель классифицируется как «не тень».
Пиксели, имеющие признак «тень», помечаются в бинарной маске обнаружения, сформированной на этапе первичного обнаружения, значением «0», то есть относятся к фоновой составляющей кадра и не становятся частью объекта (Фиг. 4).
Далее для кадров Y, U, V выполняется обновление фонов Y, U, V путем адаптивного приближения к медианному значению в каждом пикселе за историю наблюдения. Допустимо использование и иных алгоритмов формирования фоновой составляющей кадра.
После проведенного цикла выполняется переход к обработке следующего кадра и цикл повторяется.
Таким образом, последовательность существенных действий в способе, состоящая в том, что
- получают первый кадр видеопотока, для каждого пикселя которого определяют значение следующих компонент: компоненты Y яркости, компоненты цветоразности U и компоненты цветоразности V;
- на основе полученных параметров YUV формируют попиксельное предсказание кадра;
- получают следующий кадр видеопотока и осуществляют цикл анализа, а именно определяют пиксели, относящиеся к объекту, и формируют бинарную маску обнаруженного объекта;
- для упомянутых пикселей, относящихся к объекту, определяют, по крайней мере, один параметр цветовой схожести и параметр текстурной схожести;
- осуществляют сравнение упомянутых параметров цветовой схожести и текстурной схожести с их пороговыми значениями и классифицируют каждый пиксель как «тень/не тень» следующим образом: если значение параметра цветовой схожести не превышает порогового значения, то пиксель относят к классу «тень», если значение параметра цветовой схожести превышает пороговое значение, а значение параметра текстурной схожести не меньше порогового значения, то пиксель относят к классу «тень», в остальных случаях пиксель классифицируют как «не тень»;
- пиксели, классифицированные как «тень», относят к фоновой составляющей кадра, после чего уточняют попиксельное предсказание следующего кадра и повторяют цикл,
обеспечивает применение дополнительной процедуры классификации «тень/не тень» каждого пиксела в составе предположительно движущегося объекта. ситуации, когда незначительное количество пикселей в составе объекта классифицированы как тень, производится уточнение границ объекта путем игнорирования классифицированных как тень пикселей, а затем обнаружение и сопровождение объекта с уточненными границами.
Реализация описанного способа может быть осуществлена программно-аппаратным способом на вычислительном комплексе общего назначения или специального назначения, располагающим аппаратным ускорителем операций цифровой обработки сигналов.
Claims (9)
1. Способ анализа видеопотока, состоящий в том, что
- получают первый кадр видеопотока, для каждого пикселя которого определяют значение следующих компонент: компоненты Y яркости, компоненты цветоразности U и компоненты цветоразности V;
- на основе полученных параметров YUV формируют попиксельное предсказание кадра;
- получают следующий кадр видеопотока и осуществляют цикл анализа, а именно определяют пиксели, относящиеся к объекту, и формируют бинарную маску обнаруженного объекта;
- для упомянутых пикселей, относящихся к объекту, определяют, по крайней мере, один параметр цветовой схожести и параметр текстурной схожести;
- осуществляют сравнение упомянутых параметров цветовой схожести и текстурной схожести с их пороговыми значениями и классифицируют каждый пиксель как «тень/не тень» следующим образом: если значение параметра цветовой схожести не превышает порогового значения, то пиксель относят к классу «тень», если значение параметра цветовой схожести превышает пороговое значение, а значение параметра текстурной схожести не меньше порогового значения, то пиксель относят к классу «тень», в остальных случаях пиксель классифицируют как «не тень»;
- пиксели, классифицированные как «тень», относят к фоновой составляющей кадра, после чего уточняют попиксельное предсказание следующего кадра и повторяют цикл.
2. Способ по п. 1, отличающийся тем, что упомянутую бинарную маску формируют на основе значений только компоненты Y.
3. Способ по п. 1, отличающийся тем, что упомянутый параметр цветовой схожести определяют на основе компоненты U и дополнительно к нему определяют второй параметр цветовой схожести на основе компоненты V.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2018110397A RU2676026C1 (ru) | 2018-03-23 | 2018-03-23 | Способ анализа видеопотока |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2018110397A RU2676026C1 (ru) | 2018-03-23 | 2018-03-23 | Способ анализа видеопотока |
Publications (1)
Publication Number | Publication Date |
---|---|
RU2676026C1 true RU2676026C1 (ru) | 2018-12-25 |
Family
ID=64753769
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2018110397A RU2676026C1 (ru) | 2018-03-23 | 2018-03-23 | Способ анализа видеопотока |
Country Status (1)
Country | Link |
---|---|
RU (1) | RU2676026C1 (ru) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140015964A1 (en) * | 2012-07-13 | 2014-01-16 | Yen Hsiang Chew | Techniques for video analytics of captured video content |
US20140333777A1 (en) * | 2010-05-13 | 2014-11-13 | Honeywell International Inc. | Surveillance system with direct database server storage |
CN104899881A (zh) * | 2015-05-28 | 2015-09-09 | 湖南大学 | 一种视频图像中运动车辆阴影检测方法 |
RU2632473C1 (ru) * | 2016-09-30 | 2017-10-05 | ООО "Ай Ти Ви групп" | Способ обмена данными между ip видеокамерой и сервером (варианты) |
-
2018
- 2018-03-23 RU RU2018110397A patent/RU2676026C1/ru active IP Right Revival
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140333777A1 (en) * | 2010-05-13 | 2014-11-13 | Honeywell International Inc. | Surveillance system with direct database server storage |
US20140015964A1 (en) * | 2012-07-13 | 2014-01-16 | Yen Hsiang Chew | Techniques for video analytics of captured video content |
CN104899881A (zh) * | 2015-05-28 | 2015-09-09 | 湖南大学 | 一种视频图像中运动车辆阴影检测方法 |
RU2632473C1 (ru) * | 2016-09-30 | 2017-10-05 | ООО "Ай Ти Ви групп" | Способ обмена данными между ip видеокамерой и сервером (варианты) |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4746050B2 (ja) | ビデオデータを処理するための方法及びシステム | |
Ganesan et al. | Assessment of satellite image segmentation in RGB and HSV color space using image quality measures | |
US7639878B2 (en) | Shadow detection in images | |
US9202126B2 (en) | Object detection apparatus and control method thereof, and storage medium | |
US8553086B2 (en) | Spatio-activity based mode matching | |
KR20210006276A (ko) | 플리커를 약화시키기 위한 이미지 처리 방법 | |
JP2004531823A (ja) | カラー分布に基づいたオブジェクトトラッキング | |
KR100903816B1 (ko) | 정지영상에서의 얼굴추출시스템과 그 방법 | |
JP5640622B2 (ja) | 赤目オブジェクト候補を分類する方法、コンピューター読み取り可能な媒体および画像処理装置 | |
Lou et al. | An illumination invariant change detection algorithm | |
WO2020130799A1 (en) | A system and method for licence plate detection | |
CN111460964A (zh) | 一种广电传输机房低照度条件下运动目标检测方法 | |
CN110599553A (zh) | 一种基于YCbCr的肤色提取及检测方法 | |
KR20020031630A (ko) | 칼라 왜곡 정보를 이용한 얼굴 영역 추출 방법 | |
KR20080003617A (ko) | 에이다부스트와 에스브이엠 학습 분류기를 이용한 눈영역 추출기 및 추출방법 | |
CN113744326A (zh) | 一种在ycrcb颜色空间中基于种子区域生长法则的火灾检测方法 | |
RU2676026C1 (ru) | Способ анализа видеопотока | |
Tattersall et al. | Adaptive shadow identification through automatic parameter estimation in video sequences | |
RU2676028C1 (ru) | Способ обнаружения оставленного предмета в видеопотоке | |
WO2008023886A1 (en) | Method for optimizing image for vehicle's identification plate | |
KR20150055481A (ko) | 영상 내 그림자 화소 제거를 위한 배경 기반 방법 | |
CN114170327A (zh) | 识别方法和电子设备 | |
Elmezain | Invariant color features–based foreground segmentation for human‐computer interaction | |
CN112749714A (zh) | 一种单帧红外图像中多形态暗弱小目标检测方法 | |
Jadav et al. | Shadow Extraction and Elimination of Moving Vehicles for Tracking Vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM4A | The patent is invalid due to non-payment of fees |
Effective date: 20200324 |
|
NF4A | Reinstatement of patent |
Effective date: 20210208 |