RU2542876C2 - Устройство выделения высокодетализированных объектов на изображении сцены - Google Patents
Устройство выделения высокодетализированных объектов на изображении сцены Download PDFInfo
- Publication number
- RU2542876C2 RU2542876C2 RU2013124207/08A RU2013124207A RU2542876C2 RU 2542876 C2 RU2542876 C2 RU 2542876C2 RU 2013124207/08 A RU2013124207/08 A RU 2013124207/08A RU 2013124207 A RU2013124207 A RU 2013124207A RU 2542876 C2 RU2542876 C2 RU 2542876C2
- Authority
- RU
- Russia
- Prior art keywords
- input
- output
- image
- unit
- block
- Prior art date
Links
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Image Processing (AREA)
Abstract
Изобретение относится к устройствам выделения высокодетализированных объектов. Технический результат заключается в выделении на изображениях и видеопоследовательностях высокодетализированных объектов на произвольном низкодетализированном фоне. Устройство содержит блок хранения входной реализации, блок управления, блок детектора границ Канни, блок определения общего коэффициента детализации, блок выбора скользящего окна, блок определения коэффициента детализации в скользящем окне, блок сравнения, блок хранения выходной реализации, генератор тактовых импульсов. 1 ил.
Description
Изобретение относится к области вычислительной техники и может быть использовано в цифровых телевизионных и фотосистемах, глобальных системах позиционирования и наблюдения.
Основная решаемая задача - выделение высокодетализированного объекта на произвольном низкодетализированном фоне.
При автоматизации информационных, радиоэлектронных и других систем, работающих с изображениями, а также для более точного анализа и принятия решений важным аспектом является прием качественного двумерного сигнала, однако в случае невозможности получения появляется необходимость в его улучшении, то есть в проведении предварительной обработки.
К предобработке относятся: отделение объекта от фона, повышение четкости контуров, фильтрация с различными параметрами. Однако ограниченный объем используемых вычислительных ресурсов ведет к повышению времени обработки сигнала либо к применению менее требовательных к вычислительным затратам методов, но в большинстве случаев не обеспечивающих достаточного качества фильтрации изображения.
Решение задачи отделения объекта от фона на изображении дает возможность выделить области с высокой детализацией объектов и области - фон, не несущие полезной информации. Поэтому задача поиска и выделения объекта или интересующих участков объекта на изображении сцены является сложной комплексной задачей, решение которой позволит:
1. Производить обработку выделенных участков методами, требующими высоких вычислительных затрат, но являющимися точными и качественными.
2. Локализовать области обработки и повысить быстродействие вычислительных систем.
Известен способ и система выделения данных об изображении объекта переднего плана на основе данных о цвете и глубине [Патент №2426172, МПК G06K 9/34]. Изобретение относится к области распознавания и сегментации изображений, в частности к способу для выделения целевого объекта из фонового изображения с использованием маски. Техническим результатом является создание усовершенствованного способа выделения данных об изображении объекта, используя данные о глубине изображения. Указанный технический результат достигается тем, что создают скалярное изображение на основе разделения объекта и фона. Различие определяется по разности освещенности. В области, где разность освещенности ниже заранее установленного порогового значения, на основе разности цвета по результатам, полученным из предыдущего видеокадра, инициализируют маску. Там где скалярное изображение разности меньше заранее установленного порога, маску заполняют единицами, где соответствующий пиксель принадлежит объекту, и нулями в ином случае. Затем кластеризуют скалярное изображение разности и на основе нескольких кластеров и создают маску для каждого положения пикселя видеокадра. Используя центры тяжести кластеров скалярной разности и данные по глубине для текущего положения пикселя, компенсируют изменения фона сцены во времени путем обновления изображения фона на основе использования созданной маски и изображения разности. Полученный отделенный объект сохраняется для последующей обработки.
Признаки способа и системы - аналога, совпадающие с признаками заявляемого технического решения, следующие: выделение целевого объекта из фонового изображения.
Недостатками известного способа и системы являются:
Требуется обязательное использование видеокамер.
Исследование видеопотока требует больших вычислительных затрат.
Известен способ выделения объекта на изображении на основе решения уравнений Пуассона (Poisson matting for images) [Patent USA №7636128]. Способ основан на решении системы уравнений Пуассона с граничными условиями для изображения, сегментированного на три области: передний план, фон, неизвестная область, разделяющая передний план и фон. Для разделения объектов решают уравнение Пуассона вида:
с граничным условием Дирихле:
Найденное решение системы уравнений Пуассона позволяет разделение объектов, т.е. альфа-каналом изображения, для уточнения которого применяют локальные фильтры, позволяющие вручную исправить окончательный результат с помощью решения локальных уравнений Пуассона.
Признаки способа - аналога, совпадающие с признаками заявляемого технического решения, следующие: выделение объекта из фонового изображения.
Недостатками известного способа являются: применение локальных фильтров, исправляющие вручную окончательный результат с помощью решения локальных уравнений Пуассона, что не позволяет получить эффективной автоматизированной системы обработки.
Известно устройство выделения контуров объектов на изображении [Патент №2362210, МПК G06K 9/36, G06K 9/62, A61B 5/04]. Изобретение относится к области распознавания образов и может быть использовано в системах технического зрения при решении задач предварительной обработки изображения.
Алгоритм обработки изображений включает в себя следующие операции: фильтрацию, пространственное дифференцирование, скелетизацию и пороговую обработку.
Изображение фиксируется датчиком изображения, переводящим его в телевизионный сигнал. При появлении кадрового синхроимпульса формируется сигнал начала кадра, по которому ЦСП переходит в состояние ожидания подтверждения данных, приходящего по окончании строчного синхроимпульса, по которому ЦСП выполняет последовательное считывание строки изображения с информационного выхода АЦП в ОЗУ. Таким образом, вводится весь кадр. Обработка изображений ведется параллельно со вводом следующего кадра.
При фильтрации ЦСП передает пять смежных строк изображения в буферную память блока фильтрации. В буферную память блока фильтрации записывается пять смежных строк изображения. На основании пяти строк изображения, находящихся в буферной памяти блока фильтрации, блок фильтрации формирует результирующую строку отфильтрованного изображения по формуле:
При пространственном дифференцировании ЦСП передает три смежные строки изображения в буферную память блока пространственного дифференцирования. На основании трех строк изображения, находящихся в буферной памяти блока пространственного дифференцирования, формирующего результирующую строку обработанного изображения по формуле
где dх(х,у), dy(x,y)- результаты свертки изображения I′ с горизонтальной Нх и вертикальной Ну масками соответственно
Таким образом, вычисления, производимые блоком пространственного дифференцирования, сводятся к операциям сложения, выполняемым с помощью сумматоров и логических элементов, что позволяет реализовать данный блок на ПЛИС. Операции скелетизации и бинаризации полностью выполняются процессором.
Признаки устройства - аналога, совпадающие с признаками заявляемого технического решения, следующие: выделение контуров объекта на изображении.
Недостатками известного устройства являются: Поиск контуров производится по анализу данных, получаемых из анализа видеопотока, и требует больших вычислительных затрат.
Наиболее близким к изобретению является способ автоматического обнаружения лица на электронном оцифрованном изображении [Patent EP 1777643 A4]. Изобретение относится к способам распознавания образов путем выделения деталей или характеристик изображения и может быть использовано для автоматического обнаружения лица на электронном оцифрованном изображении, полученного с цифровой камеры или фотоаппарата в реальных, специально неконтролируемых условиях съемки. Автоматическое обнаружение лица на изображении осуществляется в два этапа: на первом этапе производят процедуры предварительной фильтрации, которые состоят из улучшения изображения посредством усредняющих фильтров, фильтров по выявлению краев изображения, процедуры последующей фильтрации контуров - предположительно принадлежащих элементам лица: овала, глаз, рта и т.д. На следующем этапе проводится поиск элементов лица с последующим их удостоверением посредством проверки статистических соотношений между ними, отличающийся тем, что предварительно сужают область поиска лица путем определения области расположения головы с помощью предварительной фильтрации верхних фрагментов контура головы.
Фильтрация верхних фрагментов контура головы проводится путем поиска наиболее вероятных кандидатов на другие фрагменты контура головы: боковых сторон, глаз, плеч, проверки статистических соотношений между ними и последующего поиска в областях наиболее вероятного расположения с помощью шаблонов модели контура головы. Определение положения глаз на изображении в окрестности найденного положения головы проводят предварительную фильтрацию элементов лица с помощью фильтров горизонтальных и вертикальных краев.
Признаки способа - прототипа, совпадающие с признаками заявляемого технического решения, следующие: обработка двумерного цифрового сигнала, выделение объектов со сложным контуром (глаза, рот, волосы) на произвольном мало детализированном фоне (кожа лица) и их предобработка.
Недостатками известного способа и устройства, его реализующего, являются требование к правильному формированию массива шаблонов, требуемых для последующего поиска, большие вычислительные затраты на обработку.
Предлагаемое устройство выделения контуров объектов на текстурированном фоне при обработке цифровых изображений позволяет выделять высокодетализированный объект на произвольном низкодетализированном фоне. Устройство реализует следующий алгоритм:
- Первый шаг осуществляется поиском на исходном изображении / границ, применяя детектор Канни (Гонсалес Р., Вудс Р., Эддинс С. Цифровая обработка изображений в среде MATLAB. - М.: Техносфера, 2006. - 616 с). Данный метод детектирования границ основан на последовательном выполнении операции сглаживания изображения с целью увеличения отношения сигнал/шум путем нахождения градиента изображения с целью подсветки области с высоким пространственным разрешением, подавления всех пикселей, которые не в максимуме (немаксимальное подавление) и уменьшения градиентного массива путем использования гистерезиса с целью отслеживания оставшихся пикселей, которые не были подавлены. Результатом фильтрации является определение пространственной функции изображения объекта с использованием оптимального по Канни оператора - гауссиана
f(x)=-x*exp(-x2/k2s2),
где x - переменная; s - стандартное отклонение оператора Гаусса; * - «оптимальный» линейный оператор для свертки с изображением; к2=2.
- На втором шаге, используя полученные границы, подсчитывается общий коэффициент детализации, который определяется по формуле (1):
где I(х,у) - значение пикселя с координатами х и у; i - количество строк; j - количество столбцов; P - коэффициент детализации.
На третьем шаге подобным выражению (1) вычисляется коэффициент детализации в каждом скользящем окне:
где 0,1- коэффициент усреднения, связанный с автоматическим выбором размера окна, равного 10% от общего изображения.
- На четвертом шаге коэффициенты детализации Робщий и Рокна сравниваются, после чего принимается решение о детализированности в данном окне, и окно сдвигается.
Устройство выделения высокодетализированных объектов на изображении сцены (фиг.1) содержит блок хранения входной реализации 1, вход которого является информационным входом устройства, выход подключен к входу блока управления 2 и первому входу блока детектора границ Канни 3, выход которого подключен к первому входу блока выбора скользящего окна 5 и первому входу блока определения общего коэффициента детализации 4, выход которого подключен к первому входу блока сравнения 7, выход которого подключен к первому входу блока хранения выходной реализации 8, выход которого является информационным выходом устройства; выход блока выбора скользящего окна 5 подключен к перовому входу блока определения коэффициента детализации в скользящем окне 6, выход которого подключен ко второму входу блока сравнения 7; выход блока управления 2 подключен ко второму входу блока детектора границ Канни 3, к второму входу блока определения общего коэффициента детализации 4, к второму входу блока выбора скользящего окна 5, к второму входу блока определения коэффициента детализации в скользящем окне 6 и к второму входу блока хранения выходной реализации 8; синхронность работы устройства обеспечивается генератором тактовых импульсов 9.
Устройство выделения высокодетализированных объектов на изображении сцены работает следующим образом: на вход блока хранения входной реализации 1 поступает исходное изображение, на котором представлен некоторый объект на произвольном фоне. С помощью блока управления 2 автоматически выбираются размеры изображения, коэффициент усреднения, связанный с автоматическим выбором размера окна, коэффициент оператора - гауссиана детектора Канни. С выхода блока хранения входной реализации 1 изображение поступает на первый вход блока детектора границ Канни 3. Значение коэффициента оператора - гауссиана поступает с выхода блока управления 2 на второй вход блока детектора границ Канни 3. В блоке детектора границ Канни 3 происходит выделение границ на исходном изображении. Полученное изображение с выделенными границами из выхода блока детектора границ Канни 3 поступает на первый вход блока определения общего коэффициента детализации 4, ко второму входу которого подключен выход блока управления 2, осуществляющий подачу величин размеров изображения. В блоке определения общего коэффициента детализации 4 происходит вычисление Робщий, по формуле (1). Полученный в результате расчета коэффициент Робщий подается с выхода блока определения общего коэффициента детализации 4 на вход блока сравнения 7. Одновременно с этим на первый вход блока выбора скользящего окна 5 подается изображение с выделенными границами из выхода блока детектора границ Канни 3. Ко второму входу блока выбора скользящего окна 5 подключен выход блока управления 2, осуществляющий подачу величин размеров изображения i,j, а также коэффициент усреднения, связанный с автоматическим выбором размера окна. Блок выбора скользящего окна 5 осуществляет выбор фрагмента изображения размерами данного скользящего окна. Полученный фрагмент изображения с выхода блока выбора скользящего окна 5 поступает на первый вход блока определения коэффициента детализации в скользящем окне 6, второй вход которого подключен к блоку управления 2, осуществляющий подачу величин размеров изображения i,j, а также коэффициента усреднения, связанный с автоматическим выбором размера окна. В блоке определения коэффициента детализации в скользящем окне 6 происходит вычисление Pокна согласно выражению (2). Полученный коэффициент детализации Pокна с выхода блока определения коэффициента детализации в скользящем окне 6 поступает на второй вход блока сравнения 7, где Pобщий и Pокна сравниваются и принимается решение о детализированности данного скользящего окна. Полученные данные с выхода блока сравнения 7 поступают на вход блока хранения выходной реализации 8, где записываются в заданных координатах i,j, поступающих на второй вход блока хранения выходной реализации 8 с выхода блока управления 2. Выход блока хранения выходной реализации 8 является информационным выходом устройства. Синхронность работы устройства обеспечивается генератором тактовых импульсов 9.
Технический результат - выделение на изображениях и видеопоследовательностях высокодетализированных объектов на произвольном низкодетализированном фоне.
Claims (1)
- Устройство выделения высокодетализированных объектов на изображении сцены, содержащее блок хранения входной реализации, вход которого является информационным входом устройства и блока хранения выходной реализации, выход которого является информационным выходом устройства, отличающееся тем, что выход блока хранения входной реализации подключен к входу блока управления и первому входу блока детектора границ Канни, выход которого подключен к первому входу блока выбора скользящего окна и первому входу блока определения общего коэффициента детализации, выход которого подключен к первому входу блока сравнения, выход которого подключен к первому входу блока хранения выходной реализации; выход блока выбора скользящего окна подключен к первому входу блока определения коэффициента детализации в скользящем окне, выход которого подключен ко второму входу блока сравнения; выход блока управления подключен ко второму входу блока детектора границ Канни, к второму входу блока определения общего коэффициента детализации, к второму входу блока выбора скользящего окна, к второму входу блока определения коэффициента детализации в скользящем окне и к второму входу блока хранения выходной реализации; синхронность работы устройства обеспечивается генератором тактовых импульсов.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2013124207/08A RU2542876C2 (ru) | 2013-05-27 | 2013-05-27 | Устройство выделения высокодетализированных объектов на изображении сцены |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2013124207/08A RU2542876C2 (ru) | 2013-05-27 | 2013-05-27 | Устройство выделения высокодетализированных объектов на изображении сцены |
Publications (2)
Publication Number | Publication Date |
---|---|
RU2013124207A RU2013124207A (ru) | 2014-12-10 |
RU2542876C2 true RU2542876C2 (ru) | 2015-02-27 |
Family
ID=53290118
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2013124207/08A RU2542876C2 (ru) | 2013-05-27 | 2013-05-27 | Устройство выделения высокодетализированных объектов на изображении сцены |
Country Status (1)
Country | Link |
---|---|
RU (1) | RU2542876C2 (ru) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2697737C2 (ru) * | 2016-10-26 | 2019-08-19 | Федеральное государственное казенное военное образовательное учреждение высшего образования "Военный учебно-научный центр Военно-воздушных сил "Военно-воздушная академия имени профессора Н.Е. Жуковского и Ю.А. Гагарина" (г. Воронеж) Министерства обороны Российской Федерации | Способ обнаружения и локализации текстовых форм на изображениях |
RU2718429C1 (ru) * | 2019-12-13 | 2020-04-02 | федеральное государственное бюджетное образовательное учреждение высшего образования "Донской государственный технический университет" (ДГТУ) | Устройство обнаружения локально-стационарных областей на изображении |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2695980C1 (ru) * | 2018-12-24 | 2019-07-29 | федеральное государственное бюджетное образовательное учреждение высшего образования "Донской государственный технический университет" (ДГТУ) | Устройство сегментации изображений |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1777643A1 (de) * | 2004-08-04 | 2007-04-25 | Daulet Kulenov | Verfahren zum automatischen erkennen eines gesichts in einem elektronisch digitalisierten bild |
RU2362210C1 (ru) * | 2007-11-29 | 2009-07-20 | Государственное образовательное учреждение высшего профессионального образования Курский государственный технический университет | Устройство выделения контуров объектов на изображении |
US7636128B2 (en) * | 2005-07-15 | 2009-12-22 | Microsoft Corporation | Poisson matting for images |
RU2426172C1 (ru) * | 2010-01-21 | 2011-08-10 | Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." | Способ и система выделения данных об изображении объекта переднего плана на основе данных о цвете и глубине |
-
2013
- 2013-05-27 RU RU2013124207/08A patent/RU2542876C2/ru not_active IP Right Cessation
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1777643A1 (de) * | 2004-08-04 | 2007-04-25 | Daulet Kulenov | Verfahren zum automatischen erkennen eines gesichts in einem elektronisch digitalisierten bild |
US7636128B2 (en) * | 2005-07-15 | 2009-12-22 | Microsoft Corporation | Poisson matting for images |
RU2362210C1 (ru) * | 2007-11-29 | 2009-07-20 | Государственное образовательное учреждение высшего профессионального образования Курский государственный технический университет | Устройство выделения контуров объектов на изображении |
RU2426172C1 (ru) * | 2010-01-21 | 2011-08-10 | Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." | Способ и система выделения данных об изображении объекта переднего плана на основе данных о цвете и глубине |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2697737C2 (ru) * | 2016-10-26 | 2019-08-19 | Федеральное государственное казенное военное образовательное учреждение высшего образования "Военный учебно-научный центр Военно-воздушных сил "Военно-воздушная академия имени профессора Н.Е. Жуковского и Ю.А. Гагарина" (г. Воронеж) Министерства обороны Российской Федерации | Способ обнаружения и локализации текстовых форм на изображениях |
RU2718429C1 (ru) * | 2019-12-13 | 2020-04-02 | федеральное государственное бюджетное образовательное учреждение высшего образования "Донской государственный технический университет" (ДГТУ) | Устройство обнаружения локально-стационарных областей на изображении |
Also Published As
Publication number | Publication date |
---|---|
RU2013124207A (ru) | 2014-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103578116B (zh) | 用于跟踪对象的设备和方法 | |
JP5213486B2 (ja) | 対象物追跡装置および対象物追跡方法 | |
JP2017531883A (ja) | 画像の主要被写体を抽出する方法とシステム | |
WO2020001149A1 (zh) | 用于在深度图像中提取物体的边缘的方法、装置和计算机可读存储介质 | |
CN110570435B (zh) | 用于对车辆损伤图像进行损伤分割的方法及装置 | |
US20100079453A1 (en) | 3D Depth Generation by Vanishing Line Detection | |
US10249046B2 (en) | Method and apparatus for object tracking and segmentation via background tracking | |
CN109271848B (zh) | 一种人脸检测方法及人脸检测装置、存储介质 | |
KR101737430B1 (ko) | 동적 배경을 가진 영상의 대상 객체 검출 방법 | |
RU2542876C2 (ru) | Устройство выделения высокодетализированных объектов на изображении сцены | |
Umirzakova et al. | Fully Automatic Stroke Symptom Detection Method Based on Facial Features and Moving Hand Differences | |
CN112991159B (zh) | 人脸光照质量评估方法、***、服务器与计算机可读介质 | |
CN107832696B (zh) | 一种电力作业现场物体安全特征识别*** | |
CN112750089B (zh) | 基于局部块最大和最小像素先验的光学遥感影像去雾方法 | |
JP2002269545A (ja) | 顔画像処理方法及び顔画像処理装置 | |
Kotteswari et al. | Analysis of foreground detection in MRI images using region based segmentation | |
US20240221181A1 (en) | Image processing system | |
RU2718429C1 (ru) | Устройство обнаружения локально-стационарных областей на изображении | |
CN112085683B (zh) | 一种显著性检测中的深度图可信度检测方法 | |
JP2005141523A (ja) | 画像処理方法 | |
JP2004145592A (ja) | 移動ベクトル抽出装置及び方法及びプログラム及びその記録媒体 | |
Rashi et al. | Analysis of different image processing strategies | |
Rabha | Background modelling by codebook technique for automated video surveillance with shadow removal | |
CN112669299B (zh) | 瑕疵检测方法及装置、计算机设备和存储介质 | |
Sharma et al. | Efficient object detection with its enhancement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM4A | The patent is invalid due to non-payment of fees |
Effective date: 20150528 |