RU196355U1 - Device for automated recognition of behavior to detect aggression - Google Patents

Device for automated recognition of behavior to detect aggression Download PDF

Info

Publication number
RU196355U1
RU196355U1 RU2019120242U RU2019120242U RU196355U1 RU 196355 U1 RU196355 U1 RU 196355U1 RU 2019120242 U RU2019120242 U RU 2019120242U RU 2019120242 U RU2019120242 U RU 2019120242U RU 196355 U1 RU196355 U1 RU 196355U1
Authority
RU
Russia
Prior art keywords
bio
unit
radar
output
block
Prior art date
Application number
RU2019120242U
Other languages
Russian (ru)
Inventor
Леся Николаевна Анищенко
Original Assignee
Леся Николаевна Анищенко
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Леся Николаевна Анищенко filed Critical Леся Николаевна Анищенко
Priority to RU2019120242U priority Critical patent/RU196355U1/en
Application granted granted Critical
Publication of RU196355U1 publication Critical patent/RU196355U1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

Полезная модель относится к области дистанционного анализа и классификации движений человека и может быть использована для автоматизированного поведения с целью выявления агрессии. Технический результат заключается в расширении потенциальных возможностей дистанционного анализа и повышении точности классификации движений человека на основе видеоанализа за счет использования дополнительного биорадиолокационного канала информации с целью выявления агрессивного поведения. Устройство, содержащее видеокамеру, блок нахождения на изображении человека и выделения узловых точек его силуэта, блок извлечения признаков из координат узловых точек, извлеченных из видеопоследовательности, блок первичной классификации поведения по данным видеоканала, биорадиолокатор, блок первичной фильтрации биорадиолокационных сигналов, блок нормализации биорадиолокационного сигнала, блок извлечения признаков биорадиолокационного сигнала, блок нормализации признаков биорадиолокационного сигнала, блок первичной классификации поведения по данным биорадиолокационного канала, блок вторичной классификации, блок сопряжения с устройством вывода. 1 ил.The utility model relates to the field of remote analysis and classification of human movements and can be used for automated behavior in order to detect aggression. The technical result consists in expanding the potential of remote analysis and improving the accuracy of classification of human movements based on video analysis through the use of an additional bio-radar channel of information in order to detect aggressive behavior. A device containing a video camera, a unit for locating a person’s image on the image of a person and highlighting nodal points of his silhouette, a unit for extracting features from the coordinates of nodal points extracted from the video sequence, a unit for primary classification of behavior according to the video channel, a bioradar, a unit for primary filtering of bioradar signals, a unit for normalizing a bioradar signal, a block for extracting signs of a bio-radar signal, a block for normalizing signs of a bio-radar signal, a block for primary classification and behavior according to the bio-radar channel, a secondary classification unit, an interface unit with an output device. 1 ill.

Description

Область техникиTechnical field

Полезная модель относится к области дистанционного анализа и классификации движений человека и может быть использована для автоматизированного поведения с целью выявления агрессии.The utility model relates to the field of remote analysis and classification of human movements and can be used for automated behavior in order to detect aggression.

Уровень техникиState of the art

Из предшествующего уровня техники известны системы видеонаблюдения и анализа для изучения поведения на основе данных потокового видео (US 2008/053457, опубл. 08.02.2008; RU 2475853 С2, опубл. 20.02.2013; WO 2008/098188, опубл. 14.08.2008; US 8396247 В2, опубл. 12.03.2013), системы видеонаблюдения для обнаружения отличного от нормального поведения (RU 2510960 С2, опубл. 10.04.2014; US Re44527 Е, опубл. 08.10.2013), а также способ генерации сигнала оповещения в системе наблюдения, включающий обнаружение человека в видеопотоке, классификацию его действий по множеству кадров, а также генерацию сигнала тревоги в случае, если действие объекта классифицируется как требующее оповещения US 2018/0174412 А1 (опубл. 21.06.2018). Кроме того, известны системы продолжительного дистанционного бесконтактного мониторинга параметров жизнедеятельности человека, включая движение, при помощи радиолокационных средств (RU 2462990 С2, опубл. 10.10.2012) дыхание и сердцебиение.From the prior art, video surveillance and analysis systems are known for studying behavior based on streaming video data (US 2008/053457, publ. 08.02.2008; RU 2475853 C2, publ. 02.20.2013; WO 2008/098188, publ. 08/14/2008; US 8396247 B2, published on March 12, 2013), video surveillance systems for detecting abnormal behavior (RU 2510960 C2, published on 04/10/2014; US Re44527 E, published on 08/10/2013), as well as a method for generating a warning signal in a surveillance system , including the detection of a person in a video stream, the classification of his actions in a variety of frames, as well as the generation of an alarm in if the action of the object is classified as requiring notification US 2018/0174412 A1 (publ. 06/21/2018). In addition, there are known systems of continuous remote non-contact monitoring of vital signs, including movement, using radar (RU 2462990 C2, publ. 10.10.2012) breathing and heartbeat.

Наиболее близким к заявленному техническому решению является патент US 10242266 В2 (опубл. 26.03.2019), описывающий способ и систему обнаружения движений объекта, основанные на обработке последовательности изображений наблюдаемого события с целью обнаружения человека и отслеживания его траектории, с целью последующего распознавания типа движения/действия при помощи рекуррентной нейронной сети. Данное техническое решение обладает следующими недостатками: используемые для обнаружения человека и отслеживания его траектории данные, ограничены получаемыми при помощи систем видеорегистрации данными, что приводит к невозможности применения в случае, если обзор объекта частично или полностью заблокирован оптически непрозрачной преградой, чувствительности к неравномерности освещенности области наблюдения и вибрациям. Данные недостатки присущи всем способам обнаружения человека и отслеживания его траектории, основанным на анализе видеоданных.Closest to the claimed technical solution is the patent US 10242266 B2 (publ. March 26, 2019), which describes a method and system for detecting object movements based on processing a sequence of images of the observed event in order to detect a person and track its trajectory, in order to subsequently recognize the type of movement / actions using a recurrent neural network. This technical solution has the following disadvantages: the data used to detect a person and track their trajectories are limited by the data obtained using video recording systems, which makes it impossible to use, if the object’s overview is partially or completely blocked by an optically opaque obstruction, sensitivity to uneven illumination of the observation area and vibrations. These shortcomings are inherent in all methods of detecting a person and tracking his trajectory, based on the analysis of video data.

Раскрытие полезной моделиUtility Model Disclosure

Технической задачей предлагаемой полезной модели является расширение потенциальных возможностей дистанционного анализа и повышение точности классификации движений человека на основе видеоанализа за счет использования дополнительного биорадиолокационного канала информации с целью выявления агрессивного поведения.The technical task of the proposed utility model is to expand the potential of remote analysis and improve the accuracy of classification of human movements based on video analysis through the use of an additional bio-radar information channel in order to detect aggressive behavior.

Решение технической задачи достигается тем, что устройство дистанционного анализа и классификации движений человека на основе видеоанализа, отличается тем, что устройство представляет совместно используемые видеокамеру и радар ближнего радиуса действия с непрерывным сигналом и квадратурным детектором, выход видеокамеры подключен к входу блока нахождения на изображении человека и выделения узловых точек его силуэта, выход которого соединен с входом блока извлечения признаков, используя координаты узловых точек, извлеченных из видеопоследовательности, выход которого соединен с входом блока первичной классификации поведения по данным видеоканала, выход биорадиолокатора подключен к входу блока первичной фильтрации биорадиолокационных сигналов, который соединен с входом блока нормализации биорадиолокационного сигнала, выход которого соединен с входом блока извлечения признаков биорадиолокационного сигнала, сигнал с которого поступает на вход блока нормализации признаков, выход которого соединен с входом блока первичной классификации поведения по данным биорадиолокационного канала, выход которого совместно с выходом блока первичной классификации поведения по данным видеоканала соединен с входом блока вторичной классификации, сигнал с которого поступает на блок сопряжения с устройством вывода.The solution to the technical problem is achieved in that the device for the remote analysis and classification of human movements based on video analysis, characterized in that the device represents a shared video camera and a short-range radar with a continuous signal and a quadrature detector, the output of the video camera is connected to the input of the unit on the image of a person highlighting the nodal points of its silhouette, the output of which is connected to the input of the feature extraction unit using the coordinates of the nodal points extracted from the video sequence, the output of which is connected to the input of the block of primary classification of behavior according to the video channel, the output of the bio-radar is connected to the input of the block of primary filtering of the bio-radar signals, which is connected to the input of the block of normalization of the bio-radar signal, the output of which is connected to the input of the block of extraction of signs of the bio-radar signal, the signal from which to the input of the block of normalization of signs, the output of which is connected to the input of the block of the primary classification of behavior according to bior iolokatsionnogo channel, the output of which together with the output of the primary classification of the behavior according to the video channel coupled to the input of the secondary classification, the signal from which is fed to an output device for interfacing with the block.

Техническим результатом, обеспечиваемым приведенной совокупностью признаков, является улучшенное качество дистанционного анализа и классификации движений человека с целью выявления агрессивного поведения на основе видеоанализа, за счет использования дополнительного биорадиолокационного канала информации.The technical result provided by the given set of features is the improved quality of remote analysis and classification of human movements in order to identify aggressive behavior based on video analysis, through the use of an additional bio-radar information channel.

Перечень фигур чертежей и иных материалов.The list of figures of drawings and other materials.

Фиг. 1. Блок-схема устройства для бесконтактного для автоматизированного выявления агрессивного поведения, где 1 - видеокамера; 2 - блок нахождения на изображении человека и выделения узловых точек его силуэта; 3 - блок извлечения признаков из координат узловых точек, извлеченных из видеопоследовательности; 4 - блок первичной классификации поведения по данным видеоканала; 5 - биорадиолокатор; 6 - блок первичной фильтрации биорадиолокационных сигналов; 7 - блок нормализации биорадиолокационного сигнала; 8 - блок извлечения признаков биорадиолокационного сигнала; 9 - блок нормализации признаков биорадиолокационного сигнала; 10 - блок первичной классификации поведения по данным биорадиолокационного канала; 11 - блок вторичной классификации; 12 - блок сопряжения с устройством вывода.FIG. 1. Block diagram of a device for contactless for automated detection of aggressive behavior, where 1 is a video camera; 2 - block finding on the image of a person and highlight the nodal points of his silhouette; 3 - a block for extracting features from the coordinates of the nodal points extracted from the video sequence; 4 - block primary classification of behavior according to the video channel; 5 - bioradar; 6 - block primary filtering bioradar signals; 7 - block normalization of the bio-radar signal; 8 - a block for extracting signs of a bio-radar signal; 9 - block normalization of signs of a bio-radar signal; 10 - block primary classification of behavior according to the bio-radar channel; 11 - block secondary classification; 12 - block interface with the output device.

Сведения, подтверждающие возможность осуществления полезной модели.Information confirming the possibility of implementing a utility model.

Вопрос обнаружения и распознавания различных типов двигательной активности людей с помощью видеокамер и камер глубины, а также метода биорадиолокации широко изучался в последние десятилетия. При этом, использованию таких систем для выявления агрессивно ведущих себя людей до настоящего времени практически не уделялось внимания.The issue of detecting and recognizing various types of motor activity of people with the help of video cameras and depth cameras, as well as the bio-radar method, has been widely studied in recent decades. At the same time, the use of such systems to identify aggressively behaving people has so far received almost no attention.

Описаны способы использования систем видеонаблюдения и методов компьютерного зрения с целью автоматизации выявления агрессивного поведения, однако на практике в большинстве случаев эта процедура выполняется оператором вручную. В первую очередь это связано с трудностями, возникающими при необходимости отслеживания нескольких целей, нестабильности работы алгоритмов классификации, чувствительных к углу наблюдения сцены, расстоянию до объекта, вибрациям, а также условиям освещенности.Describes how to use video surveillance systems and computer vision methods to automate the detection of aggressive behavior, but in practice, in most cases, this procedure is performed manually by the operator. This is primarily due to the difficulties that arise when it is necessary to track several targets, the instability of the classification algorithms that are sensitive to the viewing angle of the scene, the distance to the object, vibrations, as well as lighting conditions.

Есть также много работ, посвященных распознаванию различных типов движений человека с использованием биорадаров. Наибольшее внимание в этих работах уделяется выявлению эпизодов падений у пожилых людей и анализу походки человека. Возможность выявления агрессивного поведения с использованием биорадаров до настоящего времени не рассматривалась, хотя бесконтактные системы автоматизированного выявления агрессивного поведения могут быть чрезвычайно востребованы на практике, например, для обеспечения порядка на железнодорожных станциях, стадионах, в общественном транспорте и др.).There are also many works devoted to the recognition of various types of human movements using bioradar. The greatest attention in these works is given to identifying episodes of falls in the elderly and analyzing the person’s gait. The possibility of detecting aggressive behavior using bioradars has not yet been considered, although contactless systems for automated detection of aggressive behavior can be extremely popular in practice, for example, to ensure order at railway stations, stadiums, public transport, etc.).

Особый интерес представляет объединение нескольких каналов информации (например, канала видеонаблюдения и биорадиолокации), позволяющих обнаруживать агрессивной поведение, в единый контур, с целью повышения точности выявления агрессивного поведения по сравнению с одноканальной системой.Of particular interest is the combination of several information channels (for example, a video surveillance channel and bio-radar), which allow detecting aggressive behavior in a single circuit in order to increase the accuracy of detecting aggressive behavior compared to a single-channel system.

Функционирование устройства для автоматизированного выявления агрессивного поведения заключается в следующем (фиг. 1): видеокамера (1) представляет собой камеру видеонаблюдения. Видеокамера (1) обеспечивает регистрацию видеопотока (т.е. последовательности отдельных видеокадров) области наблюдения. Выходом видеокамеры является последовательность отдельных видеокадров, соответствующих области наблюдения, с частотой следования кадров 30 Гц.The functioning of the device for the automated detection of aggressive behavior is as follows (Fig. 1): the video camera (1) is a video surveillance camera. The video camera (1) provides registration of the video stream (i.e., a sequence of individual video frames) of the observation area. The output of the video camera is a sequence of individual video frames corresponding to the observation area, with a frame rate of 30 Hz.

Блок нахождения на изображении человека и выделения узловых точек его силуэта (2) обеспечивает нахождение человека и узловых точек его силуэта в каждом кадре при помощи сверточной нейронной сети. Вход нахождения на изображении человека и выделения узловых точек его силуэта (2) соединен с выходом видеокамеры (1), а выход блока соединен с блоком извлечения признаков из координат узловых точек, извлеченных из видеопоследовательности (3).The block of location on the image of a person and the allocation of nodal points of his silhouette (2) ensures the location of a person and nodal points of his silhouette in each frame using a convolutional neural network. The input of the location on the image of the person and the selection of nodal points of his silhouette (2) is connected to the output of the camera (1), and the output of the block is connected to the block for extracting features from the coordinates of the nodal points extracted from the video sequence (3).

Блок извлечения признаков из координат узловых точек, извлеченных из видеопоследовательности (3) обеспечивает извлечение признаков для каждого 10-секундного интервала видеопоследовательности. Признаки извлекаются на основе статистического описания скорости изменения координат угловых точек от кадра к кадру (среднее, стандартное отклонение, межквартильный размах, медиана, и др.). Выход блока извлечения признаков из координат узловых точек, извлеченных из видеопоследовательности (3) соединен с блоком первичной классификации поведения по данным видеоканала (4).The feature extraction unit from the coordinates of the nodal points extracted from the video sequence (3) provides feature extraction for each 10-second interval of the video sequence. Signs are extracted on the basis of a statistical description of the rate of change of coordinates of corner points from frame to frame (mean, standard deviation, interquartile range, median, etc.). The output of the feature extraction unit from the coordinates of the nodal points extracted from the video sequence (3) is connected to the primary behavior classification unit according to the video channel (4).

Блок первичной классификации по данным видеоканала (4) обеспечивает классификацию зарегистрированного видеоканала, как соответствующего или не соответствующего агрессивному поведению на основе анализа признакового описания. Вход блока первичной классификации (4) соединен с блоком извлечения признаков из координат узловых точек, извлеченных из видеопоследовательности (3), выход блока соединен с блоком вторичной классификации (11).The primary classification block according to the video channel (4) provides a classification of the registered video channel as corresponding or not corresponding to aggressive behavior based on the analysis of the characteristic description. The input of the primary classification block (4) is connected to the block for extracting features from the coordinates of the nodal points extracted from the video sequence (3), the output of the block is connected to the secondary classification block (11).

Биорадиолокатор (5) представляет собой радар ближнего радиуса действия с непрерывным сигналом и квадратурным детектором. Биорадиолокатор (5) обеспечивает регистрацию колебательных движений и перемещений поверхности тела человека, а именно движений тела и конечностей. Выходом биорадиолокатора является от 2 оцифрованных сигнала. Каждый сигнал представляет собой I или Q квадратуру на частоте зондирования биорадиолокатора.Bioradar radar (5) is a short-range radar with a continuous signal and a quadrature detector. Bioradar radar (5) provides registration of vibrational movements and movements of the surface of the human body, namely the movements of the body and limbs. The output of the bioradar is from 2 digitized signals. Each signal represents an I or Q quadrature at the sounding frequency of the bioradar.

Блок первичной фильтрации биорадиолокационных сигналов (6) обеспечивает полосовую фильтрацию цифровых сигналов, поступающих с радиолокатора, в диапазоне от 2 Гц до 100 Гц. Вход блока фильтрации биорадиолокационных сигналов (6) соединен с выходом биорадиолокатора (5), а выход блока соединен с блоком нормализации биорадиолокационного сигнала (7).The primary filtering unit for bio-radar signals (6) provides band-pass filtering of digital signals coming from the radar in the range from 2 Hz to 100 Hz. The input of the bio-radar signal filtering unit (6) is connected to the bio-radar output (5), and the output of the unit is connected to the bio-radar signal normalization unit (7).

Блок нормализации биорадиолокационного сигнала (7) обеспечивает одинаковую среднюю амплитуду биорадиолокационного сигнала в течение записи. Нормализация осуществляется путем вычитания среднего значения сигнала в течение записи и деления на стандартное отклонение сигнала в течение записи. Вход блока нормализации биорадиолокационного сигнала (7) соединен с блоком фильтрации биорадиолокационных сигналов (6), а выход блока нормализации биорадиолокационного сигнала (7) соединен с блоком извлечения признаков биорадиолокационного сигнала (8).The unit for normalizing the bio-radar signal (7) provides the same average amplitude of the bio-radar signal during recording. Normalization is performed by subtracting the average signal value during recording and dividing by the standard deviation of the signal during recording. The input of the bio-radar signal normalization unit (7) is connected to the bio-radar signal filtering unit (6), and the output of the bio-radar signal normalization unit (7) is connected to the bio-radar signal extraction unit (8).

Блок извлечения признаков биорадиолокационного сигнала (8) обеспечивает извлечение признаков для каждого 10-секундного интервала сигнала. Признаки извлекаются на основе спектральной плотности мощности; энтропии шаблонов (Sample Entropy), аппроксимирующей энтропии (Approximate Entropy); статистического описания параметров биорадиолокационного сигнала (среднее, стандартное отклонение, межквартильный размах, медиана, и др.). Выход блока извлечения признаков биорадиолокационного сигнала (8) соединен с блоком нормализации признаков биорадиолокационного сигнала (9).The bio-radar signal feature extraction unit (8) provides feature extraction for each 10 second signal interval. Signs are derived based on the power spectral density; entropy of patterns (Sample Entropy), approximating entropy (Approximate Entropy); a statistical description of the parameters of the bioradar signal (mean, standard deviation, interquartile range, median, etc.). The output of the bio-radar signal feature extraction unit (8) is connected to the bio-radar signal feature normalization unit (9).

Блок нормализации признаков биорадиолокационного сигнала (9) обеспечивает нормализацию каждого из извлеченных признаков в течение записи. Нормализация осуществляется путем вычитания среднего значения признака в течение записи и деления на стандартное отклонение признака в течение записи. Вход блока соединен с блоком извлечения признаков из биорадиолокационного сигнала (8), а выход блока нормализации признаков биорадиолокационного сигнала (9) соединен с блоком первичной классификации по данным биорадиолокационного сигнала (10).The normalization block of the signs of the bio-radar signal (9) ensures the normalization of each of the extracted signs during the recording. Normalization is carried out by subtracting the average value of the characteristic during the recording and dividing by the standard deviation of the characteristic during the recording. The input of the block is connected to the block for extracting signs from the bio-radar signal (8), and the output of the block for normalizing the signs of the bio-radar signal (9) is connected to the primary classification block according to the data of the bio-radar signal (10).

Блок первичной классификации по данным биорадиолокационного сигнала (10) обеспечивает классификацию зарегистрированного биорадиолокационного сигнала, как соответствующего или не соответствующего агрессивному поведению на основе анализа признакового описания. Вход блока первичной классификации (10) соединен с блоком нормализации признаков биорадиолокационного сигнала (9), выход блока соединен с блоком вторичной классификации (11).The primary classification block according to the bio-radar signal (10) provides a classification of the registered bio-radar signal as corresponding or not corresponding to aggressive behavior based on the analysis of the characteristic description. The input of the primary classification block (10) is connected to the normalization block of the signs of the bioradar signal (9), the output of the block is connected to the secondary classification block (11).

Блок вторичной классификации (11) обеспечивает классификацию каждого 10-секундного интервала записи как соответствующего или не соответствующего агрессивному поведению на основе анализа совокупности данных, полученных в предыдущих блоках. Вход блока вторичной классификации (11) соединен с блоком первичной классификации поведения по данным видеоканала (4) и блоком первичной классификации поведения по данным биорадиолокационного канала (10), выход блока соединен с блоком сопряжения с устройства вывода (12).The secondary classification unit (11) provides a classification of each 10-second recording interval as corresponding or not corresponding to aggressive behavior based on the analysis of the totality of data obtained in the previous blocks. The input of the secondary classification block (11) is connected to the primary behavior classification block according to the video channel (4) and the primary behavior classification block according to the bio-radar channel data (10), the output of the block is connected to the interface block from the output device (12).

Блок сопряжения с устройством вывода (12) обеспечивает передачу информации о выявленном эпизоде агрессивного поведения (совокупности классифицированных 10-секундных интервалов) на устройства вывода с помощью кабеля USB или радиоинтерфейса. В качестве радиоинтерфейса может быть использована технология Bluetooth или Wi-Fi. В качестве устройства вывода может выступать персональный компьютер или смартфон. Вход блока соединен с блоком вторичной классификации (11), выход блока соединен с устройством вывода.The interface unit with the output device (12) provides information about the detected episode of aggressive behavior (a set of classified 10-second intervals) to the output devices using a USB cable or radio interface. As a radio interface, Bluetooth or Wi-Fi technology can be used. The output device may be a personal computer or smartphone. The input of the unit is connected to the secondary classification unit (11), the output of the unit is connected to the output device.

Достигаемый технический результат заключается в повышении качества дистанционного анализа и классификации движений человека с целью выявления агрессивного поведения на основе видеоанализа, за счет использования дополнительного биорадиолокационного канала информации.The technical result achieved is to improve the quality of remote analysis and classification of human movements in order to identify aggressive behavior based on video analysis, through the use of an additional bio-radar information channel.

Claims (1)

Устройство для обнаружения действий объекта в зоне наблюдения, содержащее камеру видеонаблюдения, отличающееся тем, что устройство представляет совместно используемые видеокамеру и радар ближнего радиуса действия с непрерывным сигналом и квадратурным детектором, выход видеокамеры подключен к входу блока нахождения на изображении человека и выделения узловых точек его силуэта, выход которого соединен с входом блока извлечения признаков, используя координаты узловых точек, извлеченных из кадров видеосигнала, выход которого соединен с входом блока первичной классификации поведения по данным видеосигнала, выход биорадиолокатора подключен к входу блока первичной фильтрации биорадиолокационных сигналов, который соединен с входом блока нормализации биорадиолокационного сигнала, выход которого соединен с входом блока извлечения признаков биорадиолокационного сигнала, сигнал с которого поступает на вход блока нормализации признаков, выход которого соединен с входом блока первичной классификации поведения по данным биорадиолокационного канала, выход которого совместно с выходом блока первичной классификации поведения по данным видеосигнала соединен с входом блока вторичной классификации, сигнал с которого поступает на блок сопряжения с устройством вывода.A device for detecting the actions of an object in the observation zone, containing a video surveillance camera, characterized in that the device represents a shared video camera and short-range radar with a continuous signal and a quadrature detector, the output of the video camera is connected to the input of the unit on the image of a person and the selection of nodal points of his silhouette the output of which is connected to the input of the feature extraction unit using the coordinates of the nodal points extracted from the frames of the video signal whose output is connected the input of the primary classification block of behavior according to the video signal, the output of the bio-radar is connected to the input of the primary filtering module of the bio-radar signals, which is connected to the input of the normalization unit of the bio-radar signal, the output of which is connected to the input of the extraction unit of signs of the bio-radar signal, the signal from which is input to the input of the normalization of signs, the output of which is connected to the input of the block of the primary classification of behavior according to the bio-radar channel, the output of which is compatible It is connected with the output of the primary classification block of behavior according to the video signal and is connected to the input of the secondary classification block, the signal from which is fed to the interface with the output device.
RU2019120242U 2019-06-26 2019-06-26 Device for automated recognition of behavior to detect aggression RU196355U1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2019120242U RU196355U1 (en) 2019-06-26 2019-06-26 Device for automated recognition of behavior to detect aggression

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2019120242U RU196355U1 (en) 2019-06-26 2019-06-26 Device for automated recognition of behavior to detect aggression

Publications (1)

Publication Number Publication Date
RU196355U1 true RU196355U1 (en) 2020-02-26

Family

ID=69630842

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2019120242U RU196355U1 (en) 2019-06-26 2019-06-26 Device for automated recognition of behavior to detect aggression

Country Status (1)

Country Link
RU (1) RU196355U1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2009133474A (en) * 2007-02-08 2011-03-20 Бихейвиэрл Рикогнишн Системз, Инк. (Us) BEHAVIOR RECOGNITION SYSTEM
RU2012121408A (en) * 2012-05-24 2013-12-10 Закрытое акционерное общество "ЭЛВИС-НеоТек" VIDEO SURVEILLANCE DEVICE "MILLER WHEEL"
US20170255832A1 (en) * 2016-03-02 2017-09-07 Mitsubishi Electric Research Laboratories, Inc. Method and System for Detecting Actions in Videos
US20180174412A1 (en) * 2016-12-21 2018-06-21 Axis Ab Method for generating alerts in a video surveillance system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2009133474A (en) * 2007-02-08 2011-03-20 Бихейвиэрл Рикогнишн Системз, Инк. (Us) BEHAVIOR RECOGNITION SYSTEM
RU2012121408A (en) * 2012-05-24 2013-12-10 Закрытое акционерное общество "ЭЛВИС-НеоТек" VIDEO SURVEILLANCE DEVICE "MILLER WHEEL"
US20170255832A1 (en) * 2016-03-02 2017-09-07 Mitsubishi Electric Research Laboratories, Inc. Method and System for Detecting Actions in Videos
US20180174412A1 (en) * 2016-12-21 2018-06-21 Axis Ab Method for generating alerts in a video surveillance system

Similar Documents

Publication Publication Date Title
Harrou et al. An integrated vision-based approach for efficient human fall detection in a home environment
Hsu et al. Deep learning with time-frequency representation for pulse estimation from facial videos
Kong et al. A HOG-SVM based fall detection IoT system for elderly persons using deep sensor
RU2393544C2 (en) Method and device to detect flame
KR101839827B1 (en) Smart monitoring system applied with recognition technic of characteristic information including face on long distance-moving object
Chen et al. A fall detection system based on infrared array sensors with tracking capability for the elderly at home
CN112396658B (en) Indoor personnel positioning method and system based on video
CN111144252B (en) Monitoring and early warning method for people stream analysis
KR20160035121A (en) Method and Apparatus for Counting Entity by Using Location Information Extracted from Depth Image
CN106652291A (en) Indoor simple monitoring and alarming system and method based on Kinect
KR101064927B1 (en) People count system using image analysis and method thereof
RU2315352C2 (en) Method and system for automatically finding three-dimensional images
Wu et al. A novel high performance human detection, tracking and alarm system based on millimeter-wave radar
EP2000998A2 (en) Flame detecting method and device
Merrouche et al. Fall detection using head tracking and centroid movement based on a depth camera
RU196355U1 (en) Device for automated recognition of behavior to detect aggression
Kroneman et al. Accurate pedestrian localization in overhead depth images via Height-Augmented HOG
CN104392201A (en) Human fall identification method based on omnidirectional visual sense
Nguyen et al. The internet-of-things based fall detection using fusion feature
Kasturi et al. Classification of human fall in top Viewed kinect depth images using binary support vector machine
JP6214425B2 (en) Specific motion detection device
KR101355206B1 (en) A count system of coming and going using image analysis and method thereof
US20220192507A1 (en) Method and system for dynamic physiological characteristic region capturing
Shrivastava et al. Human activity recognition by analysis of skeleton joint position in internet of things (IOT) environment
Mecocci et al. Automatic falls detection in hospital-room context

Legal Events

Date Code Title Description
MM9K Utility model has become invalid (non-payment of fees)

Effective date: 20200331