RU196355U1 - Device for automated recognition of behavior to detect aggression - Google Patents
Device for automated recognition of behavior to detect aggression Download PDFInfo
- Publication number
- RU196355U1 RU196355U1 RU2019120242U RU2019120242U RU196355U1 RU 196355 U1 RU196355 U1 RU 196355U1 RU 2019120242 U RU2019120242 U RU 2019120242U RU 2019120242 U RU2019120242 U RU 2019120242U RU 196355 U1 RU196355 U1 RU 196355U1
- Authority
- RU
- Russia
- Prior art keywords
- bio
- unit
- radar
- output
- block
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/192—Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
- G06V30/194—References adjustable by an adaptive method, e.g. learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
Полезная модель относится к области дистанционного анализа и классификации движений человека и может быть использована для автоматизированного поведения с целью выявления агрессии. Технический результат заключается в расширении потенциальных возможностей дистанционного анализа и повышении точности классификации движений человека на основе видеоанализа за счет использования дополнительного биорадиолокационного канала информации с целью выявления агрессивного поведения. Устройство, содержащее видеокамеру, блок нахождения на изображении человека и выделения узловых точек его силуэта, блок извлечения признаков из координат узловых точек, извлеченных из видеопоследовательности, блок первичной классификации поведения по данным видеоканала, биорадиолокатор, блок первичной фильтрации биорадиолокационных сигналов, блок нормализации биорадиолокационного сигнала, блок извлечения признаков биорадиолокационного сигнала, блок нормализации признаков биорадиолокационного сигнала, блок первичной классификации поведения по данным биорадиолокационного канала, блок вторичной классификации, блок сопряжения с устройством вывода. 1 ил.The utility model relates to the field of remote analysis and classification of human movements and can be used for automated behavior in order to detect aggression. The technical result consists in expanding the potential of remote analysis and improving the accuracy of classification of human movements based on video analysis through the use of an additional bio-radar channel of information in order to detect aggressive behavior. A device containing a video camera, a unit for locating a person’s image on the image of a person and highlighting nodal points of his silhouette, a unit for extracting features from the coordinates of nodal points extracted from the video sequence, a unit for primary classification of behavior according to the video channel, a bioradar, a unit for primary filtering of bioradar signals, a unit for normalizing a bioradar signal, a block for extracting signs of a bio-radar signal, a block for normalizing signs of a bio-radar signal, a block for primary classification and behavior according to the bio-radar channel, a secondary classification unit, an interface unit with an output device. 1 ill.
Description
Область техникиTechnical field
Полезная модель относится к области дистанционного анализа и классификации движений человека и может быть использована для автоматизированного поведения с целью выявления агрессии.The utility model relates to the field of remote analysis and classification of human movements and can be used for automated behavior in order to detect aggression.
Уровень техникиState of the art
Из предшествующего уровня техники известны системы видеонаблюдения и анализа для изучения поведения на основе данных потокового видео (US 2008/053457, опубл. 08.02.2008; RU 2475853 С2, опубл. 20.02.2013; WO 2008/098188, опубл. 14.08.2008; US 8396247 В2, опубл. 12.03.2013), системы видеонаблюдения для обнаружения отличного от нормального поведения (RU 2510960 С2, опубл. 10.04.2014; US Re44527 Е, опубл. 08.10.2013), а также способ генерации сигнала оповещения в системе наблюдения, включающий обнаружение человека в видеопотоке, классификацию его действий по множеству кадров, а также генерацию сигнала тревоги в случае, если действие объекта классифицируется как требующее оповещения US 2018/0174412 А1 (опубл. 21.06.2018). Кроме того, известны системы продолжительного дистанционного бесконтактного мониторинга параметров жизнедеятельности человека, включая движение, при помощи радиолокационных средств (RU 2462990 С2, опубл. 10.10.2012) дыхание и сердцебиение.From the prior art, video surveillance and analysis systems are known for studying behavior based on streaming video data (US 2008/053457, publ. 08.02.2008; RU 2475853 C2, publ. 02.20.2013; WO 2008/098188, publ. 08/14/2008; US 8396247 B2, published on March 12, 2013), video surveillance systems for detecting abnormal behavior (RU 2510960 C2, published on 04/10/2014; US Re44527 E, published on 08/10/2013), as well as a method for generating a warning signal in a surveillance system , including the detection of a person in a video stream, the classification of his actions in a variety of frames, as well as the generation of an alarm in if the action of the object is classified as requiring notification US 2018/0174412 A1 (publ. 06/21/2018). In addition, there are known systems of continuous remote non-contact monitoring of vital signs, including movement, using radar (RU 2462990 C2, publ. 10.10.2012) breathing and heartbeat.
Наиболее близким к заявленному техническому решению является патент US 10242266 В2 (опубл. 26.03.2019), описывающий способ и систему обнаружения движений объекта, основанные на обработке последовательности изображений наблюдаемого события с целью обнаружения человека и отслеживания его траектории, с целью последующего распознавания типа движения/действия при помощи рекуррентной нейронной сети. Данное техническое решение обладает следующими недостатками: используемые для обнаружения человека и отслеживания его траектории данные, ограничены получаемыми при помощи систем видеорегистрации данными, что приводит к невозможности применения в случае, если обзор объекта частично или полностью заблокирован оптически непрозрачной преградой, чувствительности к неравномерности освещенности области наблюдения и вибрациям. Данные недостатки присущи всем способам обнаружения человека и отслеживания его траектории, основанным на анализе видеоданных.Closest to the claimed technical solution is the patent US 10242266 B2 (publ. March 26, 2019), which describes a method and system for detecting object movements based on processing a sequence of images of the observed event in order to detect a person and track its trajectory, in order to subsequently recognize the type of movement / actions using a recurrent neural network. This technical solution has the following disadvantages: the data used to detect a person and track their trajectories are limited by the data obtained using video recording systems, which makes it impossible to use, if the object’s overview is partially or completely blocked by an optically opaque obstruction, sensitivity to uneven illumination of the observation area and vibrations. These shortcomings are inherent in all methods of detecting a person and tracking his trajectory, based on the analysis of video data.
Раскрытие полезной моделиUtility Model Disclosure
Технической задачей предлагаемой полезной модели является расширение потенциальных возможностей дистанционного анализа и повышение точности классификации движений человека на основе видеоанализа за счет использования дополнительного биорадиолокационного канала информации с целью выявления агрессивного поведения.The technical task of the proposed utility model is to expand the potential of remote analysis and improve the accuracy of classification of human movements based on video analysis through the use of an additional bio-radar information channel in order to detect aggressive behavior.
Решение технической задачи достигается тем, что устройство дистанционного анализа и классификации движений человека на основе видеоанализа, отличается тем, что устройство представляет совместно используемые видеокамеру и радар ближнего радиуса действия с непрерывным сигналом и квадратурным детектором, выход видеокамеры подключен к входу блока нахождения на изображении человека и выделения узловых точек его силуэта, выход которого соединен с входом блока извлечения признаков, используя координаты узловых точек, извлеченных из видеопоследовательности, выход которого соединен с входом блока первичной классификации поведения по данным видеоканала, выход биорадиолокатора подключен к входу блока первичной фильтрации биорадиолокационных сигналов, который соединен с входом блока нормализации биорадиолокационного сигнала, выход которого соединен с входом блока извлечения признаков биорадиолокационного сигнала, сигнал с которого поступает на вход блока нормализации признаков, выход которого соединен с входом блока первичной классификации поведения по данным биорадиолокационного канала, выход которого совместно с выходом блока первичной классификации поведения по данным видеоканала соединен с входом блока вторичной классификации, сигнал с которого поступает на блок сопряжения с устройством вывода.The solution to the technical problem is achieved in that the device for the remote analysis and classification of human movements based on video analysis, characterized in that the device represents a shared video camera and a short-range radar with a continuous signal and a quadrature detector, the output of the video camera is connected to the input of the unit on the image of a person highlighting the nodal points of its silhouette, the output of which is connected to the input of the feature extraction unit using the coordinates of the nodal points extracted from the video sequence, the output of which is connected to the input of the block of primary classification of behavior according to the video channel, the output of the bio-radar is connected to the input of the block of primary filtering of the bio-radar signals, which is connected to the input of the block of normalization of the bio-radar signal, the output of which is connected to the input of the block of extraction of signs of the bio-radar signal, the signal from which to the input of the block of normalization of signs, the output of which is connected to the input of the block of the primary classification of behavior according to bior iolokatsionnogo channel, the output of which together with the output of the primary classification of the behavior according to the video channel coupled to the input of the secondary classification, the signal from which is fed to an output device for interfacing with the block.
Техническим результатом, обеспечиваемым приведенной совокупностью признаков, является улучшенное качество дистанционного анализа и классификации движений человека с целью выявления агрессивного поведения на основе видеоанализа, за счет использования дополнительного биорадиолокационного канала информации.The technical result provided by the given set of features is the improved quality of remote analysis and classification of human movements in order to identify aggressive behavior based on video analysis, through the use of an additional bio-radar information channel.
Перечень фигур чертежей и иных материалов.The list of figures of drawings and other materials.
Фиг. 1. Блок-схема устройства для бесконтактного для автоматизированного выявления агрессивного поведения, где 1 - видеокамера; 2 - блок нахождения на изображении человека и выделения узловых точек его силуэта; 3 - блок извлечения признаков из координат узловых точек, извлеченных из видеопоследовательности; 4 - блок первичной классификации поведения по данным видеоканала; 5 - биорадиолокатор; 6 - блок первичной фильтрации биорадиолокационных сигналов; 7 - блок нормализации биорадиолокационного сигнала; 8 - блок извлечения признаков биорадиолокационного сигнала; 9 - блок нормализации признаков биорадиолокационного сигнала; 10 - блок первичной классификации поведения по данным биорадиолокационного канала; 11 - блок вторичной классификации; 12 - блок сопряжения с устройством вывода.FIG. 1. Block diagram of a device for contactless for automated detection of aggressive behavior, where 1 is a video camera; 2 - block finding on the image of a person and highlight the nodal points of his silhouette; 3 - a block for extracting features from the coordinates of the nodal points extracted from the video sequence; 4 - block primary classification of behavior according to the video channel; 5 - bioradar; 6 - block primary filtering bioradar signals; 7 - block normalization of the bio-radar signal; 8 - a block for extracting signs of a bio-radar signal; 9 - block normalization of signs of a bio-radar signal; 10 - block primary classification of behavior according to the bio-radar channel; 11 - block secondary classification; 12 - block interface with the output device.
Сведения, подтверждающие возможность осуществления полезной модели.Information confirming the possibility of implementing a utility model.
Вопрос обнаружения и распознавания различных типов двигательной активности людей с помощью видеокамер и камер глубины, а также метода биорадиолокации широко изучался в последние десятилетия. При этом, использованию таких систем для выявления агрессивно ведущих себя людей до настоящего времени практически не уделялось внимания.The issue of detecting and recognizing various types of motor activity of people with the help of video cameras and depth cameras, as well as the bio-radar method, has been widely studied in recent decades. At the same time, the use of such systems to identify aggressively behaving people has so far received almost no attention.
Описаны способы использования систем видеонаблюдения и методов компьютерного зрения с целью автоматизации выявления агрессивного поведения, однако на практике в большинстве случаев эта процедура выполняется оператором вручную. В первую очередь это связано с трудностями, возникающими при необходимости отслеживания нескольких целей, нестабильности работы алгоритмов классификации, чувствительных к углу наблюдения сцены, расстоянию до объекта, вибрациям, а также условиям освещенности.Describes how to use video surveillance systems and computer vision methods to automate the detection of aggressive behavior, but in practice, in most cases, this procedure is performed manually by the operator. This is primarily due to the difficulties that arise when it is necessary to track several targets, the instability of the classification algorithms that are sensitive to the viewing angle of the scene, the distance to the object, vibrations, as well as lighting conditions.
Есть также много работ, посвященных распознаванию различных типов движений человека с использованием биорадаров. Наибольшее внимание в этих работах уделяется выявлению эпизодов падений у пожилых людей и анализу походки человека. Возможность выявления агрессивного поведения с использованием биорадаров до настоящего времени не рассматривалась, хотя бесконтактные системы автоматизированного выявления агрессивного поведения могут быть чрезвычайно востребованы на практике, например, для обеспечения порядка на железнодорожных станциях, стадионах, в общественном транспорте и др.).There are also many works devoted to the recognition of various types of human movements using bioradar. The greatest attention in these works is given to identifying episodes of falls in the elderly and analyzing the person’s gait. The possibility of detecting aggressive behavior using bioradars has not yet been considered, although contactless systems for automated detection of aggressive behavior can be extremely popular in practice, for example, to ensure order at railway stations, stadiums, public transport, etc.).
Особый интерес представляет объединение нескольких каналов информации (например, канала видеонаблюдения и биорадиолокации), позволяющих обнаруживать агрессивной поведение, в единый контур, с целью повышения точности выявления агрессивного поведения по сравнению с одноканальной системой.Of particular interest is the combination of several information channels (for example, a video surveillance channel and bio-radar), which allow detecting aggressive behavior in a single circuit in order to increase the accuracy of detecting aggressive behavior compared to a single-channel system.
Функционирование устройства для автоматизированного выявления агрессивного поведения заключается в следующем (фиг. 1): видеокамера (1) представляет собой камеру видеонаблюдения. Видеокамера (1) обеспечивает регистрацию видеопотока (т.е. последовательности отдельных видеокадров) области наблюдения. Выходом видеокамеры является последовательность отдельных видеокадров, соответствующих области наблюдения, с частотой следования кадров 30 Гц.The functioning of the device for the automated detection of aggressive behavior is as follows (Fig. 1): the video camera (1) is a video surveillance camera. The video camera (1) provides registration of the video stream (i.e., a sequence of individual video frames) of the observation area. The output of the video camera is a sequence of individual video frames corresponding to the observation area, with a frame rate of 30 Hz.
Блок нахождения на изображении человека и выделения узловых точек его силуэта (2) обеспечивает нахождение человека и узловых точек его силуэта в каждом кадре при помощи сверточной нейронной сети. Вход нахождения на изображении человека и выделения узловых точек его силуэта (2) соединен с выходом видеокамеры (1), а выход блока соединен с блоком извлечения признаков из координат узловых точек, извлеченных из видеопоследовательности (3).The block of location on the image of a person and the allocation of nodal points of his silhouette (2) ensures the location of a person and nodal points of his silhouette in each frame using a convolutional neural network. The input of the location on the image of the person and the selection of nodal points of his silhouette (2) is connected to the output of the camera (1), and the output of the block is connected to the block for extracting features from the coordinates of the nodal points extracted from the video sequence (3).
Блок извлечения признаков из координат узловых точек, извлеченных из видеопоследовательности (3) обеспечивает извлечение признаков для каждого 10-секундного интервала видеопоследовательности. Признаки извлекаются на основе статистического описания скорости изменения координат угловых точек от кадра к кадру (среднее, стандартное отклонение, межквартильный размах, медиана, и др.). Выход блока извлечения признаков из координат узловых точек, извлеченных из видеопоследовательности (3) соединен с блоком первичной классификации поведения по данным видеоканала (4).The feature extraction unit from the coordinates of the nodal points extracted from the video sequence (3) provides feature extraction for each 10-second interval of the video sequence. Signs are extracted on the basis of a statistical description of the rate of change of coordinates of corner points from frame to frame (mean, standard deviation, interquartile range, median, etc.). The output of the feature extraction unit from the coordinates of the nodal points extracted from the video sequence (3) is connected to the primary behavior classification unit according to the video channel (4).
Блок первичной классификации по данным видеоканала (4) обеспечивает классификацию зарегистрированного видеоканала, как соответствующего или не соответствующего агрессивному поведению на основе анализа признакового описания. Вход блока первичной классификации (4) соединен с блоком извлечения признаков из координат узловых точек, извлеченных из видеопоследовательности (3), выход блока соединен с блоком вторичной классификации (11).The primary classification block according to the video channel (4) provides a classification of the registered video channel as corresponding or not corresponding to aggressive behavior based on the analysis of the characteristic description. The input of the primary classification block (4) is connected to the block for extracting features from the coordinates of the nodal points extracted from the video sequence (3), the output of the block is connected to the secondary classification block (11).
Биорадиолокатор (5) представляет собой радар ближнего радиуса действия с непрерывным сигналом и квадратурным детектором. Биорадиолокатор (5) обеспечивает регистрацию колебательных движений и перемещений поверхности тела человека, а именно движений тела и конечностей. Выходом биорадиолокатора является от 2 оцифрованных сигнала. Каждый сигнал представляет собой I или Q квадратуру на частоте зондирования биорадиолокатора.Bioradar radar (5) is a short-range radar with a continuous signal and a quadrature detector. Bioradar radar (5) provides registration of vibrational movements and movements of the surface of the human body, namely the movements of the body and limbs. The output of the bioradar is from 2 digitized signals. Each signal represents an I or Q quadrature at the sounding frequency of the bioradar.
Блок первичной фильтрации биорадиолокационных сигналов (6) обеспечивает полосовую фильтрацию цифровых сигналов, поступающих с радиолокатора, в диапазоне от 2 Гц до 100 Гц. Вход блока фильтрации биорадиолокационных сигналов (6) соединен с выходом биорадиолокатора (5), а выход блока соединен с блоком нормализации биорадиолокационного сигнала (7).The primary filtering unit for bio-radar signals (6) provides band-pass filtering of digital signals coming from the radar in the range from 2 Hz to 100 Hz. The input of the bio-radar signal filtering unit (6) is connected to the bio-radar output (5), and the output of the unit is connected to the bio-radar signal normalization unit (7).
Блок нормализации биорадиолокационного сигнала (7) обеспечивает одинаковую среднюю амплитуду биорадиолокационного сигнала в течение записи. Нормализация осуществляется путем вычитания среднего значения сигнала в течение записи и деления на стандартное отклонение сигнала в течение записи. Вход блока нормализации биорадиолокационного сигнала (7) соединен с блоком фильтрации биорадиолокационных сигналов (6), а выход блока нормализации биорадиолокационного сигнала (7) соединен с блоком извлечения признаков биорадиолокационного сигнала (8).The unit for normalizing the bio-radar signal (7) provides the same average amplitude of the bio-radar signal during recording. Normalization is performed by subtracting the average signal value during recording and dividing by the standard deviation of the signal during recording. The input of the bio-radar signal normalization unit (7) is connected to the bio-radar signal filtering unit (6), and the output of the bio-radar signal normalization unit (7) is connected to the bio-radar signal extraction unit (8).
Блок извлечения признаков биорадиолокационного сигнала (8) обеспечивает извлечение признаков для каждого 10-секундного интервала сигнала. Признаки извлекаются на основе спектральной плотности мощности; энтропии шаблонов (Sample Entropy), аппроксимирующей энтропии (Approximate Entropy); статистического описания параметров биорадиолокационного сигнала (среднее, стандартное отклонение, межквартильный размах, медиана, и др.). Выход блока извлечения признаков биорадиолокационного сигнала (8) соединен с блоком нормализации признаков биорадиолокационного сигнала (9).The bio-radar signal feature extraction unit (8) provides feature extraction for each 10 second signal interval. Signs are derived based on the power spectral density; entropy of patterns (Sample Entropy), approximating entropy (Approximate Entropy); a statistical description of the parameters of the bioradar signal (mean, standard deviation, interquartile range, median, etc.). The output of the bio-radar signal feature extraction unit (8) is connected to the bio-radar signal feature normalization unit (9).
Блок нормализации признаков биорадиолокационного сигнала (9) обеспечивает нормализацию каждого из извлеченных признаков в течение записи. Нормализация осуществляется путем вычитания среднего значения признака в течение записи и деления на стандартное отклонение признака в течение записи. Вход блока соединен с блоком извлечения признаков из биорадиолокационного сигнала (8), а выход блока нормализации признаков биорадиолокационного сигнала (9) соединен с блоком первичной классификации по данным биорадиолокационного сигнала (10).The normalization block of the signs of the bio-radar signal (9) ensures the normalization of each of the extracted signs during the recording. Normalization is carried out by subtracting the average value of the characteristic during the recording and dividing by the standard deviation of the characteristic during the recording. The input of the block is connected to the block for extracting signs from the bio-radar signal (8), and the output of the block for normalizing the signs of the bio-radar signal (9) is connected to the primary classification block according to the data of the bio-radar signal (10).
Блок первичной классификации по данным биорадиолокационного сигнала (10) обеспечивает классификацию зарегистрированного биорадиолокационного сигнала, как соответствующего или не соответствующего агрессивному поведению на основе анализа признакового описания. Вход блока первичной классификации (10) соединен с блоком нормализации признаков биорадиолокационного сигнала (9), выход блока соединен с блоком вторичной классификации (11).The primary classification block according to the bio-radar signal (10) provides a classification of the registered bio-radar signal as corresponding or not corresponding to aggressive behavior based on the analysis of the characteristic description. The input of the primary classification block (10) is connected to the normalization block of the signs of the bioradar signal (9), the output of the block is connected to the secondary classification block (11).
Блок вторичной классификации (11) обеспечивает классификацию каждого 10-секундного интервала записи как соответствующего или не соответствующего агрессивному поведению на основе анализа совокупности данных, полученных в предыдущих блоках. Вход блока вторичной классификации (11) соединен с блоком первичной классификации поведения по данным видеоканала (4) и блоком первичной классификации поведения по данным биорадиолокационного канала (10), выход блока соединен с блоком сопряжения с устройства вывода (12).The secondary classification unit (11) provides a classification of each 10-second recording interval as corresponding or not corresponding to aggressive behavior based on the analysis of the totality of data obtained in the previous blocks. The input of the secondary classification block (11) is connected to the primary behavior classification block according to the video channel (4) and the primary behavior classification block according to the bio-radar channel data (10), the output of the block is connected to the interface block from the output device (12).
Блок сопряжения с устройством вывода (12) обеспечивает передачу информации о выявленном эпизоде агрессивного поведения (совокупности классифицированных 10-секундных интервалов) на устройства вывода с помощью кабеля USB или радиоинтерфейса. В качестве радиоинтерфейса может быть использована технология Bluetooth или Wi-Fi. В качестве устройства вывода может выступать персональный компьютер или смартфон. Вход блока соединен с блоком вторичной классификации (11), выход блока соединен с устройством вывода.The interface unit with the output device (12) provides information about the detected episode of aggressive behavior (a set of classified 10-second intervals) to the output devices using a USB cable or radio interface. As a radio interface, Bluetooth or Wi-Fi technology can be used. The output device may be a personal computer or smartphone. The input of the unit is connected to the secondary classification unit (11), the output of the unit is connected to the output device.
Достигаемый технический результат заключается в повышении качества дистанционного анализа и классификации движений человека с целью выявления агрессивного поведения на основе видеоанализа, за счет использования дополнительного биорадиолокационного канала информации.The technical result achieved is to improve the quality of remote analysis and classification of human movements in order to identify aggressive behavior based on video analysis, through the use of an additional bio-radar information channel.
Claims (1)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2019120242U RU196355U1 (en) | 2019-06-26 | 2019-06-26 | Device for automated recognition of behavior to detect aggression |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2019120242U RU196355U1 (en) | 2019-06-26 | 2019-06-26 | Device for automated recognition of behavior to detect aggression |
Publications (1)
Publication Number | Publication Date |
---|---|
RU196355U1 true RU196355U1 (en) | 2020-02-26 |
Family
ID=69630842
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2019120242U RU196355U1 (en) | 2019-06-26 | 2019-06-26 | Device for automated recognition of behavior to detect aggression |
Country Status (1)
Country | Link |
---|---|
RU (1) | RU196355U1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2009133474A (en) * | 2007-02-08 | 2011-03-20 | Бихейвиэрл Рикогнишн Системз, Инк. (Us) | BEHAVIOR RECOGNITION SYSTEM |
RU2012121408A (en) * | 2012-05-24 | 2013-12-10 | Закрытое акционерное общество "ЭЛВИС-НеоТек" | VIDEO SURVEILLANCE DEVICE "MILLER WHEEL" |
US20170255832A1 (en) * | 2016-03-02 | 2017-09-07 | Mitsubishi Electric Research Laboratories, Inc. | Method and System for Detecting Actions in Videos |
US20180174412A1 (en) * | 2016-12-21 | 2018-06-21 | Axis Ab | Method for generating alerts in a video surveillance system |
-
2019
- 2019-06-26 RU RU2019120242U patent/RU196355U1/en not_active IP Right Cessation
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2009133474A (en) * | 2007-02-08 | 2011-03-20 | Бихейвиэрл Рикогнишн Системз, Инк. (Us) | BEHAVIOR RECOGNITION SYSTEM |
RU2012121408A (en) * | 2012-05-24 | 2013-12-10 | Закрытое акционерное общество "ЭЛВИС-НеоТек" | VIDEO SURVEILLANCE DEVICE "MILLER WHEEL" |
US20170255832A1 (en) * | 2016-03-02 | 2017-09-07 | Mitsubishi Electric Research Laboratories, Inc. | Method and System for Detecting Actions in Videos |
US20180174412A1 (en) * | 2016-12-21 | 2018-06-21 | Axis Ab | Method for generating alerts in a video surveillance system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Harrou et al. | An integrated vision-based approach for efficient human fall detection in a home environment | |
Hsu et al. | Deep learning with time-frequency representation for pulse estimation from facial videos | |
Kong et al. | A HOG-SVM based fall detection IoT system for elderly persons using deep sensor | |
RU2393544C2 (en) | Method and device to detect flame | |
KR101839827B1 (en) | Smart monitoring system applied with recognition technic of characteristic information including face on long distance-moving object | |
Chen et al. | A fall detection system based on infrared array sensors with tracking capability for the elderly at home | |
CN112396658B (en) | Indoor personnel positioning method and system based on video | |
CN111144252B (en) | Monitoring and early warning method for people stream analysis | |
KR20160035121A (en) | Method and Apparatus for Counting Entity by Using Location Information Extracted from Depth Image | |
CN106652291A (en) | Indoor simple monitoring and alarming system and method based on Kinect | |
KR101064927B1 (en) | People count system using image analysis and method thereof | |
RU2315352C2 (en) | Method and system for automatically finding three-dimensional images | |
Wu et al. | A novel high performance human detection, tracking and alarm system based on millimeter-wave radar | |
EP2000998A2 (en) | Flame detecting method and device | |
Merrouche et al. | Fall detection using head tracking and centroid movement based on a depth camera | |
RU196355U1 (en) | Device for automated recognition of behavior to detect aggression | |
Kroneman et al. | Accurate pedestrian localization in overhead depth images via Height-Augmented HOG | |
CN104392201A (en) | Human fall identification method based on omnidirectional visual sense | |
Nguyen et al. | The internet-of-things based fall detection using fusion feature | |
Kasturi et al. | Classification of human fall in top Viewed kinect depth images using binary support vector machine | |
JP6214425B2 (en) | Specific motion detection device | |
KR101355206B1 (en) | A count system of coming and going using image analysis and method thereof | |
US20220192507A1 (en) | Method and system for dynamic physiological characteristic region capturing | |
Shrivastava et al. | Human activity recognition by analysis of skeleton joint position in internet of things (IOT) environment | |
Mecocci et al. | Automatic falls detection in hospital-room context |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM9K | Utility model has become invalid (non-payment of fees) |
Effective date: 20200331 |