RU2676147C2 - Непрерывное автоматическое наблюдение за движениями пациента - Google Patents

Непрерывное автоматическое наблюдение за движениями пациента Download PDF

Info

Publication number
RU2676147C2
RU2676147C2 RU2016105541A RU2016105541A RU2676147C2 RU 2676147 C2 RU2676147 C2 RU 2676147C2 RU 2016105541 A RU2016105541 A RU 2016105541A RU 2016105541 A RU2016105541 A RU 2016105541A RU 2676147 C2 RU2676147 C2 RU 2676147C2
Authority
RU
Russia
Prior art keywords
subject
video image
movements
movement
received video
Prior art date
Application number
RU2016105541A
Other languages
English (en)
Other versions
RU2016105541A (ru
Inventor
Адриенна ГЕЙНРИХ
Ахмет ЭКИН
Инжун СИ
Original Assignee
Конинклейке Филипс Н.В.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Конинклейке Филипс Н.В. filed Critical Конинклейке Филипс Н.В.
Publication of RU2016105541A publication Critical patent/RU2016105541A/ru
Application granted granted Critical
Publication of RU2676147C2 publication Critical patent/RU2676147C2/ru

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0064Body surface scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6824Arm or wrist
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)

Abstract

Группа изобретений относится к медицине. Способ наблюдения за движением субъекта осуществляют с использованием системы наблюдения. Система наблюдения (10) содержит по меньшей мере одну видеокамеру, выполненную с возможностью непрерывного приема видеоизображения субъекта (12) при нормальных и затемненных комнатных условиях, блок определения движения (40) и блок сегментации (42). При этом осуществляют идентификацию групп дыхательных движений и движений частей тела субъекта в принятом видеоизображении субъекта. Вычисляют разностный сигнал на основе сравнения между текущим изображением и опорными изображениями во временной окрестности из принятого видеоизображения субъекта и осуществляют идентификацию группы дыхательных движений субъекта на основе разностного сигнала. Идентифицируют группы недыхательных движений и генерируют маски движения всего тела. Осуществляют сегментацию принятого видеоизображения субъекта на основе идентифицированных групп движений субъекта в принятом видеоизображении. Осуществляют сегментацию на принятом видеоизображении верхней части тела из частей тела на основе идентифицированной группы дыхательных движений субъекта. Сегментация верхней части тела на видеоизображении включает идентификацию головы и торса на видеоизображении на основе пропорций тела и идентифицированных групп. Осуществляют сегментацию на принятом видеоизображении детализированной части тела из частей тела на основе идентифицированной группы недыхательных движений и сгенерированной маски движения всего тела. Определяют ориентацию тела на основе подбора линии через сегментированные части тела на принятом видеоизображении, которые включают голову, торс и ноги. Достигается улучшенное непрерывное автоматическое наблюдение за движениями пациента и распознавание пациента и идентификация частей тела пациента отдельно от любой возможной окружающей обстановки. 4 н. и 7 з.п. ф-лы, 10 ил.

Description

Изобретение в целом относится к медицинской визуализации и наблюдению за пациентом. Оно находит конкретное применение в случае непрерывного наблюдения за движениями пациентов с подозрением на делирий и будет описываться со ссылкой непосредственно на это заболевание. Однако следует понимать, что оно также находит применение и в других вариантах использования и не обязательно ограничено вышеупомянутым применением.
Движение может предоставлять информацию о состоянии и самочувствии пациента. Например, делирий представляет собой широко распространенное острое расстройство, которым страдают многие взрослые пациенты, находящиеся в больницах, и может быть идентифицировано исходя из особых движений, таких как хватательные движения в воздухе, щипание кожи или периодически повторяющиеся и непрерывные движения головы, рук или ног. Другие движения пациента могут указывать на изменение его состояния и/или состояние, требующее экстренной помощи, такое как падение с кровати, покидание кровати, дергание или постоянное дергание медицинского оборудования и т.д. Движения пациента обычно анализируются при единичных осмотрах медицинскими работниками, которые могут не заметить движения и соответствующие изменения в состояниях пациента. Например, единичный осмотр медицинскими работниками приводит к недопустимой задержке обнаружения критических проблем, таких как делирий.
Известный подход к наблюдению за движениями пациента включал использование нательного запястного датчика или акселерометра. Присутствие нательного запястного датчика или другого носимого на теле датчика может беспокоить пациента. Запястный датчик не фиксирует перемещения, выполняемые другими частями тела.
Запястный датчик не позволяет идентифицировать сложно-интерпретируемые движения, такие как «щипание кожи», «захватывание воздуха», постоянное дергание медицинского оборудования, падение с кровати, покидание кровати и т.д.
Основанный на непрерывном анализе видеоизображения пациента подход усложнен некоторыми обстоятельствами. Одно обстоятельство заключается в распознавании пациента и идентификации частей тела пациента отдельно от любой возможной окружающей обстановки. Распознавание пациента и идентификация частей тела могут быть дополнительно усложнены присутствием покрывала, такого как оделяло, которое может загораживать непосредственный обзор частей тела. Другое обстоятельство может заключаться в периодическом присутствии посетителей или медицинских работников, которые могут загораживать или перекрывать части тела пациента, видимые для видеоизображения. Другим затрудняющим обстоятельством является изменения освещения.
Далее описано новое и улучшенное непрерывное автоматическое наблюдение за движениями пациента, которое направлено на решение вышеупомянутых и других проблем.
В соответствии с одним вариантом выполнения система наблюдения включает по меньшей мере одну видеокамеру, блок определения движений и блок сегментации. По меньшей мере одна видеокамера выполнена с возможностью непрерывного приема видеоизображения субъекта при нормальных и затемненных комнатных условиях. Блок определения движений выполнен с возможностью идентификации групп движений субъекта на основе принятого видеоизображения субъекта. Блок сегментации выполнен с возможностью сегментации частей тела субъекта на основе идентифицированных групп движения субъекта.
В соответствии с другим вариантом выполнения способ наблюдения за движением субъекта включает этап, на котором непрерывно принимают видеоизображение субъекта при нормальных и затемненных комнатных условиях. Группы движений субъекта идентифицируют на основе созданных абсолютных разностных изображений между текущим изображением и множеством опорных изображений, находящихся во временной окрестности принятого видеоизображения субъекта. Части тела субъекта сегментируют на основе идентифицированных групп движений субъекта.
В соответствии с другим вариантом выполнения система наблюдения за пациентом включает множество тепловых и функционирующих в ближнем инфракрасном диапазоне видеокамер, которые включают по меньшей мере одну камеру, выполненную с возможностью непрерывного приема видеоизображения одного пациента, и по меньшей мере один сконфигурированный процессор. Упомянутый по меньшей мере один процессор сконфигурирован по меньшей мере для одной камеры с возможностью вычисления разностного сигнала на основе абсолютных разностей между текущим изображением и множеством опорных изображений, находящихся во временной окрестности принятого видеоизображения субъекта и с возможностью идентификации группы дыхательных движений субъекта на основе разностного сигнала. Упомянутый по меньшей мере один процессор дополнительно сконфигурирован с возможностью сегментации верхней части тела частей тела на основе идентифицированной группы дыхательных движений субъекта и с возможностью идентификации по меньшей мере одной группы недыхательных движений. Упомянутый по меньшей мере один процессор дополнительно сконфигурирован с возможностью сегментации по меньшей мере головы и торса из частей тела на основе идентифицированной по меньшей мере одной группы недыхательных движений и пропорций тела и с возможностью классификации движения субъекта на основе частоты и изменения расстояния идентифицированного движения и сегментированных частей тела.
Одно преимущество состоит в постоянном наблюдении за движением пациента.
Другое преимущество заключается в наблюдении за движением множества частей тела пациента.
Еще одно преимущество состоит в идентификации движения с покрывалом частей тела пациента или без него.
Другое преимущество заключается в наблюдении за пациентами без физического прикрепления датчиков к телу пациента.
Еще одно преимущество состоит в наблюдении за движениями пациента и отделении их от движений посетителей, медицинских работников и/или медицинского оборудования.
Другое преимущество включает идентификацию и сегментацию частей тела пациента и идентификацию сложных интерпретируемых движений.
Другие дополнительные преимущества станут очевидны средним специалистам в уровне техники после прочтения и понимания следующего подробного описания.
Настоящее изобретение может быть выполнено в виде различных компонентов и размещений компонентов, и в виде различных этапов и размещении этапов. Чертежи приведены только в целях иллюстрации предпочтительных вариантов осуществления и не должны рассматриваться в качестве ограничения изобретения.
На Фигуре 1 схематично показан один вариант осуществления системы непрерывного автоматического наблюдения за движениями пациента.
На Фигуре 2 показана блок-схема последовательности операций способа непрерывного автоматического наблюдения за движениями пациента согласно одному варианту осуществления.
На Фигуре 3 показана блок-схема последовательности операций способа локализации субъекта в источнике видеоизображения и выполнения грубой сегментации частей тела согласно одному варианту осуществления.
На Фигуре 4 показан примерный разностный сигнал.
На Фигуре 5 показана блок-схема последовательности операций способа анализа перемещения, который включает размещение покрывала поверх субъекта согласно одному варианту осуществления.
На Фигурах 6А и 6B показан примерный снабженный обозначениями кадр видеоизображения и соответствующее снабженное обозначениями разностное изображение, которые включают покрывало поверх субъекта и идентификацию движения ноги.
На Фигурах 7А и 7B показан примерный снабженный обозначениями кадр видеоизображения и соответствующее снабженное обозначениями разностное изображение, которые включают покрывало поверх субъекта и идентификацию движение стопы.
На Фигурах 8А и 8B показан примерный кадр видеоизображения и соответствующие идентифицированные группы движения, которые включают группы движения ноги, торса и головы, и подобранная линия оси тела субъекта.
На Фигуре 9А и 9B показан примерный субъект и векторы движения без покрывала и с покрывалом.
На Фигуре 10 показана блок-схема последовательности операций одного варианта осуществления способа анализа перемещения, который включает отделение движения третьей стороны.
На Фигуре 1 схематично изображен один вариант осуществления системы 10 непрерывного автоматического наблюдения за движением пациента. Система наблюдает за отдельным субъектом 12 с помощью по меньшей мере одной камеры 14, такой как видеокамера, тепловая камера, функционирующая в ближнем инфракрасном диапазоне камера, например, для ночного видения, или их сочетание. Камера осуществляет непрерывную потоковую передачу изображения субъекта, такого как стационарный пациент, находящегося в комнатных условиях при нормальном свете и затемненных комнатных условиях, например, в течение ночи. Субъект обычно находится в состоянии покоя на кровати 16, и камера размещена таким образом, что ее поле 18 зрения включает субъект и кровать, однако может охватывать и комнату 20. Камера 14 может быть выполнена с возможностью функционирования проводным или беспроводным образом и может включать сеть 22 и/или устройство 24 распространения/сбора видеоизображений для передачи потокового видео. Одиночная камера формирует изображение субъекта, которое включает двухмерные (2-D) измерения, либо две или большее количество камер могут формировать изображение субъекта для трехмерных (3-D) измерений.
Видео поток от каждой камеры передается в один или большее количество процессоров 30, таких как процессор компьютера или рабочей станции 32. Видеоизображения могут быть сохранены в хранилище 34 данных видеоизображений. Хранилище данных может включать запоминающее устройство (random access memory, RAM) с произвольным доступом или некратковременный машиночитаемый носитель, такой как диск, твердотельный диск, серверное хранилище и т.д. Хранилище данных может включать файловую структуру, структуру базы данных и т.п. Обработка может включать отдельное наблюдение, например, выделенную рабочую станцию, или объединенное наблюдение, например, конфигурируемый сервер. Рабочая станция может включать другие функции, такие как центральное наблюдение за основными показателями жизнедеятельности для одного или большего количества субъектов. Рабочая станция может быть частью центральной системы наблюдения или может быть соединена с нею с оповещениями или сигналами тревоги.
Система включает блок 40 определения движений, который принимает видеоизображения или передаваемое потоковое видео субъекта. Блок определения движений идентифицирует группы движения субъекта на основе созданных абсолютных разностных изображений. Абсолютное разностное изображение создается из текущего изображения и любого опорного изображения во временной окрестности.
Блок 42 сегментации сегментирует части тела субъекта на основе идентифицированных групп движений и пропорций тела. Для сегментации частей тела блок сегментации действует постепенно в ходе того, как дополнительное движение появляется в принятом видеоизображении и группируется блоком определения движений. Сегментация задействуется сначала для определения местоположения субъекта в группах движения посредством идентификации дыхательного движения и сегментации группы в качестве области торса/грудной клетки. Поскольку в группах движения присутствует дополнительное недыхательное движение, то при сегментации осуществляется построение маски тела для сегментации частей тела и связывания группы движения с каждой частью тела. Блок сегментации идентифицирует ось тела посредством подбора линии через группы, представляющие собой сегментированные части тела, такие как голова, грудная клетка и ноги.
Блок 44 классификации группирует движение субъекта на основе частоты и измерений движения групп и сегментированных частей тела, таких как угол, скорость, местоположение, расстояние, ускорение и т.п. Например, движение области торса/грудной клетки субъекта с кровати на пол, когда ось тела остается параллельной кровати/полу, указывает на выпадение пациента из кровати. В другом примере движение области торса/грудной клетки субъекта с кровати по направлению вверх и изменение оси тела с параллельной полу на перпендикулярную полу указывает на вставание пациента с кровати. Блок классификации может интерпретировать периодически повторяющиеся движения частей тела и измерений движения сложных движений. Например, сложные движения, такие как щипание кожи, захватные движения в воздухе, указывают на возможность классификации делирия. Блок классификации может также деидентифицировать записанное видеоизображение, например, вставить в видеоизображение прикрытие лица пациента и других частей тела, которые позволяют идентифицировать пациента.
Блок 46 истории движения записывает каждую группу движений в хранилище 48 данных истории движения. Блок истории движения записывает присутствие и местоположение или отсутствие покрывала в хранилище 49 данных покрывала. Блок истории движения записывает сегментированные части тела в хранилище 50 данных сегментированных частей тела. Блок истории движения идентифицирует и записывает группы, относящиеся к субъекту. Блок истории движения хранит группы субъекта в хранилище 51 данных истории субъекта. Блок истории движения может идентифицировать и записать группы движения, относящиеся к третьей стороне. Блок истории движения хранит группы третьей стороны в хранилище 52 данных истории третьей стороны. Хранилище 48 данных истории движения, хранилище 49 данных покрывала, хранилище 50 данных сегментированных частей тела, хранилище 51 данных истории субъекта и хранилище 52 данных истории третьей стороны могут быть объединены в одном хранилище данных или сочетании хранилищ данных.
Блок 54 наблюдения принимает и конфигурирует для отображения классифицированное движение и соответствующую часть истории видеоизображения, например, временной сегмент видеоизображения. Блок наблюдения может отображать сигнал тревоги или оповещение на устройстве 56 отображения, таком как устройство отображения рабочей станции 32, или передать сигнал тревоги или оповещение в центральную станцию наблюдения. Блок наблюдения может также задавать конфигурацию для отображения текущего видеоизображения. Отображение, имеющее заданную конфигурацию, может включать составное отображение различных ракурсов камер и/или множества субъектов. Отображение, имеющее заданную конфигурацию, может включать отображение исторических видеоизображений по классифицированному движению, сигналу тревоги, оповещению и/или времени.
Рабочая станция 32 включает электронный процессор или электронное устройство 30 обработки, устройство 56 отображения, которое отображает видеоизображения, классификации, оповещения, сигналы тревоги, меню, панели и пользовательские средства управления, и по меньшей мере одно устройство 58 ввода, которое выполнено с возможностью ввода вариантов выбора медицинским работником. Рабочая станция 20 может быть настольным компьютером, ноутбуком, планшетом, мобильным вычислительным устройством, смартфоном и т.п. Устройство ввода может быть клавиатурой, координатным манипулятором типа «мышь», микрофоном и т.п. Устройство отображения может включать в себя монитор компьютера, телевизионный экран, сенсорный экран, тактильный электронный дисплей, электронно-лучевую трубку (Cathode ray tube, CRT), запоминающую трубку (Storage tube), плоскопанельный дисплей (Flat panel display), светодиодный (Light-emitting diode, LED) дисплей, электролюминесцентный дисплей (Electroluminescent display, ELD), плазменные дисплейные панели (Plasma display panels, PDP), жидкокристаллический дисплей (Liquid crystal display, LCD), органические светодиодные дисплеи (Organic light-emitting diode displays, OLED), проектор, шлем-дисплей (Head-mounted display) и т.п.
Различные блоки 40, 42, 44, 46 и 54 соответственно воплощаются электронным устройством обработки данных, таким как электронный процессор или электронное устройство 30 обработки рабочей станции 32, или сетевым серверным компьютером, функционально соединенным с рабочей станцией 32 посредством сети 22, или отдельными электронными блоками, интегральные схемы прикладной ориентации (ASIC), программируемыми вентильными матрицами и так далее. Кроме того, раскрытые методики группирования, сегментации, классификации и наблюдения соответственно реализуются с использованием некратковременного носителя информации, хранящего команды (например, программное обеспечение), считываемые электронным устройством обработки данных и исполняемые этим электронным устройством обработки данных для выполнения раскрытых методик.
На Фигуре 2 показан один вариант осуществления в виде блок-схемы последовательности операций способа непрерывного автоматического наблюдения за движениями пациента. На этапе 60 непрерывно принимают видеоизображения субъекта при нормальных и затемненных комнатных условиях. Изображения могут быть подвергнуты фильтрации. Интенсивность может быть нормализована для компенсации темных сцен. Области едва различимого перемещения вследствие дыхания идентифицируются на этапе 62, таком как создание абсолютного разностного изображения. Разностные изображения представляют собой разность между текущим изображением и опорным или предыдущим изображением, взятым во временной окрестности. Разностное изображение может быть основано на интенсивности и/или других значениях изображения, таких как цвет, контрастность и т.д. Области или участки разности формируют группы пикселей в двухмерном пространстве (2-D) или вокселов в трехмерном пространстве (3-D). Могут использоваться и другие методики, такие как корреляция пространственных признаков, анализ текстур и т.п., которые предоставляют измерения движения. Эти методики могут использовать полные изображения или представляющие интерес участки.
Группы движения субъекта идентифицируются на основе разностных изображений на этапе 64. Например, группа дыхательных движений идентифицируется на основе размера группы и периодичности движения в течение времени. Дыхательное движение идентифицируется при отсутствии большого движения части грудной клетки, например, отсутствие поворота тела. Может быть определена неспособность измерения дыхательного движения при присутствии большого движения части грудной клетки. Идентифицируются недыхательные группы движений. Каждая группа движений может включать такие атрибуты как размер, форма, направление, расстояние, физическое местоположение относительно грудной клетки или другой идентифицированной группы и/или скорость. Атрибуты могут относиться к дыхательной группе и относиться к пропорциям тела субъекта. Идентифицированные группы могут включать в себя присутствие или отсутствие покрывала на части тела субъекта.
На этапе 66 группы назначаются и записываются. Назначение может включать субъект или одну или большее количество третьих сторон. Например, группа в непосредственной близости грудной клетки, имеющая предварительно определенный размер и минимальное изменение расстояния от изображения к изображению может представлять голову субъекта, и назначение осуществляется субъекту. В другом примере группа, которая появляется с внешнего края видеоизображения или предварительно определенного расстояния от дыхательной группы, может представлять третью сторону, и назначение осуществляется третьей стороне. Запись положения и перемещения группы предоставляет дополнительную информацию для каждого дополнительного перемещения группы.
На этапе 68 части тела субъекта сегментируются на основе идентифицированных групп движения субъекта. Первоначально, идентифицируется группа дыхательных движений, которая сегментируется на часть тела грудной клетки. С идентификацией дополнительных групп недыхательных движений сегментируются дополнительные части тела. Соответствие сегментированной части тела идентифицированной группе уточняется и отслеживается. Части тела сегментируются на основе пропорций тела, близости и ориентации по отношению к сегментированному торсу/грудной клетке.
Перемещение групп движения классифицируется на этапе 70. Например, перемещение различных групп, соответствующих конкретным частям тела субъекта, может предполагать вставание, падение, ходьбу, усаживание, процесс поедания и т.д. Движение, присущее третьей стороне, может использоваться для документирования лечения или моменты времени наблюдения практикующим врачом и в некоторых случаях администрирования лечения. Анализ перемещения отделяет группы движений, назначенные субъекту, группы движения, назначенные какой-либо третьей стороне. Классификация перемещения может включать предоставление оповещений и/или сигналов тревоги на основе такой классификации.
Процесс приема видеоизображения, идентификации, назначения, сегментации и классификации повторяется на этапе 72. Процесс итерационно строит и уточняет сегментацию частей тела, отслеживает движение субъекта и любых третьих сторон.
На Фигуре 3 показан один вариант осуществления в виде блок-схемы последовательности операций способа идентификации субъекта на поступающем видеоизображении на основе разностного сигнала. На этапе 80 вычисляют абсолютные разностные изображения между текущим изображением и опорным изображением. Разностные изображения включают регулировки ракурса камеры, наклон спинки кровати в состоянии покоя, различные лежачие положения пациента и присутствие или отсутствие покрывала на частях тела. На этапе 82 принятия решения на основе разностных изображений определяют присутствие повторяющегося малого движения, например, пациент дышит и лежит неподвижно. Если группа движения является малой, то на этапе 84 на основе разностных изображений во времени и пространстве вычисляется разностный сигнал для идентификации группы, которая пульсирует. Пульсирующая группа движений представляет собой дыхательное движение. На этапе 86 сегментируется область грудной клетки/плеча или торс. Сегментация может включать краевой/градиентный анализ, анализ значения яркости и обнаружение предметов.
Если группа движения не является малой, например, большое движение тела, то на этапе 88 генерируется маска или контур всего тела. Большое движение тела, такое как поворачивание в кровати, включает ступенчатое движение. Например, сначала происходит движение руки, затем движение ноги, далее движение головы и затем движение грудной клетки. На этапе 90 части тела дополнительно сегментируются на основе предварительно идентифицированной сегментированной грудной клетки и сгенерированной маски всего тела. Сегментация может включать пропорции тела при генерации маски всего тела или по отдельности для дополнительной сегментации частей тела.
На Фигуре 4 показан примерный разностный сигнал. Как описано относительно Фигуры 3, разностный сигнал идентифицирует движение, возникшее в процессе дыхания. Разностный сигнал основан на выбранном произвольном опорном кадре. Разностный сигнал вычисляется посредством вычитания выбранного опорного кадра из сегмента видеоизображения и затем суммирования разностного изображения, например, суммирования всех разностных пикселей. Изображенный разностный сигнал графически показан со значением разностного сигнала по оси Y и времени по оси X. Пиковые значения сигнала соответствуют дыхательным циклам, например, значения от пика до пика соответствуют одному дыхательному циклу. Периодичность сигнала ясно указывает на движение, являющееся признаком дыхания.
Разностный сигнал может использоваться для идентификации группы движений, которая представляет область грудной клетки, отдельную от перемещения другой части тела.
На Фигуре 5 показан один вариант осуществления в виде блок-схемы последовательности операций способа анализа движения, который включает размещение покрывала поверх субъекта. На этапе 100 движение оценивают с использованием двух последовательных изображений, которые возвращают векторы движения со скоростью и углом. На этапе 102 вычисляют такие атрибуты групп движений, как изменение угла между соседними группами, количество групп и размер групп. Данный этап может включать идентификацию предметов, таких как кровать, и определение местоположения групп относительно идентифицированных предметов.
Присутствие или отсутствие покрывала определяется на этапе 104 на основе атрибутов групп движений. Например, большие, более рассеянные группы в непосредственной близости присутствуют с движением ноги под одеялом по сравнению с движением ноги без какого-либо покрывала.
На этапе 106 выбирают набор признаков для движения при отсутствующем покрывале и классифицируют это движение. Классификация включает историю предварительно сегментированных частей 50 тела. Данный этап может включать дополнительное уточнение сегментированных частей тела. Например, одиночное не повторяющееся движение руки при отсутствии покрывала классифицируется в качестве нормального перемещения во сне. Рука может быть дополнительно сегментирована, например, плечо, предплечье, кисть и т.д., и положение может быть записано в сегментацию частей тела.
На этапе 108 оценивается местоположение покрывала. Протяженность групп движений представляет собой местоположение покрывала наряду с обнаружением краев и/или распознаванием ткани. Например, может использоваться одеяло с известной текстурой и/или цветом, легко идентифицируемыми автоматизированными средствами. Данный этап может включать уточнение и/или модификацию хранящейся информации в хранилище 49 данных покрывала. Этот этап может включать сравнение с сегментированными частями тела. Например, местоположение покрывала над сегментированной головой субъекта может запустить оповещение для медицинского работника.
На этапе 110 сегментируются такие части тела, как ноги, что может включать атрибуты на основе покрывала. Сегментированные части тела могут быть дополнительными или представлять собой уточнение предварительно записанных частей тела, таких какие хранятся в хранилище 50 данных сегментированных частей тела. Атрибуты присутствия покрывала могут включать векторы движения, которые распространяются вдоль покрывала, и большее обобщенное движение. Сегментация части тела может быть дополнительно модифицирована на этапе 112 на основе истории сегментации частей тела и ориентации оси тела.
На этапе 114 выбирается набор признаков движения при наличии покрывала и данное движение классифицируется. Например, при движении ноги под одеялом выбирают набор признаков, используемых при наличии покрывала, который устанавливает атрибуты групп движений, относящихся к движению ноги. Выбранные атрибуты набора признаков сравниваются с атрибутами групп движений, такими как размер, расстояние, направление, скорость, ориентация, частота и т.д. и со связью с сегментированными частями тела для классификации перемещения. Например, повторяющееся движение из стороны в сторону относительно оси тела может предполагать делирий в сочетании с повторяющимся движением головы из стороны в сторону в отличие от одиночного перемещения, параллельного оси тела, одной ногой, которое предполагает нормальное движение во сне, такое как протягивание ноги.
На Фигуре 6А показан примерный кадр видеоизображения пациента, лежащего на спине на кровати. Голова замаскирована (черным квадратом) в целях конфиденциальности для пациента, малая окружность обозначает область, идентифицированную на грудной клетке на основе дыхательного движения, а большая окружность обозначает область движения, идентифицированную в качестве ноги. Простыня покрывает субъект, включая обозначенные области. Контрастность изображения показывает часть простыни в положении в виде палатки, указывающем на то, что ноги находятся в согнутом положении или колени находятся в поднятом положении.
На Фигуре 6B обозначено разностное изображение, созданное из изображения с Фигуры 6А и опорного изображения. Три окружности обозначают разностное изображение, соответствующее округлым обозначениям грудной клетки и ног на Фигуре 6А и головы без присутствия маски. Группа движения ног идентифицирует положение ног, которые сегментирует блок сегментации. Покрывало распространяется на группу движения, которая размещена в выбранном наборе признаков для классификации движения. Ориентация оси тела может просматриваться из ориентации этих трех снабженных обозначениями окружностей с Фигуры 6B.
На Фигуре 7А показан примерный кадр видеоизображения сразу после того, как субъект опустил согнутые ноги на Фигуре 6А. Правая окружность обозначает местоположение области сегментированной грудной клетки. Левая окружность обозначает местоположение движения стопы под покрывалом.
Эти три окружности обозначают разностное изображение Фигуры 7B, созданное из изображения с Фигуры 7А. Самая левая окружность обозначает положение группы движений, идентифицированной и сегментированной в качестве стопы. Центральная окружность обозначает грудную клетку, а самая правая окружность обозначает голову. Группа движений между грудной клеткой и стопами не обозначена, но показывает выпрямление ног.
На Фигуре 8А показан кадр видеоизображения с субъектом на кровати без покрывала. На Фигуре 8B показаны соответствующие группы движения, идентифицированные и сегментированные по частям тела и обозначенные в качестве ног 120, торса 122 и головы 124. Размер непокрытой группы меньше, а расстояние между группами больше по сравнению с группами движения на Фигурах 6B и 7B, которые включают покрывало. Ориентация оси 126 тела показана линией, подобранной для этих групп, например, посредством анализа регрессии метода наименьших квадратов.
На Фигуре 9А показано движение ноги субъекта без покрывала. Указаны векторы движения. То же самое движение ноги показано на Фигуре 9B с субъектом, изображенным с покрывалом. Указаны векторы движения, которые контрастируют с Фигурой 9А для того же самого движения ноги. Векторы движения с покрывалом распространены по области покрывала, например, более большие группы в непосредственной близости, и могут включать более малое, более многонаправленное движение покрывала, например, в непосредственной близости между группами, представляющими собой более короткое или другое направленное движение, поскольку покрывало перемещается с движением лежащей под ним ноги.
На Фигуре 10 показан один вариант осуществления в виде блок-схемы последовательности операций способа анализа движения, который включает отделение движения третьей стороны. На этапе 130 вычисляется разностное изображение и идентифицируются группы движений. На этапе 132 вычисляются пространственные разности для истории предыдущего перемещения третьей стороны и истории перемещения пациента. История перемещения третьей стороны, такой как медицинские работники или посетители, записывается в хранилище 52 данных третьей стороны. История перемещения субъекта записывается в хранилище 51 данных истории субъекта.
Группы индивидуально назначаются либо третьей стороне, либо субъекту на основе информации о движении на краю кровати или изображения, увеличения размера группы движений и пространственного расстояния по отношению к предыдущим движениям третьей стороны и движениям субъекта, например, исторические изображения и/или записанные движения на этапе 134. Движение на краю изображения и/или кровати и малый радиус из истории движений субъекта назначаются субъекту. Например, группы движений, в которых пациент предварительно расположен в центре изображения и движется к краю и никакой третьей стороны предварительно не обнаружено, назначаются пациенту. В другом примере группа движений, которая простирается от предыдущей группы движения пациента к краю, но никаких предшествующих групп третьей стороны не находится во временной близости или на пространственном расстоянии, назначается субъекту. Группы движений в близкой пространственной близости к предшествующим назначенным третьей стороне группам назначаются третьей стороне. Для обнаружения движения группы третьей стороны вводится максимальная степень увеличения группы, например, рост участка. Например, пациент располагается в центре изображения на основе текущего дыхательного движения, и движение, обнаруженное на краю и не превышающее максимальную степень, назначается третьей стороне. Если максимальная степень увеличения группы превышена, то данная группа назначается субъекту, например, пациент переместился на край кровати. Назначенные группы записываются в соответствующей истории.
Следует понимать, что совместно с частными иллюстративными вариантами осуществления, представленными в данном документе, некоторые структурные и/или функциональные признаки описаны в качестве содержащихся в заданных элементах и/или компонентах. Однако подразумевается, что эти признаки могут, с тем же самым или схожим преимуществом, также аналогично содержаться в других элементах и/или компонентах при необходимости. Также следует понимать, что различные аспекты примерных вариантов осуществления могут выборочно использоваться в качестве пригодных для достижения других альтернативных вариантов осуществления, подходящих для требуемых применений, причем другие альтернативные варианты осуществления тем самым реализуют соответствующие преимущества содержащихся в них аспектов.
Также следует понимать, что конкретные элементы или компоненты, описанные в данном документе, могут иметь свою функциональность, подходящим образом реализованную через аппаратное обеспечение, программное обеспечение, встроенное микропрограммное обеспечение или их сочетание. Дополнительно, следует понимать, что некоторые элементы, описанные в данном документе содержащимися совместно, могут при подходящих обстоятельствах быть автономными элементами или разделенными по-иному. Схожим образом, множество конкретных функций, описанных выполняемыми одним конкретным элементом, могут выполняться множеством обособленных элементов, действующих независимо для выполнения отдельных функций, либо некоторые отдельные функции могут быть разделены и выполнены множеством обособленных элементов, действующих сообща. Альтернативно, некоторые элементы или компоненты, иначе описанные и/или изображенные в данном документе в качестве обособленных друг от друга, при необходимости могут быть физически или функционально объединены.
Вкратце, настоящее описание было изложено со ссылкой на предпочтительные варианты осуществления. Очевидно, что после прочтения и понимания настоящего описания у читателя могут возникнуть модификации и изменения. Предполагается, что изобретение должно рассматриваться включающим в себя все такие модификации и изменения, поскольку они охватываются объемом прилагаемой формулы изобретения или ее эквивалентами. То есть, следует понимать, что различные из раскрытых выше и других признаков и функций или их альтернативных вариантов могут быть по желанию объединены во многие другие различные системы или применения, а также что их различные на данный момент непредусмотренные или непредвиденные альтернативные варианты, модификации, изменения или улучшения могут быть впоследствии осуществлены специалистами в уровне техники, которые, как схожим образом предполагается, охватываются последующей формулой изобретения.

Claims (33)

1. Система (10) наблюдения, содержащая:
по меньшей мере одну видеокамеру (14), выполненную с возможностью непрерывного приема видеоизображения субъекта при нормальных и затемненных комнатных условиях;
блок (40) определения движения, который выполнен с возможностью
идентификации групп дыхательных движений и движений частей тела субъекта в принятом видеоизображении субъекта;
вычисления разностного сигнала на основе сравнения между текущим изображением и опорными изображениями во временной окрестности из принятого видеоизображения субъекта и с возможностью идентификации группы дыхательных движений субъекта на основе разностного сигнала;
идентификации группы недыхательных движений и с возможностью генерации маски движения всего тела; и
блок (42) сегментации, который выполнен с возможностью
сегментации принятого видеоизображения субъекта на основе идентифицированных групп движений субъекта в принятом видеоизображении;
сегментации на принятом видеоизображении верхней части тела из частей тела на основе идентифицированной группы дыхательных движений субъекта, причем сегментация верхней части тела на видеоизображении включает идентификацию головы и торса на видеоизображении на основе пропорций тела и идентифицированных групп;
сегментации на принятом видеоизображении детализированной части тела из частей тела на основе идентифицированной группы недыхательных движений и сгенерированной маски движения всего тела;
определения ориентации тела на основе подбора линии через сегментированные части тела на принятом видеоизображении, которые включают голову, торс и ноги.
2. Система по п. 1, в которой блок (40) определения движения выполнен с возможностью вычисления атрибутов групп и идентификации присутствия и местоположения или отсутствия покрывала на субъекте на основе указанных атрибутов и с возможностью определения перемещения субъекта на основе присутствия или отсутствия покрывала, сегментированного тела и идентифицированных групп.
3. Система по п. 1, дополнительно включающая:
блок (44) классификации, который выполнен с возможностью классификации определенного движения субъекта на основе по меньшей мере одного измерения движения, определенного из сегментированных частей тела.
4. Система по п. 1, дополнительно содержащая:
блок (46) истории движений, который выполнен с возможностью записи каждой группы движений и с возможностью идентификации групп, относящихся к субъекту, и с возможностью идентификации групп, относящихся к третьей стороне.
5. Система по п. 4, в которой блок (46) истории движений выполнен с возможностью идентификации групп, относящихся к третьей стороне, на основе пространственных расстояний записанных групп и идентифицированных групп, относящихся к субъекту.
6. Способ наблюдения за движением субъекта с использованием системы по п. 1, содержащий этапы, на которых:
непрерывно принимают (60) видеоизображение субъекта при нормальных и затемненных комнатных условиях;
идентифицируют (64) в принятом видеоизображении группы движений субъекта на основе дыхательных движений и движений частей тела в принятом видеоизображении субъекта; и
сегментируют (68) в принятом видеоизображении части тела субъекта на основе идентифицированных групп движений субъекта.
7. Способ по п. 6, согласно которому дополнительно:
вычисляют (80) разностный сигнал на основе сравнения между текущим изображением и опорными изображениями, находящимися во временной окрестности принятого видеоизображения субъекта;
идентифицируют (84) в принятом видеоизображении группу дыхательных движений субъекта на основе разностного сигнала; и
при этом сегментация (68) в принятом видеоизображении включает сегментацию (86) верхней части тела из частей тела на основе идентифицированной группы дыхательных движений субъекта.
8. Способ по пп. 6, 7, согласно которому дополнительно:
вычисляют атрибуты идентифицированных групп;
идентифицируют (104) присутствие и местоположение или отсутствие покрывала на субъекте на основе указанных атрибутов и
определяют движение субъекта на основе присутствия или отсутствия покрывала, сегментированного тела и идентифицированных групп.
9. Способ по пп. 6, 7, согласно которому дополнительно:
идентифицируют (134) в принятом видеоизображении группы, относящиеся по меньшей мере к одному из субъекта или третьей стороны.
10. Некратковременный машиночитаемый носитель информации, содержащий программное обеспечение, которое управляет одним или большим количеством устройств (30) обработки электронных данных для выполнения способа по любому из пп. 6-9.
11. Устройство (30) обработки электронных данных, выполненное с возможностью выполнения способа по любому из пп. 6-9.
RU2016105541A 2013-07-22 2014-07-09 Непрерывное автоматическое наблюдение за движениями пациента RU2676147C2 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361856837P 2013-07-22 2013-07-22
US61/856,837 2013-07-22
PCT/IB2014/062959 WO2015011591A1 (en) 2013-07-22 2014-07-09 Automatic continuous patient movement monitoring

Publications (2)

Publication Number Publication Date
RU2016105541A RU2016105541A (ru) 2017-08-29
RU2676147C2 true RU2676147C2 (ru) 2018-12-26

Family

ID=51492987

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2016105541A RU2676147C2 (ru) 2013-07-22 2014-07-09 Непрерывное автоматическое наблюдение за движениями пациента

Country Status (7)

Country Link
US (1) US10687712B2 (ru)
EP (1) EP3024379A1 (ru)
JP (1) JP6557226B2 (ru)
CN (1) CN105451643B (ru)
CA (1) CA2918719A1 (ru)
RU (1) RU2676147C2 (ru)
WO (1) WO2015011591A1 (ru)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10121062B2 (en) 2014-11-03 2018-11-06 Koninklijke Philips N.V. Device, system and method for automated detection of orientation and/or location of a person
WO2016086976A1 (en) * 2014-12-02 2016-06-09 Brainlab Ag Human body measurement using thermographic images
US9472071B1 (en) * 2015-06-30 2016-10-18 Securus Technologies, Inc. Covert infrared monitoring and recording of images and video in controlled-environment facilities
US11864926B2 (en) 2015-08-28 2024-01-09 Foresite Healthcare, Llc Systems and methods for detecting attempted bed exit
US10206630B2 (en) 2015-08-28 2019-02-19 Foresite Healthcare, Llc Systems for automatic assessment of fall risk
JP6105703B1 (ja) * 2015-09-29 2017-03-29 ミネベアミツミ株式会社 生体情報モニタリングシステム
WO2017141629A1 (ja) * 2016-02-15 2017-08-24 コニカミノルタ株式会社 端末装置および端末装置の表示方法、センサ装置ならびに被監視者監視システム
EP3245943A1 (de) * 2016-05-18 2017-11-22 Motognosis UG (haftungsbeschränkt) Verfahren zur berührungslosen ermittlung und aufbereitung von schlafbewegungsdaten
US11179065B2 (en) 2016-06-16 2021-11-23 Arizona Board Of Regents On Behalf Of The University Of Arizona Systems, devices, and methods for determining an overall motion and flexibility envelope
US10453202B2 (en) * 2016-06-28 2019-10-22 Foresite Healthcare, Llc Systems and methods for use in detecting falls utilizing thermal sensing
CN107693041A (zh) * 2017-11-24 2018-02-16 上海联影医疗科技有限公司 医学扫描方法及***
AT520863B1 (de) * 2018-01-22 2020-10-15 Ait Austrian Inst Tech Gmbh Verfahren zur Detektion von Körperbewegungen einer schlafenden Person
CN111803769A (zh) * 2020-06-19 2020-10-23 周建 病人***异常管理***以及相应终端
FI129564B (en) * 2021-05-07 2022-04-29 Procemex Oy Ltd Monitoring system and method for identifying the activity of specified individuals

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4126171C1 (en) * 1991-08-07 1992-10-08 Siemens Ag, 8000 Muenchen, De Medical examination installation for joint functions and display of low contrast body parts - has X=ray source and vibrator setting section for examination into motion under synchronising control
EP0919184A1 (en) * 1997-11-21 1999-06-02 Toshiba Engineering Corporation Region-of-interest setting apparatus for respiration monitoring and a respiration monotoring system
EP1645840A1 (en) * 2003-06-09 2006-04-12 Sumitomo Osaka Cement Co., Ltd. Condition-analyzing device
EP1956570A1 (de) * 2007-02-09 2008-08-13 Siemens Aktiengesellschaft Verfahren zur zentralen Überwachung sowie Anordnung zur Aufnahme, Auswertung und selektiven Anzeige von Bildern ruhender Personen
US20090189771A1 (en) * 2008-01-28 2009-07-30 Chia-Lun Liu Smart care system
JP2009171544A (ja) * 2007-09-05 2009-07-30 Searete Llc 生理学的状態の測定装置
GB2464345A (en) * 2008-10-16 2010-04-21 Ian Robert Fothergill Monitoring physiological movement using mirrors
US20100124363A1 (en) * 2008-11-20 2010-05-20 Sony Ericsson Mobile Communications Ab Display privacy system
RU2442533C2 (ru) * 2010-01-27 2012-02-20 Александр Николаевич Новосельский Аппаратный комплекс для регистрации, анализа и моделирования структурно-двигательного аппарата человека

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2009114727A (ru) * 2006-09-18 2010-10-27 Конинклейке Филипс Электроникс, Н.В. (Nl) Мониторинг и сигнализация на основе интернет-протокола
US10667727B2 (en) 2008-09-05 2020-06-02 Varian Medical Systems, Inc. Systems and methods for determining a state of a patient
US20110144517A1 (en) * 2009-01-26 2011-06-16 Miguel Angel Cervantes Video Based Automated Detection of Respiratory Events
JP5664553B2 (ja) 2009-10-16 2015-02-04 日本電気株式会社 人物服装特徴抽出装置、人物検索装置、人物服装特徴抽出方法、人物検索方法及びプログラム
US8374775B2 (en) * 2009-11-05 2013-02-12 Apple Inc. Adaptive sensor-based activity classification
US20150320339A1 (en) 2011-10-03 2015-11-12 Centauri Medical Inc. System and method for analyzing patient orientation, location and movement
WO2012040554A2 (en) 2010-09-23 2012-03-29 Stryker Corporation Video monitoring system
JP2014510557A (ja) * 2011-01-25 2014-05-01 ノバルティス アーゲー 動作の撮像および取込みを医療で使用するためのシステムおよび方法
JP6006790B2 (ja) * 2011-05-30 2016-10-12 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 共通寝具における複数の被験者の移動及び呼吸をモニタリングするための方法及び装置
WO2013050912A1 (en) 2011-10-07 2013-04-11 Koninklijke Philips Electronics N.V. Monitoring system for monitoring a patient and detecting delirium of the patient
US9301710B2 (en) 2012-06-01 2016-04-05 Xerox Corporation Processing a video for respiration rate estimation
RU2675036C2 (ru) * 2013-03-14 2018-12-14 Конинклейке Филипс Н.В. Устройство и способ получения информации о показателях жизненно важных функций субъекта
US20140371544A1 (en) * 2013-06-14 2014-12-18 Medtronic, Inc. Motion-based behavior identification for controlling therapy
US9245338B2 (en) * 2014-05-19 2016-01-26 Xerox Corporation Increasing accuracy of a physiological signal obtained from a video of a subject

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4126171C1 (en) * 1991-08-07 1992-10-08 Siemens Ag, 8000 Muenchen, De Medical examination installation for joint functions and display of low contrast body parts - has X=ray source and vibrator setting section for examination into motion under synchronising control
EP0919184A1 (en) * 1997-11-21 1999-06-02 Toshiba Engineering Corporation Region-of-interest setting apparatus for respiration monitoring and a respiration monotoring system
EP1645840A1 (en) * 2003-06-09 2006-04-12 Sumitomo Osaka Cement Co., Ltd. Condition-analyzing device
EP1956570A1 (de) * 2007-02-09 2008-08-13 Siemens Aktiengesellschaft Verfahren zur zentralen Überwachung sowie Anordnung zur Aufnahme, Auswertung und selektiven Anzeige von Bildern ruhender Personen
JP2009171544A (ja) * 2007-09-05 2009-07-30 Searete Llc 生理学的状態の測定装置
US20090189771A1 (en) * 2008-01-28 2009-07-30 Chia-Lun Liu Smart care system
GB2464345A (en) * 2008-10-16 2010-04-21 Ian Robert Fothergill Monitoring physiological movement using mirrors
US20100124363A1 (en) * 2008-11-20 2010-05-20 Sony Ericsson Mobile Communications Ab Display privacy system
RU2442533C2 (ru) * 2010-01-27 2012-02-20 Александр Николаевич Новосельский Аппаратный комплекс для регистрации, анализа и моделирования структурно-двигательного аппарата человека

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ALNOWAMI M. et al. A quantitative assessment of using the Kinect for Xbox360 (TM) for respiratory surface motion tracking. Proceedings of SPIE, vol. 8316, 2012. *

Also Published As

Publication number Publication date
RU2016105541A (ru) 2017-08-29
JP2016531658A (ja) 2016-10-13
WO2015011591A1 (en) 2015-01-29
CN105451643A (zh) 2016-03-30
US10687712B2 (en) 2020-06-23
CA2918719A1 (en) 2015-01-29
US20160150966A1 (en) 2016-06-02
JP6557226B2 (ja) 2019-08-07
EP3024379A1 (en) 2016-06-01
CN105451643B (zh) 2019-10-01

Similar Documents

Publication Publication Date Title
RU2676147C2 (ru) Непрерывное автоматическое наблюдение за движениями пациента
Auvinet et al. Fall detection with multiple cameras: An occlusion-resistant method based on 3-d silhouette vertical distribution
EP3373804B1 (en) Device, system and method for sensor position guidance
CN107072548B (zh) 用于人的取向和/或位置的自动检测的设备、***和方法
CN106999116B (zh) 用于皮肤检测的设备和方法
US9504426B2 (en) Using an adaptive band-pass filter to compensate for motion induced artifacts in a physiological signal extracted from video
US20150320343A1 (en) Motion information processing apparatus and method
US20230389826A1 (en) Systems and methods for determining subject positioning and vital signs
JP2015046732A (ja) 画像処理装置、画像処理方法
JP2020500570A (ja) 患者モニタリングシステム及び方法
US20220044046A1 (en) Device, system and method for object recognition
JP2020515948A (ja) 患者周辺の光学画像データを検出し、患者のチェックを識別する方法、装置およびコンピュータプログラム
JP2020194493A (ja) 介護設備又は病院用の監視システム及び監視方法
Kittipanya-Ngam et al. Computer vision applications for patients monitoring system
JP2021505264A (ja) 患者の身体運動を検知するためのデバイス、システム及び方法
US10909678B2 (en) Method and apparatus for monitoring of a human or animal subject
Medina-Quero et al. Computer vision-based gait velocity from non-obtrusive thermal vision sensors
JP2023548886A (ja) カメラを制御するための装置及び方法
EP4176809A1 (en) Device, system and method for monitoring a subject
JP2021005333A (ja) 医療用装身器具の自己抜去監視システム及び医療用装身器具の自己抜去監視方法
Payandeh On Visualizing Movements and Activities of Healthy Seniors
JP2021029673A (ja) 医療用装身器具の自己抜去監視システム及び医療用装身器具の自己抜去監視方法

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20200710