RU2715521C2 - Системы и способы для обнаружения обманных объектов и анализа жизненности - Google Patents

Системы и способы для обнаружения обманных объектов и анализа жизненности Download PDF

Info

Publication number
RU2715521C2
RU2715521C2 RU2018101202A RU2018101202A RU2715521C2 RU 2715521 C2 RU2715521 C2 RU 2715521C2 RU 2018101202 A RU2018101202 A RU 2018101202A RU 2018101202 A RU2018101202 A RU 2018101202A RU 2715521 C2 RU2715521 C2 RU 2715521C2
Authority
RU
Russia
Prior art keywords
target
pulse
face
classifier
signals
Prior art date
Application number
RU2018101202A
Other languages
English (en)
Other versions
RU2018101202A (ru
RU2018101202A3 (ru
Inventor
Реза Р. ДЕРАКХШАНИ
Джоуэл ТЕПЛИ
Original Assignee
Айверифай Инк.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Айверифай Инк. filed Critical Айверифай Инк.
Publication of RU2018101202A publication Critical patent/RU2018101202A/ru
Publication of RU2018101202A3 publication Critical patent/RU2018101202A3/ru
Application granted granted Critical
Publication of RU2715521C2 publication Critical patent/RU2715521C2/ru

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1102Ballistocardiography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1176Recognition of faces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/08Systems for measuring distance only
    • G01S15/10Systems for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/539Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02416Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/15Biometric patterns based on physiological signals, e.g. heartbeat, blood flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0264Noise filtering characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Cardiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physiology (AREA)
  • Data Mining & Analysis (AREA)
  • Dentistry (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Изобретение относится к анализу изображений, акустических сигналов и вибрационных сигналов и, в частности, к методам обработки изображений и сигналов для обнаружения того, является ли живым объект, показанный на изображении. Технический результат – повышение достоверности анализа. Обнаружение обманных объектов и анализ жизненности выполняется с использованием основанного на программном обеспечении решения на пользовательском устройстве, таком как интеллектуальный телефон, имеющем камеру, компонент для вывода звука (например, динамик) и компонент для ввода звука (например, микрофон). Один или более звуковых сигналов испускаются от компонента для вывода звука из состава пользовательского устройства, отражаются от целевого объекта и принимаются обратно в компонент для ввода звука устройства. На основе отражений производится определение того, содержит ли целевой объект трехмерную лицеподобную структуру и/или лицеподобную ткань, и вынесение соответствующего заключения - вероятно ли, что целевой объект является обманным, а не законным, живым человеком. 3 н. и 18 з.п. ф-лы, 9 ил.

Description

ПЕРЕКРЕСТНЫЕ ССЫЛКИ НА РОДСТВЕННЫЕ ЗАЯВКИ
[0001] Настоящая заявка испрашивает приоритет и преимущество в отношении Предварительной Заявки на патент США № 62/180,481, поданной 16 июня 2015 и озаглавленной "Liveness Analysis Using Vitals Detection" ("Анализ жизненности с использованием обнаружения показателей жизнедеятельности"), содержание которой полностью включается в настоящую заявку посредством ссылки.
ОБЛАСТЬ ТЕХНИКИ, К КОТОРОЙ ОТНОСИТСЯ ИЗОБРЕТЕНИЕ
[0002] Настоящее раскрытие изобретения в целом имеет отношение к анализу изображений, акустических сигналов и вибрационных сигналов и, в частности, к методам обработки изображений и сигналов для обнаружения того, является ли живым объект, показанный на изображении.
УРОВЕНЬ ТЕХНИКИ
[0003] Часто желательно ограничить доступ к имуществу или ресурсам конкретными людьми. Биометрические системы могут использоваться для аутентификации личности человека, чтобы предоставить либо запретить доступ к ресурсу. Например, устройства сканирования радужной оболочки глаза могут использоваться биометрической системой безопасности для идентификации человека на основе уникальных структур в радужной оболочке глаза человека. Однако, такая система может ошибочно авторизовать постороннее лицо, если постороннее лицо представляет для сканирования предварительно записанное изображение или видеоизображение лица авторизованного человека. Такое поддельное изображение или видеоизображение могут отображаться на мониторе, таком как экран с электронно-лучевой трубкой (ЭЛТ) или экран жидкокристаллического (ЖК) устройства отображения, на глянцевых фотографиях и т.д., удерживаемых перед камерой, используемой для сканирования. Другие методы обмана включают в себя использование фотографически точной трехмерной маски лица законного пользователя.
[0004] Одна категория существующих мер по борьбе с обманом фокусируются, прежде всего, на атаках с использованием статических образов (например, на основе фотографий). Эти меры предполагают, что атаки с помощью статических обманных объектов не могут воспроизвести естественное и разрозненное движение разных частей изображения, главным образом в границах лица. Они также предполагают, что каждое из вышеупомянутых движений при сканировании в режиме реального времени происходит разномасштабно с точки зрения нормальной мобильности и частоты сокращения связанных групп мышц. Однако эти меры могут обнаруживать только атаки с помощью статичных обманных объектов (например, на основе рисунка) и нуждаются в определенном временном окне наблюдения с достаточно высокой частотой кадров, чтобы иметь возможность разложить вышеупомянутые векторы движения на их требуемые профили скорости и частоты, если это необходимо. Они также могут ложно отклонять живые объекты, которые остаются очень спокойными во время сканирования, или ложно признавать статические репродукции с добавленным движением, например, за счет сгибания и покачивания обманных фотографий некоторым образом.
[0005] Вторая категория существующих мер по борьбе с обманом предполагает, что воспроизведение фотографической копии или видеозаписи биометрического образца недостаточно качественно, а значит, способы анализа текстуры изображения могут позволить идентифицировать обманный объект. Однако предположение об обманной репродукции с видимым низким качеством не является верным, особенно с появлением усовершенствованных высококачественных и чрезвычайно распространенных технологий записи и отображения с высоким разрешением, которые могут быть найдены даже в современных интеллектуальных телефонах (смартфонах) и планшетных компьютерах. Не удивительно что, полагаясь на определенные и зависящие от технологии артефакты обманной репродукции, такие методы, как было показано, зависят от набора данных и демонстрируют обобщенные возможности не на должном уровне. Другая категория мер по борьбе с обманом, связанная со второй, которая основана на параметрах качества эталонных или не-эталонных изображений, подвержена тем же недостаткам.
СУЩНОСТЬ ИЗОБРЕТЕНИЯ
[0006] В различных реализациях, описанных в данном документе, обнаружение физических свойств, указывающих на присутствие живого человека, используется, чтобы отличить живые, подлинные лица от изображений/видеоизображений, подтверждений подлинности, сделанных под принуждением, и других обманных и мошеннических способов аутентификации, и/или идентифицировать обманные объекты, например, обнаруживая присутствие устройств, используемых для проигрывания записанных изображений/видеоизображений/других физических реконструкций законного пользователя, для обмана биометрической системы. Это достигается, в том числе, путем (a) обнаружения сигнатур обманных объектов и (b) проверки жизненности и физического присутствия человека с использованием обнаружения трехмерного лица и двухфакторной идентификации пульса.
[0007] Соответственно, в одном аспекте реализуемый компьютером способ включает в себя этапы, на которых: испускают, с использованием компонента для вывода звука из состава пользовательского устройства, один или более звуковых сигналов; принимают, с использованием компонента для ввода звука из состава пользовательского устройства, одно или более отражений звуковых сигналов от целевого объекта; определяют, на основе одного или более отражений, содержит ли целевой объект по меньшей мере одну из лицеподобной структуры и лицеподобной ткани; и определяют, является ли целевой объект обманным объектом, по меньшей мере отчасти на основе определения того, содержит ли целевой объект по меньшей мере одну из лицеподобной структуры и лицеподобной ткани. Пользовательским устройством может быть, например, мобильное устройство, в том числе интеллектуальный телефон, планшетный компьютер или дорожный компьютер. Один или более звуковых сигналов могут включать в себя короткие кодированные импульсные локационные сигналы, кратковременные импульсы с частотной модуляцией или локационные CTFM-сигналы. Одна или более характеристик одного или более звуковых сигналов могут быть рандомизированы.
[0008] В одной реализации способ дополнительно включает в себя этапы, на которых: обучают классификатор идентифицировать физические признаки целевого объекта; и предоставляют, в качестве ввода для классификатора, информацию на основе одного или более отражений звуковых сигналов от целевого объекта, при этом определение того, является ли целевой объект обманным объектом, дополнительно по меньшей мере отчасти основано на выводе классификатора, принятом в ответ на предоставленный ввод.
[0009] В другой реализации способ дополнительно включает в себя этапы, на которых: принимают множество изображений целевого объекта; и определяют, на основе обнаруженных отражений света в изображениях, содержит ли целевой объект трехмерную лицеподобную структуру.
[0010] В дополнительной реализации способ дополнительно включает в себя этапы, на которых: принимают множество изображений целевого объекта; и идентифицируют, на основе изображений, имеет ли целевой объект первый пульс, при этом определение того, является ли целевой объект обманным объектом, дополнительно по меньшей мере отчасти основано на идентификации того, имеет ли целевой объект пульс. Первый пульс может быть идентифицирован с использованием дистанционной фотоплетизмографии.
[0011] В еще одной реализации второй пульс целевого объекта идентифицируется посредством физического контакта с целевым объектом, при этом определение того, является ли целевой объект обманным объектом, дополнительно по меньшей мере отчасти основано на измерении второго пульса. Может быть произведено определение того, коррелирует ли второй пульс с первым пульсом, при этом определение того, является ли целевой объект обманным объектом, дополнительно по меньшей мере отчасти основано на этой корреляции. Измерение второго пульса может включать в себя прием информации, связанной со вторым пульсом, от пользовательского устройства или другого портативного или носимого устройства. Информация, связанная со вторым пульсом, может включать в себя баллистокардиографический сигнал.
[0012] Детали одного или более вариантов осуществления предмета изобретения, рассматриваемого в этом описании изобретения, приведены на прилагаемых чертежах и в нижеследующем описании. Другие признаки, аспекты и преимущества настоящего предмета изобретения станут очевидными из описания, чертежей и формулы изобретения.
КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙ
[0013] Фиг. 1A-1C изображают различные случаи использования для борьбы с обманом и обнаружения жизненности.
[0014] Фиг. 2 изображает способ для борьбы с обманом и обнаружения жизненности в соответствии с одной из реализаций.
[0015] Фиг. 3 изображает иллюстративные прямые и непрямые акустические пути для звукового зондирующего импульса между телефонным динамиком и микрофоном.
[0016] Фиг. 4 и 5 изображают иллюстративные демодулированные согласованным фильтром эхо-сигналы, демонстрирующие отражения для экрана монитора и реального лица, соответственно.
[0017] Фиг. 6 и 7 изображают отражения от разных граней лица и экрана монитора, соответственно.
[0018] Подобные ссылочные позиции и обозначения на различных чертежах указывают подобные элементы.
ПОДРОБНОЕ ОПИСАНИЕ ИЗОБРЕТЕНИЯ
[0019] В данном документе описываются, в различных реализациях, системы и сопутствующие способы для предоставления многоступенчатой, основанной на программном обеспечении, технологии борьбы с обманом и обнаружения "жизненности", которая объединяет звуковое трехмерное (3D) восприятие "образа лица" с использованием модулированных поверхностью лица отражений звука с обнаружением показателей жизнедеятельности от нескольких источников/по нескольким путям. Как используется в данном документе, "жизненность" относится к характеристикам, демонстрирующим указание на присутствие живого человека (не обманного объекта или имитации живого человека, такой как изображение или предварительно записанное видеоизображение глаза или лица, трехмерная модель головы, и т.д.). Такие характеристики могут включать в себя, например, узнаваемые физические свойства, такие как лицо, пульс, тип дыхания, и так далее. "Образ лица" относится к характеристикам, демонстрирующим указание на присутствие реального лица, например, фактическое (в противоположность воспроизведенному) присутствие глаз, носа, рта, подбородка и/или других черт лица и тканей, расположенных в узнаваемом порядке. Это определение образа лица может быть дополнено включением в него пассивных или активных звуковых, световых и/или электромагнитных сигнатур реальных лиц (в противоположность таковым для обманных лиц).
[0020] Настоящее раскрытие изобретения предоставляет новое физически обоснованное решение, которое может быть полностью реализовано в программном обеспечении и, помимо прочего, обнаруживает обманные проигрывания на экране независимо от их качества. Оно преодолевает недостатки существующих решений для борьбы с обманом, основанных на зрительном восприятии, оценивая вероятность того, что реальное трехмерное лицо представлено пользовательскому устройству посредством изучения его звуковой (и/или фотометрической) сигнатуры, полностью прозрачно для пользователя. Предпочтительно, если этот метод обнаруживает обманные объекты для биометрической аутентификации, используя только обычные динамики/звуковые преобразователи и микрофоны мобильного телефона в различных повседневных внешних условиях. Получающиеся звуковые сигнатуры с использованием существующих аппаратных средств мобильных устройств слабы и подвергаются множеству искажающих факторов, что преодолевается описанной методологией. Источники получения вышеупомянутого плохого отношения звуковой сигнал/шум включают в себя нежелательные эхо-сигналы, а также нелинейность акустических путей и ограничения полосы пропускания (в том числе преобразователей), направленность и чувствительность микрофона/динамика и внутреннюю реверберацию устройства. Кроме того, учитывая более длинные длины волны используемых диапазонов звуковых частот, пространственное разрешение уменьшается по сравнению с существующими ультразвуковыми эхолокационными системами, и большая часть целевых отражений вместо этого рассеивается посредством дисперсии, обеспечивая косвенное обнаружение вложенных звуковых сигнатур, как подробно изложено в данном документе.
[0021] В одной реализации технология борьбы с обманом и обнаружения жизненности включает в себя проверку присутствия трехмерной лицеподобной структуры и измерение пульса целевого объекта с использованием множества источников. Трехмерное восприятие лица может быть выполнено с использованием модулированных поверхностью лица отражений звука (например, от кодированного высокотонального зондирующего сигнала, испускаемого из динамика телефона или другого звукового преобразователя, подобно эхолокатору, с отражениями сигналов, принимаемыми микрофоном телефона или другим устройством для ввода звука) и/или структурированного светового фотометрического стереоизображения (например, от подсветки с быстрым формированием рисунка от экрана телефона). Обнаружение показателя жизнедеятельности, такое как обнаружение пульса пользователя, может быть измерено по деятельности сердечной мышцы, которая вызывает изменения цвета лица и колебания рук/тела. Обнаружение сердечного ритма может быть достигнуто посредством множества путей: вызванные сердцебиением механические колебания тела, также известные как баллистокардиограммы, и обнаружение пульса исходя из изменений цвета кожи, записанных камерой с использованием красного-зеленого-синего цветов (RGB), также известное как дистанционная фотоплетизмография (remote PPG или rPPG). Пульс пользователя также может быть обнаружен с помощью других носимых/мобильных устройств с датчиками сердечного ритма.
[0022] Фиг. 1A-1C иллюстрируют различные случаи использования технологии для борьбы с обманом и анализа жизненности, описываемых в данном документе. Например, на Фиг. 1A, целевой пользователь 104 использует свое мобильное устройство 102 (например, интеллектуальный телефон, планшетный компьютер, и т.д.) для собственной аутентификации, используя биометрическое считывание (например, сканирование глаза), захваченное камерой мобильного устройства. В дополнение к камере мобильное устройство 102 может задействовать другие датчики, такие как акселерометр, гироскоп, пальцевой датчик сердцебиения, вибрационный датчик, компонент для вывода звука, (например, громкоговоритель, динамик или другой звуковой преобразователь), компонент для ввода звука (например, микрофон) и т.п., чтобы проверить физическое присутствие пользователя, используя описываемые методы. На Фиг. 1B мобильное устройство 106 захватывает изображение или видеоизображение целевого объекта на ЖК-мониторе 106 или другом экране устройства отображения. Программное обеспечение, исполняемое на мобильном устройстве 102, может определить, что целевой объект физически не присутствует, используя рассматриваемые методы, например, обнаружение трехмерного лица, оценку отраженных световых и/или звуковых сигналов и обнаружение пульса. Фиг. 1C изображает второго пользователя 110, удерживающего мобильное устройство 102 и направляющего его на целевого пользователя 104. В этом случае, хотя физическое присутствие целевого пользователя 104 будет установлено (например, благодаря трехмерной лицевой структуре и визуальному опознаванию пульса), вторичное считывание пульса, полученное мобильным устройством 102 посредством физического контакта между устройством 102 и вторым пользователем 110, не будет соответствовать визуальному пульсу, идентифицированному для целевого пользователя 104, и, как следствие, проверка личности пользователя будет неудачной.
[0023] Другие методы для борьбы с обманом и анализа жизненности могут использоваться в сочетании с технологией, описанной в данном документе. Такие методы включают в себя описанные в Заявке на патент США № 14/480,802, зарегистрированной 9 сентября 2014 и озаглавленной "Systems and Methods for Liveness Analysis" ("Системы и способы для анализа жизненности") и Заявки на патент США 14/672,629, зарегистрированной 30 марта 2015 и озаглавленной " Bio Leash for User Authentication" ("Биологическая привязка для аутентификации пользователя"), содержание которых полностью включается в настоящую заявку посредством ссылки.
[0024] Одна реализация способа для обнаружения обманных объектов и жизненности изображена на Фиг. 2. Первоначально, на этапе 202, пользовательское устройство (например, мобильное устройство 102, или другой сотовый телефон, интеллектуальный телефон, планшетный компьютер, устройство виртуальной реальности, или другое устройство, используемое при биометрически расширенном взаимодействии с пользователем, таком как вход в банковское приложение с использованием биометрической проверки глаз) обнаруживает, что перед устройством помещен лицеподобный трехмерный объект, а не обманный объект, такой как предварительно записанное видеоизображение на плоском устройстве отображения.
[0025] Трехмерное распознавание лица на этапе 202 может быть совершено с использованием различных способов или их комбинаций, и может быть основано на доступности определенных датчиков и передающих устройств на устройстве пользователя. В одной реализации звуковые волны (например, высокочастотные звуковые волны) используются, чтобы определить, представлено ли биометрическому датчику трехмерное лицо или, вместо этого, плоское устройство отображения или нелицеподобный трехмерный объект (для основанной на изображении биометрии, использующей лицо или какую-то из его подобластей, в том числе глазничную подобласть, биометрический датчик может включать в себя, например, камеру мобильного устройства). Одним из примеров основанного на акустике (звуковой волне) метода является частотная модуляция непрерывного излучения (CTFM - continuous transmission frequency modulation), в которой измеряется расстояние до разных граней/поверхностей лица на основе изменяющейся во времени частоты акустического зонда, передаваемого измерительным устройством (например, компонентом для вывода звука (динамиком, громкоговорителем, звуковым преобразователем) устройства в сочетании с компонентом для ввода звука (микрофоном) того же или другого устройства). В случае биометрической аутентификации акустическое измерение расстояния также может использоваться для подтверждения того, что измеренное межзрачковое расстояние соответствует ожидаемому межзрачковому расстоянию, которое было определено во время регистрации целевого объекта. Вышеприведенное является одним из примеров практического контроля с измерением в масштабе, хотя следует понимать, что другие измерения расстояния от устройства до лица, например, поступающие от фокусировочного механизма камеры, тоже могут использоваться. Ниже более подробно описаны методы для трехмерного распознавания лиц.
[0026] В другой реализации существование и объем фотометрического стереоизображения анализируется на характеристики, демонстрирующие указание на присутствие трехмерного лицеподобного объекта. Обоснованность фотометрических эффектов также может сочетаться с ранее упомянутыми акустически измеренными расстояниями и, в некоторых случаях, сравниваться с фотометрическими стереоданными, собранными на стадии биометрической регистрации. Световые измерения могут использовать эффект наложения для работы с камерами, которые имеют более низкую частоту кадров, если экран устройства может работать с более высокой частотой кадров, что делает временные вариации порождаемого экраном светового зонда более незаметными для пользователя. Необходимо отметить, что, если вышеупомянутые трехмерные характеристики измеряются с большей точностью, трехмерные профили лица пользователя, определенные с использованием акустических и/или фотометрических измерений во время действительной регистрации, могут стать в некоторой степени специфическими для пользователя и могут вносить большую специфичность (в качестве мягкой биометрии) в меры по борьбе с обманом, описанные в данном документе.
[0027] Если обнаружена лицеподобная трехмерная структура, устройство в некоторых случаях может дополнительно проверять жизненность, обнаруживая, имеет ли лицеподобная структура пульс, который присутствует и находится в ожидаемом диапазоне (используя, например, лицевую rPPG на основе изображений, захваченных камерой устройства) (этап 208). В противном случае, если трехмерная лицевая структура не обнаружена, отклонение жизненности терпит неудачу, и целевой объект отклоняется (этап 230). Если обнаружен действительный пульс, то устанавливается трехмерный лицеподобный объект с различимым кровотоком, в качестве первой стадии обнаружения жизненности и борьбы с обманом. Эта стадия ограничивает атаки с помощью обманных объектов в отношении лицеподобных трехмерных структур с пульсирующей кожей, способных обходить rPPG, что удовлетворяет высоким требованиям.
[0028] На вторичной стадии система может в некоторых случаях делать попытку корреляции первоначально обнаруженного пульса от лицеподобной структуры (например, rPPG лица после акустического и/или фотометрического трехмерного контроля лица) со вторым измерением пульса, полученным другим способом, для более эффективного обнаружения жизненности/борьбы с обманом (этапы 212 и 216). Вторичное измерение пульса может быть совершено, например, посредством сигналов баллистокардиограммы, которые могут быть захвачены на основе подергиваний портативного устройства, вызванных деятельностью сердечной мышцы и измеренных датчиками движения устройства, или чувствительным к пульсу носимым устройством, при наличии такового, или иным подходящим вторичным путем, чтобы проконтролировать сердечный ритм или его гармоники. Если вторичный пульс не обнаружен, или вторичный пульс по иным причинам недействителен (например, выходит за пределы ожидаемого диапазона), или если корреляция терпит неудачу (например, система обнаруживает, что пульсы не совпадают по частоте или другим характеристикам), целевой объект отклоняется (этап 230). И наоборот, если предыдущие этапы подтверждают жизненность, целевой объект может быть признан живым, законным пользователем (этап 220). Следует принимать во внимание, что стадии проверки, описанные в этой реализации, не обязательно должны выполняться в описанном порядке; наоборот, альтернативный порядок этапов тоже предполагается. Например, сначала могут быть проведены одно или более измерений пульса, при трехмерном распознавании лица, используемые для усиления вывода о жизненности в противовес обманному объекту, определенному на основе измерений пульса. Кроме того, не все этапы обязательно должны выполняться (например, определение того, существует ли обманный объект, может производиться только во время трехмерного распознавания лица).
Акустическое трехмерное измерение образа лица
[0029] Этот акустический метод обнаруживает, присутствует ли лицо (ожидаемое для законного биометрического сканирования глаз или лица, находящихся перед устройством) или другой структурно нелицеподобный объект (например, плоский экран или другой обманный сценарий), который отображается на биометрический датчик (например, фронтальную камеру мобильного телефона). Метод используется для основанной на изображении биометрии с использованием лица или его подобластей, в том числе глазничных подобластей. Примеры акустических локационных сигналов, которые могут использоваться для трехмерного измерения образа лица, включают в себя, но не ограничиваются этим, короткие кодированные импульсные локационные сигналы, кратковременные импульсы с частотной модуляцией и CTFM.
[0030] Короткие кодированные импульсные локационные сигналы включают в себя такие локационные сигналы, для которых максимальные корреляционные коды (например, последовательности Баркера порядка от 2 до 13, будь то в своей исходной форме или закодированные с помощью двоичной фазовой манипуляции) и/или кратковременные импульсы с частотной модуляцией (например, линейные развертки по частоте с огибающей, такие как окно Кайзера) отправляются через компонент для вывода звука, такой как телефонный динамик или другой встроенный звуковой преобразователь. Если существует несколько компонентов для вывода звука, для улучшения пространственного фокусирования акустического локационного сигнала может использоваться формирование акустического луча. Согласованный фильтр или автокорреляционное декодирование эхо-сигнала из вышеупомянутых методов сжатия импульсов позволяет реконструировать грубую трехмерную сигнатуру целевого объекта (которая также отражает его текстуру и структуру материала за счет акустического сопротивления подвергаемых воздействию граней). Эта информация представляется на пользовательское устройство через время пролета и морфологию принятого эхо-сигнала, подобно тому, что видно на эхолокационных и радиолокационных системах. Согласованный фильтр подразумевает взаимную корреляцию принятого эхо-сигнала с исходным локационным сигналом. Вместо этого может использоваться автокорреляция эхо-сигнала с самим собой, когда непосредственная принятая копия текущего сигнала фактически становится шаблоном обнаружения. В любом случае перед выбором и классификацией признаков выполняется дополнительная последующая обработка, такая как вычисление амплитуды расчетной версии декодированного сигнала.
[0031] Для локационных CTFM-сигналов, расстояние от разных граней/поверхностей целевого объекта (здесь, лицо пользователя или обманный экран) измеряется на основе изменяющейся во времени частоты высокотонального акустического зонда, передаваемого устройством (например, через динамик телефона).
[0032] В некоторых реализациях акустическое измерение расстояния также используется для контроля общей отдаленности лица, чтобы гарантировать надлежащее соответствие ожидаемому межзрачковому расстоянию, измеренному при обработке визуальной информации во время биометрической регистрации (практический контроль с измерением в масштабе). В некоторых реализациях низкое отношение сигнал/шум эхо-сигнала может дополнительно компенсироваться посредством усреднения нескольких локационных сигналов и/или формирования луча для нескольких микрофонов и шумоподавления.
[0033] Следует отметить, что этот метод имеет два аспекта: (i) отклонение нелицевых объектов (например, обманные экраны), и (ii) признание лицеподобных трехмерных акустических профилей, особенно тех, которые аналогичны таковым для учтенного пользователя (например, специфичные для пользователя акустические шаблоны лица, созданные во время регистрации), что повышает надежность борьбы с обманом, так как учитывает специфику объекта. Последний аспект задействует получение информации о сигнатурах лица из акустических отражений (обучение по представлению), которое может быть выполнено с использованием известных методов машинного обучения, таких как композиции классификаторов и глубокое обучение. Точность распознавания акустического трехмерного профиля лица может быть дополнительно повышена за счет внесения вспомогательных сигналов от датчика изображения. К примеру, эхо-профили изменятся, если пользователь наденет очки или закроет часть лица шарфом. Анализ изображений может выявить эти изменения и соответственно скорректировать модули классификации, к примеру, используя подходящие шаблоны и пороговые величины для этих условий.
Фотометрическое измерение трехмерного образа лица
[0034] В некоторых реализациях, после акустического обнаружения структуры лица (или до или одновременно с акустическим обнаружением структуры лица), измерение трехмерного образа лица дополнительно подкрепляется изучением существования и объема лицевой трехмерной структуры на основе детального исследования вариаций освещения, таких как фотометрическое стереоизображение, которое вызвано высокочастотными растрами экрана мобильного устройства, кодированными интенсивностью освещения, фазой и частотой, а также цветом (структурированное освещение экрана). Фотометрические стереоэффекты, как правило, зависят от удаленности источника света и, таким образом, могут комбинироваться с ранее упомянутыми расстояниями, измеренными эхолокатором.
[0035] В дополнительных реализациях проверочные фотометрические сигнатуры могут сравниваться с одной или более фотометрическими сигнатурами, полученными во время регистрации пользователя, чтобы сделать эти измерения специфичными для объекта для более высокой чувствительности и специфики. Благодаря комбинированию улучшенного акустического и фотометрического трехмерного профилирования лица, эта комбинация может не только обнаруживать обманные объекты с большей точностью, продолжая избегать отклонения реальных пользователей, но также и обнаруживать специфичные для пользователя акустико-фотометрические сигнатуры лица в качестве мягкой биометрии и, таким образом, дополнительно повышать функциональные характеристики первичного биометрического механизма в качестве добавленного механизма мягкой идентификации.
[0036] Световые измерения также могут задействовать эффект наложения датчиков системы формирования изображений для лучшего восприятия пользователем, если, например, экран устройства может работать с более высокой частотой кадров, чтобы сделать временные вариации порождаемого экраном светового зонда более незаметными. Таким образом, если камера работает с более низкой частотой кадров, чем экран, можно использовать частотную составляющую наложения структурированного света и продолжать обычным порядком.
Измерение сердечной деятельности
[0037] В некоторых реализациях, если образ лица подтвержден акустически и/или фотометрически, существование (и, в некоторых случаях, значение) лицевого пульса может быть обнаружено/измерено благодаря фронтальной камере мобильного устройства в период времени наблюдения, который меньше, чем необходимый для полного вычисления частоты пульса с помощью rPPG. Этот быстрый контроль ограничивает атаки с помощью обманных объектов в отношении лицеподобных трехмерных структур с пульсирующей кожей, что удовлетворяет очень высоким требованиям. Этот этап идентификации пульса может служить дополняющим уровнем защиты для борьбы с обманом после акустического (и, в некоторых случаях, фотометрического) измерения образа лица.
[0038] В дополнительных реализациях, для еще более строгого контроля жизненности, предлагаемый способ измеряет и перекрестно проверяет множественные сердечные показатели жизнедеятельности пользователя. Один сердечный сигнал может быть определен, например, на основе ранее упомянутой трехмерной rPPG лица с подтверждением. Дополнительные сердечные сигналы (или их основные гармоники) могут быть восстановлены из сигналов баллистокардиограммы (например, колебания портативного устройства и их гармоники, вызванные механическим действием сердечной мышцы и измеренные датчиками движения устройства, и в некоторых случаях подкрепленные коррелированными небольшими колебаниями, обнаруженными из поступающего материала для камеры устройства после тщательной обработки сигнала и усиления движения). Эти дополнительные сердечные сигналы могут быть собраны другими датчиками сердечного ритма, если они есть в наличии, такими как носимые устройства для контроля за состоянием здоровья или другие датчики сердечного ритма, включенные в состав мобильного устройства пользователя. В некоторых реализациях сигналы от датчика движения предварительно обрабатываются посредством полосовой фильтрации в целевых диапазонах частоты сердечного ритма и их гармоник. В других реализациях гармоники сердечного ритма используются в качестве основных сигналов баллистокардиограммы. В дополнительных реализациях баллистокардиограмма дополняется усиленным коррелированным вызванным сердечной деятельностью движением, которое наблюдается, например, камерой мобильного устройства.
[0039] При обнаружении пульса и значимой корреляции в реальном времени между множественными сердечными сигналами (например, измерения пульса с помощью rPPG и баллистокардиограммы) может быть гарантирована более высокая вероятность жизненности. Таким показателем жизненности по сердечному циклу может быть, например, степень корреляции/подобия в реальном времени между двумя сердечными сигналами (баллистокардиограмма и rPPG). Этот дополнительный уровень борьбы с обманом замыкает цикл проверки сердечной жизнедеятельности, от фиксации состояния по руке (механический путь) до воспринимаемого подтверждения подлинности по лицу/глазу (оптический и акустический пути), используя сердцебиение пользователя, обращающегося за биометрической проверкой.
[0040] Описываемая в данном документе технология может объединять различные методы для обнаружения сердечного ритма, которые известны в данной области техники и описаны, например, в патенте США № 8,700,137, выданном 14 апреля 2014 и озаглавленном "Cardiac Performance Monitoring System for Use with Mobile Communications Devices"; работе "Biophone: Physiology Monitoring from Peripheral Smartphone Motions", Эрнандес (Hernandez), МакДафф (McDuff) и Пикард (Picard), Общество инженерных наук в медицине и биологии (Engineering in Medicine and Biology Society), 2015 37-ая ежегодная международная конференция IEEE, 2015; и работе "Exploiting Spatial Redundancy of Image Sensor for Motion Robust rPPG", Уонг (Wang), Штуйк (Stuijk), и де Хаан (de Haan), Записки по биомедицинской технике IEEE (IEEE Transactions on Biomedical Engineering), том 62, № 2, февраль 2015, содержание которых полностью включается в настоящую заявку посредством ссылки.
Дополнительные реализации
[0041] Теперь обратимся к Фиг. 3, во время биометрического сканирования лица и/или глазничных областей пользователя фронтальной камерой, в соответствии с описанными в данном документе методами, телефонный динамик 302 (и/или другие акустические преобразователи, в том числе несколько громкоговорителей в конструкции для формирования луча, сфокусированной на целевых лицевых областях) испускает серию сигналов для акустического опроса образа лица воспринимаемого взаимодействующего пользователя. Телефонный микрофон(ы) 304 собирает отражения сигнала, главным образом от лица, в случае интерактивной аутентификации. Однако возможно, что вместо этого во время атаки с помощью обманного объекта представлен экран или иная репродукция лица. В некоторых реализациях, когда используется нижний микрофон 304 устройства, начальный момент испускания зондирующего сигнала обнаруживается посредством назначения временной метки первой передачи, которую услышал микрофон 304 как первую и самую громкую принятую копию акустического зонда (Маршрут 0), с учетом скорости звука и акустического сопротивления, когда локационный сигнал проходит через/сквозь корпус телефона. Исходный сигнал используется в сочетании с его эхом, принятым микрофоном 304 телефона, для согласованной фильтрации (может включать в себя сигнал/эхо-сигнал, принятый через внешний Маршрут 1, в котором сигнал распространяется по воздуху от динамика 302 до микрофона, и внешний Маршрут 2, в котором сигнал отражается от целевого объекта и принимается микрофоном 304). Примеры акустического локационного сигнала включают в себя сжатие импульса и/или максимальные корреляционные последовательности, такие как короткие импульсы с частотной модуляцией или кодовые последовательности Баркера/M-последовательности.
[0042] В некоторых реализациях, при наличии, микрофон на передней панели используется для улучшенной направленности, подавления фонового шума и обнаружения начального момента зондирующего сигнала. Полярные диаграммы направленности микрофона устройства, такие как Кардиоида, могут быть выбраны для лучшего направленного приема. Множественные микрофоны на устройстве, при наличии, могут использоваться для формирования луча для лучшей направленности и, таким образом, лучшего приема эхо-сигнала от образа лица.
[0043] В некоторых реализациях автокорреляция отраженного звука используется для декодирования эхо-составляющей лица/обманного объекта в отраженном звуке. Этот способ может дать лучшую демодуляцию, поскольку ядро согласованного фильтра является здесь, по существу, фактически переданной версией структуры волны зонда. В дополнительных реализациях зондирующий сигнал имеет тип CTFM и, следовательно, гетеродинирование используется для разрешения пространственного профиля и расстояния до целевой структуры. В конечном итоге, классификатор может принимать решение о воспринимаемом образе лица на основе признаков, извлеченных из демодулированных эхо-сигналов благодаря любому числу вышеупомянутых способов.
[0044] На основе характеристик эхо-сигнала, записанного микрофоном(ами) устройства, существуют различные способы определить, был ли звук отражен от лица пользователя, в противоположность обманному экрану или другому обманному объекту, отмечая специфичную многогранную трехмерную форму лица и его поглощающие/отражающие способности, в отличие, например, от двумерного обманного объекта, такого как ЖК-репродукция лицевых или глазничных областей, представляющих интерес.
[0045] Фиг. 4 и 5 изображают иллюстративные демодулированные согласованным фильтром эхо-сигналы, использующие кодовые последовательности Баркера порядка 2 для первых 20 см прохождения акустического пути, где ясно наблюдаются различные акустические отражения на Маршруте 0, 1 и 2 (см. Фиг. 3). Конкретнее, Фиг. 4 изображает отражение, вызванное экраном монитора на расстоянии приблизительно 10-12 см от телефона, испускающего импульс, тогда как Фиг. 5 изображает другую эхо-сигнатуру, вызванную реальным человеческим лицом приблизительно в 10-14 см перед телефоном.
[0046] В некоторых реализациях акустический зондирующий сигнал представляет собой сигнал с максимальной корреляцией, такой как кодовые последовательности Баркера порядка 2-13 (либо в своей исходной форме, либо с модуляцией с помощью двоичной фазовой манипуляции (BPSK - binary phase-shift keying), когда несущая частота смещает свою фазу на 180 градусов для каждого изменения уровня битов) или псевдослучайные M-последовательности. В некоторых реализациях акустический зондирующий сигнал состоит из коротких импульсов с частотной модуляцией (с различными частотными диапазонами, а также огибающими выметания и амплитуды). Сигнал зондирования может быть, например, сигналом CTFM. Эти короткие высокочастотные сигналы передаются от компонента для вывода звука, такого как динамик (в случае интеллектуального телефона или планшетного компьютера, например, поскольку он естественным образом обращен к целевому объекту при использовании фронтальной камеры для захватов). В некоторых реализациях, однако, другие или множественные звуковые преобразователи устройства используются для формирования луча, чтобы лучше сосредоточить акустический зонд на биометрической цели.
[0047] Акустический зондирующий сигнал может принимать различные формы среди множества реализаций раскрытых методов. Например, в одной реализации, акустический зондирующий сигнал является сигналом CTFM с линейным выметанием импульсов с частотной модуляцией с оконным преобразованием Ханнинга от 16 кГц до 20 кГц. В другой реализации зондирующий сигнал представляет собой последовательность с максимальной корреляцией, такую как последовательность Баркера порядка 2 со сдвигом на 180 градусов по синусоиде BPSK на несущей частоте 11,25 кГц, отобранной на 44100 Гц. В дополнительной реализации зондирующий сигнал является оконным импульсным сигналом с частотной модуляцией. Импульс с частотной модуляцией может быть, например, косинусоидальным сигналом с частотой появления 11,25 кГц, с линейным выметанием до 22,5 кГц в 10 мс, и отобранный на 44100 Гц. Оконная функция может быть окном Кайзера длиной 440 выборок (10 мс при частоте дискретизации 44,1 кГц) с бета-значением 6. Упомянутые выше значения представляют собой те параметры зондирующего сигнала, которые обеспечивают достаточно точные результаты. Однако следует иметь в виду, что параметры зондирующего сигнала, которые обеспечивают точные результаты, могут меняться в зависимости от характеристик устройства и компонентов для ввода/вывода звука. Соответственно, и другие диапазоны значений предполагаются для использования с настоящими методами.
[0048] В некоторых реализациях начальная фаза, частота, и точный начальный момент проигрывания испускаемого зондирующего сигнала, или даже сам тип кода, могут быть рандомизированы (например, для PSK-кодированной серии зондирующих импульсов Баркера) мобильным биометрическим модулем. Эта рандомизация может сорвать гипотетические (хотя широко распространенные и высокотехнологичные) атаки, когда воспроизводимое поддельное эхо проигрывается на телефоне, чтобы преодолеть предполагаемое акустическое средство контроля образца лица. Поскольку оперативно рандомизированная фаза/тип/начальный момент/частота PSK-модуляции кодированной акустической последовательности или другие динамические атрибуты исходящего зонда неизвестны атакующему, гипотетические внесенные эхо-сигналы не будут демодулироваться согласованным фильтром, и не будут следовать точно ожидаемой модели.
[0049] Во время базовой процедуры кода Баркера/импульса с частотной модуляцией/CTFM отражение зондирующего сигнала, задержанное по времени (и, следовательно, частоте для CTFM) на основе его дальности в обоих направлениях, записывается микрофоном(ами) устройства или другим компонентом(ами) для ввода звука. Исходный импульс с частотной модуляцией или иначе закодированный акустический зонд может быть обнаружен либо согласованным фильтром, либо автокорреляцией (для последовательности Баркера и короткого импульса с частотной модуляцией), или демодулирован в основную полосу частот, умножая эхо-сигнал на исходное линейное изменение частоты и принимая более низкую частоту за произведение (гетеродинирование). Каждая находящаяся под воздействием грань целевого объекта отражает зондирующий импульс в соответствии с ее текстурными и структурными свойствами (например, разницей акустического сопротивления между воздухом и находящейся под воздействием поверхности, а также ее размером и формой), а также с расстоянием от акустического источника (задержка звука в обоих направлениях). Таким образом, в своей упрощенной форме (предполагая отсутствие шума и нежелательных фоновых эхо-сигналов), лицо будет иметь множественные отражения с меньшими величинами (поскольку отражаются его многочисленными основными гранями по границам соприкосновения воздух-кожа и мягкая ткань-кость), тогда как, например, обманный экран монитора будет иметь одно более сильное отражение (сравните Фиг. 4 и 5).
[0050] Учитывая задержку в обоих направлениях каждого отражения, расстояние до каждой отражающей целевой грани может быть преобразовано во временную задержку в отклике согласованного фильтра/автокорреляции или разность частот в спектральной плотности мощности (PSD - Power Spectral Density) (см. Фиг. 6 и 7, дополнительно описано ниже), обеспечивая специфичную для целевого объекта морфологию эхо-сигнала. Чтобы вычислить ключевые характеристики PSD из сигналов CTFM, могут использоваться разные способы. В некоторых реализациях способ множественного волноводного перехода применяется к интервалу 0-200 Гц демодулированного эхо-сигнала, и сгруппированный вывод используется в качестве ввода для классификатора, который может быть, например, машиной опорных векторов, линейной или с ядром Гаусса, или подобным.
[0051] Более конкретно, в различных реализациях один или более следующих этапов выполняются для демодуляции импульса с частотной модуляцией/кодированного импульса и классификации целевого объекта. В одном случае акустический зонд позволяет избежать громкого акустического шума окружающей среды, часто контролируя считывание данных микрофона (например, каждые 100 мс, каждые 500 мс, каждую 1 с, и т.д.), перехватывая потенциальный мешающий шум. Этот контроль может включать в себя вычисление корреляции (свертка с обращением времени) импульса с частотной модуляцией/кодированного импульсного зондирующего сигнала, и установку порога срабатывания на значение, полученное в достаточно тихой окружающей среде. В некоторых реализациях дополнительный аналогичный контроль проводится вскоре после проигрывания акустического зондирующего сигнала, чтобы определить, возник ли мешающий шум сразу после акустического локационного сигнала. Если это так, сеанс может не учитываться. Множественные импульсы с частотной модуляцией также могут быть усреднены (или обработаны по средней величине) на уровне сигнала или оценки решения, чтобы улучшить результаты.
[0052] В одной реализации предварительная обработка предусматривает высокочастотную фильтрацию принятого сигнала, чтобы принимать во внимание только частоты, относящиеся к переданному импульсу с частотной модуляцией/кодированному сигналу. Этот высокочастотный фильтр может представлять собой, например, фильтр Чебышева с конечной импульсной характеристикой с частотой полосы задерживания 9300 Гц, частотой полосы пропускания 11750 Гц, затуханием в полосе задерживания 0,015848931925, неравномерностью в полосе пропускания 0,037399555859, и коэффициентом плотности 20.
[0053] В некоторых реализациях демодуляция включает в себя нормализованную взаимную корреляцию высокочастотного принятого эхо-сигнала с исходным акустическим импульсом с частотной модуляцией/кодированным сигналом (что эквивалентно нормализованной версии свертки с обращенным временем акустического зонда). Максимальным откликом считается начальный момент/возникновение декодированного сигнала. Демодуляция может включать в себя, например, автокорреляцию части сигнала 0,227 мс перед вышеупомянутым начальным моментом, до 2,27 мс+длительность импульса с частотной модуляцией/кодированного сигнала, после маркера начального момента. Последующая обработка демодулированного сигнала может включать в себя вычисление величины его аналитического сигнала (комплексная спиральная последовательность, составленная из реального сигнала плюс мнимый, его сдвинутая на 90 градусов по фазе версия) для дополнительного уточнения огибающей демодулированного эхо-сигнала. В одной реализации, полагая частоту дискретизации 44100 Гц, первые 100 выборок вышеупомянутой величины аналитического сигнала дополнительно умножаются на кусочно-линейный весовой коэффициент, который равен 1 для первых 20 выборок и линейно возрастает до 5 для выборок 21-100, чтобы компенсировать затухание звука из-за пройденного расстояния. Могут использоваться и другие весовые коэффициенты, такие как коэффициент согласно режиму второго порядка.
[0054] Фиг. 6 изображает множественные отражения от разных граней лица (показаны три выборки с использованием метода CTFM). Эти эхо-сигналы раскрывают специфичные пространственные структуры лица (в отличие от сигнатур обманного объекта). Это обусловлено разными задержками (и величинами) разных акустических путей, обнаруженных по демодулированным акустическим зондирующим эхо-сигналам. Напротив, обманное отображение, показанное на Фиг. 7, почти всегда порождает одиночный большой пик в процессе демодуляции. Проблемы могут возникать из-за низкого пространственного разрешения и высокого рассеивания типичного лица вследствие ограничения верхней частоты до 20 кГц, налагаемого звуковыми схемами некоторых телефонов. Другие проблемы включают в себя изменения, вызванные поведением пользователя и фоновым шумом, а также артефактами движения/отражения, наведенными нерегулируемой окружающей средой, и общее низкое отношение сигнал/шум из-за ограничений звуковых схем устройств, которые рассматриваются в описанных в данном документе методах.
[0055] В некоторых реализациях набор признаков для вышеупомянутого классификатора представляет собой совокупность подмножеств, выбранных для лучшей эффективности классификации, при использовании метода композиционной классификации со случайными подмножествами. Композицией классификаторов случайных подпространств может быть, например, склеенная по правилам сложения совокупность классификаторов k ближайших соседей, или склеенная по правилам сложения совокупность машин опорных векторов, работающих с набором векторов признаков декодированных аналитических сигналов. Приложения A и B предоставляют классификаторы и пространства вводов, выведенные экспериментально с использованием методологии построения композиции случайных подпространств. В Приложении A приведен иллюстративный набор из 80 векторов признаков, выбранных с использованием большого набора данных для обучения/тестирования, состоящего из более чем 18,000 эхо-сигналов, записанных от реальных пользователей, а также различных обманных экранов, с использованием случайной выборки подпространства в сочетании с kNN композиционными классификаторами. Подпространства были получены на основе средних показателей перекрестной проверки (измеренных посредством анализа ROC-кривой) разных конфигураций подпространств (т.е., местоположения и размеры выборок ввода, а также количество участвующих классификаторов). Место в столбце для каждого номера показывает номер выборки цифрового сигнала из декодированного начального момента передачи импульса с частотной модуляцией/кодированного сигнала, с использованием частоты дискретизации 44100 Гц. В другой реализации композиция подпространств представляет собой совокупность классификаторов на основе машин опорных векторов с ядрами Гаусса, принимающих набор из 40 векторов признаков декодированных аналитических сигналов, приведенных в Приложении B, и выбранных как подмножество из 80 признаков в Приложении A на основе их коэффициентов дискриминанта Фишера (из классификации линейным дискриминантом Фишера с использованием большого набора данных). Опять же, место в столбце для каждого номера показывает номер выборки цифрового сигнала из декодированного начального момента передачи импульса с частотной модуляцией/кодированного сигнала, с использованием частоты дискретизации 44100 Гц.
[0056] Для точной идентификации представлений специфичных лиц (а не только обобщенных лиц в противоположность обманным объектам) в пространстве эхо-сигналов, в некоторых реализациях, эхолокационный классификатор обучается быть специфичным для объекта (и, возможно, специфичным для устройства, поскольку следующий способ учитывает совокупные особенности пользовательского устройства). Эта функциональность может быть достигнута путем обучения классификатора отличать акустические признаки пользователя, собранные во время биометрической регистрации, от характерных для класса мошенников (и не только обманных объектов, с расчетом на специфичность объекта). Другим преимуществом этого способа является то, что признаки, подобранные во время регистрации, также отражают специфические особенности устройства, используемого для регистрации и, таким образом, классификаторы адаптированы к акустическим особенностям конкретного устройства. Полученный специфичный для пользователя (и устройства) детектор акустического рисунка может использоваться как часть более точного, настроенного под пользователя (и устройство) классификатора для борьбы с обманом, когда эта специфичная для объекта классификация сочетается с ранее упомянутым классификатором для обнаружения обманного объекта. В некоторых реализациях сам специфичный для пользователя детектор акустического профиля может использоваться в качестве мягкой биометрии.
[0057] Вышеупомянутые акустические опросы глазничной/лицевой биометрической цели могут быть дополнены лицевыми фотометрическими откликами на структурированный свет, сообщаемый опрашивающим сцену мобильным устройством, для лучшей борьбы с обманом. В некоторых реализациях структурированный свет имеет форму кодированной интенсивности, кодированных вариаций цвета, кодированного пространственного распределения и/или кодированных вариаций фазы света, сообщаемого устройством, например, через встроенное ЖК-устройство отображения или светодиодные источники света. Вышеупомянутые коды могут быть определены в терминах частотных режимов и конкретных максимальных корреляционных последовательностей, таких как последовательности Баркера или M-последовательности. В других реализациях фотометрические профили лица пользователя предварительно вычисляются на основе общих профилей группы пользователей в противопоставление обманным объектам (независимый от пользователя фотометрический образ лица).
[0058] Кроме того, в некоторых реализациях трехмерные профили лица пользователя, обнаруженные в результате фотометрических отражений пользователя во время утвержденной регистрации, изучаются классификаторами на предмет специфики пользователя. Наряду с акустическим механизмом или самостоятельно, эти специфичные для пользователя портфолио могут использоваться в качестве мягкой биометрии, что также вносит большую специфику для объекта и, таким образом, точность в этих мерах по борьбе с обманом.
[0059] Системы и методы, описанные в данном документе, могут быть реализованы в вычислительной системе, которая включает в себя серверный компонент (например, в виде сервера данных), или которая включает в себя компонент промежуточного программного обеспечения (например, сервер приложений), или которая включает в себя клиентский компонент (например, клиентский компьютер, имеющий графический интерфейс пользователя или обозреватель страниц в сети Интернет, через который пользователь может взаимодействовать с реализацией систем и методов, описанных в данном документе), или любую комбинацию таких серверных, промежуточного программного обеспечения, или клиентских компонентов. Компоненты системы могут быть взаимосвязаны посредством любой формы или среды передачи цифровых данных (например, сети связи). Примеры сетей связи включают в себя локальную сеть ("ЛВС"), глобальную сеть ("ГВС"), а также сеть Интернет.
[0060] Вычислительная система может включать в себя клиентскую и серверную части. Клиентская и серверная части, как правило, удалены друг от друга и могут взаимодействовать через сеть связи. Взаимоотношения клиентской и серверной частей возникают благодаря компьютерным программам, запущенным на соответственных компьютерах и имеющим взаимоотношения клиент-сервер друг с другом. Был описан целый ряд вариантов осуществления. Тем не менее, следует понимать, что могут быть произведены различные модификации без отступления от сущности и объема настоящего изобретения.
[0061] Варианты осуществления настоящего предмета изобретения и операции, описанные в этом описании изобретения, могут быть реализованы в цифровых электронных схемах, или в компьютерном программном обеспечении, программно-аппаратном обеспечении или аппаратном обеспечении, включающих в себя структуры, раскрытые в этом описании изобретения, и их структурные эквиваленты, или в комбинациях одного или более из них. Варианты осуществления настоящего предмета изобретения, описанного в этом описании изобретения, могут быть реализованы в виде одной или более компьютерных программ, т.е., одного или более модулей компьютерных программных инструкций, закодированных на компьютерном носителе данных для исполнения устройством обработки данных, или управления его работой. В качестве альтернативы или в дополнение, программные инструкции могут быть закодированы в искусственно сгенерированном распространяемом сигнале, например, генерируемом машиной электрическом, оптическом или электромагнитном сигнале, который генерируется для кодирования информации для передачи на подходящее принимающее устройство для исполнения устройством обработки данных. Компьютерный носитель данных может представлять собой считываемое с помощью компьютера устройство хранения данных, считываемое с помощью компьютера основание для хранения, матрицу запоминающих элементов или запоминающее устройство со случайным или последовательным доступом, или комбинацию одного или более из них, либо входить в их состав. Более того, хотя компьютерный носитель данных и не является распространяемым сигналом, компьютерный носитель данных может быть источником или адресатом для компьютерных программных инструкций, закодированных в искусственно сгенерированном распространяемом сигнале. Компьютерный носитель данных также может представлять собой один или более отдельных физических компонентов или носителей (например, несколько компакт-дисков, дисковых ЗУ или других устройств хранения данных), либо входить в их состав.
[0062] Операции, описанные в этом описании изобретения, могут быть реализованы как операции, выполняемые устройством обработки данных на данных, хранящихся на одном или более считываемых с помощью компьютера устройствах хранения данных, или принятых из других источников.
[0063] Термин "устройство обработки данных" охватывает все виды устройств, приспособлений и машин для обработки данных, в том числе, для примера, программируемый процессор, компьютер, система на кристалле, либо несколько или комбинации из вышеуказанного. Устройство может включать в себя логическую схему специального назначения, например, ППВМ (программируемую пользователем вентильную матрицу) или СИС (специализированную интегральную схему). Устройство также может включать в себя, в дополнение к аппаратному обеспечению, код, который создает среду исполнения для рассматриваемой компьютерной программы, например, код, который формирует встроенное программное обеспечение процессора, набор протоколов, систему управления базами данных, операционную систему, межплатформенную среду выполнения, виртуальную машину, или комбинацию одного или более из них. Устройство и среда исполнения могут воплощать различные инфраструктуры модели вычислений, такие как сетевые службы, распределенное вычисление и инфраструктуры "решетки" вычислительных ресурсов.
[0064] Компьютерная программа (также известная как программа, программное обеспечение, программное приложение, сценарий или код) может быть написана в любой форме языка программирования, включающей в себя транслируемые или интерпретируемые языки, декларативные или процедурные языки, и она может быть развернута в любой форме, в том числе как самостоятельная программа или как модуль, компонент, подпрограмма, объект или другая единица, пригодная для использования в среде вычисления. Компьютерная программа может, но не обязательно, соответствовать файлу в файловой системе. Программа может храниться в части файла, который содержит и другие программы или данные (например, один или более сценариев, хранящиеся в ресурсе языка разметки), в отдельном файле, предназначенном для рассматриваемой программы, или в нескольких увязанных файлах (например, файлах, которые хранят один или более модулей, частей программ или фрагментов кода). Компьютерная программа может быть развернута для исполнения на одном компьютере или на нескольких компьютерах, которые расположены в одном месте или распределены по нескольким местам и связаны между собой посредством сети связи.
[0065] Варианты осуществления настоящего предмета изобретения, описанного в этом описании изобретения, могут быть реализованы в вычислительной системе, которая включает в себя серверный компонент, например, в виде сервера данных, или которая включает в себя компонент промежуточного программного обеспечения, например, сервер приложений, или которая включает в себя клиентский компонент, например, клиентский компьютер, имеющий графический интерфейс пользователя или обозреватель страниц в сети Интернет, через который пользователь может взаимодействовать с реализацией настоящего предмета изобретения, описанного в этом описании изобретения, или любую комбинацию одного или более таких серверных, промежуточного программного обеспечения, или клиентских компонентов. Компоненты системы могут быть взаимосвязаны посредством любой формы или среды передачи цифровых данных, например, сети связи. Примеры сетей связи включают в себя локальную сеть ("ЛВС"), глобальную сеть ("ГВС"), объединенную сеть (например, сеть Интернет), а также одноранговые сети (например, специализированные одноранговые сети).
[0066] Вычислительная система может включать в себя клиентскую и серверную части. Клиентская и серверная части, как правило, удалены друг от друга и могут взаимодействовать через сеть связи. Взаимоотношения клиентской и серверной частей возникают благодаря компьютерным программам, запущенным на соответственных компьютерах и имеющим взаимоотношения клиент-сервер друг с другом. В некоторых вариантах осуществления сервер передает данные (например, страницу HTML) на клиентское устройство (например, с целью отображения данных и приема пользовательского ввода в результате взаимодействия пользователя с клиентским устройством). Данные, сгенерированные на клиентском устройстве (например, результат взаимодействия с пользователем), могут приниматься от клиентского устройства на серверной части.
[0067] Система из одного или более компьютеров может быть предназначена для выполнения конкретных операций или действий посредством имеющегося программного обеспечения, программно-аппаратного обеспечения, аппаратного обеспечения, или их комбинации, установленного в системе, которое в процессе работы заставляет или заставляют систему выполнять действия. Одна или более компьютерных программ могут быть предназначены для выполнения конкретных операций или действий посредством включенных в них инструкций, которые, при исполнении устройством обработки данных, заставляют устройство выполнять действия.
Приложение A
[0068] Набор 1 векторов признаков:
Классификатор 1: 7, 9, 14, 15, 18, 20, 24, 27, 35, 37, 40, 45, 55, 58, 60, 64, 65, 70, 80, 81, 98, 100
Классификатор 2: 6, 12, 13, 23, 26, 36, 44, 47, 50, 52, 58, 59, 63, 64, 67, 76, 77, 85, 86, 87, 89, 92
Классификатор 3: 10, 21, 22, 25, 31, 32, 34, 37, 38, 46, 49, 62, 72, 73, 80, 82, 83, 84, 86, 90, 93, 95
Классификатор 4: 1, 2, 5, 8, 15, 17, 20, 22, 23, 28, 29, 30, 41, 42, 51, 56, 61, 78, 83, 94, 96, 99
Классификатор 5: 3, 4, 12, 16, 28, 30, 32, 37, 39, 43, 45, 54, 57, 60, 63, 66, 76, 78, 84, 87, 88, 97
Классификатор 6: 4, 11, 13, 19, 27, 31, 39, 44, 47, 48, 49, 53, 58, 69, 71, 74, 75, 91, 93, 94, 99, 100
Классификатор 7: 1, 2, 4, 6, 8, 9, 11, 13, 26, 33, 36, 41, 50, 51, 54, 67, 68, 69, 73, 79, 85, 90
Классификатор 8: 10, 14, 17, 18, 19, 24, 33, 34, 36, 38, 41, 43, 52, 55, 59, 60, 68, 92, 93, 96, 98, 100
Классификатор 9: 8, 17, 22, 23, 24, 25, 27, 30, 35, 40, 46, 56, 57, 62, 63, 70, 71, 72, 79, 88, 89, 99
Классификатор 10: 3, 5, 9, 11, 29, 42, 58, 61, 62, 63, 66, 71, 75, 77, 80, 81, 82, 90, 94, 95, 96, 97
Классификатор 11: 1, 3, 6, 14, 16, 21, 25, 32, 34, 35, 38, 39, 48, 49, 53, 55, 66, 70, 75, 78, 80, 97
Классификатор 12: 7, 10, 15, 20, 24, 31, 33, 36, 40, 43, 44, 50, 52, 65, 67, 74, 76, 85, 91, 96, 98, 99
Классификатор 13: 9, 16, 19, 20, 26, 41, 46, 47, 48, 49, 51, 68, 69, 73, 77, 82, 83, 84, 87, 89, 91, 95
Классификатор 14: 2, 6, 8, 11, 18, 23, 26, 28, 29, 35, 38, 42, 45, 57, 61, 62, 64, 72, 88, 93, 96, 100
Классификатор 15: 6, 12, 19, 20, 21, 37, 42, 43, 53, 54, 58, 59, 61, 70, 73, 74, 77, 78, 79, 83, 86, 93
Классификатор 16: 3, 5, 6, 7, 18, 28, 30, 35, 39, 47, 51, 54, 55, 56, 65, 72, 82, 85, 86, 89, 90, 92
Классификатор 17: 1, 2, 7, 31, 33, 34, 36, 39, 46, 56, 59, 64, 65, 66, 67, 69, 75, 79, 81, 86, 87, 92
Классификатор 18: 9, 12, 13, 14, 15, 16, 17, 21, 27, 41, 44, 45, 49, 52, 57, 74, 76, 77, 81, 88, 91, 95
Классификатор 19: 5, 17, 26, 29, 30, 45, 46, 48, 63, 65, 67, 68, 71, 72, 74, 75, 76, 88, 92, 96, 97, 98
Классификатор 20: 1, 9, 13, 19, 21, 22, 25, 27, 37, 47, 50, 51, 53, 60, 61, 66, 70, 78, 79, 84, 95, 98
Классификатор 21: 1, 2, 11, 12, 16, 18, 29, 32, 40, 42, 48, 50, 57, 62, 71, 73, 83, 84, 87, 90, 94, 100
Классификатор 22: 3, 4, 7, 10, 15, 23, 25, 26, 31, 32, 33, 41, 43, 52, 56, 58, 76, 82, 88, 91, 92, 99
Классификатор 23: 3, 4, 5, 7, 8, 12, 13, 22, 23, 33, 34, 38, 40, 44, 54, 60, 62, 63, 64, 89, 94, 97
Классификатор 24: 10, 14, 15, 16, 20, 21, 27, 30, 42, 45, 47, 53, 68, 69, 72, 74, 79, 80, 81, 84, 89, 97
Классификатор 25: 10, 11, 24, 28, 29, 32, 43, 44, 52, 64, 65, 66, 70, 71, 75, 77, 85, 87, 90, 94, 95, 100
Классификатор 26: 5, 8, 16, 29, 33, 36, 37, 40, 52, 53, 54, 55, 56, 57, 59, 60, 69, 73, 82, 86, 91, 97
Классификатор 27: 2, 5, 6, 12, 17, 22, 25, 34, 35, 39, 46, 48, 55, 59, 61, 64, 73, 75, 78, 79, 90, 99
Классификатор 28: 2, 4, 9, 18, 24, 27, 31, 34, 36, 37, 42, 43, 44, 66, 78, 80, 81, 83, 85, 93, 96, 98
Классификатор 29: 4, 5, 8, 13, 14, 17, 18, 19, 22, 26, 28, 38, 45, 46, 49, 51, 58, 60, 61, 72, 89, 93
Классификатор 30: 20, 21, 27, 29, 31, 38, 40, 41, 50, 54, 58, 64, 65, 67, 68, 69, 81, 82, 92, 94, 98, 100
Классификатор 31: 3, 4, 7, 9, 11, 19, 25, 26, 28, 30, 33, 53, 54, 55, 57, 65, 67, 71, 76, 80, 83, 86
Классификатор 32: 2, 8, 10, 12, 14, 21, 23, 32, 35, 36, 47, 49, 56, 62, 69, 70, 77, 82, 84, 91, 95, 99
Классификатор 33: 1, 14, 17, 18, 24, 28, 34, 39, 48, 51, 53, 59, 63, 67, 74, 85, 87, 88, 89, 95, 97, 100
Классификатор 34: 3, 10, 11, 13, 15, 23, 28, 31, 35, 43, 46, 50, 51, 55, 60, 63, 68, 71, 77, 85, 88, 98
Классификатор 35: 1, 6, 19, 38, 41, 42, 44, 45, 46, 47, 56, 57, 58, 61, 70, 73, 79, 81, 84, 90, 92, 100
Классификатор 36: 16, 24, 25, 30, 32, 35, 37, 40, 48, 50, 52, 56, 64, 65, 66, 68, 72, 75, 76, 80, 87, 94
Классификатор 37: 6, 7, 8, 39, 48, 54, 55, 57, 59, 63, 67, 74, 78, 79, 82, 86, 87, 89, 91, 93, 96, 99
Классификатор 38: 4, 13, 15, 20, 23, 29, 31, 39, 40, 41, 42, 43, 47, 49, 50, 53, 59, 72, 73, 75, 82, 84
Классификатор 39: 7, 15, 16, 17, 20, 22, 25, 27, 49, 51, 60, 62, 65, 76, 77, 80, 86, 91, 92, 93, 95, 97
Классификатор 40: 1, 11, 14, 22, 24, 26, 28, 30, 35, 36, 38, 41, 49, 52, 56, 61, 78, 83, 90, 92, 96, 99
Классификатор 41: 2, 9, 12, 18, 21, 30, 33, 34, 44, 47, 49, 61, 69, 71, 74, 76, 77, 81, 84, 85, 93, 94
Классификатор 42: 3, 8, 12, 19, 22, 26, 31, 32, 42, 48, 50, 51, 64, 66, 67, 70, 79, 83, 87, 91, 98, 100
Классификатор 43: 4, 6, 10, 21, 23, 34, 37, 44, 45, 46, 52, 55, 57, 58, 59, 60, 63, 68, 75, 78, 79, 94
Классификатор 44: 2, 5, 7, 11, 13, 23, 24, 39, 41, 43, 57, 62, 70, 72, 74, 77, 80, 84, 88, 94, 97, 100
Классификатор 45: 3, 5, 10, 14, 16, 21, 32, 33, 34, 39, 45, 64, 70, 73, 74, 83, 87, 88, 89, 90, 96, 99
Классификатор 46: 10, 15, 18, 19, 20, 25, 26, 29, 40, 52, 55, 58, 62, 68, 78, 81, 85, 86, 89, 93, 96, 98
Классификатор 47: 1, 8, 10, 15, 27, 30, 32, 33, 36, 38, 48, 53, 54, 66, 67, 69, 70, 71, 85, 95, 97, 98
Классификатор 48: 2, 3, 5, 7, 9, 14, 22, 28, 43, 47, 50, 51, 53, 54, 65, 71, 73, 76, 81, 82, 83, 92
Классификатор 49: 4, 6, 16, 17, 25, 31, 35, 41, 42, 45, 50, 51, 55, 62, 68, 77, 79, 80, 83, 86, 87, 95
Классификатор 50: 1, 5, 9, 12, 13, 17, 18, 21, 24, 28, 37, 38, 39, 40, 61, 63, 69, 70, 73, 75, 82, 91
Классификатор 51: 2, 3, 11, 15, 19, 26, 27, 29, 32, 34, 36, 37, 44, 48, 56, 59, 62, 66, 69, 71, 90, 93
Классификатор 52: 8, 12, 14, 20, 22, 35, 47, 52, 54, 57, 60, 63, 64, 65, 69, 72, 78, 81, 84, 88, 91, 96
Классификатор 53: 4, 8, 17, 29, 31, 42, 43, 46, 48, 53, 56, 58, 60, 61, 62, 65, 66, 68, 75, 76, 86, 94
Классификатор 54: 7, 13, 15, 16, 19, 20, 21, 24, 25, 33, 36, 49, 70, 80, 86, 89, 90, 94, 95, 98, 99, 100
Классификатор 55: 2, 6, 7, 10, 13, 18, 19, 22, 23, 29, 30, 40, 57, 58, 65, 66, 67, 72, 73, 88, 92, 99
Классификатор 56: 1, 6, 9, 11, 18, 20, 27, 30, 38, 44, 59, 74, 75, 78, 82, 84, 85, 86, 89, 91, 92, 97
Классификатор 57: 5, 12, 26, 33, 37, 38, 39, 42, 45, 46, 49, 52, 54, 56, 60, 66, 71, 73, 77, 90, 91, 94
Классификатор 58: 6, 8, 16, 26, 28, 34, 35, 41, 44, 45, 46, 49, 50, 63, 68, 72, 79, 83, 87, 96, 97, 99
Классификатор 59: 1, 4, 17, 23, 27, 29, 30, 31, 40, 43, 50, 51, 61, 64, 67, 68, 74, 76, 81, 93, 95, 100
Классификатор 60: 2, 3, 11, 13, 23, 24, 25, 35, 47, 49, 52, 56, 57, 59, 71, 74, 75, 79, 81, 88, 96, 98
Классификатор 61: 1, 7, 9, 12, 16, 17, 22, 32, 34, 36, 37, 46, 53, 72, 76, 77, 82, 85, 87, 88, 92, 95
Классификатор 62: 3, 4, 11, 14, 17, 18, 22, 24, 25, 31, 50, 51, 54, 55, 57, 63, 78, 80, 87, 89, 92, 97
Классификатор 63: 5, 6, 20, 21, 24, 32, 33, 36, 37, 38, 39, 43, 44, 46, 47, 60, 64, 66, 67, 69, 83, 90
Классификатор 64: 7, 10, 14, 15, 19, 27, 28, 35, 40, 45, 48, 53, 54, 59, 61, 78, 82, 84, 85, 96, 98, 100
Классификатор 65: 1, 8, 12, 15, 27, 29, 34, 40, 41, 44, 47, 52, 53, 55, 58, 59, 66, 70, 80, 89, 93, 97
Классификатор 66: 2, 5, 6, 9, 10, 14, 26, 28, 31, 42, 43, 56, 60, 62, 63, 74, 80, 81, 90, 95, 98, 99
Классификатор 67: 11, 13, 18, 20, 21, 27, 37, 38, 41, 42, 45, 51, 61, 62, 70, 76, 77, 82, 83, 88, 91, 93
Классификатор 68: 2, 3, 9, 11, 12, 15, 19, 25, 27, 32, 36, 40, 49, 68, 69, 71, 72, 75, 85, 90, 98, 99
Классификатор 69: 13, 16, 17, 18, 26, 29, 30, 32, 36, 39, 41, 46, 48, 55, 58, 61, 64, 65, 67, 79, 86, 100
Классификатор 70: 1, 4, 23, 25, 30, 33, 34, 44, 45, 54, 60, 73, 77, 79, 84, 86, 89, 93, 94, 96, 98, 100
Классификатор 71: 2, 4, 10, 13, 20, 22, 28, 34, 37, 38, 44, 45, 50, 58, 67, 69, 73, 81, 87, 91, 92, 94
Классификатор 72: 8, 9, 11, 18, 19, 31, 47, 48, 54, 56, 57, 58, 62, 64, 68, 72, 74, 75, 84, 88, 97, 99
Классификатор 73: 3, 4, 5, 21, 24, 33, 35, 40, 42, 43, 53, 55, 59, 63, 64, 65, 78, 83, 84, 85, 95, 97
Классификатор 74: 7, 9, 16, 17, 20, 29, 32, 36, 39, 47, 51, 52, 53, 58, 59, 70, 71, 76, 80, 89, 93, 94
Классификатор 75: 5, 10, 12, 14, 19, 23, 26, 33, 41, 44, 56, 57, 59, 60, 62, 69, 72, 75, 91, 92, 95, 99
Классификатор 76: 22, 25, 31, 35, 38, 42, 43, 46, 50, 65, 66, 67, 78, 81, 83, 85, 86, 87, 89, 90, 97, 99
Классификатор 77: 1, 2, 3, 8, 10, 11, 37, 49, 54, 61, 63, 66, 68, 69, 71, 75, 76, 77, 78, 79, 83, 100
Классификатор 78: 1, 5, 8, 14, 20, 23, 24, 26, 28, 32, 35, 39, 46, 48, 52, 53, 55, 73, 80, 84, 88, 93
Классификатор 79: 3, 6, 7, 14, 16, 21, 29, 30, 37, 47, 52, 55, 60, 61, 62, 70, 74, 79, 81, 82, 92, 100
Классификатор 80: 7, 15, 22, 25, 31, 34, 35, 36, 41, 44, 45, 48, 49, 51, 53, 56, 72, 73, 77, 80, 81, 82
Приложение B
[0069] Набор 2 векторов признаков:
Классификатор 1: 7, 9, 14, 15, 18, 20, 24, 27, 35, 37, 40, 45, 55, 58, 60, 64, 65, 70, 80, 81, 98, 100
Классификатор 2: 1, 2, 5, 8, 15, 17, 20, 22, 23, 28, 29, 30, 41, 42, 51, 56, 61, 78, 83, 94, 96, 99
Классификатор 3: 3, 4, 12, 16, 28, 30, 32, 37, 39, 43, 45, 54, 57, 60, 63, 66, 76, 78, 84, 87, 88, 97
Классификатор 4: 4, 11, 13, 19, 27, 31, 39, 44, 47, 48, 49, 53, 58, 69, 71, 74, 75, 91, 93, 94, 99, 100
Классификатор 5: 1, 2, 4, 6, 8, 9, 11, 13, 26, 33, 36, 41, 50, 51, 54, 67, 68, 69, 73, 79, 85, 90
Классификатор 6: 3, 5, 9, 11, 29, 42, 58, 61, 62, 63, 66, 71, 75, 77, 80, 81, 82, 90, 94, 95, 96, 97
Классификатор 7: 7, 10, 15, 20, 24, 31, 33, 36, 40, 43, 44, 50, 52, 65, 67, 74, 76, 85, 91, 96, 98, 99
Классификатор 8: 2, 6, 8, 11, 18, 23, 26, 28, 29, 35, 38, 42, 45, 57, 61, 62, 64, 72, 88, 93, 96, 100
Классификатор 9: 3, 5, 6, 7, 18, 28, 30, 35, 39, 47, 51, 54, 55, 56, 65, 72, 82, 85, 86, 89, 90, 92
Классификатор 10: 5, 17, 26, 29, 30, 45, 46, 48, 63, 65, 67, 68, 71, 72, 74, 75, 76, 88, 92, 96, 97, 98
Классификатор 11: 3, 4, 7, 10, 15, 23, 25, 26, 31, 32, 33, 41, 43, 52, 56, 58, 76, 82, 88, 91, 92, 99
Классификатор 12: 3, 4, 5, 7, 8, 12, 13, 22, 23, 33, 34, 38, 40, 44, 54, 60, 62, 63, 64, 89, 94, 97
Классификатор 13: 5, 8, 16, 29, 33, 36, 37, 40, 52, 53, 54, 55, 56, 57, 59, 60, 69, 73, 82, 86, 91, 97
Классификатор 14: 2, 5, 6, 12, 17, 22, 25, 34, 35, 39, 46, 48, 55, 59, 61, 64, 73, 75, 78, 79, 90, 99
Классификатор 15: 2, 4, 9, 18, 24, 27, 31, 34, 36, 37, 42, 43, 44, 66, 78, 80, 81, 83, 85, 93, 96, 98
Классификатор 16: 4, 5, 8, 13, 14, 17, 18, 19, 22, 26, 28, 38, 45, 46, 49, 51, 58, 60, 61, 72, 89, 93
Классификатор 17: 3, 4, 7, 9, 11, 19, 25, 26, 28, 30, 33, 53, 54, 55, 57, 65, 67, 71, 76, 80, 83, 86
Классификатор 18: 4, 13, 15, 20, 23, 29, 31, 39, 40, 41, 42, 43, 47, 49, 50, 53, 59, 72, 73, 75, 82, 84
Классификатор 19: 4, 6, 10, 21, 23, 34, 37, 44, 45, 46, 52, 55, 57, 58, 59, 60, 63, 68, 75, 78, 79, 94
Классификатор 20: 2, 5, 7, 11, 13, 23, 24, 39, 41, 43, 57, 62, 70, 72, 74, 77, 80, 84, 88, 94, 97, 100
Классификатор 21: 3, 5, 10, 14, 16, 21, 32, 33, 34, 39, 45, 64, 70, 73, 74, 83, 87, 88, 89, 90, 96, 99
Классификатор 22: 2, 3, 5, 7, 9, 14, 22, 28, 43, 47, 50, 51, 53, 54, 65, 71, 73, 76, 81, 82, 83, 92
Классификатор 23: 4, 6, 16, 17, 25, 31, 35, 41, 42, 45, 50, 51, 55, 62, 68, 77, 79, 80, 83, 86, 87, 95
Классификатор 24: 1, 5, 9, 12, 13, 17, 18, 21, 24, 28, 37, 38, 39, 40, 61, 63, 69, 70, 73, 75, 82, 91
Классификатор 25: 4, 8, 17, 29, 31, 42, 43, 46, 48, 53, 56, 58, 60, 61, 62, 65, 66, 68, 75, 76, 86, 94
Классификатор 26: 2, 6, 7, 10, 13, 18, 19, 22, 23, 29, 30, 40, 57, 58, 65, 66, 67, 72, 73, 88, 92, 99
Классификатор 27: 5, 12, 26, 33, 37, 38, 39, 42, 45, 46, 49, 52, 54, 56, 60, 66, 71, 73, 77, 90, 91, 94
Классификатор 28: 1, 4, 17, 23, 27, 29, 30, 31, 40, 43, 50, 51, 61, 64, 67, 68, 74, 76, 81, 93, 95, 100
Классификатор 29: 1, 7, 9, 12, 16, 17, 22, 32, 34, 36, 37, 46, 53, 72, 76, 77, 82, 85, 87, 88, 92, 95
Классификатор 30: 3, 4, 11, 14, 17, 18, 22, 24, 25, 31, 50, 51, 54, 55, 57, 63, 78, 80, 87, 89, 92, 97
Классификатор 31: 5, 6, 20, 21, 24, 32, 33, 36, 37, 38, 39, 43, 44, 46, 47, 60, 64, 66, 67, 69, 83, 90
Классификатор 32: 7, 10, 14, 15, 19, 27, 28, 35, 40, 45, 48, 53, 54, 59, 61, 78, 82, 84, 85, 96, 98, 100
Классификатор 33: 2, 5, 6, 9, 10, 14, 26, 28, 31, 42, 43, 56, 60, 62, 63, 74, 80, 81, 90, 95, 98, 99
Классификатор 34: 2, 3, 9, 11, 12, 15, 19, 25, 27, 32, 36, 40, 49, 68, 69, 71, 72, 75, 85, 90, 98, 99
Классификатор 35: 1, 4, 23, 25, 30, 33, 34, 44, 45, 54, 60, 73, 77, 79, 84, 86, 89, 93, 94, 96, 98, 100
Классификатор 36: 2, 4, 10, 13, 20, 22, 28, 34, 37, 38, 44, 45, 50, 58, 67, 69, 73, 81, 87, 91, 92, 94
Классификатор 37: 3, 4, 5, 21, 24, 33, 35, 40, 42, 43, 53, 55, 59, 63, 64, 65, 78, 83, 84, 85, 95, 97
Классификатор 38: 7, 9, 16, 17, 20, 29, 32, 36, 39, 47, 51, 52, 53, 58, 59, 70, 71, 76, 80, 89, 93, 94
Классификатор 39: 5, 10, 12, 14, 19, 23, 26, 33, 41, 44, 56, 57, 59, 60, 62, 69, 72, 75, 91, 92, 95, 99
Классификатор 40: 1, 5, 8, 14, 20, 23, 24, 26, 28, 32, 35, 39, 46, 48, 52, 53, 55, 73, 80, 84, 88, 93
[0070] Хотя это описание изобретения и содержит много конкретных деталей реализаций, они должны быть истолкованы не как ограничения объема каких-либо изобретений или формулы изобретения, а скорее как описания признаков, характерных для конкретных вариантов осуществления конкретных изобретений. Некоторые признаки, которые описаны в этом описании изобретения в контексте отдельных вариантов осуществления, также могут быть реализованы в комбинации в одном варианте осуществления. И наоборот, различные признаки, которые описаны в контексте одного варианта осуществления, также могут быть реализованы в нескольких вариантах осуществления по отдельности или в любой подходящей подкомбинации. Более того, хотя признаки и могут описываться выше как действующие в определенных комбинациях, и даже изначально заявляться как таковые, один или более признаков из заявленной комбинации могут быть в некоторых случаях исключены из этой комбинации, и заявленная комбинация может быть отнесена к подкомбинации или вариации подкомбинации.
[0071] Аналогично, хотя операции и изображены на чертежах в конкретном порядке, это не следует понимать как требование того, чтобы такие операции были выполнены в конкретном показанном порядке или в последовательном порядке, или чтобы все проиллюстрированные операции были выполнены, для достижения желательных результатов. При определенных обстоятельствах могут быть полезны многозадачность и параллельная обработка. Более того, разделение различных компонентов системы в описанных выше вариантах осуществления не следует понимать как требование такого разделения во всех вариантах осуществления, и нужно понимать, что описанные программные компоненты и системы в общем случае могут быть объединены вместе в одном программном продукте или скомплектованы в несколько программных продуктов.
[0072] Итак, были описаны конкретные варианты осуществления настоящего предмета изобретения. Другие варианты осуществления находятся в пределах объема нижеследующей формулы изобретения. В некоторых случаях действия, описанные в формуле изобретения, могут выполняться в другом порядке, и все же достигать желательных результатов. Помимо этого, технологические процессы, изображенные на прилагаемых чертежах, не обязательно требуют конкретного показанного порядка, или последовательного порядка, для достижения желательных результатов. В некоторых реализациях могут быть полезны многозадачность и параллельная обработка.

Claims (54)

1. Компьютерно-реализуемый способ обнаружения обманного объекта, имитирующего живого человека, содержащий этапы, на которых:
испускают, с использованием компонента для вывода звука из состава пользовательского устройства, один или более звуковых сигналов;
принимают, с использованием компонента для ввода звука из состава пользовательского устройства, одно или более отражений звуковых сигналов от целевого объекта;
определяют на основе одного или более отражений, содержит ли целевой объект по меньшей мере одну из лицеподобной структуры и лицеподобной ткани;
принимают множество изображений целевого объекта;
идентифицируют на основе этих изображений, имеет ли целевой объект первый пульс;
измеряют второй пульс целевого объекта посредством физического контакта с целевым объектом; и
определяют, является ли целевой объект обманным объектом, по меньшей мере отчасти на основе (i) упомянутого определения того, содержит ли целевой объект по меньшей мере одну из лицеподобной структуры и лицеподобной ткани, (ii) упомянутой идентификации того, имеет ли целевой объект пульс, и (iii) упомянутого измерения второго пульса.
2. Способ по п. 1, в котором пользовательским устройством является мобильное устройство, представляющее собой смартфон, планшетный компьютер или дорожный компьютер.
3. Способ по п. 1, в котором один или более звуковых сигналов содержат короткие кодированные импульсные локационные сигналы, кратковременные импульсы с частотной модуляцией или локационные CTFM-сигналы.
4. Способ по п. 1, дополнительно содержащий этапы, на которых:
обучают классификатор идентифицировать физические признаки целевого объекта; и
предоставляют, в качестве ввода для классификатора, информацию на основе одного или более отражений звуковых сигналов от целевого объекта,
при этом определение того, является ли целевой объект обманным объектом, дополнительно по меньшей мере отчасти основывается на выводе классификатора, принятом в ответ на предоставленный ввод.
5. Способ по п. 1, дополнительно содержащий этап, на котором рандомизируют одну или более характеристик одного или более звуковых сигналов.
6. Способ по п. 1, дополнительно содержащий этапы, на которых:
принимают множество изображений целевого объекта; и
определяют на основе обнаруженных отражений света в этих изображениях, содержит ли целевой объект трехмерную лицеподобную структуру.
7. Способ по п. 1, в котором первый пульс идентифицируют с использованием дистанционной фотоплетизмографии.
8. Способ по п. 1, дополнительно содержащий этап, на котором определяют, коррелирует ли второй пульс с первым пульсом, при этом определение того, является ли целевой объект обманным объектом, дополнительно по меньшей мере отчасти основывается на этой корреляции.
9. Способ по п. 1, в котором этап, на котором измеряют второй пульс, содержит этап, на котором принимают информацию, связанную со вторым пульсом, от пользовательского устройства или другого портативного или носимого устройства.
10. Способ по п. 9, в котором информация, связанная со вторым пульсом, содержит баллистокардиографический сигнал.
11. Система для обнаружения обманного объекта, имитирующего живого человека, содержащая:
по меньшей мере одно запоминающее устройство для хранения машиноисполняемых инструкций;
по меньшей мере один блок обработки для исполнения инструкций, хранящихся в запоминающем устройстве, при этом исполнение инструкций программирует по меньшей мере один блок обработки для выполнения операций, содержащих:
испускание, с использованием компонента для вывода звука из состава пользовательского устройства, одного или более звуковых сигналов;
прием, с использованием компонента для ввода звука из состава пользовательского устройства, одного или более отражений звуковых сигналов от целевого объекта;
определение, на основе одного или более отражений, того, содержит ли целевой объект по меньшей мере одну из лицеподобной структуры и лицеподобной ткани;
прием множества изображений целевого объекта;
идентификацию, на основе этих изображений, того, имеет ли целевой объект первый пульс;
измерение второго пульса целевого объекта посредством физического контакта с целевым объектом; и
определение того, является ли целевой объект обманным объектом, по меньшей мере отчасти на основе (i) упомянутого определения того, содержит ли целевой объект по меньшей мере одну из лицеподобной структуры и лицеподобной ткани, (ii) упомянутой идентификации того, имеет ли целевой объект пульс, и (iii) упомянутого измерения второго пульса.
12. Система по п. 11, при этом пользовательским устройством является мобильное устройство, представляющее собой смартфон, планшетный компьютер или дорожный компьютер.
13. Система по п. 11, при этом один или более звуковых сигналов содержат короткие кодированные импульсные локационные сигналы, кратковременные импульсы с частотной модуляцией или локационные CTFM-сигналы.
14. Система по п. 11, в которой операции дополнительно содержат:
обучение классификатора идентифицировать физические признаки целевого объекта; и
предоставление, в качестве ввода для классификатора, информации на основе одного или более отражений звуковых сигналов от целевого объекта,
при этом определение того, является ли целевой объект обманным объектом, дополнительно по меньшей мере отчасти основывается на выводе классификатора, принятом в ответ на предоставленный ввод.
15. Система по п. 11, в которой операции дополнительно содержат рандомизацию одной или более характеристик одного или более звуковых сигналов.
16. Система по п. 11, в которой операции дополнительно содержат:
прием множества изображений целевого объекта; и
определение, на основе обнаруженных отражений света в этих изображениях, того, содержит ли целевой объект трехмерную лицеподобную структуру.
17. Система по п. 11, при этом первый пульс идентифицируется с использованием дистанционной фотоплетизмографии.
18. Система по п. 11, в которой операции дополнительно содержат определение того, коррелирует ли второй пульс с первым пульсом, при этом определение того, является ли целевой объект обманным объектом, дополнительно по меньшей мере отчасти основывается на этой корреляции.
19. Система по п. 11, в которой измерение второго пульса содержит прием информации, связанной со вторым пульсом, от пользовательского устройства или другого портативного или носимого устройства.
20. Система по п. 19, при этом информация, связанная со вторым пульсом, содержит баллистокардиографический сигнал.
21. Долговременный машиночитаемый носитель с сохраненными на нем инструкциями, которые при их исполнении программируют по меньшей мере один процессор для выполнения операций, содержащих:
испускание, с использованием компонента для вывода звука из состава пользовательского устройства, одного или более звуковых сигналов;
прием, с использованием компонента для ввода звука из состава пользовательского устройства, одного или более отражений звуковых сигналов от целевого объекта;
определение, на основе одного или более отражений, того, содержит ли целевой объект по меньшей мере одну из лицеподобной структуры и лицеподобной ткани;
прием множества изображений целевого объекта;
идентификацию, на основе этих изображений, того, имеет ли целевой объект первый пульс;
измерение второго пульса целевого объекта посредством физического контакта с целевым объектом; и
определение того, является ли целевой объект обманным объектом, по меньшей мере отчасти на основе (i) упомянутого определения того, содержит ли целевой объект по меньшей мере одну из лицеподобной структуры и лицеподобной ткани, (ii) упомянутой идентификации того, имеет ли целевой объект пульс, и (iii) упомянутого измерения второго пульса.
RU2018101202A 2015-06-16 2016-05-31 Системы и способы для обнаружения обманных объектов и анализа жизненности RU2715521C2 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562180481P 2015-06-16 2015-06-16
US62/180,481 2015-06-16
PCT/US2016/035007 WO2016204968A1 (en) 2015-06-16 2016-05-31 Systems and methods for spoof detection and liveness analysis

Related Child Applications (1)

Application Number Title Priority Date Filing Date
RU2020106758A Division RU2725413C2 (ru) 2015-06-16 2016-05-31 Системы и способы для обнаружения обманных объектов и анализа жизненности

Publications (3)

Publication Number Publication Date
RU2018101202A RU2018101202A (ru) 2019-07-16
RU2018101202A3 RU2018101202A3 (ru) 2019-09-27
RU2715521C2 true RU2715521C2 (ru) 2020-02-28

Family

ID=56121218

Family Applications (2)

Application Number Title Priority Date Filing Date
RU2018101202A RU2715521C2 (ru) 2015-06-16 2016-05-31 Системы и способы для обнаружения обманных объектов и анализа жизненности
RU2020106758A RU2725413C2 (ru) 2015-06-16 2016-05-31 Системы и способы для обнаружения обманных объектов и анализа жизненности

Family Applications After (1)

Application Number Title Priority Date Filing Date
RU2020106758A RU2725413C2 (ru) 2015-06-16 2016-05-31 Системы и способы для обнаружения обманных объектов и анализа жизненности

Country Status (16)

Country Link
US (2) US9665784B2 (ru)
EP (1) EP3311330B1 (ru)
JP (1) JP6735778B2 (ru)
KR (2) KR102131103B1 (ru)
CN (2) CN110110591B (ru)
AU (1) AU2016278859B2 (ru)
BR (1) BR112017027057B1 (ru)
CA (1) CA2989575C (ru)
HK (1) HK1251691B (ru)
MX (1) MX2017016718A (ru)
MY (1) MY182294A (ru)
PH (1) PH12017502353A1 (ru)
RU (2) RU2715521C2 (ru)
SG (1) SG10201906574VA (ru)
TW (1) TWI695182B (ru)
WO (1) WO2016204968A1 (ru)

Families Citing this family (101)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101938033B1 (ko) 2012-09-05 2019-01-11 엘리먼트, 인크. 카메라 장착 디바이스들과 관련된 생체인식 인증
AU2015244258B2 (en) 2014-04-07 2019-01-03 Jumio Corporation Bio leash for user authentication
US20160005050A1 (en) * 2014-07-03 2016-01-07 Ari Teman Method and system for authenticating user identity and detecting fraudulent content associated with online activities
KR102258696B1 (ko) * 2015-02-02 2021-06-01 한국전자통신연구원 위성 항법해를 생성하는 장치 및 방법
CN107135348A (zh) * 2016-02-26 2017-09-05 阿里巴巴集团控股有限公司 拍摄对象的识别方法、装置、移动终端和照相机
WO2017151747A1 (en) 2016-03-02 2017-09-08 EyeVerify Inc. Spoof detection using proximity sensors
CN105912986B (zh) * 2016-04-01 2019-06-07 北京旷视科技有限公司 一种活体检测方法和***
US10311219B2 (en) * 2016-06-07 2019-06-04 Vocalzoom Systems Ltd. Device, system, and method of user authentication utilizing an optical microphone
US10335045B2 (en) 2016-06-24 2019-07-02 Universita Degli Studi Di Trento Self-adaptive matrix completion for heart rate estimation from face videos under realistic conditions
JP6932150B2 (ja) * 2016-06-30 2021-09-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 顔検出/認識システム用の方法及び装置
US9965610B2 (en) * 2016-07-22 2018-05-08 Nec Corporation Physical system access control
US10290197B2 (en) * 2016-08-15 2019-05-14 Nec Corporation Mass transit surveillance camera system
CN107066079A (zh) * 2016-11-29 2017-08-18 阿里巴巴集团控股有限公司 基于虚拟现实场景的业务实现方法及装置
CN108263338B (zh) * 2016-12-30 2021-06-15 华为技术有限公司 汽车、方向盘以及驾驶员身份识别方法
CN107122642A (zh) 2017-03-15 2017-09-01 阿里巴巴集团控股有限公司 基于虚拟现实环境的身份认证方法及装置
US11301703B2 (en) * 2017-03-21 2022-04-12 Sri International Robust biometric access control based on dynamic structural changes in tissue
GB2578386B (en) 2017-06-27 2021-12-01 Cirrus Logic Int Semiconductor Ltd Detection of replay attack
GB201713697D0 (en) 2017-06-28 2017-10-11 Cirrus Logic Int Semiconductor Ltd Magnetic detection of replay attack
GB2563953A (en) 2017-06-28 2019-01-02 Cirrus Logic Int Semiconductor Ltd Detection of replay attack
GB201710560D0 (en) 2017-06-30 2017-08-16 Norwegian Univ Of Science And Tech (Ntnu) Detection of manipulated images
GB201801526D0 (en) 2017-07-07 2018-03-14 Cirrus Logic Int Semiconductor Ltd Methods, apparatus and systems for authentication
GB201801527D0 (en) 2017-07-07 2018-03-14 Cirrus Logic Int Semiconductor Ltd Method, apparatus and systems for biometric processes
GB201801530D0 (en) 2017-07-07 2018-03-14 Cirrus Logic Int Semiconductor Ltd Methods, apparatus and systems for authentication
GB201801532D0 (en) 2017-07-07 2018-03-14 Cirrus Logic Int Semiconductor Ltd Methods, apparatus and systems for audio playback
GB201801528D0 (en) 2017-07-07 2018-03-14 Cirrus Logic Int Semiconductor Ltd Method, apparatus and systems for biometric processes
US20190034857A1 (en) * 2017-07-28 2019-01-31 Nuro, Inc. Food and beverage delivery system on autonomous and semi-autonomous vehicle
EP3447684A1 (en) * 2017-08-22 2019-02-27 Eyn Limited Verification method and system
GB2567798A (en) * 2017-08-22 2019-05-01 Eyn Ltd Verification method and system
SG11202002399SA (en) 2017-09-18 2020-04-29 Element Inc Methods, systems, and media for detecting spoofing in mobile authentication
CN107808115A (zh) * 2017-09-27 2018-03-16 联想(北京)有限公司 一种活体检测方法、装置及存储介质
GB2567503A (en) 2017-10-13 2019-04-17 Cirrus Logic Int Semiconductor Ltd Analysing speech signals
GB201801664D0 (en) 2017-10-13 2018-03-21 Cirrus Logic Int Semiconductor Ltd Detection of liveness
GB201804843D0 (en) 2017-11-14 2018-05-09 Cirrus Logic Int Semiconductor Ltd Detection of replay attack
GB201803570D0 (en) 2017-10-13 2018-04-18 Cirrus Logic Int Semiconductor Ltd Detection of replay attack
GB201801661D0 (en) * 2017-10-13 2018-03-21 Cirrus Logic International Uk Ltd Detection of liveness
GB201801874D0 (en) 2017-10-13 2018-03-21 Cirrus Logic Int Semiconductor Ltd Improving robustness of speech processing system against ultrasound and dolphin attacks
GB201801663D0 (en) * 2017-10-13 2018-03-21 Cirrus Logic Int Semiconductor Ltd Detection of liveness
CN111492373A (zh) * 2017-10-30 2020-08-04 纽约州州立大学研究基金会 与基于声学的回声签名的用户认证相关联的***和方法
AU2018361801B2 (en) * 2017-10-31 2023-07-06 Bae Systems Plc Improvements in and relating to sonar
GB201801659D0 (en) 2017-11-14 2018-03-21 Cirrus Logic Int Semiconductor Ltd Detection of loudspeaker playback
US10951613B2 (en) * 2017-12-28 2021-03-16 iProov Ltd. Biometric methods for online user authentication
US11264037B2 (en) 2018-01-23 2022-03-01 Cirrus Logic, Inc. Speaker identification
US11475899B2 (en) 2018-01-23 2022-10-18 Cirrus Logic, Inc. Speaker identification
US11735189B2 (en) 2018-01-23 2023-08-22 Cirrus Logic, Inc. Speaker identification
WO2019152983A2 (en) * 2018-02-05 2019-08-08 Board Of Trustees Of Michigan State University System and apparatus for face anti-spoofing via auxiliary supervision
CN108445643B (zh) * 2018-03-12 2021-05-14 Oppo广东移动通信有限公司 结构光投射模组及其检测方法与装置、图像获取结构和电子装置
EP3540633B1 (en) * 2018-03-16 2020-09-23 Identy Inc. Method for identifying an object within an image and mobile device for executing the method
CN108652635A (zh) * 2018-03-27 2018-10-16 余海波 医疗监护装置、方法及***
WO2019205009A1 (en) 2018-04-25 2019-10-31 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for identifying a body motion
KR102522415B1 (ko) * 2018-05-15 2023-04-17 삼성전자주식회사 전자 장치의 객체 인증 장치 및 방법
US10692490B2 (en) 2018-07-31 2020-06-23 Cirrus Logic, Inc. Detection of replay attack
US10915614B2 (en) 2018-08-31 2021-02-09 Cirrus Logic, Inc. Biometric authentication
US11037574B2 (en) 2018-09-05 2021-06-15 Cirrus Logic, Inc. Speaker recognition and speaker change detection
JP7204077B2 (ja) * 2018-09-07 2023-01-16 株式会社アイシン 脈波検出装置、車両装置、及び脈波検出プログラム
US10740637B2 (en) * 2018-09-18 2020-08-11 Yoti Holding Limited Anti-spoofing
CN112639802B (zh) * 2018-09-18 2024-06-28 Oppo广东移动通信有限公司 用于生成伪结构光照射面部的方法、***及存储介质
JP7044171B2 (ja) * 2018-10-02 2022-03-30 富士通株式会社 脈波算出装置、脈波算出方法及び脈波算出プログラム
US10929516B2 (en) * 2018-10-08 2021-02-23 Advanced New Technologies Co., Ltd. Dynamic grip signature for personal authentication
US10885363B2 (en) 2018-10-25 2021-01-05 Advanced New Technologies Co., Ltd. Spoof detection using structured light illumination
US10783388B2 (en) * 2018-10-26 2020-09-22 Alibaba Group Holding Limited Spoof detection using multiple image acquisition devices
FR3089036B1 (fr) 2018-11-28 2020-10-30 In Idt dispositif et procédé d’authentification d’un individu
US11030292B2 (en) * 2018-12-11 2021-06-08 Advanced New Technologies Co., Ltd. Authentication using sound based monitor detection
US11120111B2 (en) 2018-12-11 2021-09-14 Advanced New Technologies Co., Ltd. Authentication based on correlation of multiple pulse signals
US11170242B2 (en) 2018-12-26 2021-11-09 Advanced New Technologies Co., Ltd. Spoof detection using dual-band fluorescence
US10970574B2 (en) 2019-02-06 2021-04-06 Advanced New Technologies Co., Ltd. Spoof detection using dual-band near-infrared (NIR) imaging
US11138302B2 (en) 2019-02-27 2021-10-05 International Business Machines Corporation Access control using multi-authentication factors
SG11202109983RA (en) 2019-03-12 2021-10-28 Element Inc Detecting spoofing of facial recognition with mobile devices
US11328043B2 (en) 2019-03-15 2022-05-10 Advanced New Technologies Co., Ltd. Spoof detection by comparing images captured using visible-range and infrared (IR) illuminations
US11551475B2 (en) * 2019-03-21 2023-01-10 Purdue Research Foundation System architecture and method of authenticating a 3-D object
CN111860079B (zh) * 2019-04-30 2024-05-14 北京嘀嘀无限科技发展有限公司 活体图像检测方法、装置以及电子设备
CN110099324B (zh) * 2019-05-23 2021-04-20 歌尔科技有限公司 一种耳机佩戴状态的检测方法、检测装置及耳机
SG10201906721SA (en) 2019-07-19 2021-02-25 Nec Corp Method and system for chrominance-based face liveness detection
US10929677B1 (en) 2019-08-07 2021-02-23 Zerofox, Inc. Methods and systems for detecting deepfakes
US11669607B2 (en) 2019-08-29 2023-06-06 PXL Vision AG ID verification with a mobile device
TWI750504B (zh) * 2019-08-29 2021-12-21 鉅怡智慧股份有限公司 活體偵測的方法及相關裝置
CN114730005A (zh) 2019-10-31 2022-07-08 维萨国际服务协会 使用3d布局标识实体的***和方法
TWI743593B (zh) * 2019-11-18 2021-10-21 緯創資通股份有限公司 活體臉部辨識系統與方法
KR20210074749A (ko) * 2019-12-12 2021-06-22 삼성전자주식회사 라이브니스 검사 방법 및 라이브니스 검사 장치
US11507248B2 (en) 2019-12-16 2022-11-22 Element Inc. Methods, systems, and media for anti-spoofing using eye-tracking
KR102307671B1 (ko) * 2020-01-02 2021-10-01 주식회사 블루프린트랩 얼굴 인증을 수행하기 위한 방법
US11874906B1 (en) * 2020-01-15 2024-01-16 Robert William Kocher Skin personal identification (Skin-PIN)
CN113273961B (zh) * 2020-02-19 2024-05-24 钜怡智慧股份有限公司 活体检测装置及方法
TWI772751B (zh) * 2020-02-19 2022-08-01 鉅怡智慧股份有限公司 活體偵測裝置及方法
CN111428577B (zh) * 2020-03-03 2022-05-03 电子科技大学 一种基于深度学习与视频放大技术的人脸活体判断方法
CN111553189A (zh) * 2020-03-30 2020-08-18 深圳壹账通智能科技有限公司 基于视频信息的数据验证方法、装置及存储介质
CN111767788A (zh) * 2020-05-12 2020-10-13 贵阳像树岭科技有限公司 一种非交互式单目活体检测方法
AU2020101743B4 (en) * 2020-05-18 2021-03-04 Ri Pty Ltd Contactless Biometric Authentication Systems and Methods Thereof
CN111832619A (zh) * 2020-06-09 2020-10-27 哈尔滨市科佳通用机电股份有限公司 基于深度学习的目标检测数据集voc数据格式标注方法
CN111887858B (zh) * 2020-08-04 2021-05-04 西安电子科技大学 基于跨模态映射的心冲击图信号心率估计方法
CN112396123A (zh) * 2020-11-30 2021-02-23 上海交通大学 基于卷积神经网络的图像识别方法、***、终端和介质
CN112684889B (zh) * 2020-12-29 2023-06-30 上海掌门科技有限公司 一种用户互动方法及设备
FR3119915B1 (fr) 2021-02-15 2024-01-19 Deepsense Dispositif et procédé de traitement de données vidéos pour détection du vivant
US11126879B1 (en) * 2021-04-08 2021-09-21 EyeVerify, Inc. Spoof detection using illumination sequence randomization
CN113100734B (zh) * 2021-04-15 2022-11-25 深圳前海微众银行股份有限公司 活体检测方法、设备、介质及计算机程序产品
US11894939B2 (en) * 2021-05-11 2024-02-06 Cisco Technology, Inc. Validation of currency and authenticity of a conference participant's video image
US12045386B2 (en) * 2021-05-18 2024-07-23 Harrow Ip, Llc Methods and system for remotely capturing media via a user interface bidirectionally linked to a remote server
US11922731B1 (en) 2021-06-30 2024-03-05 Jumio Corporation Liveness detection
US11564053B1 (en) 2021-09-15 2023-01-24 Qualcomm Incorportaed Systems and methods to control spatial audio rendering
US12020512B2 (en) * 2021-09-17 2024-06-25 Jumio Corporation Spoof detection using eye boundary analysis
US20230334911A1 (en) * 2022-04-13 2023-10-19 Nec Corporation Face liveness detection
GB202210043D0 (en) * 2022-07-08 2022-08-24 Rewire Holding Ltd System and method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU56668U1 (ru) * 2006-01-16 2006-09-10 Федеральное государственное унитарное предприятие "Научно-исследовательский институт "Восход" Автоматизированная система идентификации и аутентификации граждан по биометрическим параметрам личности
RU2296599C2 (ru) * 2005-06-16 2007-04-10 Александр Абрамович Певзнер Способ воздействия на организм
EA013676B1 (ru) * 2006-09-18 2010-06-30 Джон Франко Франки Защищенная универсальная система транзакций
US20130102283A1 (en) * 2011-10-21 2013-04-25 Alvin Lau Mobile device user behavior analysis and authentication
US20130198832A1 (en) * 2012-01-31 2013-08-01 Dell Products L.P. Multilevel passcode authentication
US20130324081A1 (en) * 2012-03-12 2013-12-05 Ullas Gargi User proximity control of devices
US20140372762A1 (en) * 2013-06-18 2014-12-18 Arm Ip Limited Trusted device
US8978117B2 (en) * 2007-11-19 2015-03-10 Avaya Inc. Authentication frequency and challenge type based on environmental and physiological properties

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005296463A (ja) * 2004-04-14 2005-10-27 Toyota Motor Corp 生体情報計測装置
CN101396277A (zh) * 2007-09-26 2009-04-01 中国科学院声学研究所 一种超声波人脸识别方法和识别装置
US8150108B2 (en) 2008-03-17 2012-04-03 Ensign Holdings, Llc Systems and methods of identification based on biometric parameters
US8401875B2 (en) * 2010-03-12 2013-03-19 Os - New Horizons Personal Computing Solutions Ltd. Secured personal data handling and management system
WO2012093358A1 (en) * 2011-01-05 2012-07-12 Koninklijke Philips Electronics N.V. Device and method for extracting information from characteristic signals
DE102011102202A1 (de) * 2011-05-21 2012-11-22 Volkswagen Aktiengesellschaft Umfelderfassungsvorrichtung in einem Kraftfahrzeug und Verfahren zur Umfelderfassung unter Ausnutzung einer Korrelation
GB201114406D0 (en) * 2011-08-22 2011-10-05 Isis Innovation Remote monitoring of vital signs
US9202105B1 (en) 2012-01-13 2015-12-01 Amazon Technologies, Inc. Image analysis for user authentication
US8984622B1 (en) * 2012-01-17 2015-03-17 Amazon Technologies, Inc. User authentication through video analysis
CN102622588B (zh) * 2012-03-08 2013-10-09 无锡中科奥森科技有限公司 双验证人脸防伪方法及装置
US8831295B2 (en) 2012-03-21 2014-09-09 Authentec, Inc. Electronic device configured to apply facial recognition based upon reflected infrared illumination and related methods
US8396265B1 (en) * 2012-06-26 2013-03-12 Google Inc. Facial recognition
US8457367B1 (en) * 2012-06-26 2013-06-04 Google Inc. Facial recognition
WO2014036436A1 (en) 2012-08-30 2014-03-06 Alivecor, Inc. Cardiac performance monitoring system for use with mobile communications devices
EP2911580A2 (en) * 2012-10-23 2015-09-02 Koninklijke Philips N.V. Device and method for obtaining vital sign information of a living being
JP6146078B2 (ja) * 2013-03-22 2017-06-14 富士通株式会社 生体検知装置、顔認証装置、撮像装置、生体検知方法及び生体検知プログラム
JP6308742B2 (ja) * 2013-09-13 2018-04-11 旭化成株式会社 血圧情報出力装置、血圧情報出力プログラム、媒体、血圧情報出力方法
CN103617419B (zh) * 2013-12-02 2018-10-16 广州微盾科技股份有限公司 具有活体手指侦测功能的手指静脉识别装置和方法
US9524421B2 (en) 2013-12-09 2016-12-20 Google Inc. Differentiating real faces from representations
US20160007935A1 (en) * 2014-03-19 2016-01-14 Massachusetts Institute Of Technology Methods and apparatus for measuring physiological parameters
AU2015244258B2 (en) 2014-04-07 2019-01-03 Jumio Corporation Bio leash for user authentication
KR20150117543A (ko) 2014-04-10 2015-10-20 삼성전자주식회사 인증 관리 방법 및 장치
US9251427B1 (en) * 2014-08-12 2016-02-02 Microsoft Technology Licensing, Llc False face representation identification
US9396537B2 (en) 2014-09-09 2016-07-19 EyeVerify, Inc. Systems and methods for liveness analysis
JP2016131604A (ja) * 2015-01-16 2016-07-25 セイコーエプソン株式会社 生体情報測定システム、生体情報測定装置および生体情報測定方法
US10049287B2 (en) * 2015-05-22 2018-08-14 Oath Inc. Computerized system and method for determining authenticity of users via facial recognition

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2296599C2 (ru) * 2005-06-16 2007-04-10 Александр Абрамович Певзнер Способ воздействия на организм
RU56668U1 (ru) * 2006-01-16 2006-09-10 Федеральное государственное унитарное предприятие "Научно-исследовательский институт "Восход" Автоматизированная система идентификации и аутентификации граждан по биометрическим параметрам личности
EA013676B1 (ru) * 2006-09-18 2010-06-30 Джон Франко Франки Защищенная универсальная система транзакций
US8978117B2 (en) * 2007-11-19 2015-03-10 Avaya Inc. Authentication frequency and challenge type based on environmental and physiological properties
US20130102283A1 (en) * 2011-10-21 2013-04-25 Alvin Lau Mobile device user behavior analysis and authentication
US20130198832A1 (en) * 2012-01-31 2013-08-01 Dell Products L.P. Multilevel passcode authentication
US20130324081A1 (en) * 2012-03-12 2013-12-05 Ullas Gargi User proximity control of devices
US20140372762A1 (en) * 2013-06-18 2014-12-18 Arm Ip Limited Trusted device

Also Published As

Publication number Publication date
MY182294A (en) 2021-01-18
TW201716798A (zh) 2017-05-16
JP6735778B2 (ja) 2020-08-05
US20170357868A1 (en) 2017-12-14
JP2018524072A (ja) 2018-08-30
KR102061434B1 (ko) 2019-12-31
PH12017502353A1 (en) 2018-06-25
AU2016278859B2 (en) 2019-07-18
EP3311330A1 (en) 2018-04-25
CN110110591B (zh) 2021-01-15
KR20180019654A (ko) 2018-02-26
SG10201906574VA (en) 2019-09-27
MX2017016718A (es) 2018-11-09
RU2018101202A (ru) 2019-07-16
KR102131103B1 (ko) 2020-07-07
RU2018101202A3 (ru) 2019-09-27
CN107851182B (zh) 2019-04-19
CA2989575A1 (en) 2016-12-22
WO2016204968A1 (en) 2016-12-22
US9665784B2 (en) 2017-05-30
AU2016278859A1 (en) 2018-01-18
TWI695182B (zh) 2020-06-01
RU2020106758A (ru) 2020-02-28
US10108871B2 (en) 2018-10-23
BR112017027057B1 (pt) 2020-05-12
HK1251691B (zh) 2020-02-21
KR20190143498A (ko) 2019-12-30
EP3311330B1 (en) 2024-01-31
CN110110591A (zh) 2019-08-09
CA2989575C (en) 2020-03-24
RU2020106758A3 (ru) 2020-05-18
US20160371555A1 (en) 2016-12-22
CN107851182A (zh) 2018-03-27
RU2725413C2 (ru) 2020-07-02

Similar Documents

Publication Publication Date Title
RU2715521C2 (ru) Системы и способы для обнаружения обманных объектов и анализа жизненности
US10652749B2 (en) Spoof detection using proximity sensors
US11580203B2 (en) Method and apparatus for authenticating a user of a computing device
CN107077550A (zh) 用于用户验证的生物联系
CN113505652B (zh) 活体检测方法、装置、电子设备和存储介质
WO2023199571A1 (en) Face liveness detection
Wang et al. Wavesdropper: Through-wall word detection of human speech via commercial mmWave devices
Zhou et al. Securing face liveness detection using unforgeable lip motion patterns
Wu et al. EarAE: An Autoencoder based User Authentication using Earphones
Hernandez-Ortega et al. Continuous presentation attack detection in face biometrics based on heart rate
JP2018527064A (ja) 光音響トモグラフィを用いた3次元の血管画像化
Xu et al. AFace: Range-flexible Anti-spoofing Face Authentication via Smartphone Acoustic Sensing
Wang et al. Low-effort VR Headset User Authentication Using Head-reverberated Sounds with Replay Resistance
Su et al. PPG-Hear: A Practical Eavesdropping Attack with Photoplethysmography Sensors
Shang Security and Privacy Issues of Mobile Cyber-Physical Systems
Shi Towards cross-domain and behavior-based user authentication in mobile edge and IoT
Purnapatra Security and Reliability of Biometric Systems
Zhang et al. Face Recognition In Harsh Conditions: An Acoustic Based Approach
CN117894081A (zh) 对象识别方法及装置、电子设备和可读存储介质