TWI812235B - 基於步態分析的個人身分識別方法及系統 - Google Patents

基於步態分析的個人身分識別方法及系統 Download PDF

Info

Publication number
TWI812235B
TWI812235B TW111118849A TW111118849A TWI812235B TW I812235 B TWI812235 B TW I812235B TW 111118849 A TW111118849 A TW 111118849A TW 111118849 A TW111118849 A TW 111118849A TW I812235 B TWI812235 B TW I812235B
Authority
TW
Taiwan
Prior art keywords
data
inertial sensing
training
inertial
subject
Prior art date
Application number
TW111118849A
Other languages
English (en)
Other versions
TW202347268A (zh
Inventor
李昀儒
Original Assignee
國立清華大學
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 國立清華大學 filed Critical 國立清華大學
Priority to TW111118849A priority Critical patent/TWI812235B/zh
Priority to US17/944,595 priority patent/US20230376567A1/en
Application granted granted Critical
Publication of TWI812235B publication Critical patent/TWI812235B/zh
Publication of TW202347268A publication Critical patent/TW202347268A/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • G01P15/14Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration by making use of gyroscopes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • G01P15/18Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration in two or more dimensions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P3/00Measuring linear or angular speed; Measuring differences of linear or angular speeds
    • G01P3/02Devices characterised by the use of mechanical means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)

Abstract

一種基於步態分析的個人身分識別方法利用電腦系統實施並包含:獲取特定人員在慣性感測板上行走多步期間感測其震動所獲得的多筆訓練特徵資料;將該等筆訓練特徵資料以每次兩筆的輸入方式來訓練孿生神經網路並調整其共用的權重,以建立步態相似度估測模型;根據受測者在該慣性感測板上行走一步期間產生的慣性感測資料獲得一筆特徵資料;及根據該步態相似度估測模型估測出該筆特徵資料分別與該等筆訓練特徵資料的多個相似度值及預定閾值,辨識該受測者是否為該特定人員。

Description

基於步態分析的個人身分識別方法及系統
本發明是有關於個人身分識別領域,特別是指一種基於步態分析的個人身分識別方法及系統。
目前生物特徵識別技術已廣泛地應用於企業門禁系統及/或家戶門鎖裝置的個人身分識別。如指紋、人臉、虹膜等生物特徵在實際應用時均須被檢測對象在近距離配合下才能成功地採集到相關特徵資訊。然而,上述生物特徵均屬靜態特徵易於偽造,此外,上述的採集方式不具備隱密性,易引起有心人士的察覺進而導致隱私問題。
為解決上述問題,已將步態識別技術應用於個人身分識別領域。這是因為步態識別技術所根據的步態特徵或步態資訊具有以下特點:諸如能隨身攜帶、不需記憶、具有唯一性、難以複製或偽造、以非接觸方式採集等。
因此,如何利用機器學習在步態分析上而發展出可提升身分辨識準確度的個人身分識別方式已成為相關技術領域所欲解決的議題之一。
因此,本發明的目的,即在提供一種基於步態分析的個人身分識別方法及系統,其能克服現有技術至少一個缺點。
於是,本發明所提供的一種基於步態分析的個人身分識別方法用於辨識一受測者是否為P(P
Figure 111118849-A0305-02-0004-2
1)個特定人員其中一者,利用一電腦系統來執行,並包含以下步驟:(A)獲取並儲存用於建模而且與該P個特定人員的步態有關及分別對應於該P個特定人員的P個訓練資料集,每個訓練資料集包含根據一對應的特定人員在至少一慣性感測板上行走Q(Q
Figure 111118849-A0305-02-0004-5
2)步期間在多個慣性特徵上感測該慣性感測板的震動而產生的慣性感測結果所獲得的Q筆分別對應該Q步的訓練特徵資料;(B)利用該P個訓練資料集且以每次分別對應於不同兩步的兩筆訓練特徵資料作為第一輸入資料和第二輸入資料同時輸入一孿生神經網路的方式來訓練該孿生神經網路並調整該孿生神經網路共用的權重,以建立一步態相似度估測模型;(C)當接收到該受測者在該慣性感測板上行走一步期間在該等慣性特徵上感測該慣性感測板的震動而產生的慣性感測資料時,根據接收到 的該慣性感測資料獲得有關於該受測者且對應於該步之步態的一筆特徵資料,並根據該筆特徵資料與已儲存的該P個訓練資料集且利用該步態相似度估測模型估測出該筆特徵資料分別與已儲存的每個訓練資料集所含的該Q筆訓練特徵資料的Q個相似度值作為對應於該訓練資料集的估測結果,以獲得P個估測結果;及(D)根據該P個估測結果及一預定閾值,確定該受測者是否被辨識為該P個特定人員其中一者。
在一些實施態樣中,在步驟(A)中,該慣性感測板的一底面設有多個呈陣列排列的慣性感測模組,每一慣性感測模組組配來感測分別代表該等慣性特徵的三軸加速度和三軸角速度以產生對應的六個慣性感測信號,並且每個訓練資料集所含的每筆訓練特徵資料包含根據在該對應特定人員踩踏在該慣性感測板上的一對應步期間由距離該對應步之踩踏位置相對較近的四個慣性感測模組所產生的4×6個慣性感測信號並將其每一者濾波、擷取且以一預定取樣率R取樣後而獲得的六個分別對應該等慣性特徵的4×R特徵陣列。在步驟(C)中,該筆特徵資料包含根據在該受測者踩踏在該慣性感測板上的該步期間由距離該步之踩踏位置相對較近的四個慣性感測模組所產生的4×6個慣性感測信號並將其每一者濾波、擷取且以該預定取樣率R取樣後而獲得的六個分別對應於該等慣性特徵的4×R特徵陣列。
在一些實施態樣中,在步驟(B)中,該步態相似度估測模型包含已訓練且共用權重的兩個卷積神經網路、及一損失函數。每個卷積神經網路具有一輸入層、多個隱藏層、及一輸出層。當該步態相似度估測模型被用來進行一次估測時,該兩個卷積神經網路在其兩個輸入層分別接收該筆特徵資料和該儲存模組儲存的任一筆訓練特徵資料,並經由各自的該等隱藏層處理該筆特徵資料及該任一筆訓練特徵資料後在其兩個輸出層輸出分別對應於該筆特徵資料及該任一筆訓練特徵資料的兩個N維特徵向量。該損失函數根據在該次估測中分別由該等卷積神經網路的兩個輸出層輸出的該兩個N維特徵向量獲得一代表該筆特徵資料與該任一筆訓練特徵資料之間的相似度的相似度值。
在一些實施態樣中,在步驟(D)中,當該電腦系統確認出該P個估測結果其中一者所含的Q個相似度值均不小於該預定閾值時,該電腦系統確定出該受測者被辨識為與該P個訓練資料集其中一個對應於該估測結果的訓練資料集對應的特定人員;而當該電腦系統確認出該P個估測結果其中每一者所含的Q個相似度值均小於該預定閾值時,該電腦系統確定出該受測者被辨識不為該P個特定人員其中的任一者。
在一些實施態樣中,當該受測者確實為該電腦系統所辨識的該特定人員時,該電腦系統還以該筆特徵資料來更新已儲存且 與所辨識的該特定人員對應的訓練資料集,以供後續微調該步態相似度估測模型中的權重。
在一些實施態樣中,該個人身分識別方法還包含以下步驟:(E)根據步驟(D)的確定結果,輸出對應於該受測者的身分識別結果。
於是,本發明所提供的一種基於步態分析的個人身分識別系統用於辨識一受測者是否為P(P
Figure 111118849-A0305-02-0007-6
1)個特定人員其中一者,並包含一慣性感測板、一儲存模組、一信號接收模組、及一電連接該儲存模組和該信號接收模組的處理器。
該慣性感測板包含一具有相對的頂面與底面的板體、及多個以陣列排列方式設於該板體的該底面的慣性感測單元。每個慣性感測單元包括一慣性感測模組、一電連接該慣性感測模組的微控制器、及一電連接該微控制器的信號發射模組,其中該慣性感測模組組配來在多個慣性特徵上感測該板體的震動以產生有關於該等慣性特徵的感測資料,該微控制器組配來將來自於該慣性感測模組的該感測資料進行濾波並從濾波後的該感測資料擷取出對應於該板體的震動期間的慣性感測資料,及該信號發射模組組配來將來自於該微控制器的該慣性感測資料以射頻方式發送出去。
該儲存模組係組配來儲存P個與該P個特定人員的步態有關且分別對應於該P個特定人員的訓練資料集、及一利用該P個訓 練資料集來訓練一孿生神經網路而建立的一步態相似度估測模型。每個訓練資料集包含根據一對應的特定人員在該板體的該頂面上行走Q(Q
Figure 111118849-A0305-02-0008-7
2)步期間由該等慣性感測模組產生的慣性感測結果所獲得的Q筆分別對應該Q步的訓練特徵資料。
該信號接收模組係組配來以無線方式接收由每個慣性感測單元的該信號發射模組所發送出的信號。
當該處理器經由該信號接收模組接收到該受測者踩踏在該板體的該頂面上行走一步期間發送自該等慣性感測單元所的所有慣性感測資料時,該處理器操作來執行以下動作:(i)根據接收到的所有慣性感測資料獲得有關於該受測者且對應於該步之步態的一筆特徵資料;(ii)根據該筆特徵資料與該儲存模組儲存的該P個訓練資料集且利用該儲存模組儲存的該步態相似度估測模型估測出該筆特徵資料分別與該儲存模組儲存的每個訓練資料集所含的該Q筆訓練特徵資料的Q個相似度值作為對應於該訓練資料集的估測結果,以獲得P個估測結果;及(iii)根據該P個估測結果及一預定閾值,確定該受測者是否被辨識為該P個特定人員其中一者。
在一些實施態樣中,對於每個慣性感測單元,該慣性感測模組包含一三軸加速度計和一三軸陀螺儀,其用於感測分別代表該等慣性特徵的三軸加速度和三軸角速度以產生作為感測資料的六個慣性感測信號,並且該微控制器將該等慣性感測信號濾波並從 濾波後的該等慣性感測信號各自擷取出對應於該板體之震動期間的信號部分作為慣性感測資料。該儲存模組儲存的每個訓練資料集所含的每筆訓練特徵資料包含根據在該對應特定人員踩踏在該慣性感測板上的一對應步期間由距離該對應步之踩踏位置相對較近的四個慣性感測模組所產生的4×6個慣性感測信號並將其每一者濾波、擷取且以一預定取樣率R取樣後而獲得的六個分別對應該等慣性特徵的4×R特徵陣列。該筆特徵資料包含根據在該受測者踩踏在該慣性感測板上的該步期間由距離該步之踩踏位置相對較近的四個慣性感測模組所產生的4×6個慣性感測信號並將其每一者濾波、擷取且以該預定取樣率R取樣後而獲得的六個分別對應於該等慣性特徵的4×R特徵陣列。
在一些實施態樣中,該儲存模組儲存的該步態相似度估測模型包含已訓練且共用權重的兩個卷積神經網路、及一損失函數。每個卷積神經網路具有一輸入層、多個隱藏層、及一輸出層。當該步態相似度估測模型被用來進行一次估測時,該兩個卷積神經網路在其兩個輸入層分別接收該筆特徵資料和該儲存模組儲存的任一筆訓練特徵資料,並經由各自的該等隱藏層處理該筆特徵資料及該任一筆訓練特徵資料後在其兩個輸出層輸出分別對應於該筆特徵資料及該任一筆訓練特徵資料的兩個N維特徵向量。該損失函數根據在該次估測中分別由該等卷積神經網路的兩個輸出層輸出 的該兩個N維特徵向量獲得一代表該筆特徵資料與該任一筆訓練特徵資料之間的相似度的相似度值。
在一些實施態樣中,當該處理器確認出該P個估測結果其中一者所含的Q個相似度值均不小於該預定閾值時,該處理器確定出該受測者被辨識為與該P個訓練資料集其中一個對應於該估測結果的訓練資料集對應的特定人員;而當該處理器確認出該P個估測結果其中每一者所含的Q個相似度值均小於該預定閾值時,該處理器確定出該受測者被辨識不為該P個特定人員其中的任一者。
在一些實施態樣中,當該受測者確實為該處理器所辨識的該特定人員時,該處理器還以該筆特徵資料來更新儲存於該儲存模組且與所辨識的該特定人員對應的訓練資料集,以供後續微調該儲存模組儲存的該步態相似度估測模型中的權重。
在一些實施態樣中,該個人身分識別系統還包含一電連接該處理器的輸出模組。該處理器還操作來根據確定結果產生對應於該受測者的身分識別結果,並使該輸出模組輸出該身分識別結果。
本發明的功效在於:該步態相似度估測模型是根據對應於多個特定人員的多個訓練資料集來訓練孿生神經網路建立來用於該等特定人員的個人身分識別,於是該處理器僅須透過在該慣性感測板上踩踏一步來獲得對應該步的慣性感測資料,即可利用該步 態相似度估測模型估算出受測者的步態分別與每個特定人員的多步步態的相似度值,進而根據相似度值來確定受測者是否被辨識為一個特定人員,藉此達成以相對較高的辨識準確度來識別受測者的身分。此外,對於受測者而言,經由踩踏一步的慣性感測資料的採集方式可視為一種容易隨身攜帶、不需記憶、具有唯一性、難以複製或偽造、且非接觸的資料採集方式。
100:個人身分識別系統
1:慣性感測板
10:板體
101:頂面
102:底面
11:慣性感測單元
111:慣性感測模組
112:微控制器
113:信號發射模組
2:儲存模組
3:信號接收模組
4:處理器
5:輸出模組
S41~S47:步驟
本發明的其他的特徵及功效,將於參照圖式的實施方式中清楚地呈現,其中:圖1是一方塊圖,示例性地說明本發明實施例的一種基於步態分析的個人身分識別系統的架構;圖2是一底視立體圖,示例性地繪示出該實施例的一慣性感測板;圖3是一方塊圖,示例性地說明該慣性感測板所含的一貫性感測單元的組成;圖4是一流程圖,示例性地說明該個人身分識別系統如何進行本發明實施例基於步態分析的個人身分識別方法;圖5是一示意圖,示例性地說明該實施例中對應於一特定人員的訓練資料集的資料內容; 圖6是一示意圖,繪示出該實施例中使用的一孿生網路的架構;及圖7是一示意圖,示例性地說明該孿生網路的兩個卷積神經網路中的隱藏層的運作。
在本發明被詳細描述之前,應當注意在以下的說明內容中,類似的元件是以相同的編號來表示。
參閱圖1,示例性地繪示出本發明實施例的一種基於步態分析的個人身分識別系統100係用於辨識一受測者是否為P(P
Figure 111118849-A0305-02-0012-8
1)個特定人員其中一者。舉例來說,若該個人身分識別系統100是要應用於家戶門鎖系統時,該P個特定人員可以包含家戶所屬的有所人員;而若該個人身分識別系統100是要應用於企業或機構的門禁系統時,則該P個特定人員可以包含企業或機構所屬的所有人員。該個人身分識別系統100包含例如一個或更多個慣性感測板1、一儲存模組2、一信號接收模組3、一輸出模組5,以及一電連接該儲存模組2、該信號接收模組3和該輸出模組5的處理器4,其中該儲存模組2、該信號接收模組3、該處理器4和該輸出模組5可構成一電腦系統。
參閱圖2,該慣性感測板1包含一具有相對的頂面101與 底面102的板體10、及例如四個以陣列排列方式設於該板體10的該底面102的慣性感測單元11。在本實施例中,該板體10可以具有如巧拼板的大小,且該四個慣性感測單元11被安排在該板體10的底面102的四個角落處。然而,在其他實施例中,該慣性感測板1亦可包含一具有相對較大面積的矩形板體,以及四個以上(例如,2×3或2×4個)以陣列排列的慣性感測單元11。
參閱圖3,每個慣性感測單元11包括一慣性感測模組111、一電連接該慣性感測模組111的微控制器112、及一電連接該微控制器112的信號發射模組113。在本實施例中,該慣性感測模組111例如包含一三軸加速度計和一三軸陀螺儀,其組配來在例如六個慣性特徵(亦即,例如在X、Y、Z軸的加速度以及繞著X、Y、Z軸的角速度)上感測該板體10的震動以產生有關於該等慣性特徵的感測資料,但不在此限。更具體地,此感測資料例如包含X軸-加速度信號、Y軸-加速度信號、Z軸-加速度信號、X軸-角速度信號、Y軸-角速度信號和Z軸-角速度信號。然而,在其他實施例中,該慣性感測模組111還可進一步包含一三軸磁力計(圖未示),於是該慣性感測模組111可以產生有關於九個慣性特徵的感測資料。該微控制器112組配來將來自於該慣性感測模組111的該感測資料進行濾波並從濾波後的該感測資料擷取出對應於該板體10的震動期間的慣性感測資料。該信號發射模組113組配來將來自於該微控制器112 的該慣性感測資料以射頻(Radio Frequency,RF)方式發送出去。
該信號接收模組3係組配來以無線方式接收由每一慣性感測單元11的該信號發射模組113所發送出的信號。
以下,將參閱圖1及圖4來說明該個人身分識別系統100如何執行本發明實施例基於步態分析的個人身分識別方法。該個人身分識別方法包含對應於一建模階段的步驟S41~S42,及以對應於一使用階段的步驟S43~S47。
在步驟S41中,在本實施例中,對於每個特定人員,該特定人員必須先在例如以適當間距排列的多個慣性感測板1(圖2)上步行Q步(其中每步必須僅踩踏在單一個慣性感測板1上),在每步期間,對應於該步的慣性感測板1的四個慣性感測單元11各自會發送出感測到被踩踏到的板體10的震動而產生的慣性感測資料(即,經過濾波且部分擷取後的X軸-加速度信號、Y軸-加速度信號、Z軸-加速度信號、X軸-角速度信號、Y軸-角速度信號和Z軸-角速度信號等的六個慣性感測信號),於是該處理器4經由該信號接收模組3接收到分別來自該四個慣性感測單元11且對應於該步的4×6個慣性感測信號後,以一預定取樣率R取樣接收到的每個慣性感測信號,以獲得六個分別對應於該六個慣性特徵的4×R特徵陣列作為對應於該步的一筆訓練特徵資料(見圖5),最後,該處理器4會獲得分別對應於該Q步的Q筆訓練特徵資料作為對應於該特定人員的訓練資 料集(見圖5)。同理依照上述內容,該處理器4最終會獲得分別對應該P個特定人員的P個訓練資料集,並將該P個訓練資料集儲存於該儲存模組2(見圖1)。舉例來說,Q=13,R=150,但不以此例為限。
值得注意的是,在其他實施例中,若在步驟S41中使用了包含四個以上的感測單元11的慣性感測板來採集每個特定人員的每步的訓練特徵資料的情況下,該處理器4是根據在每個特定人員踩踏在此慣性感測板上的該步期間由距離該步之踩踏位置相對較近的四個感測單元11所發送的慣性感測資料(即,經過濾波、部分擷取後的4×6個慣性感測信號)來獲得對應於該特定人員的該步的一筆訓練特徵資料。
接著,在步驟S42中,該處理器4利用該P個訓練資料集且以每次分別對應於不同兩步的兩筆訓練特徵資料作為第一輸入資料和第二輸入資料同時輸入一孿生神經網路(Siamese neural network)的方式來訓練該孿生神經網路並調整該孿生神經網路共用的權重,以建立一步態相似度估測模型。如圖6所示,該孿生神經網路包含兩個共用權重的卷積神經網路(Convolution Neural Network,以下簡稱CNN)、及一損失函數(Loss Function)。在本實施例中,每個CNN包含一輸入層、多個隱藏層、及一輸出層,其中該輸入層和該等隱藏層均具有例如512個通道(channel)。在本實施例值中,該等隱藏層包含一第一卷積層、一第一池化層、一第 二卷積層、一第二池化層、及一全連接層。更具體地,參閱圖7,對於每個CNN,該輸入層是用來接收一筆訓練特徵資料(例如,對應於六個慣性特徵的六個4×150特徵陣列);該第一卷積層是用來例如以4×4的濾波(卷積核)尺寸對該筆訓練特徵資料的六個4×150特徵陣列進行濾波和零充填(zero padding)處理後,獲得512個4×150特徵圖(feature map);該第一池化層是用來將512個4×150特徵圖進行最大池化(Max-pooling)且以例如1×3的大小降取樣而獲得512個4×50特徵圖;該第二卷積層是用來例如以3×3的濾波(卷積核)尺寸對512個4×50特徵圖進行濾波和零充填(zero padding)處理後,獲得512個4×50特徵圖;該第二池化層是用來將來自該第二卷積層的512個4×50特徵圖進行最大池化(Max-pooling)且以例如1×4的大小降取樣而獲得512個4×13特徵圖;該全連接層是用來將512個4×13特徵圖的資料平坦化而轉為1×26624特徵向量後,並經過包含如Batch normalization和dropout的ReLU激勵函式運算後產生一N(例如,N=600)維特徵向量。於是,該處理器4在每一次將對應於不同兩步的兩筆訓練特徵資料分別饋入該兩個CNN並經由上述處理過程處理後,該處理器4將分別由該兩個CNN輸出的兩個N維特徵向量饋入該損失函數進行運算以獲得一代表該兩步的步態的相似度的損失結果(其例如為0~1的值),並根據該損失結果對應調整該兩個CNN所共用的權重,直至該處理器4將該儲存模 組2儲存的所有訓練資料集均已饋入該孿生神經網路而使其訓練完成。最後,該處理器4將訓練完成的孿生神經網路所作為該步態相似度估測模型(其包含訓練完成的該兩個CNN和該損失函數)儲存於該儲存模組2(見圖1)以供後續使用。
值得注意的是,該處理器4亦可更獲取對應於每個特定人員的測試資料集(其與上述訓練資料集在產生方式與資料內容上均相似),並利用此P個測試資料集來測試或驗證該步態相似度估測模型的精確度。
之後,在步驟S43中,在本實施例中,在該受測者踩踏在例如圖2所示的該慣性感測板1的該板體10的該頂面101上行走一步期間,該四個慣性感測單元11其中每一者產生並發送出有關於該受測者該步之步態的慣應感測資料(其包含經過濾波且部分擷取後的X軸-加速度信號、Y軸-加速度信號、Z軸-加速度信號、X軸-角速度信號、Y軸-角速度信號和Z軸-角速度信號等的六個慣性感測信號)。然而,在其他實施例中,若該受測者踩踏在含有四個以上的慣性感測單元11的慣性感測板上行走一步的情況下,則每個慣性感測單元11會產生並發送出有關於該受測者該步之步態的慣應感測資料。
接著,在步驟S44中,在本實施例中,該處理器4經由該信號接收模組3僅接收到分別發送自該四個等慣性感測單元11的四 筆慣性感測資料,並對每筆慣性感測資料以該預定取樣率R取樣後而獲得的六個分別對應於該等慣性特徵的4×R特徵陣列,並將獲得的六個4×R特徵陣列作為有關於該受測者且對應於該步之步態的一筆特徵資料。然而,在其他實施例中,該處理器4經由該信號接收模組3可能接收到分別發送自四個以上的慣性感測單元11的多筆慣性感測資料,在此情況下,該處理器4僅根據在該受測者踩踏在該慣性感測板上的該步期間由距離該步之踩踏位置相對較近的四個慣性感測單元11所發送出的四筆慣性感測資料來獲得有關於該受測者且對應於該步之步態的該筆特徵資料。
然後,在步驟S45中,該處理器4根據該筆特徵資料與該儲存模組2儲存的該P個訓練資料集且利用該儲存模組2儲存的該步態相似度估測模型估測出該筆特徵資料分別與該儲存模組2儲存的每個訓練資料集所含的Q筆訓練特徵資料的Q個相似度值作為對應於該訓練資料集的估測結果,以獲得P個估測結果。更具體地,對於每個訓練資料集,該處理器4根據該筆特徵資料與該訓練資料集所含的該Q筆訓練特徵資料且利用該步態相似度估測模型進行Q次估測,其中當該步態相似度估測模型被該處理器4用來進行一次估測時,該處理器4在該兩個卷積神經網路的兩個輸入層分別饋入該筆特徵資料和該訓練資料集所含的任一筆訓練特徵資料,並經由各自的該等隱藏層處理該筆特徵資料及該任一筆訓練特徵資料後在 其兩個輸出層輸出分別對應於該筆特徵資料及該任一筆訓練特徵資料的兩個N維特徵向量,然後經由該損失函數根據在該次估測中分別由該等卷積神經網路的兩個輸出層輸出的該兩個N維特徵向量獲得一代表該筆特徵資料與該任一筆訓練特徵資料之間的相似度的相似度值,同理完成Q次估測後,該處理器4於是獲得對應於該訓練資料集且具有Q個相似度值的估測結果。
接著,在步驟S46中,該處理器4根據該P個估測結果及一預定閾值(例如,但不限於0.5),確定該受測者是否被辨識為該P個特定人員其中一者。更具體地,在本實施例中,當該處理器4確認出該P個估測結果其中一者所含的Q個相似度值均不小於該預定閾值時,該處理器4確定出該受測者被辨識為與該P個訓練資料集其中一個對應於該估測結果的訓練資料集對應的特定人員;而當該處理器4確認出該P個估測結果其中每一者所含的Q個相似度值均小於該預定閾值時,該處理器4確定出該受測者被辨識不為該P個特定人員其中的任一者。
最後,在步驟S47中,該處理器4根據步驟S46的確定結果產生對應於該受測者的身分識別結果,並使該輸出模組5輸出該身分識別結果,以供後續處理(例如,若該身分識別結果指示出該受測者被辨識為一特定人員(識別成功)時,家戶門鎖系統或門禁系統將回應於該身分識別結果而解鎖,反之,若該身分識別結果指示出 該受測者被辨識不為任一特定人員(識別失敗)時,家戶門鎖系統或門禁系統將回應於該身分識別結果而上鎖。
值得注意的是,當該受測者確實為該處理器4所辨識的該特定人員時,該處理器4還以該筆特徵資料來更新儲存於該儲存模組2且與所辨識的該特定人員對應的訓練資料集,以供後續微調該儲存模組2儲存的該步態相似度估測模型中的權重。更具體地,舉例來說,若該受測者的該筆特徵資料與所辨識的該特定人員的訓練資料集(例如,分別對應第1至第13步的13筆訓練特徵資料)經過該步態相似度估測模型所獲得的估測結果,例如,如下表的13個相似度值:
Figure 111118849-A0305-02-0020-1
於是,為了確保所辨識的該特定人員的該訓練資料集具有在步態特徵上的多樣性,該處理器4會以將該(成功識別的)受測者的該特徵資料取代該特徵上表中最大相似度(即,0.9)所對應的一筆訓練特徵資 料(即,第2步對應的訓練特徵資料)的方式來更新該儲存模組2儲存所辨識的該特定人員的該訓練資料集。同理,在之後每次執行完受測者的身分識別後均可對於該儲存模組2儲存的相關訓練資料集進行如上述取代方式的更新,直到每個訓練資料集中的超過Q/2筆訓練特徵資料(例如,至少7筆訓練特徵資料)已被取代後,該處理器4可根據該儲存模組2儲存更新後的該等訓練資料集進一步訓練該步態相似度估測模型中的兩個CNN以微調其所使用的權重,以達到優化該步態相似度估測模型的目的。除此之外,為了確保該儲存模組2儲存的每個訓練資料集最能代表或反映對應特定人員當前的步態情況(亦即,所謂的資料新鮮度),該處理器4亦可將該(成功識別的)受測者的該特徵資料以額外新增的方式儲存於該儲存模組2儲存於所辨識的該特定人員的該訓練資料集(例如,作為第14筆訓練特徵資料)中,藉此擴大訓練資料集中的資料內容。如此,在該處理器4進行下一次的身分識別時,對於更新過(已擴大)的訓練資料集所獲的估測結果將包含超過Q個相似度值,另一方面,該處理器4在確認受測者是否為該等特定人員知之一時,對於超過Q個相似度值的估測結果是以相同如上述步驟S46的方式來確認,亦即確認此估測結果中是否存在有Q個相似度值是不小於該預定閾值。同理,在之後每次執行完受測者的身分識別後均可對於該儲存模組2儲存的相關訓練資料集進行如上述額外新增方式的更新,直到每個訓練資料集具有 2×Q筆訓練特徵資料(即,擴增一倍的訓練特徵資料),該處理器4可根據該儲存模組2儲存更新後的該等訓練資料集進一步訓練該步態相似度估測模型中的兩個CNN以微調其所使用的權重,以達到優化該步態相似度估測模型的目的。
綜上所述,該步態相似度估測模型是根據對應於多個特定人員的多個訓練資料集來訓練孿生神經網路建立來用於該等特定人員的個人身分識別,於是該處理器4僅須透過在該慣性感測板1上踩踏一步來獲得對應該步的慣性感測資料,即可利用該步態相似度估測模型估算出受測者的步態分別與每個特定人員的多步步態的相似度值,進而根據相似度值來確定受測者是否被辨識為一個特定人員,藉此達成以相對較高的辨識準確度來識別受測者的身分。此外,對於受測者而言,經由踩踏一步的慣性感測資料的採集方式可視為一種容易隨身攜帶、不需記憶、具有唯一性、難以複製或偽造、且非接觸的資料採集方式。因此,本發明步態分析的個人身分識別系統100確實能達成本發明的目的。
此外,利用組合的多個慣性感測板1以及儲存有訓練的孿生神經網路的電腦系統可構成臨床可攜式步態分析系統,其可用來分析有關受測者的步態參數、步頻、歩長、歩寬、歩距、歩速以及臨床坐、站、起、走測試等,並藉此分析出的特徵作為可用於身分辨識的個人資料,並可進一步達成數位醫療孿生歩態系統。
惟以上所述者,僅為本發明的實施例而已,當不能以此限定本發明實施的範圍,凡是依本發明申請專利範圍及專利說明書內容所作的簡單的等效變化與修飾,皆仍屬本發明專利涵蓋的範圍內。
S41~S47:步驟

Claims (12)

  1. 一種基於步態分析的個人身分識別方法,用於辨識一受測者是否為P(P≥1)個特定人員其中一者,利用一電腦系統來執行,並包含以下步驟: (A)獲取並儲存用於建模而且與該P個特定人員的步態有關及分別對應於該P個特定人員的P個訓練資料集,每個訓練資料集包含根據一對應的特定人員在至少一慣性感測板上行走Q(Q≥2)步期間在多個慣性特徵上感測該慣性感測板的震動而產生的慣性感測結果所獲得的Q筆分別對應該Q步的訓練特徵資料; (B)利用該P個訓練資料集且以每次分別對應於不同兩步的兩筆訓練特徵資料作為第一輸入資料和第二輸入資料同時輸入一孿生神經網路的方式來訓練該孿生神經網路並調整該孿生神經網路共用的權重,以建立一步態相似度估測模型; (C)當接收到該受測者在該慣性感測板上行走一步期間在該等慣性特徵上感測該慣性感測板的震動而產生的慣性感測資料時,根據接收到的該慣性感測資料獲得有關於該受測者且對應於該步之步態的一筆特徵資料,並根據該筆特徵資料與已儲存的該P個訓練資料集且利用該步態相似度估測模型估測出該筆特徵資料分別與每個訓練資料集所含的該Q筆訓練特徵資料的Q個相似度值作為對應於該訓練資料集的估測結果,以獲得P個估測結果;及 (D)根據該P個估測結果及一預定閾值,確定該受測者是否被辨識為該P個特定人員其中一者。
  2. 如請求項1所述的基於步態分析的個人身分識別方法,其中: 在步驟(A)中,該慣性感測板的一底面設有多個呈陣列排列的慣性感測模組,每一慣性感測模組組配來感測分別代表該等慣性特徵的三軸加速度和三軸角速度以產生對應的六個慣性感測信號,並且每個訓練資料集所含的每筆訓練特徵資料包含根據在該對應特定人員踩踏在該慣性感測板上的一對應步期間由距離該對應步之踩踏位置相對較近的四個慣性感測模組所產生的4×6個慣性感測信號並將其每一者濾波、擷取且以一預定取樣率R取樣後而獲得的六個分別對應該等慣性特徵的4×R特徵陣列;及 在步驟(C)中,該筆特徵資料包含根據在該受測者踩踏在該慣性感測板上的該步期間由距離該步之踩踏位置相對較近的四個慣性感測模組所產生的4×6個慣性感測信號並將其每一者濾波、擷取且以該預定取樣率R取樣後而獲得的六個分別對應於該等慣性特徵的4×R特徵陣列。
  3. 如請求項1所述的基於步態分析的個人身分識別方法,其中,在步驟(B)中,該步態相似度估測模型包含: 已訓練且共用權重的兩個卷積神經網路,其每一者具有一輸入層、多個隱藏層、及一輸出層,當該步態相似度估測模型被用來進行一次估測時,該兩個卷積神經網路在其兩個輸入層分別接收該筆特徵資料和已儲存的任一筆訓練特徵資料,並經由各自的該等隱藏層處理該筆特徵資料及該任一筆訓練特徵資料後在其兩個輸出層輸出分別對應於該筆特徵資料及該任一筆訓練特徵資料的兩個N維特徵向量;及 一損失函數,根據在該次估測中分別由該等卷積神經網路的兩個輸出層輸出的該兩個N維特徵向量獲得一代表該筆特徵資料與該任一筆訓練特徵資料之間的相似度的相似度值。
  4. 如請求項1所述的基於步態分析的個人身分識別方法,其中,在步驟(D)中: 當該電腦系統確認出該P個估測結果其中一者所含的Q個相似度值均不小於該預定閾值時,該電腦系統確定出該受測者被辨識為與該P個訓練資料集其中一個對應於該估測結果的訓練資料集對應的特定人員;及 當該電腦系統確認出該P個估測結果其中每一者所含的Q個相似度值均小於該預定閾值時,該電腦系統確定出該受測者被辨識不為該P個特定人員其中的任一者。
  5. 如請求項4所述的基於步態分析的個人身分識別方法,其中,當該受測者確實為該電腦系統所辨識的該特定人員時,該電腦系統還以該筆特徵資料來更新已儲存且與所辨識的該特定人員對應的訓練資料集,以供後續微調該步態相似度估測模型中的權重。
  6. 如請求項1所述的基於步態分析的個人身分識別方法,還包含以下步驟: (E)根據步驟(D)的確定結果,輸出對應於該受測者的身分識別結果。
  7. 一種基於步態分析的個人身分識別系統,用於用於辨識一受測者是否為P(P≥1)個特定人員其中一者,並包含: 一慣性感測板,包含 一板體,具有相對的頂面與底面,及 多個慣性感測單元,以陣列排列方式設於該板體的該底面,每個慣性感測單元包括 一慣性感測模組,組配來在多個慣性特徵上感測該板體的震動以產生有關於該等慣性特徵的感測資料, 一微控制器,電連接該慣性感測模組以接收該感測資料,並組配來將該感測資料進行濾波並從濾波後的該感測資料擷取出對應於該板體的震動期間的慣性感測資料,及 一信號發射模組,電連接該微控制器,並組配來將來自於該微控制器的該慣性感測資料以射頻方式發送出去; 一儲存模組,組配來儲存P個與該P個特定人員的步態有關且分別對應於該P個特定人員的訓練資料集、及一利用該P個訓練資料集來訓練一孿生神經網路而建立的一步態相似度估測模型,每個訓練資料集包含根據一對應的特定人員在該板體的該頂面上行走Q(Q≥2)步期間由該等慣性感測模組產生的慣性感測結果所獲得的Q筆分別對應該Q步的訓練特徵資料; 一信號接收模組,組配來以無線方式接收由每個慣性感測單元的該信號發射模組所發送出的信號;及 一處理器,電連接該信號接收模組; 其中,當該處理器經由該信號接收模組接收到該受測者踩踏在該板體的該頂面上行走一步期間發送自該等慣性感測單元的所有慣性感測資料時,該處理器操作來執行以下動作: 根據接收到的所有慣性感測資料獲得有關於該受測者且對應於該步之步態的一筆特徵資料; 根據該筆特徵資料與該儲存模組儲存的該P個訓練資料集且利用該儲存模組儲存的該步態相似度估測模型估測出該筆特徵資料分別與該儲存模組儲存的每個訓練資料集所含的該Q筆訓練特徵資料的Q個相似度值作為對應於該訓練資料集的估測結果,以獲得P個估測結果;及 根據該P個估測結果及一預定閾值,確定該受測者是否被辨識為該P個特定人員其中一者。
  8. 如請求項7所述的基於步態分析的個人身分識別系統,其中: 對於每個慣性感測單元,該慣性感測模組包含一三軸加速度計和一三軸陀螺儀,其組配來感測分別代表該等慣性特徵的三軸加速度和三軸角速度以產生作為感測資料的六個慣性感測信號,該微控制器將該等慣性感測信號濾波並從濾波後的該等慣性感測信號各自擷取出對應於該板體之震動期間的信號部分作為慣性感測資料; 該儲存模組儲存的每個訓練資料集所含的每筆訓練特徵資料包含根據在該對應特定人員踩踏在該慣性感測板上的一對應步期間由距離該對應步之踩踏位置相對較近的四個慣性感測模組所產生的4×6個慣性感測信號並將其每一者進行濾波、擷取且以一預定取樣率R取樣後而獲得的六個分別對應該等慣性特徵的4×R特徵陣列;及 該筆特徵資料包含根據在該受測者踩踏在該慣性感測板上的該步期間由距離該步之踩踏位置相對較近的四個慣性感測模組所產生的4×6個慣性感測信號並將其每一者進行濾波、擷取且以該預定取樣率R取樣後而獲得的六個分別對應於該等慣性特徵的4×R特徵陣列。
  9. 如請求項7所述的基於步態分析的個人身分識別系統,其中,該儲存模組儲存的該步態相似度估測模型包含: 已訓練且共用權重的兩個卷積神經網路,其每一者具有一輸入層、多個隱藏層、及一輸出層,當該步態相似度估測模型被用來進行一次估測時,該兩個卷積神經網路在其兩個輸入層分別接收該筆特徵資料和該儲存模組儲存的任一筆訓練特徵資料,並經由各自的該等隱藏層處理該筆特徵資料及該任一筆訓練特徵資料後在其兩個輸出層輸出分別對應於該筆特徵資料及該任一筆訓練特徵資料的兩個N維特徵向量;及 一損失函數,根據在該次估測中分別由該等卷積神經網路的兩個輸出層輸出的該兩個N維特徵向量獲得一代表該筆特徵資料與該任一筆訓練特徵資料之間的相似度的相似度值。
  10. 如請求項7所述的基於步態分析的個人身分識別系統,其中: 當該處理器確認出該P個估測結果其中一者所含的Q個相似度值均不小於該預定閾值時,該處理器確定出該受測者被辨識為與該P個訓練資料集其中一個對應於該估測結果的訓練資料集對應的特定人員;及 當該處理器確認出該P個估測結果其中每一者所含的Q個相似度值均小於該預定閾值時,該處理器確定出該受測者被辨識不為該P個特定人員其中的任一者。
  11. 如請求項10所述的基於步態分析的個人身分識別系統,其中,當該受測者確實為該處理器所辨識的該特定人員時,該處理器還以該筆特徵資料來更新儲存於該儲存模組且與所辨識的該特定人員對應的訓練資料集,以供後續微調該儲存模組儲存的該步態相似度估測模型中的權重。
  12. 如請求項7所述的基於步態分析的個人身分識別系統,還包含一電連接該處理器的輸出模組; 其中,該處理器還操作來根據確定結果產生對應於該受測者的身分識別結果,並使該輸出模組輸出該身分識別結果。
TW111118849A 2022-05-20 2022-05-20 基於步態分析的個人身分識別方法及系統 TWI812235B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
TW111118849A TWI812235B (zh) 2022-05-20 2022-05-20 基於步態分析的個人身分識別方法及系統
US17/944,595 US20230376567A1 (en) 2022-05-20 2022-09-14 Identity recognition method and identity recognition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW111118849A TWI812235B (zh) 2022-05-20 2022-05-20 基於步態分析的個人身分識別方法及系統

Publications (2)

Publication Number Publication Date
TWI812235B true TWI812235B (zh) 2023-08-11
TW202347268A TW202347268A (zh) 2023-12-01

Family

ID=88585649

Family Applications (1)

Application Number Title Priority Date Filing Date
TW111118849A TWI812235B (zh) 2022-05-20 2022-05-20 基於步態分析的個人身分識別方法及系統

Country Status (2)

Country Link
US (1) US20230376567A1 (zh)
TW (1) TWI812235B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1804194B1 (en) * 2002-10-29 2009-01-21 Sony Corporation Gait waveform feature extracting method and individual identification system
TW202000134A (zh) * 2018-06-21 2020-01-01 國立清華大學 步態辨識系統及步態辨識方法
CN111079651A (zh) * 2019-12-17 2020-04-28 河南水滴智能技术有限公司 一种步态分类方法的再优化
CN114140880A (zh) * 2021-12-03 2022-03-04 北京京东尚科信息技术有限公司 步态识别方法和装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1804194B1 (en) * 2002-10-29 2009-01-21 Sony Corporation Gait waveform feature extracting method and individual identification system
TW202000134A (zh) * 2018-06-21 2020-01-01 國立清華大學 步態辨識系統及步態辨識方法
CN111079651A (zh) * 2019-12-17 2020-04-28 河南水滴智能技术有限公司 一种步态分类方法的再优化
CN114140880A (zh) * 2021-12-03 2022-03-04 北京京东尚科信息技术有限公司 步态识别方法和装置

Also Published As

Publication number Publication date
TW202347268A (zh) 2023-12-01
US20230376567A1 (en) 2023-11-23

Similar Documents

Publication Publication Date Title
Ha et al. Convolutional neural networks for human activity recognition using multiple accelerometer and gyroscope sensors
Johnston et al. Smartwatch-based biometric gait recognition
Dikovski et al. Evaluation of different feature sets for gait recognition using skeletal data from Kinect
US20110282828A1 (en) Method of identification and devices thereof
CN107831907A (zh) 基于步态识别的身份认证方法及装置
Muaaz et al. Influence of different walking speeds and surfaces on accelerometer-based biometric gait recognition
Papavasileiou et al. GaitCode: Gait-based continuous authentication using multimodal learning and wearable sensors
CN103324938A (zh) 训练姿态分类器及物体分类器、物体检测的方法及装置
US10198694B2 (en) Static posture based person identification
Liu et al. 3D gait recognition based on a CNN-LSTM network with the fusion of SkeGEI and DA features
Green et al. Quantifying and recognizing human movement patterns from monocular video images-part II: applications to biometrics
CN107545252A (zh) 基于多姿态人脸模型的视频中人脸识别方法及装置
Mondal et al. Gait based personal identification system using rotation sensor
Burka et al. Proton: A visuo-haptic data acquisition system for robotic learning of surface properties
WO2017058927A1 (en) Gait pathology detection and monitoring system, and method
Hajjej et al. Deep human motion detection and multi-features analysis for smart healthcare learning tools
CN109286499B (zh) 一种基于行为特征的在场认证方法
Zeng et al. Accelerometer-based gait recognition via deterministic learning
TWI812235B (zh) 基於步態分析的個人身分識別方法及系統
CN111428690B (zh) 一种基于步态信号拓扑分析的身份认证方法
Sangavi et al. Human Activity Recognition for Ambient Assisted Living
Li Badminton motion capture with visual image detection of picking robotics
Kang et al. Frontal-view human gait recognition based on Kinect features and deterministic learning
Fengjiang et al. Kinect-based gait recognition system design via deterministic learning
CN116206728A (zh) 一种基于传感器融合和迁移学习的康复训练方法及***