KR20190083998A - 섬망 판별 장치 및 그 방법 - Google Patents

섬망 판별 장치 및 그 방법 Download PDF

Info

Publication number
KR20190083998A
KR20190083998A KR1020190001409A KR20190001409A KR20190083998A KR 20190083998 A KR20190083998 A KR 20190083998A KR 1020190001409 A KR1020190001409 A KR 1020190001409A KR 20190001409 A KR20190001409 A KR 20190001409A KR 20190083998 A KR20190083998 A KR 20190083998A
Authority
KR
South Korea
Prior art keywords
delirium
learning
data
discrimination
patient
Prior art date
Application number
KR1020190001409A
Other languages
English (en)
Inventor
조동래
이보름
오주영
박진영
김재진
Original Assignee
광주과학기술원
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광주과학기술원, 연세대학교 산학협력단 filed Critical 광주과학기술원
Publication of KR20190083998A publication Critical patent/KR20190083998A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02416Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • A61B5/0402
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Physiology (AREA)
  • Artificial Intelligence (AREA)
  • Cardiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

본 발명의 실시 예는 섬망 판별의 대상이 되는 입력 생체신호 데이터를 획득하는 입력부; 섬망 판별 모델을 이용하여 상기 입력 생체신호 데이터에 상응하는 섬망 정보를 판별하는 프로세서; 및 상기 판별된 섬망 정보를 출력하는 출력부를 포함하고, 상기 섬망 판별 모델은 기계 학습을 기반으로, 복수의 환자들로부터 수집된 생체신호와 상기 각 생체신호에 상응하는 섬망 상태 정보로 구성된 학습용 생체신호 데이터 중에서 학습에 적합한 데이터를 이용하여 학습된 뉴럴 네트워크(neural network)인, 섬망 판별 장치를 제공한다.

Description

섬망 판별 장치 및 그 방법 {APPARATUS FOR DISCRIMINATING DELIRIUM AND METHOD FOR THE SAME}
본 발명은 섬망 판별 장치 및 그 방법에 관한 것이다. 구체적으로, 본 발명은 기계 학습 알고리즘 또는 딥 러닝 알고리즘에 기반하여 환자로부터 수집한 생체신호를 이용하여 해당 환자의 섬망 여부를 판별하는 장치 및 그 방법에 관한 것이다.
섬망(Delirium)은 다양한 원인에 의해서 갑자기 발생한 의식의 장애, 주의력 저하, 언어력 저하 등 인지 기능 전반의 장애와 정신병적 증상을 유발하는 신경 정신 질환이며, 주요 증상으로 심한 과다 행동(예를 들어 안절부절못하고, 잠을 안 자고, 소리를 지르고, 주사기를 빼내는 행위)과 생생한 환각, 초조함과 떨림 등이 자주 나타난다.
치매와 섬망와 구별해 본다면 가장 뚜렷한 차이점은 지속성에 있다. 섬망은 증상이 수일 이내 급격히 발생하여 원인이 교정되면 수일 이내 호전되고 하루 중에도 증상의 변동이 심한 편이지만, 치매는 혈관성 치매가 아닌 퇴행성 치매는 수개월에 걸쳐 증상이 생기고 증상의 심각성 역시 비교적 큰 변동 없이 일정한 편이다.
섬망은 비교적 흔한 질환으로 전체 병원 입원 환자의 10~15%가 섬망을 경험하며, 특히 수술 후 또는 노인에게서 흔하게 발생한다. 중환자실에서 급작스럽게 발발하는 섬망은 환자의 부상을 유발할 뿐만 아니라 정밀한 의료 환경에서 갑작스러운 사고가 일어날 수 있는 원인이 되므로 주의가 필요하다.
하지만, 현재는 섬망이 발생하는 것을 조기에 감시할 수 있는 장치의 부재로 인해 섬망 증상을 겪는 환자들은 묶어두거나 따로 격리시키는 임시적인 조치를 취하고 있는 실정이다.
따라서, 환자의 섬망 상태 여부 또는 환자가 섬망을 경험할 가능성이 높은지 여부를 조기에 판단하는 기술이 요구된다.
전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
국내 공개특허공보 제10-2012-0139908호
본 발명은 기계 학습 알고리즘을 통해 학습된 섬망 판별 모델을 이용하여 섬망 판별 대상 환자로부터 수집된 생체신호를 분석하여 섬망 상태 여부 또는 섬망 경험 여부를 판별하는 섬망 판별 장치 및 그 방법을 제공하고자 한다.
또한, 본 발명은 하나 이상의 섬망 판별 모델을 이용하여 하나의 생체신호 데이터에 대하여 다양한 섬망 정보를 제공하는 섬망 판별 장치 및 그 방법을 제공하고자 한다.
본 발명의 일 실시 예는, 기계 학습 알고리즘을 통해 환자들로부터 수집한 생체신호를 이용하여 환자의 섬망 경험 여부 또는 환자의 섬망 상태 여부를 분류하는 섬망 판별 모델을 학습하고, 섬망 판별 모델을 이용하여 섬망 판별 대상 환자로부터 수집된 생체신호를 분석하여 섬망 상태 여부 또는 섬망 경험 여부를 판별하는 섬망 정보를 생성하여 제공한다.
또한, 본 발명의 일 실시 예는, 하나 이상의 판별 방법에 따른 섬망 판별 모델들을 학습하고, 학습된 섬망 판별 모델들을 이용하여 섬망 정보를 생성하여 제공한다.
본 발명의 다양한 실시 예에 따르면, 전문 의료인 없이 환자로부터 수집된 생체신호만으로 섬망 상태 여부 또는 섬망 경험 가능성이 높은지 여부 등에 대한 정보를 정확도 높게 확인할 수 있으므로, 급작스러운 섬망 발병으로 인한 위험을 효과적으로 예방할 수 있다.
또한, 본 발명의 다양한 실시 예에 따르면, 하나 이상의 판별 방법에 따른 섬망 판별 모델들을 이용함에 따라, 하나의 생체신호 데이터에 대하여도 다양한 분석 결과를 제공할 수 있고, 사용자(의료인)은 다양하고 정확도 높은 정보를 획득할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 섬망 판별 장치(100)의 구성을 나타낸 블록도이다.
도 2 및 3은 본 발명의 일 실시 예에 따른 섬망 판별 방법을 나타낸 동작 흐름도이다.
도 4는 학습용 생체신호 데이터의 수집하고 필터링하는 예시를 나타낸 도면이다.
도 5는 도 2 및 3에 도시된 섬망 판별 모델을 학습하는 단계(S207)의 일 예를 나타낸 동작 흐름도이다.
도 6은 섬망 판별 모델의 제1 분류 방법의 예시를 나타낸 도면이다.
도 7은 섬망 판별 모델의 제2 분류 방법의 예시를 나타낸 도면이다.
도 8은 섬망 판별 모델의 제3 분류 방법의 예시를 나타낸 도면이다.
도 9는 도 2에 도시된 섬망 여부에 대한 판별 결과를 출력하는 단계(S213)의 일 예를 나타낸 동작 흐름도이다.
도 10은 본 발명의 일 실시 예에 따른 섬망 판별 방법을 나타낸 동작 흐름도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
머신 러닝(machine learning)은 인공지능의 한 분야로, 컴퓨터에 명시적인 프로그램 없이 배울 수 있는 능력을 부여하는 연구 분야이다.
구체적으로 머신 러닝은, 경험적 데이터를 기반으로 학습을 하고 예측을 수행하고 스스로의 성능을 향상시키는 시스템과 이를 위한 알고리즘을 연구하고 구축하는 기술이라 할 수 있다. 머신 러닝의 알고리즘들은 엄격하게 정해진 정적인 프로그램 명령들을 수행하는 것이라기보다, 입력 데이터를 기반으로 예측이나 결정을 이끌어내기 위해 특정한 모델을 구축하는 방식을 취한다.
용어 '머신 러닝'은 용어 '기계 학습'과 혼용되어 사용될 수 있다.
기계 학습 알고리즘 중에서 서포트벡터머신은 패턴인식과 자료분석을 위한 지도 학습(supervised learning)의 모델이며, 주로 분류와 회귀분석을 위해 사용한다.
기계 학습 알고리즘 중에서 인공신경망은 생물학적 뉴런의 동작원리와 뉴런간의 연결 관계를 모델링한 것으로 노드(node) 또는 처리 요소(processing element)라고 하는 다수의 뉴런들이 레이어(layer) 구조의 형태로 연결된 정보처리 시스템이다.
인공신경망은 복수의 레이어(layer)를 포함할 수 있고, 레이어들 각각은 복수의 뉴런(neuron)을 포함할 수 있다. 또한 인공신경망은 뉴런과 뉴런을 연결하는 시냅스를 포함할 수 있다.
인공 신경망은 일반적으로 다음의 세가지 인자, 즉 (1) 다른 레이어의 뉴런들 사이의 연결 패턴 (2) 연결의 가중치를 갱신하는 학습 과정 (3) 이전 레이어로부터 수신되는 입력에 대하여 가중 합을 취하여 출력값을 생성하는 활성화 함수에 의해 정의될 수 있다.
본 명세서에서 용어 '레이어'는 용어 '계층'과 혼용되어 사용될 수 있다.
인공신경망은 계층 수에 따라 단층 신경망(Single-Layer Neural Networks)과 다층 신경망(Multi-Layer Neural Networks)으로 구분된다.
일반적인 단층 신경망은, 입력층과 출력층으로 구성된다.
또한 일반적인 다층 신경망은 입력층(Input Layer)과 은닉층(Hidden Layer), 출력층(Output Layer)으로 구성된다.
입력층은 외부의 자료들을 받아들이는 층으로서, 입력층의 뉴런 수는 입력되는 변수의 수와 동일하며, 은닉층은 입력층과 출력층 사이에 위치하며 입력층으로부터 신호를 받아 특성을 추출하여 출력층으로 전달한다. 출력층은 은닉층으로부터 신호를 받아 외부로 출력한다. 뉴런간의 입력신호는 0에서 1 사이의 값을 갖는 각각의 연결강도와 곱해진 후 합산되며 이 합이 뉴런의 임계치보다 크면 뉴런이 활성화되어 활성화 함수를 통하여 출력값으로 구현된다.
한편 입력층과 출력 층 사이에 복수의 은닉층을 포함하는 심층 신경망은, 기계 학습 기술의 한 종류인 딥 러닝을 구현하는 대표적인 인공 신경망일 수 있다.
한편 용어 '딥 러닝'은 용어 '심층 학습'과 혼용되어 사용될 수 있다.
인공 신경망은 훈련 데이터(training data)를 이용하여 학습(training)될 수 있다. 여기서 학습이란, 입력 데이터를 분류(classification)하거나 회귀분석(regression)하거나 군집화(clustering)하는 등의 목적을 달성하기 위하여, 학습 데이터를 이용하여 인공 신경망의 파라미터(parameter)를 결정하는 과정을 의미할 수 있다. 인공 신경망의 파라미터의 대표적인 예시로써, 시냅스에 부여되는 가중치(weight)나 뉴런에 적용되는 편향(bias)을 들 수 있다.
훈련 데이터에 의하여 학습된 인공 신경망은, 입력 데이터를 입력 데이터가 가지는 패턴에 따라 분류하거나 군집화 할 수 있다.
한편 훈련 데이터를 이용하여 학습된 인공 신경망을, 본 명세서에서는 학습 모델(a trained model)이라 명칭 할 수 있다.
다음은 인공 신경망의 학습 방식에 대하여 설명한다.
인공 신경망의 학습 방식은 크게, 지도 학습, 비 지도 학습, 준 지도 학습(Semi-Supervised Learning), 강화 학습(Reinforcement Learning)으로 분류될 수 있다.
지도 학습은 훈련 데이터로부터 하나의 함수를 유추해내기 위한 기계 학습의 한 방법이다.
그리고 이렇게 유추되는 함수 중, 연속 적인 값을 출력하는 것을 회귀분석(Regression)이라 하고, 입력 벡터의 클래스(class)를 예측하여 출력하는 것을 분류(Classification)라고 할 수 있다.
지도 학습에서는, 훈련 데이터에 대한 레이블(label)이 주어진 상태에서 인공 신경망을 학습시킨다.
여기서 레이블이란, 훈련 데이터가 인공 신경망에 입력되는 경우 인공 신경망이 추론해 내야 하는 정답(또는 결과 값)을 의미할 수 있다.
본 명세서에서는 훈련 데이터가 입력되는 경우 인공 신경망이 추론해 내야 하는 정답(또는 결과값)을 레이블 또는 레이블링 데이터(labeling data)이라 명칭 한다.
한편 훈련 데이터는 복수의 특징(feature)을 나타내고, 훈련 데이터에 레이블이 레이블링 된다는 것은 훈련 데이터가 나타내는 특징에 레이블이 달린다는 것을 의미할 수 있다. 이 경우 훈련 데이터는 입력 객체의 특징을 벡터 형태로 나타낼 수 있다.
인공 신경망은 훈련 데이터와 레이블링 데이터를 이용하여, 훈련 데이터와 레이블링 데이터의 연관 관계에 대한 함수를 유추할 수 있다. 또한 인공 신경망은 유추된 함수에 대한 평가를 통해 인공 신경망의 파라미터를 결정(최적화) 할 수 있다.
인공 신경망은 학습 전에 미리 설정되며 모델의 구성과 구조에 관련되는 하이퍼파라미터(Hyperparameter)와 학습으로 인하여 결정되며 모델의 내용을 결정하는 모델 파라미터(Model Parameter)로 특정할 수 있다.
예컨대, 하이퍼파라미터에는 은닉층의 개수, 각 은닉층에 포함된 은닉 노드의 개수, 노드 간 가중치 초기값, 노드 간 편향 초기값, 미니 배치(Mini-batch) 크기, 학습 반복 횟수, 학습률(Learning Rate) 등이 포함된다. 또한, 넓게 보면 하이퍼파라미터에는 손실 함수(Loss Function) 또는 비용 함수(Cost Function), 최적화 알고리즘, 입력 특징 벡터(Input Feature Vector), 대상 특징 벡터(Target Feature Vector), 노드의 활성 함수(Activation Function) 등도 포함될 수 있다. 그리고, 모델 파라미터에는 노드 간 가중치, 노드 간 편향 등이 포함될 수 있다.
손실 함수는 인공 신경망의 학습 과정에서 최적의 모델 파라미터를 결정하기 위한 지표(기준)로 이용될 수 있다. 인공 신경망에서 학습은 손실 함수를 줄이기 위하여 모델 파라미터들을 조작하는 과정을 의미하며, 학습의 목적은 손실 함수를 최소화하는 모델 파라미터를 결정하는 것으로 볼 수 있다.
머신 러닝 또는 딥 러닝에서는 손실 함수를 최소화하기 위하여 학습 최적화 알고리즘을 이용할 수 있으며, 학습 최적화 알고리즘에는 경사 하강법(GD: Gradient Descent), 확률적 경사 하강법(SGD: Stochastic Gradient Descent), 모멘텀(Momentum), NAG(Nesterov Accelerate Gradient), Adagrad, AdaDelta, RMSProp, Adam, Nadam 등이 있다.
이하에서, 섬망 판별 장치(100)가 섬망 판별 모델을 학습하고, 학습된 섬망 판별 모델을 이용하여 입력 데이터(분류용 생체신호 데이터)에 대한 섬망 여부를 판별하는 것으로 설명하고 있으나, 섬망 판별 장치(100)는 섬망 판별 모델을 학습하는 학습 장치(미도시)와 학습된 섬망 판별 모델을 이용하여 섬망 여부를 판별하는 판별 장치(미도시)로 구분되어 구성될 수 있다.
도 1은 본 발명의 일 실시 예에 따른 섬망 판별 장치(100)의 구성을 나타낸 블록도이다.
도 1을 참조하면, 섬망 판별 장치(100)는 프로세서(110), 입력부(120), 메모리(130), 통신부(140), 러닝 프로세서(150), 출력부(160) 및 전원 공급부(170) 등을 포함할 수 있다.
프로세서(110)는 통상적으로 섬망 판별 장치(100)의 전반적인 동작을 제어한다. 프로세서(110)는 이하의 구성 요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(130)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.
또한, 프로세서(110)는 메모리(130)에 저장된 응용 프로그램을 구동하기 위하여, 도 1에 도시된 구성 요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(110)는 상기 응용프로그램의 구동을 위하여, 섬망 판별 장치(100)에 포함된 구성 요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.
여기서, 프로세서(processor)는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
단말기의 동작이 데이터 분석 및 기계 학습 알고리즘 및 기술에 기초하여 결정될 때, 프로세서(110)는 결정된 동작을 실행하기 위해 단말기의 구성 요소를 제어할 수 있다. 그리고 프로세서(110)는 제어 명령에 따라 단말을 제어하여 결정된 동작을 수행할 수 있다.
프로세서(110)는 특정 동작이 수행되는 경우, 데이터 분석 및 기계 학습 알고리즘 및 기법을 통해 특정 동작의 실행을 나타내는 이력 정보를 분석하고, 분석된 정보에 기초하여 이전에 학습 한 정보의 업데이트를 수행할 수 있다.
따라서, 프로세서(110)는 러닝 프로세서(150)과 함께, 업데이트 된 정보에 기초하여 데이터 분석 및 기계 학습 알고리즘 및 기법의 미래 성능의 정확성을 향상시킬 수 있다.
입력부(120)는 환자의 생체신호 데이터 또는 섬망 판단 결과에 대한 평가 정보 등을 입력 받는다.
입력부(120)는 인터페이스부(미도시) 또는 통신부(140)를 통하여 환자의 생체신호 수집 장치(미도시)와 연결되어 생체신호 데이터를 입력 받을 수 있다.
입력부(120)는 섬망 판단 결과에 대한 평가 정보를 입력 받기 위한 사용자 입력부(미도시)를 포함할 수 있다.
사용자 입력부는 사용자로부터 정보를 입력 받기 위한 것으로서, 사용자 입력부를 통해 정보가 입력되면, 프로세서(110)는 입력된 정보에 대응되도록 섬망 판별 장치(100)의 동작을 제어할 수 있다.
사용자 입력부는 기계식(mechanical) 입력 수단 또는 터치식 입력 수단을 포함할 수 있다.
메모리(130)는 섬망 판별 장치(100)의 다양한 기능을 지원하는 데이터를 저장한다.
메모리(130)는 섬망 판별 장치(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 섬망 판별 장치(100)의 동작을 위한 데이터들, 명령어들을, 러닝 프로세서(150)의 동작을 위한 데이터들(예를 들어, 머신 러닝을 위한 적어도 하나의 알고리즘 정보 등)을 저장할 수 있다.
통신부(140)는 유무선 통신을 통하여 생체신호 수집 장치 또는 사용자 단말기(미도시) 등과 데이터를 송수신할 수 있다.
통신부(140)는 생체신호 수집 장치로부터 학습용 생체신호 데이터와 섬망 판별의 대상이 되는 입력 생체신호 데이터를 수신할 수 있다.
통신부(140)는 사용자 단말기에 섬망 판별 결과 정보 또는 섬망 경고 알림을 송신할 수 있다.
사용자 단말기는 이동 가능한 휴대용 단말기뿐만 아니라 고정되어 사용되는 범용 컴퓨터, 알림 장치 등으로 구현될 수 있다.
예컨대, 사용자 단말기는 의사 또는 간호사가 사용하는 스마트폰으로 구현될 수 있고, 통신부(140)는 입력 생체신호 데이터가 섬망 상태로 판별되었을 경우에 섬망 상태라는 경고 알림을 연동된 사용자 단말기로 전송하여 의사 또는 간호사에게 알릴 수 있다.
러닝 프로세서(150)는 데이터 마이닝, 데이터 분석, 지능형 의사 결정 및 기계 학습 알고리즘을 위해 이용될 정보를 수신, 분류, 저장 및 출력하도록 구성될 수 있다.
러닝 프로세서(150)는 단말기에 의해 수신, 검출, 감지 또는 생성된 데이터, 또는 다른 컴포넌트, 디바이스, 단말기 또는 단말기와 통신하는 장치에 의해 출력되는 데이터를 저장하도록 구성된 하나 이상의 메모리 유닛을 포함할 수 있다.
러닝 프로세서(150)는 단말기에 통합되거나 구현된 메모리를 포함할 수 있다. 일부 실시 예에서, 러닝 프로세서(150)는 메모리(130)를 사용하여 구현될 수 있다.
선택적으로 또는 부가적으로, 러닝 프로세서(150)는 단말기에 직접 결합된 외부 메모리 또는 단말기와 통신하는 서버에서 유지되는 메모리와 같이 단말기와 관련된 메모리를 사용하여 구현될 수 있다.
다른 실시 예에서, 러닝 프로세서(150)는 클라우드 컴퓨팅 환경에서 유지되는 메모리, 또는 네트워크와 같은 통신 방식을 통해 단말기에 의해 액세스 가능한 다른 원격 메모리 위치를 이용하여 구현될 수 있다.
러닝 프로세서(150)는 일반적으로 감독 또는 감독되지 않은 학습, 데이터 마이닝, 예측 분석 또는 다른 머신에서 사용하기 위해 데이터를 식별, 색인화, 카테고리화, 조작, 저장, 검색 및 출력하기 위해 데이터를 하나 이상의 데이터베이스에 저장하도록 구성될 수 있다.
러닝 프로세서(150)에 저장된 정보는 다양한 상이한 유형의 데이터 분석 알고리즘 및 기계 학습 알고리즘 중 임의의 것을 사용하여 프로세서(110) 또는 단말기의 하나 이상의 다른 제어기에 의해 이용될 수 있다.
러닝 프로세서(150)는 단독으로 또는 프로세서(110)와 함께 학습용 생체신호 데이터를 이용하여 섬망 판별 모델을 학습할 수 있다.
출력부(160)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(Display Unit), 음향 출력부(Sound Output Unit), 햅틱 모듈(Haptic Module), 광 출력부(Optical Output Unit) 중 적어도 하나를 포함할 수 있다.
디스플레이부는 섬망 판별 장치(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이부는 섬망 판별 장치(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.
디스플레이부는 섬망 판별 결과 정보를 표시할 수 있다.
디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 섬망 판별 장치(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부로써 기능함과 동시에, 섬망 판별 장치(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.
음향 출력부는 리시버(receiver), 스피커(speaker), 버저(buzzer) 중 적어도 하나 이상을 포함할 수 있다.
햅틱 모듈(haptic module)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다.
광출력부는 섬망 판별 장치(100)의 광원의 빛을 이용하여 이벤트 발생을 알리기 위한 신호를 출력한다. 섬망 판별 장치(100)에서 발생 되는 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등이 될 수 있다.
전원 공급부(170)는 프로세서(110)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 섬망 판별 장치(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원 공급부(170)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체 가능한 형태의 배터리가 될 수 있다.
도 2 및 3은 본 발명의 일 실시 예에 따른 섬망 판별 방법을 나타낸 동작 흐름도이다.
도 2는 섬망 상태를 판별하는 방법을 1회만 수행하는 예시를 나타낸 동작 흐름도이고, 도 3은 섬망 상태를 판별하는 방법을 반복적으로 수행하는 예시를 나타낸 동작 흐름도이다.
도 2 및 3을 참조하면, 섬망 판별 장치(100)의 프로세서(110)는 입력부(120)를 통해 섬망 판별 모델의 학습을 위한 학습용 생체신호 데이터를 획득한다(S201).
학습용 생체신호 데이터는 복수의 환자들로부터 수집된 심전도 신호 또는 광전용전맥파 신호 중에서 하나 이상, 그리고 의료인(의사 또는 간호사 등)에 의하여 판별된 섬망 상태 정보를 포함한다.
즉, 각 학습용 생체신호 데이터는 생체신호(심전도 신호 또는 광전용전맥파 신호) 및 섬망 상태 정보를 포함하며, 섬망 상태 정보는 섬망 판별 모델의 지도학습에 라벨로써 이용된다.
이때, 학습용 생체신호 데이터에 포함된 생체신호는 섬망 상태를 판별하기에 충분한 길이로 수집될 수 있고, 예컨대 5분 이상 수집된 것일 수 있다.
동일한 환자라고 하더라도 시간대에 따라서 여러 번 학습용 생체신호 데이터가 수집될 수 있다. 예컨대, 한 명의 환자라도 일정 시간 간격으로 하루에 여러 번 학습용 생체신호 데이터가 수집될 수 있다.
섬망 판별 장치(100)의 프로세서(110)는 획득한 학습용 생체신호 데이터에 대해서 학습에 부적합한 데이터를 필터링한다(S203).
이때, 학습에 부적합한 데이터에는 생체신호의 품질이 나쁜 데이터, 연속적으로 강력한 진정제를 투여하고 있는 환자로부터 수집된 학습용 생체신호 데이터, 학습용 데이터 수집을 위하여 머무른 기간이 기설정된 기간(예컨대, 24시간)을 넘지 못하는 환자로부터 수집된 데이터, 생체신호의 수집 기간이 기설정된 기간(예컨대, 5분)을 넘지 않는 데이터 및 섬망 여부 정보가 포함되지 않은 데이터 등이 포함될 수 있다.
섬망 판별 장치(100)의 프로세서(110)는 학습용 생체신호 데이터에서 특징점을 추출한다(S205).
이때, 특징점은 생체신호(심전도 또는 광전용적맥파)의 피크 사이 간격을 이용하여 추출할 수 있다.
예컨대, 특징점에는 환자의 교감신경의 변화 양상 및 부교감신경의 변화 양상에 대한 대한 정보로서 하기 [표 1]과 같은 다양한 심박 변이도(HRV: Heart Rate Variability)가 포함될 수 있다.
Domain Measure Description
Time domain Mean HR Average of heart rate
Mean RR Average of RR intervals
SDNN Standard deviation of RR intervals
SDSD Standard deviation of differences between adjacent RR intervals
RMSSD The square root of mean of the sum of the squares of difference between adjacent RR intervals
pNN20 (Number of pairs of adjacent RR intervals differing by more than 20 ms)/(total number of all RR intervals)
pNN50 (Number of pairs of adjacent RR intervals differing by more than 50 ms)/(total number of all RR intervals)
Frequency domain nLF Average of normalized low frequency component (0.04-0.15Hz)
nHF Average of normalized high frequency component (0.15-0.4Hz)
LF/HF The ratio between average of low frequency and high frequency
Non-linear domain ApEn15 Approximate entropy of RR intervals (m=2, r=0.15*standard deviation)
ApEn20 Approximate entropy of RR intervals (m=2, r=0.2*standard deviation)
SampEn15 Sample entropy of RR intervals (m=2, r=0.15*standard deviation)
SampEn20 Sample entropy of RR intervals (m=2, r=0.2*standard deviation)
SD1 Standard deviation of data perpendicular to the axis of line-of-identity in Poincare plot
SD2 Standard deviation of data along the axis of line-of-identity in Poincare plot
SD1/SD2 The ratio between SD1 and SD2
α1 Scaling exponent value for short-term(≤11 beats) in DFA
α2 Scaling exponent value for long-term(≥11 beats) in DFA
α1/ α2 The ratio between α1 and α2
triangular index (The area of the density distribution of RR interval)/(maximum of density distribution of RR interval)
TINN Baseline width of the distribution measured a base of a triangle approximating the density distribution of RR interval
프로세서(110)는 학습용 생체신호 데이터에서 상기 [표 1]에 개시된 심박 변이도 지표들 중에서 적어도 하나 이상을 특징점으로 추출하여 이용할 수 있다.섬망 판별 장치(100)의 러닝 프로세서(150)는 추출된 특징점과 섬망 상태 정보를 이용한 지도학습을 통하여 섬망 판별 모델을 학습(training)한다(S207).
섬망 판별 모델은 환자의 섬망 경험 여부 또는 환자의 섬망 상태 여부 중에서 적어도 하나 이상에 대한 판별을 분류(classification)하는 기계 학습 모델을 의미할 수 있다.
예컨대, 섬망 판별 모델은 특정 생체신호 데이터를 분석하여 해당 환자가 섬망을 경험한 적이 한 번이라도 있는지 여부를 분류하거나, 해당 환자가 현재 섬망 상태인지(혹은 섬망 상태에 빠지기 직전인지) 여부를 분류할 수 있다.
구체적으로, 섬망 판별 모델은 여러 분류 방식(classification mode)을 포함할 수 있다.
예컨대, 제1 분류 방식은 상태 기반(state-based) 분류 방식으로, 학습용 생체신호 데이터를 섬망 상태와 비섬망 상태로 구분하여 학습하며, 현재 상태가 섬망 상태인지(혹은 섬망 상태에 빠지기 직전인지) 또는 현재 상태가 비섬망 상태인지(혹은 섬망 상태에 빠지기 직전이 아닌지)를 구분하는 분류 방식이다.
제2 분류 방식은 환자 기반(patient-based) 분류 방식으로, 학습용 생체신호 데이터를 섬망을 경험한 적이 있는 환자와 섬망을 경험한 적이 없는 환자로 구분하여 학습하며, 현재 환자가 섬망을 한 번이라도 경험한 적이 있는 환자인지 또는 현재 환자가 섬망을 한 번도 경험한 적이 없는 환자인지 구분하는 분류 방식이다.
제3 분류 방식은 환자-상태 기반(patient-state-based) 분류 방식으로, 학습용 생체신호 데이터를 섬망을 경험한 적이 있는 환자의 섬망 상태와 섬망을 경험한 적이 없는 환자의 비섬망 상태로 구분하여 학습하며, 현재 상태가 섬망 상태인지(혹은 섬망 상태에 빠지기 직전인지) 또는 현재 상태가 비섬망 상태인지(혹은 섬망 상태에 빠지기 직전이 아닌지)를 구분하는 분류 방식이다.
분류 방식은 사용자의 입력에 따라 설정될 수도 있고, 기설정된 기본값으로 설정될 수도 있다.
하지만, 러닝 프로세서(150)는 상기한 여러 분류 방식들 중에서 하나만 선택하지 않고, 여러 분류 방식 중에서 복수 개를 선택하여 동시에 각각 섬망 판별 모델을 학습할 수도 있다. 이 경우, 러닝 프로세서(150)는 여러 섬망 판별 모델들을 묶어 하나의 섬망 판별 모델 세트(set)로 구성할 수 있다.
예컨대, 러닝 프로세서(150)는 제1 분류 방식과 제2 분류 방식을 동시에 사용하여, 제1 분류 방식에 따른 제1 섬망 판별 모델과 제2 분류 방식에 따른 제2 섬망 판별 모델을 각각 학습하고, 제1 섬망 판별 모델과 제2 섬망 판별 모델을 하나의 섬망 판별 모델 세트로 구성할 수 있다.
러닝 프로세서(150)는 섬망 판별 모델을 학습하기 위하여 다양한 기계 학습 알고리즘을 이용할 수 있다.
예컨대, 러닝 프로세서(150)는 섬망 판별 모델을 학습하기 위하여 서포트 벡터 머신(SVM: Support Vector Machine), SVM-RBF(Support Vector Machine with RBF kernel), Linear SVM, LDA(Linear Discriminant Analysis, QDA(Quadratic Discriminant Analysis, ELM(Extreme Learning Machine) with RBF kernel(ELM-RBF), Linear ELM 중에서 적어도 하나 이상의 기계 학습 알고리즘을 이용할 수 있다.
특히, 러닝 프로세서(150)는 기계 학습 알고리즘 중에서 SVM-RBF를 이용하여 섬망 판별 모델을 학습할 수 있다.
섬망 판별 모델은 기계 학습 알고리즘 또는 딥 러닝 알고리즘을 이용하여 학습된 심층 신경망(Deep Neural Network; DNN) 모델일 수 있다.
섬망 판별 장치(100)의 프로세서(110)는 입력부(120)를 통해 판별의 대상이 되는 분류용 생체신호 데이터를 획득한다(S209).
분류용 생체신호 데이터는 환자의 섬망 경험 여부 또는 환자의 섬망 상태 여부를 판별하는 대상 생체신호 데이터로, 입력 생체신호 데이터 또는 입력 데이터라고 칭할 수 있다.
이때, 분류용 생체신호 데이터는 학습용 생체신호 데이터와 동일한 종류의 생체신호를 포함할 수 있다. 다만, 분류용 생체신호 데이터는 섬망 상태를 판단하기 위한 입력 데이터이므로, 섬망 상태 정보는 포함하지 않는다.
예컨대, 분류용 생체신호 데이터는 심전도 신호 또는 광전용전맥파 신호를 포함할 수 있다.
섬망 판별 장치(100)의 프로세서(110)는 학습된 섬망 판별 모델을 이용하여 분류용 생체신호 데이터의 섬망 여부를 판별한다(S211).
분류용 생체신호 데이터의 섬망 여부는 섬망 판별 모델의 분류 방식에 따라 환자의 섬망 경험 여부 또는 환자의 섬망 상태 여부 중에서 하나를 의미할 수 있다.
예컨대, 섬망 판별 모델의 분류 방식이 상기한 제1 분류 방식(상태 기반)인 경우에는, 분류용 생체신호 데이터의 섬망 여부는 분류용 생체 신호 데이터에 상응하는 환자가 현재(분류용 생체신호 데이터가 수집된 시점) 섬망 상태인지 여부를 의미한다.
마찬가지로, 섬망 판별 모델의 분류 방식이 상기한 제2 분류 방식(환자 기반)인 경우에는, 분류용 생체신호 데이터의 섬망 여부는 분류용 생체 신호 데이터에 상응하는 환자가 섬망을 경험한 적이 있는지 여부를 의미한다.
환자가 섬망을 경험한 적이 있는지 여부는 과거에 섬망을 경험한 적이 있는지를 의미할 수도 있지만, 섬망을 경험한 적이 없더라도 섬망을 경험할 가능성이 높은 환자인지를 의미할 수도 있다.
또한, 섬망 판별 모델의 분류 방식이 상기한 제3 분류 방식(환자-상태 기반)인 경우에는, 분류용 생체신호 데이터의 섬망 여부는 분류용 생체 신호 데이터에 상응하는 환자가 현재(분류용 생체신호 데이터가 수집된 시점) 섬망 상태인지 여부를 의미한다.
만약 복수 개의 분류 방법에 따른 섬망 판별 모델이 학습된 경우에는, 사용자의 입력 또는 기설정된 기본값에 따라 선택된 하나의 섬망 판별 모델에 상응하는 섬망 여부를 판별하여 단일한 판별 결과를 생성할 수도 있고, 존재하는 모든 섬망 판별 모델 각각에 대하여 섬망 여부를 판별하여 복수 개의 판별 결과를 생성할 수 있다.
예컨대, 제1 분류 방법(상태 기반)에 상응하는 섬망 판별 모델과 제2 분류 방법(환자 기반)에 상응하는 섬망 판별 모델이 존재하는 경우, 하나의 분류용 생체신호 데이터(입력 데이터)에 대하여 각 섬망 판별 모델에 상응하는 판별 결과를 생성할 수 있다. 이 경우, 각 판별 결과는 입력 데이터에 상응하는 환자의 현재 섬망 상태 여부와 입력 데이터에 상응하는 환자의 섬망 경험 여부이다.
만약 섬망 판별 모델 세트가 구성된 경우에는, 섬망 판별 모델 세트에 포함된 모든 섬망 판별 모델들을 이용하여 입력 데이터에 상응하는 판별 결과를 생성할 수 있다.
섬망 판별 장치(100)의 프로세서(110)는 출력부(160)를 통해 섬망 여부에 대한 판별 결과를 출력한다(S213).
섬망 여부에 대한 판별 결과는 출력부(160)의 디스플레이부를 통하여 화상 정보로 표시될 수도 있고, 출력부(160)의 스피커를 통하여 소리 정보로 출력될 수도 있다.
또한, 일 실시 예에서 출력부(160)는 통신부(140)를 통하여 연동된 다른 장치에 판별 결과를 전송함으로써 판별 결과를 출력할 수 있다.
본 발명의 일 실시 예는 크게 섬망 판별 모델을 학습하는 단계들(S201, S203, S205 및 S207)과 입력 데이터의 섬망 여부를 판별하는 단계들(S209, S211 및 S213)으로 구분할 수 있으며, 섬망 판별 모델을 학습하는 단계들이 수행된 이후 섬망 여부를 판별하는 단계들이 반복적으로 수행될 수 있다.
도 4는 학습용 생체신호 데이터의 수집하고 필터링하는 예시를 나타낸 도면이다.
도 4를 참조하면, 섬망 판별 모델의 학습에 이용되는 학습용 생체신호 데이터는 병원의 중환자실(ICU: Intensive Care Unit)에서 환자 베드에서 수집한 심전도 신호 또는 광전용전맥파 신호를 포함한다.
각 환자 베드에서 발생하는 생체신호(심전도 신호 또는 광전용전맥파 신호)는 일정 주기(예컨대, 3시간)마다 일정 시간 동안(예컨대, 5분)만큼 수집되며, 각 생체신호에 대하여 의료인(의사 또는 간호사 등)가 해당 환자의 섬망 상태 여부를 나타내는 섬망 상태 정보를 입력함으로써 학습용 생체신호 데이터가 구성된다.
의료인이 입력한 섬망 상태 정보는 섬망 판별 모델의 학습 과정에서 라벨로 이용되며, 이를 통해 지도 학습이 가능하다.
도 4의 예시에서 수집된 학습용 생체신호 데이터(410)는 약 6주간 23개의 환자 베드에서 140명의 환자로부터 총 4797개의 심전도 신호를 수집하였으며, 환자 베드마다 3시간 간격으로 수집된 약 7분간의 심전도 신호로 구성된다.
그리고, 수집된 학습용 생체신호 데이터(410) 중에서 섬망 판별 모델의 학습에 부적합한 데이터(420)는 필터링되어 섬망 판별 모델의 학습 과정에 이용되지 않는다.
학습에 부적합한 데이터(420)는 섬망을 판별하기에 부적합한 환자들로부터 수집된 학습용 생체신호 데이터를 의미할 수 있다.
예컨대, 학습에 부적합한 데이터(420)는 수집된 생체신호의 품질이 나쁘거나, 강한 진정제를 투약한 환자로부터 수집된 데이터 또는 생체신호의 수집 기간이 짧은(예컨대, 24시간 이내) 환자로부터 수집된 데이터를 포함할 수 있다.
도 4의 예시에서 학습에 부적합한 데이터(420)는 46명의 환자로부터 수집된 1403개의 심전도 신호 데이터이며, 이는 품질이 나쁜 442개의 심전도 신호 데이터와, 강한 진정제를 투약한 환자나 단기간 머무른 환자로부터 수집된 961개의 심전도 신호 데이터를 포함한다.
수집된 학습용 생체신호 데이터(410)에서 학습에 부적합한 데이터(420)를 필터링하면 학습에 적합한 데이터(430)가 남게 되며, 러닝 프로세서(150)는 이를 이용하여 섬망 판별 모델을 지도 학습한다.
학습에 적합한 데이터(430)는 섬망을 경험한 적이 있는 환자의 학습용 생체신호 데이터와 섬망을 경험한 적이 없는 환자의 학습용 생체신호 데이터로 구분될 수 있고, 또한 섬망 상태의 학습용 생체신호 데이터와 비섬망 상태의 학습용 생체신호 데이터로 구분될 수 있다.
섬망 판별 모델은 3가지의 분류 방법으로 구분되어 학습될 수 있으며, 제1 분류 방법은 상태 기반 분류(440), 제2 분류 방법은 환자 기반 분류(450), 그리고 제3 분류 방법은 환자-상태 기반 분류(460)일 수 있다.
즉, 프로세서(110) 또는 러닝 프로세서(150)는 동일한 학습에 적합한 데이터(430)를 이용하여 여러 분류 방법(440, 450 및 460)을 통한 각각의 섬망 판별 모델을 학습시킬 수 있다.
도 5는 도 2 및 3에 도시된 섬망 판별 모델을 학습하는 단계(S207)의 일 예를 나타낸 동작 흐름도이다.
도 5를 참조하면, 섬망 판별 장치(100)의 프로세서(110)는 분류 방식에 상응하는 학습용 생체신호 데이터를 선택한다(S501).
섬망 판별 모델은 여러 분류 방법으로 구성되어있으며, 분류 방법에 따라 학습에 이용되는 데이터 셋(data set)과 판별 결과가 서로 상이하다.
상술한 바와 같이, 섬망 판별 모델의 판별 결과는 제1 분류 방법(상태 기반)에서는 환자의 현재의 섬망 상태 여부이며, 제2 분류 방법(환자 기반)에서는 환자의 섬망 경험 여부이며, 제3 분류 방법(환자-상태 기반)에서는 환자의 현재의 섬망 상태 여부이다.
따라서, 분류 방법에 따라 섬망 판별 모델의 학습 방법이 서로 상이하며, 프로세서(110)는 특히 학습용 생체신호 데이터의 학습을 위한 데이터를 서로 상이하게 선택할 수 있다.
예컨대, 제1 분류 방법(상태 기반)과 제2 분류 방법(환자 기반)에서는 필터링되어 학습에 적합한 모든 학습용 생체신호 데이터가 학습용 데이터로 선택된다.
그리고, 제3 분류 방법(환자-상태 기반)에서는 필터링되어 학습에 적합한 모든 학습용 생체신호 데이터 중에서 섬망을 경험한 적이 있는 환자의 비섬망 상태에 상응하는 학습용 생체신호 데이터를 제외한 것이 학습용 데이터로 선택된다.
즉, 제3 분류 방법(환자-상태 기반)에서는 비섬망 상태를 확실하게 판단하기 위하여, 오직 섬망을 경험한 적이 없는 환자의 데이터만이 비섬망 상태에 상응하는 데이터로 사용되어 섬망 판별 모델이 학습된다.
섬망 판별 장치(100)의 프로세서(110)는 분류 방식에 따라 선택된 데이터를 이용하여 섬망 판별 모델을 학습한다(S503).
하나의 분류 방법은 하나의 섬망 판별 모델에 대응되며, 따라서 동일한 학습용 생체신호 데이터를 이용하더라도 여러 종류의 섬망 판별 모델을 학습할 수 있다. 그리고, 동시에 여러 종류의 섬망 판별 모델을 동시에 학습할 수 있다.
도 6은 섬망 판별 모델의 제1 분류 방법의 예시를 나타낸 도면이다.
도 6을 참조하면, 각 환자들로부터 수집된 데이터는 섬망을 경험한 적이 없는 환자로부터 수집된 학습용 생체신호 데이터(640), 섬망을 경험한 적이 있는 환자의 섬망 상태인 학습용 생체신호 데이터(650) 및 섬망을 경험한 적이 있는 환자의 비섬망 상태인 학습용 생체신호 데이터(660)로 구성된다.
섬망을 경험한 적이 없는 환자로부터 수집된 학습용 생체신호 데이터(640)는 필연적으로 모두 비섬망 상태이다.
섬망 판별 모델의 제1 분류 방법(상태 기반)에서는 프로세서(110)가 섬망 판별 모델의 학습에 적합한 학습용 생체신호 데이터를 획득하면(610), 제1 분류 방법에 적합하게 학습용 생체신호 데이터를 선택하고(620), 학습용 생체신호 데이터를 섬망 상태와 비섬망 상태로 분류하는(630) 분류 방법이다.
전술한 바와 같이, 제1 분류 방법(상태 기반)에서는 프로세서(110)가 학습에 적합한 모든 학습용 생체신호 데이터를 학습용 데이터로 선택한다(620). 다만, 도 6에서는 선택된 데이터(620)를 섬망 판별 결과의 분류 방식에 맞추어 구분하여 나타냈을 뿐이다.
도 7은 섬망 판별 모델의 제2 분류 방법의 예시를 나타낸 도면이다.
도 7을 참조하면, 각 환자들로부터 수집된 데이터는 섬망을 경험한 적이 없는 환자로부터 수집된 학습용 생체신호 데이터(740), 섬망을 경험한 적이 있는 환자의 섬망 상태인 학습용 생체신호 데이터(750) 및 섬망을 경험한 적이 있는 환자의 비섬망 상태인 학습용 생체신호 데이터(760)로 구성된다.
섬망을 경험한 적이 없는 환자로부터 수집된 학습용 생체신호 데이터(740)는 필연적으로 모두 비섬망 상태이다.
섬망 판별 모델의 제2 분류 방법(환자 기반)에서는 프로세서(110)가 섬망 판별 모델의 학습에 적합한 학습용 생체신호 데이터를 획득하면(710), 제2 분류 방법에 적합하게 학습용 생체신호 데이터를 선택하고(720), 학습용 생체신호 데이터를 섬망을 경험한 적이 있는 환자와 섬망을 경험한 적이 없는 환자로 분류하는(730) 분류 방법이다.
전술한 바와 같이, 제2 분류 방법(환자 기반)에서는 프로세서(110)가 학습에 적합한 모든 학습용 생체신호 데이터를 학습용 데이터로 선택한다(720). 다만, 도 7에서는 선택된 데이터(720)를 섬망 판별 결과의 분류 방식에 맞추어 구분하여 나타냈을 뿐이다.
도 8은 섬망 판별 모델의 제3 분류 방법의 예시를 나타낸 도면이다.
도 8을 참조하면, 각 환자들로부터 수집된 데이터는 섬망을 경험한 적이 없는 환자로부터 수집된 학습용 생체신호 데이터(840), 섬망을 경험한 적이 있는 환자의 섬망 상태인 학습용 생체신호 데이터(850) 및 섬망을 경험한 적이 있는 환자의 비섬망 상태인 학습용 생체신호 데이터(860)로 구성된다.
섬망을 경험한 적이 없는 환자로부터 수집된 학습용 생체신호 데이터(840)는 필연적으로 모두 비섬망 상태이다.
섬망 판별 모델의 제3 분류 방법(환자-상태 기반)에서는 프로세서(110)가 섬망 판별 모델의 학습에 적합한 학습용 생체신호 데이터를 획득하면(810), 제1 분류 방법에 적합하게 학습용 생체신호 데이터를 선택하고(820), 학습용 생체신호 데이터를 섬망 상태와 비섬망 상태로 분류하는(830) 분류 방법이다.
전술한 바와 같이, 제3 분류 방법(환자-상태 기반)에서는 프로세서(110)가 학습에 적합한 학습용 생체신호 데이터 중에서 섬망을 경험한 적이 있는 환자의 비섬망 상태에 상응하는 학습용 생체신호 데이터(860)를 제외한 데이터를 학습용 데이터로 선택한다(820). 다만, 도 8에서는 선택된 데이터(820)를 섬망 판별 결과의 분류 방식에 맞추어 구분하여 나타냈을 뿐이다.
전술한 바와 같이, 섬망을 경험한 적이 있는 환자의 비섬망 상태에 상응하는 학습용 생체신호 데이터를 학습용 데이터에서 제외하여 섬망 판별 모델을 학습함으로써, 섬망 상태와 비섬망 상태를 더욱 명확히 구분할 수 있다.
도 9는 도 2에 도시된 섬망 여부에 대한 판별 결과를 출력하는 단계(S213)의 일 예를 나타낸 동작 흐름도이다.
도 9를 참조하면, 섬망 판별 장치(100)의 프로세서(110)는 분류용 생체신호 데이터의 섬망 판별 결과가 섬망인지를 판단한다(S901).
구체적으로, 섬망 판별 결과는 섬망 판별 모델의 분류 방식이 제1 분류 방식(상태 기반)인 경우에는 판별 결과가 현재 섬망 상태인지(혹은 섬망 상태에 빠지기 직전인지) 여부이고, 제2 분류 방식(환자 기반)인 경우에는 판별 결과가 환자가 섬망을 경험한 적이 있는지(혹은 섬망을 경험할 가능성이 높은지) 여부이며, 제3 분류 방식(환자-상태 기반)인 경우에는 판별 결과가 현재 섬망 상태인지(혹은 섬망 상태에 빠지기 직전인지) 여부이다.
단계(S901)의 판단 결과 섬망 판별 결과가 섬망인 경우, 섬망 판별 장치(100)의 프로세서(110)는 출력부(160)를 통해 섬망 상태를 나타내는 결과 출력 및 섬망 경고 알림을 제공한다(S903).
섬망 상태를 나타내는 결과는 해당 환자가 현재 섬망 상태라는(혹은 섬망 상태에 빠지기 직전) 정보 또는 해당 환자가 섬망을 경험한 적이 있는 환자(혹은 섬망을 경험할 가능성이 높은 환자)라는 정보를 포함할 수 있다.
예컨대, 섬망 판별을 위하여 이용한 섬망 판별 모델의 분류 방법이 제1 분류 방법(상태 기반) 또는 제3 분류 방법(환자-상태 기반)인 경우에는, 섬망 상태를 나타내는 결과는 해당 환자가 현재 섬망 상태라는(혹은 섬망 상태에 빠지기 직전) 정보를 포함할 수 있다.
또한, 섬망 판별을 위하여 이용한 섬망 판별 모델의 분류 방법이 제2 분류 방법(환자 기반)인 경우에는, 섬망 상태를 나타내는 결과는 해당 환자가 섬망을 경험한 적이 있는 환자(혹은 섬망을 경험할 가능성이 높은 환자)라는 정보를 포함할 수 있다.
섬망 판별 장치(100)의 출력부(160)가 제공하는 섬망 경고 알림은 의료인(의사 또는 간호사 등)가 해당 환자에 대한 섬망 상태를 나타내는 결과를 확인하게 알리는 화상 알림, 소리 알림 또는 진동 알림 중에서 적어도 하나 이상의 방법으로 제공될 수 있다.
섬망 판별 장치(100)의 프로세서(110) 혹은 출력부(160)는 통신부(140)를 통해 의료인(의사 또는 간호사 등)의 단말기에 섬망 상태를 나타내는 결과 또는 섬망 경고 알림 중에서 적어도 하나 이상을 출력할 수 있다.
또한, 섬망 판별 장치(100)의 프로세서(110) 혹은 출력부(160)는 의료인의 단말기와 섬망 판별 장치(100)의 출력부(160)에 섬망 상태를 나타내는 결과 또는 섬망 경고 알림 중에서 적어도 하나 이상을 동시에 출력할 수 있다.
단계(S901)의 판단 결과 섬망 판별 결과가 섬망이 아닌 경우, 섬망 판별 장치(100)의 프로세서(110)는 출력부(160)를 통해 비섬망 상태를 나타내는 결과 출력한다(S905).
비섬망 상태를 나타내는 결과는 해당 환자가 현재 비섬망 상태라는(혹은 섬망 상태에 빠지기 직전이 아니라는) 정보 또는 해당 환자가 섬망을 경험한 적이 없는 환자(혹은 섬망을 경험할 가능성이 낮은 환자)라는 정보를 포함할 수 있다.
예컨대, 섬망 판별을 위하여 이용한 섬망 판별 모델의 분류 방법이 제1 분류 방법(상태 기반) 또는 제3 분류 방법(환자-상태 기반)인 경우에는, 비섬망 상태를 나타내는 결과는 해당 환자가 현재 비섬망 상태라는(혹은 섬망 상태에 빠지기 직전이 아니라는) 정보를 포함할 수 있다.
또한, 섬망 판별을 위하여 이용한 섬망 판별 모델의 분류 방법이 제2 분류 방법(환자 기반)인 경우에는, 비섬망 상태를 나타내는 결과는 해당 환자가 섬망을 경험한 적이 없는 환자(혹은 섬망을 경험할 가능성이 낮은 환자)라는 정보를 포함할 수 있다.
섬망 판별 장치(100)의 프로세서(110) 혹은 출력부(160)는 통신부(140)를 통해 의료인(의사 또는 간호사 등)의 단말기에 비섬망 상태를 나타내는 결과를 출력할 수 있다.
또한, 섬망 판별 장치(100)의 프로세서(110) 혹은 출력부(160)는 의료인의 단말기와 섬망 판별 장치(100)의 출력부(160)에 비섬망 상태를 나타내는 결과를 동시에 출력할 수 있다.
도 10은 본 발명의 일 실시 예에 따른 섬망 판별 방법을 나타낸 동작 흐름도이다.
도 10을 참조하면, 섬망 판별 장치(100)의 프로세서(110)는 입력부(120)를 통해 섬망 판별 모델의 학습을 위한 학습용 생체신호 데이터를 획득한다(S1001).
섬망 판별 장치(100)의 프로세서(110)는 획득한 학습용 생체신호 데이터에 대해서 학습에 부적합한 데이터를 필터링한다(S1003).
섬망 판별 장치(100)의 프로세서(110)는 학습용 생체신호 데이터에서 특징점을 추출한다(S1005).
섬망 판별 장치(100)의 러닝 프로세서(150)는 추출된 특징점과 섬망 상태 정보를 이용하여 지도학습을 통한 섬망 판별 모델을 학습한다(S1007).
섬망 판별 장치(100)의 프로세서(110)는 입력부(120)를 통해 판별의 대상이 되는 분류용 생체신호 데이터를 획득한다(S1009).
섬망 판별 장치(100)의 프로세서(110)는 학습된 섬망 판별 모델을 이용하여 분류용 생체신호 데이터의 섬망 여부를 판별한다(S1011).
섬망 판별 장치(100)의 프로세서(110)는 출력부(160)를 통해 섬망 여부에 대한 판별 결과를 출력한다(S1013).
섬망 판별 장치(100)의 프로세서(110)는 입력부(120)를 통해 판별 결과에 대한 평가를 획득한다(S1015).
의료인(의사 또는 간호사 등)은 섬망 여부에 대한 판별 결과가 출력되면, 해당 환자에 대하여 섬망 상태를 확인하여 판별 결과에 대한 평가를 피드백하고, 입력부(120)는 판별 결과에 대한 평가를 획득한다.
획득한 판별 결과에 대한 평가는 해당 분류용 생체신호 데이터에 섬망 상태 정보로 포함되어 지도 학습의 라벨로 사용될 수 있다.
판별 결과에 대한 평가가 반영된 분류용 생체신호 데이터는 학습용 생체신호 데이터로 분류될 수 있고, 다시 단계(S1005)로 돌아가 섬망 판별 모델을 학습하는데 이용될 수 있다.
본 발명의 일 실시 예는 크게 섬망 판별 모델을 학습하는 단계들(S1001, S1003, S1005 및 S1007)과 입력 데이터의 섬망 여부를 판별하는 단계들(S1009, S1011 및 S1013)으로 구분할 수 있으며, 섬망 판별 모델을 학습하는 단계들과 섬망 여부를 판별하는 단계들이 반복적으로 수행될 수 있다.
하기 [표 2] 내지 [표 7]은 본 발명의 일 실시 예에 따른 섬망 판별 모델을 이용한 분류용 생체신호 데이터에 대한 섬망 여부 판별 결과의 성능을 나타낸다. 각 표는 다양한 기계 학습 알고리즘으로써 SVM-RBF, Linear SVM, LDA, QDA, ELM-RBF 및 Linear ELM을 사용하여 학습된 섬망 판별 모델들을 비교한다. 그리고, 성능의 지표로서 정확도(Accuracy), 균형화된 정확도(Balanced Accuracy), 민감도(Sensitivity), 특이도(Specificity), 양성 예측도(PPV: Positive Predictive Value), 음성 예측도(NPV: Negative Predictive Value) 등을 이용한다.
SVM-RBF Accuracy Balanced
Accuracy
Sensitivity Specificity PPV NPV
상태 기반 70.23% 69.19% 63.97% 74.41% 62.67% 75.00%
환자 기반 71.37% 69.78% 77.77% 61.78% 75.46% 65.23%
환자-상태 기반 75.76% 75.71% 76.92% 74.51% 76.97% 75.09%
Linear SVM Accuracy Balanced
Accuracy
Sensitivity Specificity PPV NPV
상태 기반 59.77% 61.10% 67.76% 54.44% 49.83% 71.88%
환자 기반 63.63% 62.70% 67.38% 58.02% 70.79% 55.42%
환자-상태 기반 64.67% 64.77% 62.41% 67.13% 67.70% 62.50%
LDA Accuracy Balanced
Accuracy
Sensitivity Specificity PPV NPV
상태 기반 59.37% 53.38% 23.44% 83.32% 48.41% 62.03%
환자 기반 64.63% 59.58% 84.86% 34.29% 65.99% 60.73%
환자-상태 기반 64.51% 64.49% 65.03% 63.96% 66.50% 63.03%
QDA Accuracy Balanced
Accuracy
Sensitivity Specificity PPV NPV
상태 기반 48.01% 53.24% 78.19% 27.88% 43.76% 67.19%
환자 기반 57.34% 58.69% 52.03% 65.36% 70.22% 48.54%
환자-상태 기반 62.36% 62.98% 59.75% 65.23% 65.68% 60.03%
ELM-RBF Accuracy Balanced
Accuracy
Sensitivity Specificity PPV NPV
상태 기반 61.05% 57.58% 39.65% 75.31% 51.81% 65.22%
환자 기반 57.38% 59.65% 48.30% 71.00% 71.58% 47.88%
환자-상태 기반 61.36% 62.12% 44.67% 79.58% 70.99% 56.94%
Linear ELM Accuracy Balanced
Accuracy
Sensitivity Specificity PPV NPV
상태 기반 61.08% 55.39% 26.92% 83.86% 52.86% 63.29%
환자 기반 62.28% 57.46% 81.54% 33.38% 64.82% 54.95%
환자-상태 기반 63.71% 63.66% 65.11% 62.21% 65.37% 62.48%
상기 [표 2] 내지 [표 7]을 비교하면, 섬망 판별 모델을 기계 학습 알고리즘 중에서 SVM-RBF을 이용하여 학습하였을 경우에 성능이 가장 좋았으며, 그 중에서도 특히 분류 방법으로써 환자-상태 기반의 분류 방법을 이용하였을 때 성능이 가장 좋았다.SVM-RBF을 이용하여 환자-상태 기반의 분류 방법으로 섬망 판별 모델을 학습하였을 경우에 섬망 상태와 비섬망 상태를 75% 이상의 정확도로 분류하였다. 즉, 본 발명의 일 실시 예에 따르면 환자의 생체신호만을 수집하는 것으로도 훈련된 의료인 없이 75% 이상의 정확도로 섬망 상태와 비섬망 상태를 구분할 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 상기 컴퓨터는 단말기의 프로세서(110)를 포함할 수도 있다.
상기와 같이 설명된 섬망 판별 장치는 상기 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.

Claims (12)

  1. 섬망 판별 장치에 있어서,
    섬망 판별의 대상이 되는 입력 생체신호 데이터를 획득하는 입력부;
    섬망 판별 모델을 이용하여 상기 입력 생체신호 데이터에 상응하는 섬망 정보를 판별하는 프로세서; 및
    상기 판별된 섬망 정보를 출력하는 출력부
    를 포함하고,
    상기 섬망 판별 모델은
    기계 학습을 기반으로, 복수의 환자들로부터 수집된 생체신호와 상기 각 생체신호에 상응하는 섬망 상태 정보로 구성된 학습용 생체신호 데이터 중에서 학습에 적합한 데이터를 이용하여 학습된 뉴럴 네트워크(neural network)인, 섬망 판별 장치.
  2. 청구항 1에 있어서,
    상기 판별된 섬망 정보는
    상기 입력 생체신호 데이터에 상응하는 대상 환자가 섬망을 경험한 적이 있는지 여부, 상기 대상 환자가 섬망을 경험할 가능성이 높은지 여부의 분류, 상기 대상 환자가 상기 입력 생체신호 데이터의 수집 시점에 섬망 상태인지 여부 또는 상기 대상 환자가 섬망 상태에 빠지기 직전인지 여부의 분류 중에서 적어도 하나 이상을 포함하는, 섬망 판별 장치.
  3. 청구항 1에 있어서,
    상기 섬망 판별 모델은
    지도 학습(supervised learning)을 통해, 상기 학습용 생체신호 데이터에 포함된 생체신호에서 추출된 특징점(feature)을 입력 데이터로 이용하고, 상기 학습용 생체신호 데이터에 포함된 섬망 상태 정보를 라벨로 이용하여 학습된 뉴럴 네트워크인, 섬망 판별 장치.
  4. 청구항 3에 있어서,
    상기 학습용 생체신호 데이터와 상기 입력 생체신호 데이터는
    생체신호로서 심전도 신호 또는 광전용전맥파 중에서 적어도 하나 이상을 포함하고,
    상기 특징점은
    상기 생체신호의 피크 사이의 간격을 이용하여 산출된 하나 이상의 심박 변이도(HRV: Heart Rate Variablity) 지표를 포함하는, 섬망 판별 장치.
  5. 청구항 1에 있어서,
    상기 섬망 판별 모델은
    분류 방법에 따라 다르게 학습되고, 상기 분류 방법에 상응하는 섬망 정보를 판별하는, 섬망 판별 장치.
  6. 청구항 5에 있어서,
    상기 섬망 판별 모델은
    제1 분류 방법에 따르는 경우, 상기 학습용 생체신호 데이터에 대하여 섬망 상태와 비섬망 상태로 구분하여 학습되고, 상기 입력 생체신호 데이터의 수집 시점에 대상 환자가 섬망 상태인지 여부 또는 섬망 상태에 빠지기 직전인지 여부를 분류하는 모델이며;
    제2 분류 방법에 따르는 경우, 상기 학습용 생체신호 데이터에 대하여 섬망을 경험한 적이 있는 환자와 섬망을 경험한 적이 없는 환자로 구분하여 학습되고, 상기 입력 생체신호 데이터의 수집 시점에 상기 대상 환자가 섬망을 경험한 적이 있는지 여부 또는 섬망을 경험할 가능성이 높은지 여부를 분류하는 모델이며;
    제3 분류 방법에 따르는 경우, 상기 학습용 생체신호 데이터에 대하여 섬망을 경험한 적이 있는 환자의 섬망 상태와 섬망을 경험한 적이 없는 환자의 비섬망 상태로 구분하여 학습되고, 상기 입력 생체신호 데이터의 수집 시점에 상기 대상 환자가 섬망 상태인지 여부 또는 섬망 상태에 빠지기 직전인지 여부를 분류하는 모델인, 섬망 판별 장치.
  7. 청구항 6에 있어서,
    상기 프로세서는
    상기 제1 분류 방법에 따른 제1 섬망 판별 모델, 상기 제2 분류 방법에 따른 제2 섬망 판별 모델 또는 상기 제3 분류 방법에 따른 제3 섬망 판별 모델 중에서 적어도 하나 이상으로 구성된 섬망 판별 모델 세트를 이용하고, 상기 섬망 판별 모델 세트에 포함된 섬망 판별 모델들 각각을 이용하여 상기 입력 생체신호 데이터에 상응하는 섬망 정보를 판별하는, 섬망 판별 장치.
  8. 청구항 1에 있어서,
    상기 섬망 판별 모델은
    상기 기계 학습 알고리즘으로써 RBF 커널-서포트 벡터 머신(SVM-RBF: Support Vector Machine with RBF kernel)을 이용하여 학습되는 뉴럴 네트워크인, 섬망 판별 장치.
  9. 청구항 1에 있어서,
    상기 입력부는
    상기 판별된 섬망 정보에 상응하는 평가 정보를 획득하고,
    상기 프로세서는
    상기 섬망 판별 모델을 업데이트하는데 이용할 수 있도록 상기 입력 생체신호 데이터와 상기 평가 정보를 새로운 학습용 생체신호 데이터로 구성하는, 섬망 판별 장치.
  10. 청구항 1에 있어서,
    상기 학습에 적합한 데이터는
    상기 학습용 생체신호 데이터 중에서, 생체신호의 품질이 나쁜 데이터, 강한 진정제를 투약한 환자로부터 수집된 데이터 또는 생체신호의 수집 기간이 기설정된 기간보다 짧은 환자로부터 수집된 데이터 중에서 적어도 하나 이상이 학습에 부적합한 데이터로 판단되어 필터링되고 잔존한 데이터인, 섬망 판별 장치.
  11. 복수의 환자들로부터 수집된 생체신호와 상기 각 생체신호에 상응하는 섬망 상태 정보로 구성된 학습용 생체신호 데이터를 획득하는 단계;
    기계 학습을 기반으로, 상기 학습용 생체신호 데이터 중에서 학습에 적합한 데이터를 이용하여 섬망 판별 모델을 학습하는 단계;
    섬망 판별의 대상이 되는 입력 생체신호 데이터를 획득하는 단계;
    상기 섬망 판별 모델을 이용하여 상기 입력 생체신호 데이터에 상응하는 섬망 정보를 판별하는 단계; 및
    상기 판별된 섬망 정보를 출력하는 단계
    를 포함하는, 섬망 판별 방법.
  12. 섬망 판별 방법을 수행하기 위한 프로그램이 기록된 기록 매체에 있어서,
    상기 섬망 판별 방법은
    복수의 환자들로부터 수집된 생체신호와 상기 각 생체신호에 상응하는 섬망 상태 정보로 구성된 학습용 생체신호 데이터를 획득하는 단계;
    기계 학습을 기반으로, 상기 학습용 생체신호 데이터 중에서 학습에 적합한 데이터를 이용하여 섬망 판별 모델을 학습하는 단계;
    섬망 판별의 대상이 되는 입력 생체신호 데이터를 획득하는 단계;
    상기 섬망 판별 모델을 이용하여 상기 입력 생체신호 데이터에 상응하는 섬망 정보를 판별하는 단계; 및
    상기 판별된 섬망 정보를 출력하는 단계
    를 포함하는, 기록 매체.
KR1020190001409A 2018-01-05 2019-01-04 섬망 판별 장치 및 그 방법 KR20190083998A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201862613782P 2018-01-05 2018-01-05
US62/613,782 2018-01-05

Publications (1)

Publication Number Publication Date
KR20190083998A true KR20190083998A (ko) 2019-07-15

Family

ID=67257648

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190001409A KR20190083998A (ko) 2018-01-05 2019-01-04 섬망 판별 장치 및 그 방법

Country Status (1)

Country Link
KR (1) KR20190083998A (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210039577A (ko) * 2019-10-02 2021-04-12 계명대학교 산학협력단 요양병원 대상자를 위한 섬망 예방 시스템 및 그 방법
WO2021235849A1 (ko) * 2020-05-20 2021-11-25 계명대학교 산학협력단 요양 병원 관계자용 섬망 중재 모바일 장치 및 섬망 중재 시스템
WO2022124862A1 (ko) * 2020-12-10 2022-06-16 가톨릭대학교 산학협력단 섬망 발생 여부 판단 장치 및 이를 이용한 섬망 발생 여부 판단 방법
KR102431205B1 (ko) * 2022-01-14 2022-08-11 루먼랩 주식회사 학습 데이터 생성 장치 및 인공지능 데이터 학습이 적용된 증상 진단 시스템
WO2023243873A1 (ko) * 2022-06-17 2023-12-21 연세대학교 산학협력단 섬망 발생 예측 방법 및 이를 이용한 섬망 발생 예측용 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120139908A (ko) 2011-06-20 2012-12-28 가톨릭대학교 산학협력단 섬망 고위험군 예측모형 시스템 및 그 예측모형 방법, 및 그것을 이용한 섬망 고위험군 예측 시스템

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120139908A (ko) 2011-06-20 2012-12-28 가톨릭대학교 산학협력단 섬망 고위험군 예측모형 시스템 및 그 예측모형 방법, 및 그것을 이용한 섬망 고위험군 예측 시스템

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210039577A (ko) * 2019-10-02 2021-04-12 계명대학교 산학협력단 요양병원 대상자를 위한 섬망 예방 시스템 및 그 방법
WO2021235849A1 (ko) * 2020-05-20 2021-11-25 계명대학교 산학협력단 요양 병원 관계자용 섬망 중재 모바일 장치 및 섬망 중재 시스템
KR20210143592A (ko) * 2020-05-20 2021-11-29 계명대학교 산학협력단 요양병원 관계자용 섬망 중재 모바일 장치 및 섬망 중재 시스템
WO2022124862A1 (ko) * 2020-12-10 2022-06-16 가톨릭대학교 산학협력단 섬망 발생 여부 판단 장치 및 이를 이용한 섬망 발생 여부 판단 방법
KR20220082623A (ko) * 2020-12-10 2022-06-17 가톨릭대학교 산학협력단 섬망 발생 여부 판단 장치 및 이를 이용한 섬망 발생 여부 판단 방법
KR20230044999A (ko) * 2020-12-10 2023-04-04 가톨릭대학교 산학협력단 뇌파 측정 위치에 기초한 섬망 발생 가능성 산출 장치 및 방법
KR102431205B1 (ko) * 2022-01-14 2022-08-11 루먼랩 주식회사 학습 데이터 생성 장치 및 인공지능 데이터 학습이 적용된 증상 진단 시스템
WO2023243873A1 (ko) * 2022-06-17 2023-12-21 연세대학교 산학협력단 섬망 발생 예측 방법 및 이를 이용한 섬망 발생 예측용 장치

Similar Documents

Publication Publication Date Title
KR20190083998A (ko) 섬망 판별 장치 및 그 방법
Al Nahian et al. Towards artificial intelligence driven emotion aware fall monitoring framework suitable for elderly people with neurological disorder
CN109069081B (zh) 用于预测、筛查和监测脑病/谵妄的设备、***和方法
US9861308B2 (en) Method and system for monitoring stress conditions
KR102129730B1 (ko) 인공지능 기반의 환자상태 예측 장치 및 이를 이용한 환자상태 예측 방법
Billis et al. A decision-support framework for promoting independent living and ageing well
Yahaya et al. Towards a data-driven adaptive anomaly detection system for human activity
Somanchi et al. Early prediction of cardiac arrest (code blue) using electronic medical records
KR102053604B1 (ko) 수면 분석 방법 및 이를 이용한 수면 분석 디바이스
Ganesh et al. SVM-based Predictive Modeling of Drowsiness in Hospital Staff for Occupational Safety Solution via IoT Infrastructure
Karayiannis et al. Detection of pseudosinusoidal epileptic seizure segments in the neonatal EEG by cascading a rule-based algorithm with a neural network
Tartarisco et al. Neuro-fuzzy physiological computing to assess stress levels in virtual reality therapy
Kavitha et al. A Novel Method of Identification of Delirium in Patients from Electronic Health Records Using Machine Learning
JP2024513618A (ja) 感染症及び敗血症の個別化された予測のための方法及びシステム
Archana et al. Stress detection using machine learning algorithms
De Graaf et al. A decision-driven design of a decision support system in anesthesia
Iram et al. A classifier fusion strategy to improve the early detection of neurodegenerative diseases
Lim et al. Developing a mobile wellness management system for healthy lifestyle by analyzing daily living activities
Hadhri et al. A voting ensemble classifier for stress detection
Manivannan et al. Health monitoring system for diabetic patients
Yafi et al. Integrated empowered AI and IoT approach for heart prediction
Alimoradi et al. Intelligence complements from the built environment: A review of smart building technologies for cognitively declined occupants
Hota et al. Stress Detection Using Physiological Signals Based On Machine Learning
Naved et al. Adaptive notifications generation for smartphone users based on their physical activities
Limbani et al. WEARS: Wearable Emotion AI with Real-time Sensor data

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X601 Decision of rejection after re-examination