KR100911725B1 - 언어청정로봇 - Google Patents

언어청정로봇 Download PDF

Info

Publication number
KR100911725B1
KR100911725B1 KR1020070080217A KR20070080217A KR100911725B1 KR 100911725 B1 KR100911725 B1 KR 100911725B1 KR 1020070080217 A KR1020070080217 A KR 1020070080217A KR 20070080217 A KR20070080217 A KR 20070080217A KR 100911725 B1 KR100911725 B1 KR 100911725B1
Authority
KR
South Korea
Prior art keywords
slang
signal
interaction
language
sound
Prior art date
Application number
KR1020070080217A
Other languages
English (en)
Other versions
KR20090015678A (ko
Inventor
김명석
곽소나
김은호
김지명
곽윤근
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020070080217A priority Critical patent/KR100911725B1/ko
Publication of KR20090015678A publication Critical patent/KR20090015678A/ko
Application granted granted Critical
Publication of KR100911725B1 publication Critical patent/KR100911725B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Toys (AREA)

Abstract

본 발명에 따른 언어청정로봇은, 음성 인식기에 의해 인식되어진 음성을 비속어 테이블과 비교하여 "테이블 비속어 신호"와 "테이블 비속어 아님 신호"로 구분하여 출력하는 비속어 테이블기; "테이블 비속어 아님 신호"를 입력받아 음성 내의 장애음의 비율이 소정치 이상이면 "장애음 비속어 신호"를 출력하고 그 미만이면 "장애음 비속어 아님 신호"를 출력하는 장애음 비속어 검출기; "장애음 비속어 신호", "장애음 비속어 아님 신호", 및 "테이블 비속어 신호"를 입력받아 "장애음 비속어 신호" 및 "테이블 비속어 신호"의 입력횟수가 누적됨에 따라 강한 인터렉션 신호를 출력하고, "장애음 비속어 아님 신호"가 누적됨에 따라 약한 인터렉션 신호를 출력하는 인터렉션부; 및 인터렉션 신호의 강도에 따른 감성을 사용자에게 시각, 청각, 또는 촉각적으로 알려주는 출력부;를 구비한다. 본 발명에 의하면, 언어를 습득하는 시기에 비속어를 무분별하게 습관적으로 사용하는 아동들에게 로봇과 인터렉션을 통하여, 로봇의 부정적(멍) 또는 긍적적인 반응을 통하여 아동들의 비속어 사용이 사람에게 상처를 주는 말인지를 인지하게 함으로써 비속어 사용을 줄이게 할 수 있다. 기타 사용자의 언어순화에도 도움을 준다.
언어청정로봇, 인터렉션, 장애음, 비속어 테이블, 멍

Description

언어청정로봇 {A language purifier robot}
도 1 내지 도 3은 본 발명에 따른 언어청정로봇의 외형을 설명하기 위한 도면들;
도 4는 본 발명에 따른 언어청정로봇의 전체적인 블록도;
도 5는 도 4의 인식부(100)를 설명하기 위한 블록도;
도 6은 도 4의 인터렉션부(200)를 설명하기 위한 블록도;
도 7은 도 4의 출력부(300)를 설명하기 위한 블록도이다.
<도면의 주요부분에 대한 참조번호의 설명>
100: 인식부 101: 음성인식기
102: 비속어 테이블기 103: 장애음 비속어 검출기
200: 인터렉션부 201: 빈도, 확률저장기
202: 1자유도 감쇠 진동 모델기
203: 장애음 비속어 저장수단
300: 출력부 301: LED
302: 진동모터 303: 스피커
본 발명은 언어청정로봇에 관한 것으로서, 특히 "맞으면 멍이 든다." 라는 인터랙션 컨셉으로 비속어나 욕 등의 부적절한 언어에 대해 감성적으로 상처를 받아 멍이 드는 언어청정로봇에 관한 것이다.
언어청정로봇은 사용자의 언어를 순화시키기 위한 것으로, 특히 부적절한 언어를 습관적으로 습득하고 사용하게 되는 아동들을 위해서 초등학교 또는 가정이나, 언쟁이 높아지는 국회 등의 토론 장소, 바른말 사용과 관련된 오락 프로그램 등에 사용될 수 있다.
언어청정로봇에는 비속어 인식기술이 핵심적으로 포함되어야 하는데, 종래의 비속어 인식기술은 음성인식을 통하여 미리 저장된 비속어 테이블과 비교를 통하여 비속어 검출을 수행하였다. 그러나 이러한 종래의 방법은 모든 비속어를 미리 비속어 테이블에 저장해야 하는 문제점을 가지고 있으며 비속어 테이블에 저장되지 않은 비속어는 인식하지 못하는 한계점을 가지고 있다.
사람들은 물리적으로 맞아서 육체적인 멍이 들기도 하지만, 말에 의해 정신적인 멍이 드는 경우가 많다. 기존에 로봇의 감정 표현에 관련된 다양한 연구들이 있었으나 이들은 대부분 LED를 통한 로봇의 얼굴 표정이나 눈, 눈썹, 입 모양 등의 움직임을 통한 로봇의 얼굴 표정, 로봇의 음성 등이 주를 이룬다.
일본의 유명한 로봇 공학자인 마사히로 모리가 1970년에 발표한 그의 논문에 서 소개한 "불쾌한 골짜기(Uncanny Valley)"를 통해 알 수 있듯이, 기존의 사람의 얼굴 표정이나 음성을 모방한 로봇의 감정 표현은 사용자들의 기대치를 높이게 되고, 이에 따라 로봇이 제공하는 인터랙션이 기대치에 도달하지 못할 때에는 사용자들의 로봇에 대한 만족도가 저하될 수 있다.
칸다(T. Kanda)의 연구에서는 로봇이 먼저 사람에게 말을 걸어 인터랙션이 시작되는 활동적인(active) 로봇의 인터랙션보다, 사람이 먼저 로봇에게 말을 걸어 인터랙션이 시작되는 즉 수동적인(passive) 로봇의 인터랙션이 선호됨이 밝혀졌다.
따라서 본 발명이 이루고자 하는 기술적 과제는, 비속어 테이블에 저장되어 있지 않은 비속어도 검출가능하여 비속어 테이블을 업데이트 시킬 수 있으며, 비속어에 대하여 얼굴 표정을 통한 적극적인 감정 표현이 아닌, 로봇의 피부에 멍이 드는 수동적인 감정 표현을 통해 사용자에게 보다 신선하고 감성적으로 호소할 수 있는 언어청정로봇을 제공하는 데 있다.
상기 기술적 과제를 달성하기 위한 본 발명에 따른 언어청정로봇은, 사용자의 음성을 인식하는 음성인식기; 상기 음성 인식기에 의해 인식되어진 음성을 비속어 테이블과 비교하여 "테이블 비속어 신호"와 "테이블 비속어 아님 신호"로 구분하여 출력하는 비속어 테이블기; 상기 "테이블 비속어 아님 신호"를 입력받아 상기 음성 내의 장애음의 비율이 소정치 이상이면 "장애음 비속어 신호"를 출력하고 그 미만이면 "장애음 비속어 아님 신호"를 출력하는 장애음 비속어 검출기; 상기 "장애음 비속어 신호", "장애음 비속어 아님 신호", 및 "테이블 비속어 신호"를 입력받아 상기 "장애음 비속어 신호" 및 "테이블 비속어 신호"의 입력횟수가 누적됨에 따라 강한 인터렉션 신호를 출력하고, 상기 "장애음 비속어 아님 신호"가 누적됨에 따라 약한 인터렉션 신호를 출력하는 인터렉션부; 및 상기 인터렉션 신호의 강도에 따른 감성을 사용자에게 시각, 청각, 또는 촉각적으로 알려주는 출력부;를 구비하는 것을 특징으로 한다.
상기 출력부는 상기 인터렉션 신호의 강도가 강할수록 부정적인 감성신호를 출력하는 것이 바람직하다.
본 발명에 있어서, 상기 인터렉션부는 상기 "장애음 비속어 신호", "장애음 비속어 아님 신호", 및 "테이블 비속어 신호"의 빈도와 확률값을 파라미터로하여 1자유도 감쇠진동모델에 의해 모델링된 시간에 따른 인터렉션 신호를 출력하는 것을 특징으로 한다.
상기 출력부는 LED를 포함하여 이루어질 수 있으며, 이 경우 상기 LED는 상기 인터렉션 신호의 강도에 따라 빛의 색깔 및 밝기를 통하여 다양한 느낌의 멍, 혈색, 또는 눈빛을 표현하도록 설치된다.
상기 출력부가 진동모터와 스피커를 포함하여 이루어질 수 있으며, 이 경우 상기 진동모터와 상기 스피커는 상기 인터렉션 신호의 강도에 따라 다양한 진동과 소리를 출력하여 로봇의 감정상태를 표현한다.
상기 인터렉션부는 상기 장애음 비속어 신호에 해당하는 음성을 저장하였다가 이를 주기적으로 상기 비속어 테이블기의 비속어 테이블에 업로드하는 것이 바람직하다.
이하에서, 본 발명의 바람직한 실시예를 첨부한 도면들을 참조하여 상세히 설명한다. 종래기술과의 반복적인 설명을 피하기 위하여 본 발명의 특징부만 도시한다. 아래의 실시예는 본 발명의 내용을 이해하기 위해 제시된 것일 뿐이며 당 분야에서 통상의 지식을 가진 자라면 본 발명의 기술적 사상 내에서 많은 변형이 가능할 것이다. 따라서, 본 발명의 권리범위가 이러한 실시예에 한정되는 것으로 해석돼서는 안 된다.
도 1은 본 발명에 따른 언어청정로봇의 외형을 설명하기 위한 도면이다. 도 1에 도시된 바와 같이, 왼쪽부터 찐빵 로봇, 도자기 로봇, 계란 로봇 형태 등 다양한 형태가 있을 수 있다. '멍이 든다, 상처를 입는다.' 라는 수동적인 로봇의 특성을 부각시키기 위해 몸과 눈으로만 구성된 심플한 외형이 바람직하며, 재질도 반투명 재질과 금속 재질을 사용하였다.
본 발명에 따른 언어청정로봇은, 크게 멍이 들거나 혈색이 도는 인터랙션을 표현하는 몸통 부분과 언어 인지를 표현하는 눈 부분으로 구성된다. 몸통 부분은 비속어인지 일반 언어인지를 구분하는 비속어 인식 장치를 포함하며, 컬러 LED와 진동모듈을 통해 멍(도2)과 혈색(도3) 등을 표현한다. 눈 부분은 언어를 인식할 때 마다 컬러 LED를 통한 눈 깜박임을 통해 사용자에게 비속어를 인식하고 있는 중임을 알려준다.
도 4는 본 발명에 따른 언어청정로봇의 전체적인 블록도이다. 도 4에 도시된 바와 같이 크게 인식부(100), 인터렉션부(200), 및 출력부(300)를 포함한다.
도 5는 도 4의 인식부(100)를 설명하기 위한 도면이다. 인식부(100)는 음성인식기(101), 비속어 테이블기(102), 및 장애음 비속어 검출기(103)를 포함한다. 사용자의 음성은 음성인식기(101)를 통하여 인식된다. 비속어 테이블기(102)에서는 음성인식기(101)에 의해 인식되는 음성을 비속어 테이블과 비교하여 비속어 테이블에 있는 비속어에 해당되면 "테이블 비속어 신호"를 인터렉션부(200)로 출력하고, 비속어 테이블에 있는 비속어에 해당되지 않으면 "테이블 비속어 아님 신호"를 장애음 비속어 검출기(103)로 출력한다.
"테이블 비속어 아님 신호"를 입력받은 장애음 비속어 검출기(103)는 사용자의 음성 속에 포함된 장애음(Obstruents)을 스펙트럴 센터(Spectral Center)를 이용하여 검출함으로서 음성에 포함된 장애음의 비율을 통하여 비속어를 검출한다. 즉, 장애음의 비율이 소정치 이상이면 "장애음 비속어 신호"를 인터렉션부(200)로 출력하고 그 미만이면 "장애음 비속어 아님 신호"를 인터렉션부(200)로 출력한다.
도 6은 도 4의 인터렉션부(200)를 설명하기 위한 블록도이다. 도 6에 도시된 바와 같이 인터렉션부(200)에서는 비속어 테이블기(102)에서 출력되는 "테이블 비속어 신호"와 장애음 비속어 검출기(103)에서 출력되는 "장애음 비속어 신호"및 "장애음 비속어 아님 신호"를 입력받아 이들의 빈도와 확률값(201)을 저장하고, 이 를 파라미터로하여 1자유도 감쇠진동모델기(202)에 의해 모델링된 인터렉션 신호를 출력부(300)로 출력한다.
1자유도 감쇠 진동 모델은 질량(Mass), 스프링(Spring), 댐퍼 시스템(Damper System)의 과감쇠 케이스(Over-damping case)의 모델로 출력신호의 시간에 따른 감쇠를 적절히 모델링 할 수 있다. 1자유도 감쇠 진동 모델의 파라미터는 빈도와 확률값에 따라 정해지게 된다.
따라서 인터렉션부(200)에서는 비속어의 인지횟수가 누적됨에 따라 강한 인터렉션 신호를 출력하고, 정상적인 언어의 인지횟수가 누적됨에 따라 약한 인터렉션 신호를 출력한다. 이렇게 "장애음 비속어 및 테이블 비속어"와 "정상적인 언어"의 입력에 의해 출력되는 인터렉션 신호의 시간에 따른 강약은 "장애음 비속어 신호", "장애음 비속어 아님 신호", 및 "테이블 비속어 신호"의 빈도와 확률값에 따라 변하게 된다.
인터렉션부(200)는 장애음 비속어 검출기(103)에 의해 "장애음 비속어"로 판단된 음성을 장애음 비속어 저장수단(203)에 저장하였다가 주기적으로 비속어 테이블기(102)의 비속어 테이블에 업로드하여 비속어 테이블기(102)를 업데이트 시킨다.
도 7은 도 4의 출력부(300)를 설명하기 위한 블록도이다. 출력부(300)는 인터렉션부(200)에서 출력되는 인터렉션 신호의 강도에 따른 감정상태를 LED(301), 진동모터(302), 스피커(303)를 통하여 사용자에게 시각, 촉각, 또는 청각을 통하여 감성적으로 알려준다. 출력부(300)는 상기 인터렉션 신호의 강도가 강할수록 예컨 대 멍의 부위가 커지거나 멍의 색깔이 짙어지는 등의 부정적인 감성신호를 출력한다.
LED(301)는 3색을 이용하여 다양한 종류의 멍, 혈색, 눈빛 등을 표현하며, 인터렉션 신호의 강도에 따라 빛의 종류 및 밝기를 통하여 다양한 느낌의 멍, 혈색, 또는 눈빛을 표현하도록 설치된다. 진동모터(302)와 스피커(303)는 인터렉션 신호의 강도에 따라 다양한 진동과 소리를 출력하여 로봇의 감정상태를 표현함으로써 사용자에게 긍정적 또는 부정적인 피드백을 제공한다.
언어를 습득하는 시기의 아동들은 비속어가 나쁜 것인지, 사람에게 상처를 주는 것인지를 인지하지 못하고 습관적으로 비속어를 사용하게 되는데, 본 발명에 의하면, 이러한 아동들에게 로봇과 인터렉션을 통하여, 로봇의 부정적(멍) 또는 긍적적인 반응을 통하여 아동들의 비속어 사용이 사람에게 상처를 주는 말인지를 인지하게 함으로써 비속어 사용을 줄이게 할 수 있다. 기타 사용자의 언어순화에도 도움을 준다.

Claims (6)

  1. 사용자의 음성을 인식하는 음성인식기;
    상기 음성 인식기에 의해 인식되어진 음성을 비속어 테이블과 비교하여 "테이블 비속어 신호"와 "테이블 비속어 아님 신호"로 구분하여 출력하는 비속어 테이블기;
    상기 "테이블 비속어 아님 신호"를 입력받아 상기 음성내의 장애음의 비율이 소정치 이상이면 "장애음 비속어 신호"를 출력하고 그 미만이면 "장애음 비속어 아님 신호"를 출력하는 장애음 비속어 검출기;
    상기 "장애음 비속어 신호", "장애음 비속어 아님 신호", 및 "테이블 비속어 신호"를 입력받아 상기 "장애음 비속어 신호", "장애음 비속어 아님 신호", 및 "테이블 비속어 신호"의 빈도와 확률값을 파라미터로하여 1자유도 감쇠진동모델에 의해 모델링된 시간에 따른 인터렉션 신호를 출력하되, 상기 "장애음 비속어 신호" 및 "테이블 비속어 신호"의 인지횟수가 많이 누적될수록 강한 인터렉션 신호를 출력하고, 상기 "장애음 비속어 아님 신호"가 많이 누적될수록 약한 인터렉션 신호를 출력하는 인터렉션부; 및
    상기 인터렉션 신호의 강도에 따른 감성을 사용자에게 시각, 청각, 또는 촉각적으로 알려주는 출력부;를 구비하는 것을 특징으로 하는 언어청정로봇.
  2. 제1항에 있어서, 상기 출력부는 상기 인터렉션 신호의 강도가 강할수록 부정적인 감성신호를 출력하는 것을 특징으로 하는 언어청정로봇.
  3. 삭제
  4. 제1항에 있어서, 상기 출력부가 LED를 포함하여 이루어지며, 상기 LED는 상기 인터렉션 신호의 강도에 따라 빛의 색깔 및 밝기를 통하여 다양한 느낌의 멍, 혈색, 또는 눈빛을 표현하도록 설치되는 것을 특징으로 하는 언어청정로봇.
  5. 제1항에 있어서, 상기 출력부가 진동모터 및 스피커를 포함하여 이루어지며, 상기 진동모터 및 상기 스피커는 상기 인터렉션 신호의 강도에 따라 다양한 진동 및 소리를 출력하여 로봇의 감정상태를 표현하는 것을 특징으로 하는 언어청정로봇.
  6. 제1항에 있어서, 상기 인터렉션부는 상기 장애음 비속어 신호에 해당하는 음성을 저장하였다가 이를 주기적으로 상기 비속어 테이블기의 비속어 테이블에 업로드하는 것을 특징으로 하는 언어청정로봇.
KR1020070080217A 2007-08-09 2007-08-09 언어청정로봇 KR100911725B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070080217A KR100911725B1 (ko) 2007-08-09 2007-08-09 언어청정로봇

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070080217A KR100911725B1 (ko) 2007-08-09 2007-08-09 언어청정로봇

Publications (2)

Publication Number Publication Date
KR20090015678A KR20090015678A (ko) 2009-02-12
KR100911725B1 true KR100911725B1 (ko) 2009-08-10

Family

ID=40685208

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070080217A KR100911725B1 (ko) 2007-08-09 2007-08-09 언어청정로봇

Country Status (1)

Country Link
KR (1) KR100911725B1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102345409B1 (ko) 2019-08-29 2021-12-30 주식회사 하이퍼커넥트 컨볼루션 뉴럴 네트워크에서 컨볼루션 연산을 가속하는 프로세서 및 프로세서의 동작 방법
KR102315211B1 (ko) * 2019-10-18 2021-10-21 주식회사 하이퍼커넥트 단말기 및 그것의 동작 방법
US11854536B2 (en) 2019-09-06 2023-12-26 Hyperconnect Inc. Keyword spotting apparatus, method, and computer-readable recording medium thereof
CN110751954A (zh) * 2019-10-25 2020-02-04 重庆晋才富熙科技有限公司 基于语音识别和语义识别的课堂教学警示矫正***及方法
KR102353116B1 (ko) 2021-03-10 2022-01-19 이영권 인조잔디용 충진재 조성물

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1326230A1 (en) 2000-10-11 2003-07-09 Sony Corporation Robot control apparatus
KR20070044841A (ko) * 2005-10-26 2007-05-02 삼성전자주식회사 언어교정을 위한 휴대용 단말기 및 방법
KR20070071850A (ko) * 2005-12-30 2007-07-04 브이케이 주식회사 이동통신 단말기의 감성 표현 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1326230A1 (en) 2000-10-11 2003-07-09 Sony Corporation Robot control apparatus
KR20070044841A (ko) * 2005-10-26 2007-05-02 삼성전자주식회사 언어교정을 위한 휴대용 단말기 및 방법
KR20070071850A (ko) * 2005-12-30 2007-07-04 브이케이 주식회사 이동통신 단말기의 감성 표현 방법

Also Published As

Publication number Publication date
KR20090015678A (ko) 2009-02-12

Similar Documents

Publication Publication Date Title
KR100911725B1 (ko) 언어청정로봇
US10311869B2 (en) Method and system for automation of response selection and composition in dialog systems
KR100746526B1 (ko) 대화 프로세싱 장치 및 방법, 및 이를 위한 기록 매체
Nakadai et al. Active audition system and humanoid exterior design
CN114305325A (zh) 一种情绪检测方法和装置
EP4033775A2 (en) Smart mask and smart mask system
US11133020B2 (en) Assistive technology
Applebaum et al. Prosody in a communication system developed without a language model
Pinto Towards a Rewilding of the Ear
Clark That lonesome whistle: a puzzle for the sensorimotor model of perceptual experience
Crivelli Plato’s philosophy of language
US20210090558A1 (en) Controlling a user interface
KR20200133614A (ko) 언어청정 목걸이
JP6977445B2 (ja) 対話装置、対話方法及びプログラム
Ramkumar et al. An analysis on augmentative and assistive technology for the speech disorder people
Wilcox Moving beyond structuralism: Usage-based signed language linguistics
US20230068099A1 (en) Method and system for enhancing the intelligibility of information for a user
Schneider et al. Difficult questions kids ask and are afraid to ask about divorce
US20230305797A1 (en) Audio Output Modification
KR20240074567A (ko) 청각 장애인을 위한 위험 탐지 시스템
US20210090573A1 (en) Controlling a user interface
Stone-Davis Music and Liminal Ethics
Abdurasulov PSYCHOPHYSIOLOGICAL SIGNIFICANCE OF THE PROCESS ON TEXT LISTENING COMPREHENSION
Vallor An enactive-phenomenological approach to veridical perception
Budd The Musical Expression of Emotion: metaphorical-as versus imaginative-as perception

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120730

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20130730

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee