KR20200129278A - 사용자의 음성 데이터를 분석하여 직원을 교육시키는 자가 발전 셀프 코칭 시스템 및 방법 - Google Patents

사용자의 음성 데이터를 분석하여 직원을 교육시키는 자가 발전 셀프 코칭 시스템 및 방법 Download PDF

Info

Publication number
KR20200129278A
KR20200129278A KR1020190053454A KR20190053454A KR20200129278A KR 20200129278 A KR20200129278 A KR 20200129278A KR 1020190053454 A KR1020190053454 A KR 1020190053454A KR 20190053454 A KR20190053454 A KR 20190053454A KR 20200129278 A KR20200129278 A KR 20200129278A
Authority
KR
South Korea
Prior art keywords
employee
language
voice data
information
electronic device
Prior art date
Application number
KR1020190053454A
Other languages
English (en)
Inventor
김영휴
Original Assignee
주식회사 씨크릿우먼
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 씨크릿우먼 filed Critical 주식회사 씨크릿우먼
Priority to KR1020190053454A priority Critical patent/KR20200129278A/ko
Publication of KR20200129278A publication Critical patent/KR20200129278A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Tourism & Hospitality (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

일 실시예에 따른 직무 교육 방법은, 녹취가 시작됨에 따라 근무시간 동안 회사의 매장에 분산되어 있는 직원들로부터 발화되는 음성 데이터를 획득하는 단계; 상기 획득된 음성 데이터를 통하여 직원의 언어 정보를 분석함에 따라 직원의 언어사용 패턴을 판단하는 단계; 상기 판단된 직원의 언어사용 패턴에 기초하여 직원 교육 솔루션을 생성하는 단계; 및 상기 생성된 직원 교육 솔루션을 포함하는 피드백 정보를 직원의 전자 기기로 제공하는 단계를 포함할 수 있다.

Description

사용자의 음성 데이터를 분석하여 직원을 교육시키는 자가 발전 셀프 코칭 시스템 및 방법{SELF-GENERATED SELF COACHING SYSTEM AND METHOD FOR TRAINING EMPLOYEE BY ANALYZING VOICE DATA FROM USERS}
아래의 설명은 직원 교육 기술(자가발전 셀프코칭)에 관한 것으로, 사용자로부터 발화되는 음성 데이터를 녹음하고, 녹음된 음성 데이터에 기반하여 사용자의 언어 정보를 분석하여 피드백하는 방법 및 시스템에 관한 것이다.
일반적으로 인적자원개발(HRD: Human Resource Development)은 인적자원의 전문성을 개발하고 향상시키는 것으로 정의되며, 성과향상을 위하여 개인의 능력을 체계적으로 개발하고 성과 향상을 목적으로 조직의 변화를 실행하는 것을 말한다. 일례로, 회사에서는 개인과 조직의 전문역량을 강화시키고 매장을 효율적으로 운영 및 관리하기 위하여 직원 및 매장에 대한 주기적으로 교육을 실시한다. 그러나, 상기의 직원 교육 방법은 회사의 지침에 따라 일방적으로 주입시키는 교육에 불과하다. 또한, 메뉴얼에 따라 제품을 판매하도록 지침이 전달될지라도, 직원이 회사의 지침에 따라 올바르게 고객에게 제품을 판매하는지 알 수 없고, 실제로는 직원이 빈번하게 사용하는 단어, 말투 등의 직원의 언어사용 패턴에 따라 다르게 제품 판매가 유도될 수 있다.
이에, 직원으로부터 발화되는 음성 데이터를 통하여 직원의 언어사용 패턴을 진단하여 개인과 조직의 역량뿐만 아니라 제품의 매출, 생산성 및 성과를 스스로 증대시킬 수 있도록 돕는 솔루션을 제공하는 기술이 요구된다.
근무시간 동안 매장의 직원들로부터 발화되는 음성 데이터를 분석하여 회사의 메뉴얼에 따라 제품을 판매하기 위한 직원 교육 솔루션을 생성하고, 생성된 직원 교육 솔루션을 피드백하여 직원에게 적합한 교육을 제공하여 스스로 개선실행안을 돕는 방법 및 시스템을 제공할 수 있다.
컴퓨터로 구현되는 직원 교육 시스템에 의해 수행되는 직무 교육 방법은, 녹취가 시작됨에 따라 근무시간 동안 회사의 매장에 분산되어 있는 직원들로부터 발화되는 음성 데이터를 획득하는 단계; 상기 획득된 음성 데이터를 통하여 직원의 언어 정보를 분석함에 따라 직원의 언어사용 패턴을 판단하는 단계; 상기 판단된 직원의 언어사용 패턴에 기초하여 직원 교육 솔루션을 생성하는 단계; 및 상기 생성된 직원 교육 솔루션을 포함하는 피드백 정보를 직원의 전자 기기로 제공하는 단계를 포함할 수 있다.
상기 직무 교육 방법은, 회사의 매장에 분산되어 있는 직원들로부터 발화되는 음성 데이터의 접근에 대한 동의 여부를 질의하고, 상기 음성 데이터의 접근에 대한 동의를 수신함에 따라 상기 매장에서 발생하는 음성 데이터의 녹취가 시작되는 단계를 더 포함하고, 상기 획득하는 단계는, 상기 직원의 몸에 착용되는 가발, 모자, 안경, 시계, 반지, 목걸이, 귀걸이, 브로치, 의복 또는 헤어 웨어를 포함하는 액세서리에 부착 또는 내장된 골전도 센서를 이용하여 획득된 센서 정보를 통하여 근무시간 동안 직원으로부터 발화되는 음성 데이터를 녹취하는 단계를 포함하고, 상기 판단하는 단계는, 상기 획득된 음성 데이터를 텍스트 데이터로 변환하고, 상기 변환된 텍스트 데이터의 분석을 통하여 회사의 제품을 판매하기 위한 생산성 여부, 긍정성 또는 부정성을 포함하는 직원의 언어사용 습관 및 직원의 심리상태를 파악하는 단계를 포함할 수 있다.
상기 판단하는 단계는, 상기 직원으로부터 발화된 음성 데이터를 회사의 지침에 기반하여 제품을 판매하기 위한 권장 단어, 브랜드 스토리, 컨셉, 제품 설명을 포함하는 메뉴얼에 기초하여 직원의 언어 정보를 분석함에 따라 상기 직원이 권장 언어를 사용하는 빈도수, 권장 언어를 미사용하는 빈도수 또는 직원이 사용하는 단어의 유형을 포함하는 직원의 언어사용 패턴을 판단하는 단계를 포함하고, 상기 생성하는 단계는, 상기 판단된 언어사용 패턴을 기 설정된 순위 이상의 매출이 발생하는 매장의 언어사용 정보와 비교하여 상기 매장의 매출을 증진시키기 위한 솔루션 정보를 생성하는 단계를 포함할 수 있다.
상기 생성하는 단계는, 상기 직원이 권장 언어를 사용하는 빈도수, 권장 언어를 미사용하는 빈도수 또는 직원이 사용하는 단어의 유형을 포함하는 직원의 언어사용 패턴을 분석함에 따라 상기 메뉴얼에 기초하여 발화를 유도하기 위한 진단을 수행한 진단 결과를 통하여 솔루션 정보를 생성하는 단계를 포함하고, 상기 피드백 정보를 직원의 전자 기기로 제공하는 단계는, 상기 직원의 진단 결과에 따라 생성된 솔루션 정보를 상기 직원의 전자 기기로 제공하고, 상기 직원으로부터 상기 솔루션 정보의 학습을 통하여 직원의 현재의 언어사용 패턴, 직원의 과거의 언어사용 패턴에 대한 표 또는 그래프를 적용한 시각적 데이터, 상기 직원의 말투, 억양, 언어사용 습관 또는 단어의 유형을 포함하는 언어사용 패턴이 개선된 정도, 상기 메뉴얼과 유사 또는 동일하게 제품을 판매하는지 정도, 제품의 매출이 증대된 정도를 피드백 정보로 제공하고, 상기 제공된 피드백 정보를 상기 직원의 전자 기기를 통하여 플레이(play)할 수 있다.
상기 피드백 정보를 직원의 전자 기기로 제공하는 단계는, 상기 직원의 언어사용 습관을 개선시키기 위한 단어 정보를 포함하는 시나리오 형태의 솔루션 정보를 제공하여 상기 직원에게 상기 제품을 판매하기 위한 권장 단어, 브랜드 스토리, 컨셉, 제품 설명을 포함하는 메뉴얼에 따라 발화하도록 유도하고, 상기 직원의 전자 기기를 통하여 텍스트 데이터 또는 음성 데이터로 플레이되는 피드백 정보에 기초하여 근무시간 동안 상기 직원으로부터 발화되는 음성 데이터를 재획득하는 단계를 포함할 수 있다.
일 실시예에 따른 직원 교육 시스템은 직원 교육 솔루션을 통하여 직원의 언어습관을 개선시킴으로써 매장의 제품 판매 매출, 생산성 및 성과를 증가시킬 수 있다.
또한, 일 실시예에 따른 직원 교육 시스템은 직원 교육 솔루션을 통하여 직원이 자발적으로 심리상태 및 언어습관을 변경할 수 있도록 자율성 증진을 유도할 수 있다.
또한, 일 실시예에 따른 직원 교육 시스템은 직원으로부터 발화되는 음성 데이터를 통하여 분석하고, 분석된 직원의 언어 정보에 기초하여 계속적으로 피드백함으로써 직원이 회사의 메뉴얼대로 제품을 판매할 수 있도록 제공할 수 있다.
도 1은 일 실시예에 따른 네트워크 환경의 예를 도시한 도면이다.
도 2는 일 실시예에 따른 직원 교육 시스템의 구성을 설명하기 위한 블록도이다.
도 3은 일 실시예에 따른 직원 교육 시스템의 직원 교육 방법을 설명하기 위한 흐름도이다.
도 4는 일 실시예에 따른 직원 교육 시스템에서 직원의 음성 데이터를 획득하는 방법을 설명하기 위한 흐름도이다.
도 5는 일 실시예에 따른 직원 교육 시스템에서 직원에게 피드백 정보를 제공하는 것을 설명하기 위한 예이다.
이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.
도 1은 일 실시예에 따른 네트워크 환경의 예를 도시한 도면이다.
도 1의 네트워크 환경은 전자 기기(110), 직원 교육 시스템(100) 및 네트워크(120)를 포함하는 예를 나타내고 있다. 이러한 도 1은 발명의 설명을 위한 일례로 단말의 수나 서버의 수가 도 1과 같이 한정되는 것은 아니다.
전자 기기(110)는 컴퓨터 장치로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 전자 기기(110)의 예를 들면, 스마트폰(smart phone), 휴대폰, 네비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC, 웨어러블 기기, HMD(Head mounted Display) 등이 있다. 전자 기기(110)는 무선 또는 유선 통신 방식을 이용하여 네트워크(120)를 통해 다른 전자 기기들 및/또는 직원 교육 시스템(100)과 통신할 수 있다. 아래의 실시예에서는 전자 기기(110)는 통신 기능이 포함된 직원의 몸에 착용되는 가발, 모자, 안경, 시계, 반지, 목걸이, 귀걸이, 브로치, 의복 또는 헤어 웨어 등과 같이 액세서리 형태로 구성되거나 액세서리에 부착될 수 있다. 이러한 전자 기기(110)는 녹음/마이크 기능 또는 음성 데이터 수집을 위한 센서가 부착 또는 내장될 수 있으며, 센서를 통하여 센서 정보를 획득할 수 있다.
통신 방식은 제한되지 않으며, 네트워크(120)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크(120)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(120)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.
직원 교육 시스템(100)은 전자 기기(110)와 네트워크(120)를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다. 이때, 직원 교육 시스템은 서버일 수 있다. 일례로, 직원 교육 시스템(100)은 네트워크(120)를 통해 접속한 전자 기기(110)로 어플리케이션의 설치를 위한 파일을 제공할 수 있다. 이 경우 전자 기기(110)는 직원 교육 시스템(100)으로부터 제공된 파일을 이용하여 어플리케이션을 설치할 수 있다. 또한 전자 기기(110)가 포함하는 운영체제(Operating System, OS)나 적어도 하나의 프로그램(일례로 브라우저나 상기 설치된 어플리케이션)의 제어에 따라 직원 교육 시스템(100)에 접속하여 직원 교육 시스템(100)이 제공하는 서비스나 컨텐츠를 제공받을 수 있다.
도 2는 일 실시예에 따른 직원 교육 시스템의 구성을 설명하기 위한 블록도이고, 도 3은 일 실시예에 따른 직원 교육 시스템의 직원 교육 방법을 설명하기 위한 흐름도이다.
직원 교육 시스템(100)은 음성 획득부(210), 패턴 판단부(220), 솔루션 생성부(230) 및 피드백 제공부(240)를 포함할 수 있다. 또한, 직원 교육 시스템(100)은 데이터베이스에 직원 교육과 관련된 정보를 저장할 수 있다. 이러한 구성요소들은 직원 교육 시스템(100)에 저장된 프로그램 코드가 제공하는 제어 명령에 따라 프로세서에 의해 수행되는 서로 다른 기능들(different functions)의 표현들일 수 있다. 프로세서 및 프로세서의 구성요소들은 도 3의 직원 교육 방법이 포함하는 단계들(310 내지 340)을 수행하도록 직원 교육 시스템(100)을 제어할 수 있다. 이때, 프로세서 및 프로세서의 구성요소들은 메모리가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다.
프로세서는 직원 교육 방법을 위한 프로그램의 파일에 저장된 프로그램 코드를 메모리에 로딩할 수 있다. 예를 들면, 직원 교육 시스템(100)에서 프로그램이 실행되면, 프로세서는 운영체제의 제어에 따라 프로그램의 파일로부터 프로그램 코드를 메모리에 로딩하도록 직원 교육 시스템(100)을 제어할 수 있다. 이때, 프로세서 및 프로세서가 포함하는 음성 획득부(210), 패턴 판단부(220), 솔루션 생성부(230) 및 피드백 제공부(240) 각각은 메모리에 로딩된 프로그램 코드 중 대응하는 부분의 명령을 실행하여 이후 단계들(310 내지 340)을 실행하기 위한 프로세서의 서로 다른 기능적 표현들일 수 있다.
단계(310)에서 음성 획득부(210)는 녹취가 시작됨에 따라 근무시간 동안 회사의 매장에 분산되어 있는 직원들로부터 발화되는 음성 데이터를 획득할 수 있다. 음성 획득부(210)는 직원의 몸에 착용되는 가발, 모자, 안경, 시계, 반지, 목걸이, 귀걸이, 브로치, 의복 또는 헤어 웨어 형태의 액세서리에 부착 또는 내장된 골전도 센서를 이용하여 획득된 센서 정보를 통하여 근무시간 동안 직원으로부터 발화되는 음성 데이터를 녹취할 수 있다. 예를 들면, 상기 액세서리의 통신 기능을 통하여 매장에 존재하는 액세서리와 연동된 전자 기기로 센서 정보가 전달될 수 있고, 전자 기기를 통하여 센서 정보가 직원 교육 시스템으로 간접적으로 전달될 수 있다. 또는, 액세서리의 통신 기능을 통하여 직원 교육 시스템으로 직접적으로 센서 정보가 전달될 수 있다. 액세서리는 디스플레이 기능이 포함될 수도 있고, 디스플레이 기능이 포함되지 않을 경우, 액세서리와 연동된 전자 기기가 이용될 수 있다. 이에, 직원들이 행동을 관찰하는 것을 의식함에 따라 부자연스러운 행동을 취하게 되는 것과는 달리, 직원들의 음성을 녹취하기 때문에 자연스럽게 발화하는 음성 데이터를 획득할 수 있게 된다.
도 4를 참고하면, 음성 데이터를 획득하는 방법을 설명하기 위한 흐름도이다. 단계(410)에서 음성 획득부(210)는 회사의 매장이 분산되어 있는 직원들로부터 발화되는 음성 데이터의 접근에 대한 동의 여부를 질의할 수 있다. 예를 들면, 음성 획득부(210)는 직원의 전자 기기 또는 매장에 존재하는 전자 기기를 통하여 음성 데이터의 접근에 대한 동의 여부를 질의하는 유저 인터페이스를 제공할 수 있고, 제공된 유저 인터페이스를 통하여 직원으로부터 동의 또는 거절에 대한 응답이 입력됨을 수신할 수 있다. 또한, 음성 획득부(210)는 유저 인터페이스를 통하여 음성 데이터에 대한 동의 여부뿐만 아니라 녹취를 하고자 하는 기간 정보를 입력 또는 선택받을 수 있다. 예를 들면, 매장을 오픈하였거나 신입 직원이 존재할 경우, 직무에 대하여 습득할 때까지 음성 데이터의 녹취가 이루어질 수 있다. 또는, 매장에서 매출을 증대시키기 위하여 합의에 의하여 음성 데이터의 녹취가 이루어질 수 있다.
단계(420)에서 음성 획득부(210)는 음성 데이터의 접근에 대한 동의를 수신함에 따라 매장에서 발생하는 음성 데이터의 녹취를 시작할 수 있다. 또는, 직원의 전자 기기 또는 매장에 존재하는 전자 기기를 통하여 직원 교육을 위한 녹취가 먼저 요청됨에 따라 음성 획득부(210)는 직원들로부터 발화되는 음성 데이터의 녹취를 시작할 수도 있다. 예를 들면, 음성 획득부(210)는 근무시간 동안 매장에서 발생하는 음성 데이터를 녹취할 수 있고, 녹취된 음성 데이터를 데이터베이스에 저장할 수 있다. 이때, 근무시간 이외에 발생하는 음성 데이터는 녹취를 하지 않는다.
단계(320)에서 패턴 판단부(220)는 획득된 음성 데이터를 통하여 직원의 언어 정보를 분석함에 따라 직원의 언어사용 패턴을 판단할 수 있다. 패턴 판단부(220)는 획득된 음성 데이터를 분석하기 위하여 의미있는 단어를 추출할 수 있다. 패턴 판단부(220)는 직원으로부터 발화된 문장 중 의미있는 단어, 예를 들면, 조사를 제외한 문자 전체의 의미를 만들어 내는 단어만을 추출할 수 있다.
패턴 판단부(220)는 음성 데이터를 직접적으로 분석할 수 있고, 또는, 음성 데이터를 텍스트 데이터로 변환한 후, 변환된 텍스트 데이터를 분석할 수 있다. 다른 예로서, 패턴 판단부(220)는 음성 데이터와 연관된 음파 패턴과 기 저장된 상황별 음파 패턴의 비교를 통하여 직원의 언어 정보를 분석함에 따라 직원의 언어사용 패턴을 판단할 수 있다. 또 다른 예로서, 패턴 판단부(220)는 음성 데이터로부터 단어, 형태소를 포함하는 의미단위로 분해할 수 있고, 분해된 의미단위들을 텍스트 마이닝(Text Mining)할 수 있다. 텍스트 마이닝이랑 직원의 사용 언어를 포함하는 각종 비정형 데이터에서 유용한 데이터를 도출하는 방법을 의미한다. 이러한 텍스트 마이닝을 통하여 직원의 언어사용패턴이 판단될 수 있다. 또한, 이외에도 음성 데이터를 분석하는 다양한 방법들이 적용될 수 있다.
패턴 판단부(220)는 음성 데이터의 분석을 통하여 회사의 제품을 판매하기 위한 생산성 여부, 긍정성 또는 부정성을 포함하는 감성 유형, 직원의 언어사용 습관 및 직원의 성향을 파악할 수 있다. 이때, 긍정성이란 '좋아'와 같이 단어 또는 문장이 긍정적인 것을 의미하고, 부정성이란 '죽겠네, 짜증나' 등과 같이 단어 또는 문장이 비관적인 것을 의미한다.
패턴 판단부(220)는 직원으로부터 발화되는 음성 데이터를 분석함에 따라 회사의 제품을 판매할 수 있는 가능성을 의미하는 생산성 여부를 판단할 수 있다. 예를 들면, 패턴 판단부(220)는 직원으로부터 발화되는 음성 데이터를 통하여 소비자가 제품을 구매할 의향이 있는지, 구매할 가능성이 얼마나 되는지를 판단할 수 있다. 이때, 데이터베이스에 소비자가 제품을 구매하였을 때의 발화 데이터를 분석한 분석 정보가 저장되어 있을 수 있다. 또한, 데이터베이스에 기 설정된 순위 이상의 매출을 보이는 매장으로부터 획득한 발화 데이터를 분석한 분석 정보도 함께 저장되어 있을 수 있다. 패턴 판단부(220)는 데이터베이스에 저장된 분석 정보를 이용하여 직원으로부터 발화되는 음성 데이터를 비교함에 따라 소비자가 제품을 구매할 가능성을 계산할 수 있다. 예를 들면, 패턴 판단부(220)는 소비자가 제품을 구매할 가능성을 확률(%) 또는 점수로 계산할 수 있다.
또한, 패턴 판단부(220)는 직원이 언어를 사용함에 있어서 주로 부정적으로 이야기를 하는지, 긍정적으로 이야기를 하는지를 판단할 수 있고, 직원이 빈번하게 사용하는 단어, 직원이 불필요하게 반복적으로 발화하는 단어 등을 캐치할 수 있고, 캐치된 단어를 통하여 직원의 언어사용 습관을 도출할 수 있다. 또한, 직원이 발화하는 단어를 통하여 직원의 성향이 긍정적/부정적인지, 소극적/적극적인지 등 직원의 성향을 판단할 수 있다. 예를 들면, 패턴 판단부(220)는 직원이 언어를 사용하는 횟수에 따라 긍정적 또는 부정적으로 이야기 하는지 판단할 수 있다. 다른 예로서, 패턴 판단부(220)는 데이터베이스에 저장된 단어 정보와 비교함으로써 언어사용 습관, 직원의 성향 등을 판단할 수 있다. 또한, 패턴 판단부(220)는 음성 데이터를 이용하여 직원의 심리상태를 분석할 수도 있다. 예를 들면, 패턴 판단부(220)는 음성 데이터를 필터링한 후, 음성 데이터의 특성을 확인하여 음성 데이터의 단어 및 문장을 분석하고, 분석된 단어 및 문장으로부터 음성 데이터에 포함된 직원의 호흡 및 음변화를 비교함에 따라 심리상태를 판단할 수 있다. 이외에도 패턴 판단부(220)는 음성 데이터의 음성 파형을 분석하여 직원의 심리상태를 판단할 수 있다.
구체적으로, 패턴 판단부(220)는 직원으로부터 발화된 음성 데이터를 회사의 지침에 기반한 제품을 판매하기 위한 권장 단어, 브랜드 스토리, 컨셉, 제품 설명을 포함하는 메뉴얼에 기초하여 직원의 언어 정보를 분석함에 따라 직원이 권장 언어를 사용하는 빈도수, 권장 언어를 미사용하는 빈도수 또는 직원이 사용하는 단어의 유형을 포함하는 직원의 언어사용 패턴을 판단할 수 있다. 이때, 메뉴얼이란 본사에서 제품을 판매하기 위하여 브랜드 스토리, 컨셉, 제품 설명을 안내하는 순서, 시간 배분 등의 방식을 표준화한 것을 의미할 수 있다. 본사에서는 메뉴얼에 따라 직원이 제품을 판매할 수 있도록 일정기간 동안 교육시키고, 각각의 매장에 메뉴얼을 배포한다. 예를 들면, 패턴 판단부(220)는 직원으로부터 발화된 음성 데이터를 메뉴얼에 기초하여 직원의 언어 정보를 분석함에 따라 권장 단어의 사용 횟수, 메뉴얼을 기준으로 전체 유사도, 메뉴얼에 제시된 각각의 구간의 유사도, 권장 단어와 유사한 단어의 사용 횟수 등을 판단할 수 있다. 이때, 데이터베이스에 메뉴얼에 제시된 권장 단어와 유사한 단어들이 권장 단어와 연관하여 저장되어 있을 수 있다. 이에, 직원으로부터 권장 단어와 유사한 단어들이 발화되었을지라도 권장 단어를 발화한 것으로 판단할 수 있다. 또한, 데이터베이스에 제품 설명을 위하여 사용되는 단어들에 대한 유형 정보(예를 들면, 강압형, 권유형 등)가 저장되어 있을 수 있다. 패턴 판단부(220)는 직원이 사용하는 단어의 유형과 데이터베이스에 저장된 단어들에 대한 유형 정보를 비교하여 직원으로부터 사용되는 단어의 유형을 판단할 수 있다. 이때, 패턴 판단부(220)는 직원이 사용하는 단어의 유형과 데이터베이스에 저장된 단어들에 대한 유형 정보를 비교하여 가장 많이 사용되는 유형 정보를 단어의 유형으로 지정할 수 있다.
단계(330)에서 솔루션 생성부(230)는 판단된 직원의 언어사용 패턴에 기초하여 직원 교육 솔루션을 생성할 수 있다. 솔루션 생성부(230)는 직원 교육 솔루션을 통하여 직원이 메뉴얼에 따라 제품을 판매할 수 있도록 솔루션 정보를 제공할 수 있다. 일례로, 솔루션 생성부(230)는 직원의 언어사용 패턴을 기 설정된 순위 이상의 매출이 발생하는 매장의 언어사용 정보와 비교하여 매장의 매출을 증진시키기 위한 솔루션 정보를 생성할 수 있다. 이때, 직원 각각의 언어사용 패턴에 따라 다른 솔루션 정보가 생성될 수 있다. 예를 들면, 솔루션 생성부(230)는 1위 매출의 매장에서 사용되는 권장 단어의 빈도수가 95%이고, 현재 직원의 매장에서 사용되는 권장 단어의 빈도수가 70%임을 판단하고, 판단된 결과에 따라 직원의 매장에서 사용해야 하는 권장 단어들을 나열한 솔루션 정보를 생성할 수 있다. 또한, 솔루션 생성부(230)는 직원이 기분 좋은 말(긍정적인 단어)을 하여 기분이 좋아질 수 있도록 솔루션 정보를 처방할 수 있다.
솔루션 생성부(230)는 직원이 권장 언어를 사용하는 빈도수, 권장 언어를 미사용하는 빈도수 또는 직원이 사용하는 단어의 유형을 포함하는 직원의 언어사용 패턴을 분석함에 따라 메뉴얼에 기초하여 발화를 유도하기 위한 진단을 수행한 진단 결과를 통하여 솔루션 정보를 생성할 수 있다. 솔루션 정보(230)는 매뉴얼에 따라 진단된 진단 결과를 직원에게 제공할 수 있다. 솔루션 생성부(230)는 직원의 언어사용 패턴에 기초하여 시나리오 형태의 솔루션 정보를 생성할 수 있다. 이때, 솔루션 정보는 기 설정된 시간 또는 기간 단위로 구성되어 있을 수 있으며, 직원은 솔루션 정보를 통하여 반복적으로 학습할 수 있다. 예를 들면, 직원은 시나리오 형태의 솔루션 정보를 통하여 따라 읽으면서 반복적으로 학습할 수 있고, 학습을 토대로 고객에게 제품을 판매할 수 있다.
단계(340)에서 피드백 제공부(240)는 생성된 직원 교육 솔루션을 포함하는 피드백 정보를 직원의 전자 기기로 제공할 수 있다. 피드백 제공부(240)는 직원의 진단 결과에 따라 생성된 기 설정된 시간 또는 기간 단위의 솔루션 정보를 제공함에 따라 직원의 전자 기기를 통하여 솔루션 정보에 따른 피드백 정보가 플레이(play)할 수 있다. 도 5를 참고하면, 전자 기기(110)에 피드백 정보가 제공되는 것을 나타낸 예이다. 직원은 솔루션 정보를 학습함으로써 직원의 언어사용 패턴을 개선시킬 수 있다. 직원은 전자 기기(110)에 제공된 솔루션 정보들 중 우선적으로 학습하고자 하는 솔루션 정보를 선택할 수 있다. 이때, 전자 기기(110)에 솔루션 정보를 학습하는 직원에게 권장하는 추천 순서가 제공될 수 있다. 피드백 제공부(240)는 직원으로부터 솔루션 정보에 기초하여 학습이 수행됨에 따라 학습된 데이터를 분석하여 전자 기기(110)를 통하여 직원에게 피드백 정보를 제공할 수 있다. 피드백 제공부(240)는 직원으로부터 솔루션 정보를 학습한 학습 데이터를 딥러닝에 학습시켜 피드백 정보를 제공할 수 있고, 솔루션 정보를 업데이트할 수 있다. 또한, 직원 교육에 이용되는 데이터 및 직원으로부터 학습되는 학습 데이터를 빅데이터화하여 분석하기 때문에 직원의 언어사용을 개선시킬 수 있고, 제품 판매율을 높일 수 있다.
피드백 제공부(240)는 직원이 강압적으로 개선하도록 하는 것이 아니라, 직원의 언어사용 패턴에 따라 스스로 납득하여 변화를 유발할 수 있는 솔루션 정보를 포함하는 피드백 정보를 제공할 수 있다. 예를 들면, 피드백 제공부(240)는 직원의 현재 심리(마음)상태 또는 언어사용 패턴이 부정적일 경우, 마음의 상태가 긍정적이기 때문에 보다 부드러운 언어로 작성된 솔루션 정보로 직원의 마음을 회유시킴으로써 직원이 자발적으로 마음을 성찰하여 긍정적인 행동 및 긍정적인 언어로 바뀔 수 있도록 유도할 수 있다. 다시 말해서, 피드백 제공부(240)는 솔루션 정보를 제공함에 있어서, 직원에게 직원 스스로 문제점을 깨닫게 하고 자아성찰을 할 수 있는 시간을 제공할 수 있고, 이러한 자아성찰의 시간을 수행한 후 솔루션 정보를 실행시킬 수 있다. 피드백 제공부(240)는 직원으로부터 솔루션 정보를 통하여 학습된 데이터(음성 데이터)를 계속적으로 축적할 수 있다. 피드백 제공부(240)는 직원으로부터 발화되는 음성 데이터를 재수집하여 직원에게 피드백할 수 있다. 또한, 피드백 제공부(240)는 직원 또는 매장의 주변 환경을 변화시킴으로써 직원의 심리상태 및 언어사용 패턴을 변화시키도록 솔루션 정보를 제공하여 직원의 뇌 회로를 자극시킬 수 있다. 이에 따라, 직원은 직원의 생활습관 및 언어사용 습관뿐만 아니라 제품을 판매하는 언어패턴을 효율적으로 개선시킬 수 있다.
전자 기기(110)에 솔루션 정보를 포함하는 피드백 정보가 음성 데이터 또는 텍스트 데이터 중 적어도 하나 이상으로 제공될 수 있다. 피드백 제공부(240)는 직원의 현재의 언어사용 패턴, 직원의 과거의 언어사용 패턴에 대한 표 또는 그래프를 적용한 시각적 데이터를 피드백 정보로 제공할 수 있다. 피드백 제공부(240)는 솔루션 정보의 학습을 통하여 개선되고 있는 정도, 직원의 말투, 억양, 언어사용 습관, 단어의 유형 등의 언어사용 패턴이 개선된 정도, 솔루션 정보의 학습을 통하여 메뉴얼과 유사 또는 동일하게 제품을 판매하고 있는지 정도, 매출이 증대된 정도를 피드백 정보로 제공할 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (5)

  1. 컴퓨터로 구현되는 직원 교육 시스템에 의해 수행되는 직무 교육 방법에 있어서,
    녹취가 시작됨에 따라 근무시간 동안 회사의 매장에 분산되어 있는 직원들로부터 발화되는 음성 데이터를 획득하는 단계;
    상기 획득된 음성 데이터를 통하여 직원의 언어 정보를 분석함에 따라 직원의 언어사용 패턴을 판단하는 단계;
    상기 판단된 직원의 언어사용 패턴에 기초하여 직원 교육 솔루션을 생성하는 단계; 및
    상기 생성된 직원 교육 솔루션을 포함하는 피드백 정보를 직원의 전자 기기로 제공하는 단계
    를 포함하는 직무 교육 방법.
  2. 제1항에 있어서,
    회사의 매장에 분산되어 있는 직원들로부터 발화되는 음성 데이터의 접근에 대한 동의 여부를 질의하고, 상기 음성 데이터의 접근에 대한 동의를 수신함에 따라 상기 매장에서 발생하는 음성 데이터의 녹취가 시작되는 단계
    를 더 포함하고,
    상기 획득하는 단계는,
    상기 직원의 몸에 착용되는 가발, 모자, 안경, 시계, 반지, 목걸이, 귀걸이, 브로치, 의복 또는 헤어 웨어를 포함하는 액세서리에 부착 또는 내장된 골전도 센서를 이용하여 획득된 센서 정보를 통하여 근무시간 동안 직원으로부터 발화되는 음성 데이터를 녹취하는 단계
    를 포함하고,
    상기 판단하는 단계는,
    상기 획득된 음성 데이터를 텍스트 데이터로 변환하고, 상기 변환된 텍스트 데이터의 분석을 통하여 회사의 제품을 판매하기 위한 생산성 여부, 긍정성 또는 부정성을 포함하는 직원의 언어사용 습관 및 직원의 심리상태를 파악하는 단계
    를 포함하는 직무 교육 방법.
  3. 제1항에 있어서,
    상기 판단하는 단계는,
    상기 직원으로부터 발화된 음성 데이터를 회사의 지침에 기반하여 제품을 판매하기 위한 권장 단어, 브랜드 스토리, 컨셉, 제품 설명을 포함하는 메뉴얼에 기초하여 직원의 언어 정보를 분석함에 따라 상기 직원이 권장 언어를 사용하는 빈도수, 권장 언어를 미사용하는 빈도수 또는 직원이 사용하는 단어의 유형을 포함하는 직원의 사용 언어 패턴을 판단하는 단계
    를 포함하고,
    상기 생성하는 단계는,
    상기 판단된 사용 언어 패턴을 기 설정된 순위 이상의 매출이 발생하는 매장의 언어사용 정보와 비교하여 상기 매장의 매출을 증진시키기 위한 솔루션 정보를 생성하는 단계
    를 포함하는 직무 교육 방법.
  4. 제3항에 있어서,
    상기 생성하는 단계는,
    상기 직원이 권장 언어를 사용하는 빈도수, 권장 언어를 미사용하는 빈도수 또는 직원이 사용하는 단어의 유형을 포함하는 직원의 언어사용 패턴을 분석함에 따라 상기 메뉴얼에 기초하여 발화를 유도하기 위한 진단을 수행한 진단 결과를 통하여 솔루션 정보를 생성하는 단계
    를 포함하고,
    상기 피드백 정보를 직원의 전자 기기로 제공하는 단계는,
    상기 직원의 진단 결과에 따라 생성된 솔루션 정보를 상기 직원의 전자 기기로 제공하고, 상기 직원으로부터 상기 솔루션 정보의 학습을 통하여 직원의 현재의 언어사용 패턴, 직원의 과거의 언어사용 패턴에 대한 표 또는 그래프를 적용한 시각적 데이터, 상기 직원의 말투, 억양, 언어사용 습관 또는 단어의 유형 을 포함하는 언어사용 패턴이 개선된 정도, 상기 메뉴얼과 유사 또는 동일하게 제품을 판매하는지 정도, 제품의 매출이 증대된 정도를 피드백 정보로 제공하고, 상기 제공된 피드백 정보를 상기 직원의 전자 기기를 통하여 플레이(play)하는 단계
    를 포함하는 직무 교육 방법.
  5. 제4항에 있어서,
    상기 피드백 정보를 직원의 전자 기기로 제공하는 단계는,
    상기 직원의 언어사용 습관을 개선시키기 위한 단어 정보를 포함하는 시나리오 형태의 솔루션 정보를 제공하여 상기 직원에게 상기 제품을 판매하기 위한 권장 단어, 브랜드 스토리, 컨셉, 제품 설명을 포함하는 메뉴얼에 따라 발화하도록 유도하고, 상기 직원의 전자 기기를 통하여 텍스트 데이터 또는 음성 데이터로 플레이되는 피드백 정보에 기초하여 근무시간 동안 상기 직원으로부터 발화되는 음성 데이터를 재획득하는 단계
    를 포함하는 직무 교육 방법.
KR1020190053454A 2019-05-08 2019-05-08 사용자의 음성 데이터를 분석하여 직원을 교육시키는 자가 발전 셀프 코칭 시스템 및 방법 KR20200129278A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190053454A KR20200129278A (ko) 2019-05-08 2019-05-08 사용자의 음성 데이터를 분석하여 직원을 교육시키는 자가 발전 셀프 코칭 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190053454A KR20200129278A (ko) 2019-05-08 2019-05-08 사용자의 음성 데이터를 분석하여 직원을 교육시키는 자가 발전 셀프 코칭 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR20200129278A true KR20200129278A (ko) 2020-11-18

Family

ID=73697667

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190053454A KR20200129278A (ko) 2019-05-08 2019-05-08 사용자의 음성 데이터를 분석하여 직원을 교육시키는 자가 발전 셀프 코칭 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR20200129278A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230027658A (ko) * 2021-08-19 2023-02-28 박예은 사용자의 스피치 능력 개선을 위한 피드백 장치 및 방법
KR102601362B1 (ko) * 2023-01-19 2023-11-10 염환아 어휘 사용 습관 기반 어학 능력 평가 및 학습 콘텐츠 제안 방법, 장치 및 시스템

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230027658A (ko) * 2021-08-19 2023-02-28 박예은 사용자의 스피치 능력 개선을 위한 피드백 장치 및 방법
KR102601362B1 (ko) * 2023-01-19 2023-11-10 염환아 어휘 사용 습관 기반 어학 능력 평가 및 학습 콘텐츠 제안 방법, 장치 및 시스템

Similar Documents

Publication Publication Date Title
US10902841B2 (en) Personalized custom synthetic speech
Vinciarelli et al. A survey of personality computing
KR102632775B1 (ko) 인터랙티브 다이얼로그 시스템을 위한 감정 유형 분류
Park et al. Computational analysis of persuasiveness in social multimedia: A novel dataset and multimodal prediction approach
US20200126566A1 (en) Method and apparatus for voice interaction
CN108197115A (zh) 智能交互方法、装置、计算机设备和计算机可读存储介质
Johar Emotion, affect and personality in speech: The Bias of language and paralanguage
Simchy-Gross et al. The sound-to-music illusion: Repetition can musicalize nonspeech sounds
Bhattacharya et al. Exploring the contextual factors affecting multimodal emotion recognition in videos
CN110085220A (zh) 智能交互装置
US10573311B1 (en) Generating self-support metrics based on paralinguistic information
CN110085211A (zh) 语音识别交互方法、装置、计算机设备和存储介质
US11694786B1 (en) Recommendation methods, systems and devices
KR20200129278A (ko) 사용자의 음성 데이터를 분석하여 직원을 교육시키는 자가 발전 셀프 코칭 시스템 및 방법
Pérez-Espinosa et al. Automatic children’s personality assessment from emotional speech
He Stress and emotion recognition in natural speech in the work and family environments
Sandulescu et al. Mobile app for stress monitoring using voice features
Rodellar‐Biarge et al. Towards the search of detection in speech‐relevant features for stress
KR102101311B1 (ko) 동물구현체를 포함하는 가상현실 플랫폼 제공 방법 및 장치
EP3921792A1 (en) Virtual agent team
McTear et al. Affective conversational interfaces
US11599339B2 (en) Creating user experience designs
Klasmeyer et al. Emotional voice variability in speaker verification
Alqahtani et al. Interactive speech based games for autistic children with asperger syndrome
CN109475301A (zh) 用于意识水平测量的诊断***及其方法

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X601 Decision of rejection after re-examination