KR20020015464A - Method for identification of user using of cognition by syllable and its system - Google Patents

Method for identification of user using of cognition by syllable and its system Download PDF

Info

Publication number
KR20020015464A
KR20020015464A KR1020000048582A KR20000048582A KR20020015464A KR 20020015464 A KR20020015464 A KR 20020015464A KR 1020000048582 A KR1020000048582 A KR 1020000048582A KR 20000048582 A KR20000048582 A KR 20000048582A KR 20020015464 A KR20020015464 A KR 20020015464A
Authority
KR
South Korea
Prior art keywords
user
voice
information
syllable
speech
Prior art date
Application number
KR1020000048582A
Other languages
Korean (ko)
Other versions
KR100373989B1 (en
Inventor
이유인
김연식
박종천
Original Assignee
이유인
김연식
주식회사 드림캐스트
박종천
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이유인, 김연식, 주식회사 드림캐스트, 박종천 filed Critical 이유인
Priority to KR10-2000-0048582A priority Critical patent/KR100373989B1/en
Publication of KR20020015464A publication Critical patent/KR20020015464A/en
Application granted granted Critical
Publication of KR100373989B1 publication Critical patent/KR100373989B1/en

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • G10L17/24Interactive procedures; Man-machine interfaces the user being prompted to utter a password or a predefined phrase
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/32Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
    • H04L9/3226Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials using a predetermined code, e.g. password, passphrase or PIN
    • H04L9/3231Biological data, e.g. fingerprint, voice or retina

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computational Linguistics (AREA)
  • Computer Hardware Design (AREA)
  • Biomedical Technology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Telephonic Communication Services (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Telephone Function (AREA)

Abstract

PURPOSE: A method and a system for user authorization using syllable recognition are provided to promptly and accurately authenticate a user by simply comparing searched voice data with input voice data. CONSTITUTION: A user authentication method comprises the steps of converting the voice data inputted via a voice input device into at least one of segments(S1), searching a syllable identified with the segment in a syllable voice database(S2), recognizing the searched syllable as characters(S3), converting the recognized characters into character information by combining the recognized characters(S4), searching the user information identified with the converted character information in a user management database(S5), and outputting a result if the user information is identified with the voice data(S6). Therefore, a user is authenticated promptly and accurately with a high recognition rate.

Description

음절 인식을 이용한 사용자 인증 방법 및 사용자 인증 시스템{Method for identification of user using of cognition by syllable and its system}Method for identification of user using of cognition by syllable and its system}

본 발명은 음절 인식을 이용한 사용자 인증 방법 및 사용자 인증 시스템에 관한 것으로서, 더욱 상세하게는 음성 아이디를 분절하고, 문자로 인식하여 사용자 검색을 빠르게 하고, 음성 패스워드를 비교하여 보다 정확한 사용자 인증을 가능하게 하는 음절 인식을 이용한 사용자 인증 방법 및 사용자 인증 시스템에 관한 것이다.The present invention relates to a user authentication method and a user authentication system using syllable recognition, and more particularly, to segment a voice ID, recognize the character as text, and to quickly search for a user, and to compare voice passwords to enable more accurate user authentication. The present invention relates to a user authentication method using syllable recognition and a user authentication system.

각종 온라인 서비스를 이용할 때, 등록된 사용자를 식별할 수 있도록 식별코드나 문자아이디나 비밀번호를 키보드 혹은 전화기 버튼으로 입력하는 문자식 인증방법을 사용하기 때문에 인증용 문자의 타인 노출시 정보의 누출이 염려되고, 등록된 사용자 이외에도 다른 사용자들이 사용할 수 있는 등 많은 문제점이 있었다.When using various online services, a character authentication method that inputs an identification code, a text ID, or a password with a keyboard or a phone button is used to identify a registered user. There are many problems such as being able to use other users besides registered users.

이러한 종래의 문제점을 해결하기 위해 종래에는 인터넷서비스이나 PC통신서비스이나 전화정보서비스나 모바일서비스을 비롯하여 보안, 경비서비스 등에서 사용자의 고유한 음성을 이용하여 사용자를 확인하거나 인증하는 기술이 개발되어 사용되고 있다.In order to solve such a conventional problem, a technology for verifying or authenticating a user using a unique voice of a user has been developed and used in the Internet service, PC communication service, telephone information service, mobile service, security, security service, and the like.

이러한 종래의 음성 인식을 이용한 사용자 인증 방법은, 대개 미리 입력한 모든 사용자의 목소리를 그대로 저장하는 음성데이터베이스를 구비하고, 입력되는 음성의 목소리 패턴을 상기 음성데이터베이스에 저장된 모든 사용자의 목소리와 일일이 비교함으로써 사용자를 확인하였다.Such a conventional user authentication method using voice recognition includes a voice database for storing the voices of all the users input in advance, and compares the voice patterns of the input voices with the voices of all users stored in the voice database. Identified the user.

따라서, 입력되는 음성데이터 패턴을 특징지을 수 있는 요소가 매우 다양하고, 음성데이터가 차지하는 용량이 크기 때문에 입력된 음성데이터와 저장된 모든 음성데이터들을 1 대 다수로 비교하는 데 많은 시간이 소요되기 때문에 사용자를인증하는 데 많은 시간이 소요되는 것은 물론이고, 분석 시간상 패턴의 정밀한 분석이 어려워서 신뢰성이 떨어지게 되는 문제점이 있었다.Therefore, since the elements that can characterize the input voice data pattern are very diverse, and the capacity of the voice data is large, it takes a long time to compare the input voice data with all stored voice data in a one-to-many manner. It takes a lot of time to authenticate, as well as the difficulty of accurate analysis of the pattern in the analysis time, there was a problem that the reliability is lowered.

상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 음성을 문자로 변환하고, 그 문자를 키워드로 하여 문자검색을 한 다음, 검색된 음성데이터만을 입력된 음성데이터와 비교하기 때문에 음성데이터 비교횟수를 줄여서 빠르고, 정확한 사용자 인증을 가능하게 하는 음절 인식을 이용한 사용자 인증 방법 및 사용자 인증 시스템을 제공함에 있다.An object of the present invention for solving the above problems is to convert the voice into a character, perform a text search using the character as a keyword, and then compares only the retrieved voice data with the input voice data, thereby comparing the number of voice data comparisons. The present invention provides a user authentication method and a user authentication system using syllable recognition to enable fast and accurate user authentication.

또한, 인터넷이나 유선전화망 및 이동전화망에 적용하기 용이한 음절 인식을 이용한 사용자 인증 방법 및 사용자 인증 시스템을 제공함에 있다.In addition, the present invention provides a user authentication method and a user authentication system using syllable recognition, which are easy to apply to the Internet, a wired telephone network, and a mobile telephone network.

도 1은 본 발명의 바람직한 일 실시예에 따른 음절 인식을 이용한 사용자 인증 시스템을 나타내는 개념도이다.1 is a conceptual diagram illustrating a user authentication system using syllable recognition according to an exemplary embodiment of the present invention.

도 2는 본 발명의 음절 인식을 이용한 사용자 인증 방법을 나타내는 블록도이다.2 is a block diagram illustrating a user authentication method using syllable recognition according to the present invention.

도 3은 도 2의 바람직한 일 실시예에 따른 음절 인식을 이용한 사용자 인증 방법의 일례를 나타내는 순서도이다.FIG. 3 is a flowchart illustrating an example of a user authentication method using syllable recognition according to an exemplary embodiment of FIG. 2.

도 4는 본 발명의 제어부가 컴퓨터 네트워크를 통해 인터넷 사용자와 연결되는 것을 나타내는 개념도이다.4 is a conceptual diagram illustrating that the controller of the present invention is connected to an Internet user through a computer network.

도 5는 본 발명의 제어부가 컴퓨터 네트워크 및 VoIP Gateway를 통해 유선전화망과 연결되는 일례를 나타내는 개념도이다.5 is a conceptual diagram illustrating an example in which the controller of the present invention is connected to a wired telephone network through a computer network and a VoIP gateway.

도 6은 본 발명의 제어부가 컴퓨터 네트워트 및 VoIP Gateway를 통해 유선전화망 및 이동전화망과 연결되는 일례를 나타내는 개념도이다.6 is a conceptual diagram illustrating an example in which a controller of the present invention is connected to a wired telephone network and a mobile telephone network through a computer network and a VoIP gateway.

상기 목적을 달성하기 위한 본 발명의 음절 인식을 이용한 사용자 인증 방법은, 음성입력장치에 입력되는 음성을 제어부가 판단하여 사용자 인증여부를 출력장치로 출력하는 음성을 이용한 사용자 인증 방법에 있어서, 상기 음성입력장치로 입력되는 음성정보를 음절별로 분절시켜 분절음으로 변환하고, 분절음을 문자로 인식하며, 인식된 문자로 사용자를 인증하는 것을 특징으로 한다.In the user authentication method using syllable recognition of the present invention for achieving the above object, in the user authentication method using the voice to output the user authentication to the output device to determine whether the voice input to the voice input device, the voice, The voice information input by the input device is segmented by syllable to be converted into segment sounds, the segment sound is recognized as a character, and the user is authenticated by the recognized character.

한편, 상기 목적을 달성하기 위한 본 발명의 음절 인식을 이용한 사용자 인증 방법은, 음성입력장치에 입력되는 음성을 제어부가 판단하여 사용자 인증여부를 출력장치로 출력하는 음성을 이용한 사용자 인증 방법에 있어서, 상기 제어부는, 음성으로 표현되는 모든 음성정보가 음절의 형태로 저장되는 음절음성데이터베이스및 등록된 사용자에 대한 사용자 정보가 문자 및 음성의 형태로 저장되는 사용자관리 데이터베이스를 포함하며, 상기 음성입력장치로 입력되는 음성정보를 음절별로 분절시켜 적어도 하나 이상의 분절음으로 변환시키는 음성분절단계와; 상기 분절음과 일치하는 음절을 상기 음절음성데이터베이스에서 검색하는 음절음성검색단계와; 검색된 음절을 대응하는 문자로 인식하는 문자인식단계와; 인식된 문자를 서로 조합하여 문자형태의 문자정보로 변환하는 문자결합단계와; 변환된 문자정보와 일치하는 사용자정보를 상기 사용자관리 데이터베이스에서 검색하는 사용자정보검색단계; 및 검색된 사용자정보와 상기 입력장치로 입력된 음성정보를 비교하여 상기 사용자정보와 음성정보가 서로 일치하는 경우, 상기 출력장치를 통해 사용자 인증결과를 출력하는 사용자정보확인단계;를 포함하여 이루어지는 것을 특징으로 한다.On the other hand, the user authentication method using the syllable recognition of the present invention for achieving the above object, in the user authentication method using the voice to determine the voice input to the voice input device to output the user authentication to the output device, The controller may include a syllable speech database in which all voice information expressed in speech is stored in the form of syllables, and a user management database in which user information of registered users is stored in the form of text and voice. A speech segmentation step of segmenting the input speech information into syllables and converting the speech information into at least one segmented sound; A syllable speech search step of searching for a syllable that matches the segmental sound in the syllable speech database; A character recognition step of recognizing the retrieved syllable as a corresponding character; A character combining step of combining the recognized characters into character information in the form of characters; A user information retrieval step of retrieving user information matching the converted character information from the user management database; And a user information checking step of comparing the searched user information with the voice information inputted to the input device and outputting a user authentication result through the output device when the user information and the voice information match each other. It is done.

또한, 보다 정확한 사용자 인증을 위하여 상기 사용자 정보는 등록된 사용자의 음성아이디(V-ID)와 음성패스워드(V-Password)를 포함하고, 상기 음성입력장치에 입력되는 음성정보는 인증을 요구하는 사용자의 음성아이디와 음성패스워드를 포함하며, 상기 음성분절단계에서 분절되는 음성정보는 상기 인증을 요구하는 사용자의 음성아이디이고, 상기 사용자정보확인단계에서 비교되는 음성정보는 음성패스워드인 것이 가능하다.In addition, for more accurate user authentication, the user information includes a registered user's voice ID (V-ID) and voice password (V-Password), and the voice information input to the voice input device requires a user to authenticate. It includes a voice ID and a voice password, the voice information segmented in the speech segmentation step is a voice ID of the user requesting the authentication, the voice information compared in the user information verification step may be a voice password.

한편, 상기 목적을 달성하기 위한 본 발명의 음절 인식을 이용한 사용자 인증 시스템은, 음성입력장치에 입력되는 음성을 제어부가 판단하여 사용자 인증여부를 출력장치로 출력하는 음성을 이용한 사용자 인증 시스템에 있어서, 상기 제어부는, 음성으로 표현되는 모든 음성정보가 음절의 형태로 저장되는 음절음성데이터베이스와, 등록된 사용자에 대한 사용자 정보가 문자 및 음성의 형태로 저장되는 사용자관리 데이터베이스와, 상기 음성입력장치로 입력되는 음성정보를 음절별로 분절시켜 적어도 하나 이상의 분절음으로 변환시키고, 상기 분절음과 일치하는 음절을 상기 음절음성데이터베이스에서 검색하여 검색된 음절을 대응하는 문자로 인식하는 음성인식엔진 및 상기 음성인식엔진에서 인식된 문자를 서로 조합하여 문자형태의 문자정보로 변환하고, 변환된 문자정보와 일치하는 사용자정보를 상기 사용자관리 데이터베이스에서 검색하여 검색된 사용자정보와 상기 입력장치로 입력된 음성정보를 비교함으로써 상기 사용자정보와 음성정보가 서로 일치하는 경우, 상기 출력장치를 통해 사용자 인증결과를 출력하는 화자인식엔진을 포함하여 이루어지는 것을 특징으로 한다.On the other hand, the user authentication system using syllable recognition of the present invention for achieving the above object, in the user authentication system using the voice to determine the voice input to the voice input device to output the user authentication to the output device, The control unit may include a syllable speech database in which all voice information expressed in speech is stored in the form of syllables, a user management database in which user information of registered users are stored in the form of text and voice, and input into the voice input device. The speech information is segmented by syllable and converted into at least one segmented sound, and the speech recognition engine recognizes the syllable that matches the segmented sound in the syllable speech database and recognizes the searched syllable as a corresponding character, and is recognized by the speech recognition engine. Character information of character form by combining characters together And converting the user information that matches the converted text information from the user management database and comparing the searched user information with the voice information input to the input device. Characterized in that it comprises a speaker recognition engine for outputting the user authentication results through.

이하, 본 발명의 바람직한 일 실시예에 따른 음절 인식을 이용한 사용자 인증 방법 및 사용자 인증 시스템을 도면을 참조하여 상세히 설명한다.Hereinafter, a user authentication method and a user authentication system using syllable recognition according to an exemplary embodiment of the present invention will be described in detail with reference to the accompanying drawings.

먼저, 도 1에 도시된 바와 같이, 본 발명의 바람직한 일 실시예에 따른 음절 인식을 이용한 사용자 인증 시스템은, 크게 입력장치, 제어부, 출력장치를 구비하여 이루어지는 것으로서,First, as shown in FIG. 1, a user authentication system using syllable recognition according to an exemplary embodiment of the present invention includes an input device, a controller, and an output device.

상기 입력장치는 음성을 전기적인 신호로 변조하는 마이크 등의 일반적인 음성입력장치가 사용되는 것이고, 상기 출력장치는 사용자 인증 결과에 따라 결과값을 산출하는 전자회로로 구성할 수 있다.The input device may be a general voice input device such as a microphone for modulating voice into an electrical signal, and the output device may be an electronic circuit that calculates a result value according to a user authentication result.

즉, 음성입력장치에 입력되는 음성을 제어부가 판단하여 사용자 인증여부를 출력장치로 출력하는 것으로서, 상기 제어부는 상기 제어부는, 음절음성데이터베이스와, 사용자 관리 데이터베이스와, 음성인식엔진 및 화자인식 엔진을 구비하여 이루어지는 구성이다.That is, the controller determines the voice input to the voice input device and outputs user authentication to the output device. The control unit includes a syllable voice database, a user management database, a voice recognition engine, and a speaker recognition engine. It is a structure provided.

여기서, 상기 음절음성데이터베이스는 음성으로 표현되는 모든 음성정보가 음절의 형태로 저장되는 것으로서, 예를 들면 "가", "까", "갸", "거", "꺼",..,"나", "냐", "너", "녀", "노", "뇨",...등 문자로 표현 가능한 모든 음성을 음절의 형태로 저장하고, 이에 대응하는 문자가 저장되는 데이터베이스이다.Here, the syllable speech database is that all the voice information represented by the voice is stored in the form of syllables, for example, "ga", "ka", "ya", "ga", "off", .., " Me "," Ya "," You "," Woman "," No "," Urinary ", ... It is a database that stores all the voices that can be represented by characters in the form of syllables and the corresponding characters are stored. .

즉, "가"에 해당하는 주파수 형태의 전기적 신호와 이에 해당하는 문자 「가」를 서로 연결한 데이터를 저장한다.In other words, the data in which the electrical signal of the frequency form corresponding to "ga" and the corresponding letter "ga" are connected to each other is stored.

또한, 상기 사용자 관리 데이터베이스는, 등록된 사용자에 대한 사용자 정보가 문자 및 음성의 형태로 저장되는 것으로서, 이러한 사용자 정보는 등록된 사용자의 음성아이디(V-ID)와 음성패스워드(V-Password)를 포함하고, 상기 음성입력장치에 입력되는 음성정보 역시 인증을 요구하는 사용자의 음성아이디와 음성패스워드를 포함하는 것이다.In addition, the user management database, the user information for the registered user is stored in the form of text and voice, such user information is stored in the voice ID (V-ID) and voice password (V-Password) of the registered user The voice information input to the voice input device also includes a voice ID and a voice password of a user requesting authentication.

한편, 이러한 상기 음절 음성 데이터베이스를 이용하여 음성을 인식하는 음성인식엔진은, 상기 음성입력장치로 입력되는 음성정보를 음절별로 분절시켜 적어도 하나 이상의 분절음으로 변환시키고, 상기 분절음과 일치하는 음절을 상기 음절음성데이터베이스에서 검색하여 검색된 음절을 대응하는 문자로 인식한다.On the other hand, the speech recognition engine for recognizing speech using the syllable speech database, the speech information input to the speech input device is segmented for each syllable and converted into at least one segment sound, and the syllables that match the segment sound Searches in the voice database and recognizes the searched syllables as the corresponding characters.

또한, 상기 사용자관리 데이터베이스를 이용하여 사용자를 인증하는 화자인식엔진은 상기 음성인식엔진에서 인식된 문자를 서로 조합하여 문자형태의 문자정보로 변환하고, 변환된 문자정보와 일치하는 사용자정보를 상기 사용자관리 데이터베이스에서 검색하여 검색된 사용자정보와 상기 입력장치로 입력된 음성정보를 비교함으로써 상기 사용자정보와 음성정보가 서로 일치하는 경우, 상기 출력장치를 통해 사용자 인증결과를 출력한다.In addition, the speaker recognition engine for authenticating the user by using the user management database combines the characters recognized by the voice recognition engine to each other to convert the character information in the form of characters, and the user information matching the converted character information to the user When the user information and the voice information coincide with each other by comparing the user information retrieved from the management database and the voice information input to the input device, the user authentication result is output through the output device.

여기서, 상기 음성인식엔진은 기존의 ARS기술을 사용하거나 상기 화자인식엔진기술은 기존의 SV기술을 이용하는 것도 가능하다.Here, the voice recognition engine may use the existing ARS technology, or the speaker recognition engine technology may use the existing SV technology.

또한, 상기 사용자관리 데이터베이스는, 사용자의 음성아이디와 음성패스워드 이외의 각종 신상정보를 그룹형태로 관리하는 개인데이터그룹별로 저장되고, 검색시 1개의 상기 개인데이터그룹만을 검색하여 검색시간을 대폭 축소시킬 수 있는 것이다.In addition, the user management database is stored for each personal data group that manages various personal information other than the user's voice ID and voice password in a group form, and greatly reduces the search time by searching only one of the personal data groups. It can be.

한편, 본 발명의 음절 인식을 이용한 사용자 인증 시스템을 이용한 인증 방법을 설명하면, 본 발명의 음절 인식을 이용한 사용자 인증 방법은, 상기 음성입력장치로 입력되는 음성정보를 음절별로 분절시켜 분절음으로 변환하고, 분절음을 문자로 인식하며, 인식된 문자로 사용자를 인증하는 것으로서, 도 2에 도시된 바와 같이, 상기 음성입력장치로 입력되는 음성정보를 음절별로 분절시켜 적어도 하나 이상의 분절음으로 변환시키는 음성분절단계(S1)와, 상기 분절음과 일치하는 음절을 상기 음절음성데이터베이스에서 검색하는 음절음성검색단계(S2)와, 검색된 음절을 대응하는 문자로 인식하는 문자인식단계(S3)와, 인식된 문자를 서로 조합하여 문자형태의 문자정보로 변환하는 문자결합단계(S4)와, 변환된 문자정보와 일치하는 사용자정보를 상기 사용자관리 데이터베이스에서 검색하는 사용자정보검색단계(S5) 및 검색된 사용자정보와 상기 입력장치로 입력된 음성정보를 비교하여 상기 사용자정보와 음성정보가 서로 일치하는 경우, 상기 출력장치를 통해 사용자 인증결과를 출력하는 사용자정보확인단계(S6)를 포함하여 이루어진다.Meanwhile, when an authentication method using a user authentication system using syllable recognition according to the present invention is described, the user authentication method using syllable recognition according to the present invention converts the voice information input into the voice input device into syllables and converts it into segmented sounds. Recognizing the segmentation sound as a character, and authenticating the user with the recognized character, as shown in FIG. 2, the speech segmentation step of segmenting the speech information input to the speech input device for each syllable and converting it into at least one segmentation sound. (S1), a syllable speech search step (S2) for searching a syllable matching syllable in the syllable speech database, a character recognition step (S3) for recognizing the searched syllable as a corresponding character, and a recognized character A character combining step (S4) of combining and converting the character information into character information, and user information matching the converted character information; When the user information and the voice information match each other by comparing the user information search step (S5) searched in the user management database and the searched user information and the voice information input to the input device, the user authentication result through the output device It comprises a user information confirmation step (S6) to output.

이러한 본 발명의 음절 인식을 이용한 사용자 인증 방법의 보다 구체적인 일례를 도 3의 순서도로 나타내면, 상기 음성아이디(V-ID)가 "홍길동"이고, 음성패스워드(V-Password)가 "길동"이라 한다면, 먼저 사용자는 반드시 음성아이디와 음성 패스워드를 사용자관리 데이터베이스에 입력시킴으로써 음성 등록을 마쳐야 한다(S10).If a more specific example of the user authentication method using the syllable recognition of the present invention is shown in the flowchart of FIG. 3, the voice ID (V-ID) is "Hong Gil-dong" and the voice password (V-Password) is "Gil-dong". First, the user must complete the voice registration by inputting the voice ID and the voice password into the user management database (S10).

이후, 사용자가 인터넷이나 유선전화 및 이동전화 상으로 각종 정보를 확인하거나 서비스를 이용하고자 할 경우, 자신이 등록한 음성아이디 "홍길동"과 음성패스워드 "길동"을 음성입력장치를 통해 제어부에 입력한다(S11).Then, when the user wants to check various information or use the service on the Internet, a landline phone or a mobile phone, the user inputs his or her registered voice ID "Hong Gil-dong" and the voice password "Kil-dong" to the controller through the voice input device ( S11).

이때, 제어부의 음성인식엔진이 구동하여 입력된 음성아이디 "홍길동"을 각각 하나의 음절단위인 "홍"과, "길"과, "동"으로 분절하고(S12), 상기 음절음성데이터베이스에 저장된 음절들을 검색하여 검색된 음절과 일치하는 문자를 찾아 음성 "홍"을 문자 「홍」으로, 음성 "길"을 문자 「길」로, 음성 "동"을 문자 「동」으로 문자 인식하게 된다(S13).In this case, the voice recognition engine of the controller is driven to segment the input voice ID “Hong Gil Dong” into one syllable unit, “hong”, “gil”, and “dong” (S12), and stored in the syllable speech database. The syllables are searched for a character that matches the searched syllables, and the voice “hong” is recognized as a character “hong”, the voice “gil” as a character “gil” and the voice “dong” as a character “east” (S13). ).

여기서, 이러한 문자인식은 사용자 인증을 위한 목소리 패턴 비교를 하기 위한 정밀 검색이 아니며, 단지 음절형태의 음성을 문자로 전환하는 기술로서, 이러한 문자인식기술은 해당 분야에 종사하는 당업자에 있어 수정 및 변경이 가능한 것이고, 이러한 문자인식 기술은 목소리 패턴 비교와는 달리 검색 속도가 매우 빠르다.Here, the character recognition is not a precise search for comparing voice patterns for user authentication, but merely a technology for converting a syllable type voice into a character, and the character recognition technology is modified and changed by those skilled in the art. This is possible, and this character recognition technology is very fast in search speed, unlike voice pattern comparison.

이어서, 문자 「홍」과, 문자「길」 및 문자「동」을 서로 연결시켜서 문자 「홍길동」으로 결합하고(S14), 결합된 문자「홍길동」을 키워드로 하여 사용자 관리 데이터베이스를 검색한다.Subsequently, the character "hong", the character "gil" and the character "dong" are connected to each other and combined into the character "hong gil dong" (S14), and the user character database is searched using the combined character "hong gil dong" as a keyword.

이때, 상기 키워드와 사용자 관리 데이터베이스에 저장된 등록 사용자의 문자아이디를 서로 비교하는 것으로서, 문자검색의 특성상 검색 속도가 매우 정확하고, 매우 빠르다.At this time, the keyword and the text ID of the registered user stored in the user management database are compared with each other, and the search speed is very accurate and very fast due to the characteristics of the text search.

이렇게 검색된 홍길동이란 이름의 사용자의 사용자 관리 데이터베이스 개인 데이터그룹에 포함된 미리 등록되어 있는 음성패스워드와 S11단계에서 입력된 음성패스워드의 음성패턴을 1:1로 비교한다(S16).The retrieved voice password included in the user management database personal data group of the user named Hong Gil-dong is compared 1: 1 with the voice pattern of the voice password input in step S11 (S16).

이러한 1:1비교에 의하여 종래의 1: 다수 비교방식의 사용자 인증방식에 비하여 훨씬 빠르고, 정밀한 비교가 가능한 것이다.By such a 1: 1 comparison, a much faster and more accurate comparison is possible than the conventional 1: 1 comparison method of user authentication.

이어서, 비교한 결과를 상기 출력장치에 출력하고(S17), 그 결과에 따라 네트워크 상에서 서비스 이용을 승낙하거나 거부할 수 있게 된다.Subsequently, the comparison result is output to the output device (S17), and according to the result, it is possible to accept or reject the service use on the network.

만약, 검색결과 사용자 인증이 실패하는 경우, 계속 진행여부를 묻고(S18), 음성아이디와 음성패스워드를 재 입력하게 한다.If the user authentication fails as a result of the search, it is asked whether to continue (S18), and the voice ID and the voice password are input again.

그러므로, 음성을 이용한 종래의 사용자 인증방법에 비하여 빠른 속도와 정확성을 확보하는 동시에 종래의 음성인식방법이 그 용량의 방대함과 느린 처리속도의 영향으로 3000 내지 4000 명의 사용자만을 인식할 수 있고, 그 이상의 단어는 인식률이 크게 떨어지는 데 반하여, 본 발명의 음절 인식을 이용한 사용자 인증 방법을 적용하면 사용자 수에 제한 없이 인식률을 크게 증대시키고, 신속한 인증이가능한 것이다.Therefore, compared to the conventional user authentication method using voice, the conventional voice recognition method can recognize only 3000 to 4000 users due to the enormous capacity of the capacity and the slow processing speed. While the word recognition rate is greatly reduced, when the user authentication method using syllable recognition of the present invention is applied, the recognition rate can be greatly increased and rapid authentication is possible without limiting the number of users.

한편, 본 발명의 음절 인식을 이용한 사용자 인증 시스템의 제어부는 도 4에 도시된 바와 같이, 컴퓨터 네트워크를 통해 인터넷 사용자와 연결될 수 있는 것으로서, 각종 서비스 프로그램을 구동하기 전에 사용자 인증을 실시할 수 있고, 도 5에 도시된 바와 같이, 컴퓨터 네트워크를 통해 VoIP 사용자와 연결되어 유선전화망을 통해 전화 사용자와 연결될 수 있는 것으로서, 전화를 이용한 각종 서비스를 이용하기 전에 사용자 인증을 실시할 수 있고, 이외에도 도 6에 도시된 바와 같이 이동전화망에도 연결되어 사용자 인증을 실시할 수도 있다.On the other hand, the control unit of the user authentication system using the syllable recognition of the present invention, as shown in Figure 4, can be connected to the Internet user through a computer network, it is possible to perform user authentication before running various service programs, As shown in FIG. 5, a user can be connected to a VoIP user through a computer network and connected to a telephone user through a wired telephone network, and user authentication can be performed before using various services using a telephone. As shown in the drawing, the mobile phone network may be connected to perform user authentication.

본 발명은 상술한 실시예에 한정되지 않으며, 본 발명의 사상을 해치지 않는 범위 내에서 당업자에 의한 변형이 가능함은 물론이다.The present invention is not limited to the above-described embodiments, and of course, modifications may be made by those skilled in the art without departing from the spirit of the present invention.

예컨대, 본 발명의 실시예에서는 한국어에만 국한되어 있으나 일본어 등 음절이 명확하게 구별되는 다른 나라의 언어에도 적용될 수 있고, 상기 음성아이디를 문자나 숫자 아이디로 대체하여 음성인식과정 없이 곧바로 음성패스워드의 1:1 검색을 가능하게 할 수도 있다.For example, in the embodiment of the present invention is limited to Korean, but can also be applied to languages of other countries where syllables are clearly distinguished, such as Japanese. You can also enable: 1 search.

따라서, 본 발명에서 권리를 청구하는 범위는 상세한 설명의 범위 내로 정해지는 것이 아니라 후술되는 청구범위와 이의 기술적 사상에 의해 한정될 것이다.Therefore, the scope of the claims in the present invention will not be defined within the scope of the detailed description, but will be defined by the following claims and the technical spirit thereof.

이상에서와 같이 본 발명의 음절 인식을 이용한 사용자 인증 방법 및 사용자 인증 시스템에 의하면, 음성을 문자로 변환하고, 그 문자를 키워드로 하여 문자검색을 한 다음, 검색된 음성데이터만을 입력된 음성데이터와 비교하기 때문에 음성데이터 비교횟수를 줄여서 빠르고, 정확한 사용자 인증을 가능하게 하며, 인터넷이나 유선전화망 및 이동전화망에 적용하기 용이한 효과를 갖는 것이다.As described above, according to the user authentication method and the user authentication system using the syllable recognition of the present invention, the voice is converted into text, the text is searched using the text as a keyword, and only the searched voice data is compared with the input voice data. Therefore, the number of voice data comparison is reduced, enabling fast and accurate user authentication, and having an effect that is easy to apply to the Internet, a wired telephone network, and a mobile telephone network.

Claims (6)

음성입력장치에 입력되는 음성을 제어부가 판단하여 사용자 인증여부를 출력장치로 출력하는 음성을 이용한 사용자 인증 방법에 있어서,In the user authentication method using the voice to output the user authentication to the output device whether the control unit determines the voice input to the voice input device, 상기 음성입력장치로 입력되는 음성정보를 음절별로 분절시켜 분절음으로 변환하고, 분절음을 문자로 인식하며, 인식된 문자로 사용자를 인증하는 것을 특징으로 하는 음절 인식을 이용한 사용자 인증 방법.And segmenting the voice information input by the voice input device into syllables, converting them into segmental sounds, recognizing segmented sounds as characters, and authenticating the user with the recognized characters. 음성입력장치에 입력되는 음성을 제어부가 판단하여 사용자 인증여부를 출력장치로 출력하는 음성을 이용한 사용자 인증 방법에 있어서,In the user authentication method using the voice to output the user authentication to the output device whether the control unit determines the voice input to the voice input device, 상기 제어부는, 음성으로 표현되는 모든 음성정보가 음절의 형태로 저장되는 음절음성데이터베이스 및 등록된 사용자에 대한 사용자 정보가 문자 및 음성의 형태로 저장되는 사용자관리 데이터베이스를 포함하며,The control unit includes a syllable speech database in which all voice information expressed in speech is stored in the form of syllables, and a user management database in which user information for registered users is stored in the form of text and voice, 상기 음성입력장치로 입력되는 음성정보를 음절별로 분절시켜 적어도 하나 이상의 분절음으로 변환시키는 음성분절단계;A speech segmentation step of segmenting the speech information input to the speech input device for each syllable and converting the speech information into at least one segmentation sound; 상기 분절음과 일치하는 음절을 상기 음절음성데이터베이스에서 검색하는 음절음성검색단계;A syllable speech search step of searching for a syllable that matches the segmental sound in the syllable speech database; 검색된 음절을 대응하는 문자로 인식하는 문자인식단계;A character recognition step of recognizing the searched syllables as corresponding characters; 인식된 문자를 서로 조합하여 문자형태의 문자정보로 변환하는 문자결합단계;A character combining step of combining the recognized characters into character information in a character form by combining them with each other; 변환된 문자정보와 일치하는 사용자정보를 상기 사용자관리 데이터베이스에서 검색하는 사용자정보검색단계; 및A user information retrieval step of retrieving user information matching the converted character information from the user management database; And 검색된 사용자정보와 상기 입력장치로 입력된 음성정보를 비교하여 상기 사용자정보와 음성정보가 서로 일치하는 경우, 상기 출력장치를 통해 사용자 인증결과를 출력하는 사용자정보확인단계;A user information checking step of comparing the searched user information with the voice information inputted to the input device and outputting a user authentication result through the output device when the user information and the voice information match each other; 를 포함하여 이루어지는 것을 특징으로 하는 음절 인식을 이용한 사용자 인증 방법.User authentication method using syllable recognition, characterized in that comprises a. 제 2항에 있어서,The method of claim 2, 상기 사용자 정보는 등록된 사용자의 음성아이디(V-ID)와 음성패스워드(V-Password)를 포함하고, 상기 음성입력장치에 입력되는 음성정보 역시 인증을 요구하는 사용자의 음성아이디와 음성패스워드를 포함하며, 상기 음성분절단계에서 분절되는 음성정보는 상기 인증을 요구하는 사용자의 음성아이디이고, 상기 사용자정보확인단계에서 비교되는 음성정보는 음성패스워드인 것을 특징으로 하는 음절 인식을 이용한 사용자 인증 방법.The user information includes a registered user's voice ID (V-ID) and a voice password (V-Password), and the voice information input to the voice input device also includes a user's voice ID and voice password for requesting authentication. And the voice information segmented in the speech segmentation step is a voice ID of the user requesting the authentication, and the speech information compared in the user information verification step is a voice password. 음성입력장치에 입력되는 음성을 제어부가 판단하여 사용자 인증여부를 출력장치로 출력하는 음성을 이용한 사용자 인증 시스템에 있어서,In the user authentication system using the voice that the control unit determines the voice input to the voice input device and outputs whether or not the user authentication to the output device, 상기 제어부는, 음성으로 표현되는 모든 음성정보가 음절의 형태로 저장되는 음절음성데이터베이스;The controller may include a syllable speech database in which all of the voice information represented by the voice is stored in a syllable form; 등록된 사용자에 대한 사용자 정보가 문자 및 음성의 형태로 저장되는 사용자관리 데이터베이스;A user management database for storing user information on registered users in the form of text and voice; 상기 음성입력장치로 입력되는 음성정보를 음절별로 분절시켜 적어도 하나 이상의 분절음으로 변환시키고, 상기 분절음과 일치하는 음절을 상기 음절음성데이터베이스에서 검색하여 검색된 음절을 대응하는 문자로 인식하는 음성인식엔진; 및A speech recognition engine for segmenting the speech information input to the speech input device into syllables, converting the speech information into at least one segmental sound, and searching the syllable matching syllables in the syllable speech database to recognize the searched syllables as corresponding characters; And 상기 음성인식엔진에서 인식된 문자를 서로 조합하여 문자형태의 문자정보로 변환하고, 변환된 문자정보와 일치하는 사용자정보를 상기 사용자관리 데이터베이스에서 검색하여 검색된 사용자정보와 상기 입력장치로 입력된 음성정보를 비교함으로써 상기 사용자정보와 음성정보가 서로 일치하는 경우, 상기 출력장치를 통해 사용자 인증결과를 출력하는 화자인식엔진;The characters recognized by the voice recognition engine are combined with each other to be converted into character information in the form of a character, and the user information searched by searching the user management database for the user information corresponding to the converted character information in the user management database and the voice information input to the input device. A speaker recognition engine that outputs a user authentication result through the output device when the user information and the voice information match each other by comparing a; 를 포함하여 이루어지는 것을 특징으로 하는 음절 인식을 이용한 사용자 인증 시스템.User authentication system using syllable recognition, characterized in that comprises a. 제 4항에 있어서,The method of claim 4, wherein 상기 사용자관리 데이터베이스는, 사용자 신상정보를 그룹형태로 관리하는 개인데이터그룹을 포함하여 이루어지는 것을 특징으로 하는 음절 인식을 이용한 사용자 인증 시스템.The user management database is a user authentication system using syllable recognition, characterized in that it comprises a personal data group for managing user identification information in a group form. 제 4항에 있어서, 상기 제어부는 컴퓨터 네트워크를 통해 인터넷 사용자와 연결되거나, 컴퓨터 네트워크를 통해 VoIP 사용자와 연결되어 유선전화망 및 이동전화망을 통해 정보 사용자와 연결되는 것을 특징으로 하는 음절 인식을 이용한 사용자 인증 시스템.5. The user authentication according to claim 4, wherein the control unit is connected to an Internet user through a computer network or a VoIP user through a computer network and connected to an information user through a wired telephone network and a mobile telephone network. system.
KR10-2000-0048582A 2000-08-22 2000-08-22 Method for identification of user using of cognition by syllable and its system KR100373989B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2000-0048582A KR100373989B1 (en) 2000-08-22 2000-08-22 Method for identification of user using of cognition by syllable and its system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2000-0048582A KR100373989B1 (en) 2000-08-22 2000-08-22 Method for identification of user using of cognition by syllable and its system

Publications (2)

Publication Number Publication Date
KR20020015464A true KR20020015464A (en) 2002-02-28
KR100373989B1 KR100373989B1 (en) 2003-02-26

Family

ID=19684402

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2000-0048582A KR100373989B1 (en) 2000-08-22 2000-08-22 Method for identification of user using of cognition by syllable and its system

Country Status (1)

Country Link
KR (1) KR100373989B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060063420A (en) * 2004-12-07 2006-06-12 에스케이 텔레콤주식회사 Voice recognition for portable terminal
KR101110055B1 (en) * 2009-03-23 2012-02-24 콜투게더 주식회사 Authentication system for attendanding of conference
KR20180049422A (en) * 2016-11-01 2018-05-11 한국전자통신연구원 Speaker authentication system and method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101484187B1 (en) * 2014-09-05 2015-01-26 (주)씽크에이티 Method and System for non-repudiation using voice recognition on telephone authentication

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100385442B1 (en) * 2000-02-29 2003-05-27 이만균 System for processing a voice internet command language
KR20000037167A (en) * 2000-04-10 2000-07-05 권순덕 Authentication system for electric commerce using voice recogniton technigue

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060063420A (en) * 2004-12-07 2006-06-12 에스케이 텔레콤주식회사 Voice recognition for portable terminal
KR101110055B1 (en) * 2009-03-23 2012-02-24 콜투게더 주식회사 Authentication system for attendanding of conference
KR20180049422A (en) * 2016-11-01 2018-05-11 한국전자통신연구원 Speaker authentication system and method

Also Published As

Publication number Publication date
KR100373989B1 (en) 2003-02-26

Similar Documents

Publication Publication Date Title
US7386448B1 (en) Biometric voice authentication
CN109428719B (en) Identity verification method, device and equipment
US8630391B2 (en) Voice authentication system and method using a removable voice ID card
KR100297833B1 (en) Speaker verification system using continuous digits with flexible figures and method thereof
WO2017012496A1 (en) User voiceprint model construction method, apparatus, and system
CN109462482B (en) Voiceprint recognition method, voiceprint recognition device, electronic equipment and computer readable storage medium
JP7123871B2 (en) Identity authentication method, identity authentication device, electronic device and computer-readable storage medium
CN111858892B (en) Voice interaction method, device, equipment and medium based on knowledge graph
US5937383A (en) Apparatus and methods for speech recognition including individual or speaker class dependent decoding history caches for fast word acceptance or rejection
CN111883140A (en) Authentication method, device, equipment and medium based on knowledge graph and voiceprint recognition
JPH09230887A (en) Speaker verification system with respect to vocalized sound and method therefor
CN112669842A (en) Man-machine conversation control method, device, computer equipment and storage medium
KR100373989B1 (en) Method for identification of user using of cognition by syllable and its system
KR102604319B1 (en) Speaker authentication system and method
JP2004094158A (en) Voiceprint authentication system utilizing vowel retrieval
US10957318B2 (en) Dynamic voice authentication
KR20010019772A (en) User Password Verification System and Method by Speech for Reinforced Security
JP2005227510A (en) Voice recognition device and voice recognition method
JP4245948B2 (en) Voice authentication apparatus, voice authentication method, and voice authentication program
US12008091B2 (en) Single input voice authentication
JP3818063B2 (en) Personal authentication device
KR20050050466A (en) Apparatus for registrating and identifying voice and method thereof
KR20220138924A (en) System of Voice Authentication through Voice Recognition and Voiceprint Recognition
WO2000058947A1 (en) User authentication for consumer electronics
KR102579130B1 (en) System and method that support voice recognition and identity verification based on multi-path CTC alignment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee