KR102383643B1 - communicating system through selective extraction and matching of voice data based on virtual space - Google Patents

communicating system through selective extraction and matching of voice data based on virtual space Download PDF

Info

Publication number
KR102383643B1
KR102383643B1 KR1020200115287A KR20200115287A KR102383643B1 KR 102383643 B1 KR102383643 B1 KR 102383643B1 KR 1020200115287 A KR1020200115287 A KR 1020200115287A KR 20200115287 A KR20200115287 A KR 20200115287A KR 102383643 B1 KR102383643 B1 KR 102383643B1
Authority
KR
South Korea
Prior art keywords
unit
voice data
matching
virtual space
user
Prior art date
Application number
KR1020200115287A
Other languages
Korean (ko)
Other versions
KR20220033194A (en
Inventor
김태균
Original Assignee
주식회사 코탁스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 코탁스 filed Critical 주식회사 코탁스
Priority to KR1020200115287A priority Critical patent/KR102383643B1/en
Publication of KR20220033194A publication Critical patent/KR20220033194A/en
Application granted granted Critical
Publication of KR102383643B1 publication Critical patent/KR102383643B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Telephonic Communication Services (AREA)

Abstract

본 발명은 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템에 관한 것으로서, 가상 공간에 접속한 유저에게 임의의 가상 캐릭터를 부여하는 인터페이싱 유닛; 가상 공간에 접속한 상기 유저의 보이스 데이터를 획득하는 레코그니션 유닛; 레코그니션 유닛으로부터 획득된 상기 보이스 데이터를 분석하여 레터 데이터로 변환하는 애널라이징 유닛; 레터 데이터를 분류하여 미리 저장된 시나리오 중 하나의 시나리오에 매칭하는 매칭 유닛; 및 매칭된 시나리오에 따라 선택적으로 응답하는 리플라잉 유닛을 포함하는 기술적 사상을 개시한다.The present invention relates to a communication system through selective extraction and matching of voice data based on a virtual space, comprising: an interfacing unit that grants an arbitrary virtual character to a user connected to a virtual space; a recording unit configured to acquire voice data of the user who has accessed the virtual space; an analyzing unit that analyzes the voice data obtained from the recording unit and converts it into letter data; a matching unit that classifies the letter data and matches one of the pre-stored scenarios; and a replying unit that selectively responds according to the matched scenario.

Description

가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템{communicating system through selective extraction and matching of voice data based on virtual space}Communication system through selective extraction and matching of voice data based on virtual space

본 발명은 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템에 관한 것이다. 보다 자세하게는, 가상 현실 공간에서 인공지능을 탑재한 가상의 캐릭터와 대화를 시도할 수 있으며, 대화 중 보이스 데이터를 획득하여, 획득한 보이스 데이터와 시나리오와의 매칭을 통해 리플라이 데이터를 제공하는 커뮤니케이팅 시스템에 관한 기술분야이다.The present invention relates to a communication system through selective extraction and matching of voice data based on virtual space. In more detail, a community that can try to have a conversation with a virtual character equipped with artificial intelligence in a virtual reality space, acquires voice data during the conversation, and provides reply data by matching the acquired voice data with the scenario It is a technical field related to the casting system.

음성 인식 기술이란 사람이 말하는 음성 언어를 컴퓨터가 해석하여 문자 데이터로 전환 처리하여 자동적으로 인식하는 기술을 뜻한다. 음성 인식 기술은 1954년 IBM과 조지타운 대학의 기계 번역 기술 개발 프로젝트로부터 시작되었다. 음성 인식 기술은 2000년대 중반까지도 상용화되지 못했으나, 기술의 발달로 음성 인식에 인공지능이 결합되면서 음성 인식 기술은 점차 비약적으로 발전하게 되었다.Speech recognition technology refers to a technology that automatically recognizes a human voice by interpreting it by a computer and converting it into text data. Speech recognition technology began in 1954 as a machine translation technology development project between IBM and Georgetown University. Speech recognition technology was not commercialized until the mid-2000s, but as artificial intelligence was combined with speech recognition due to the development of technology, speech recognition technology developed rapidly.

보통 우리가 알고 있는 음성 인식 기술에는 음성 인식 스피커가 있는데, 대표적으로 KT의 기가 지니가 있으며, 그 밖에도 다음의 카카오 미니, SKT의 누구, 네이버의 클로버 및 구글의 구글 홈 등의 다양한 음성 인식 스피커가 존재한다. 일반적으로 사용되는 음성 인식 스피커는 자주 사용하는 명령어만을 인식하여 수행하는 정도였으나, 여러 분야에 적용되고 데이터가 축적되면서 다양한 방식의 음성 인식 기술이 개발되고 있다.The voice recognition technology we know usually includes voice recognition speakers, representatively KT's GiGA Genie, and other voice recognition speakers such as Daum's Kakao Mini, SKT's Nougat, Naver's Clover, and Google's Google Home. exist. In general, a voice recognition speaker recognized and performed only frequently used commands, but as it is applied to various fields and data is accumulated, various types of voice recognition technologies are being developed.

최근에는 코로나 19로 인해 비대면 서비스에 대한 수요가 늘어나면서 음성 인식 기능과 인공지능을 활용한 음성 인식 기술의 필요성이 증대되어 새로운 비즈니스 모델로 떠오르고 있다.Recently, as the demand for non-face-to-face services increases due to COVID-19, the need for voice recognition technology using voice recognition functions and artificial intelligence is increasing, and it is emerging as a new business model.

이와 관련된 선행 특허문헌의 예로서 “양방향 커뮤니케이션이 가능한 가상현실 시스템 (등록번호 제10-1839726호, 이하 특허문헌1이라 한다.)”이 존재한다.As an example of a related prior patent document, "a virtual reality system capable of two-way communication (Registration No. 10-1839726, hereinafter referred to as Patent Document 1)" exists.

특허문헌1에 따른 발명의 경우, 양방향 커뮤니케이션이 가능한 가상현실 시스템에 관한 것으로, 사용자가 가상현실 시스템을 통해 대상체(고인, 미래의 특정인에게 자신의 메시지 또는 이벤트를 남기기 원하는 유저 등)와 쌍방향 교감 또는 대화를 할 수 있다. 또한, 3차원 가상현실 공간 상에 표시되는 대상체가, 사용자의 모션정보, 음성정보 등에 반응하고, 이벤트가 발생된 미래 특정 시점의 실세계정보(날씨, 뉴스 등)와 연동되어 3차원 가상현실 공간 상에 표시된다.In the case of the invention according to Patent Document 1, it relates to a virtual reality system capable of two-way communication. can have a conversation In addition, the object displayed on the 3D virtual reality space responds to the user's motion information and voice information, and is linked with the real world information (weather, news, etc.) at a specific point in time in the future when the event occurred to create a 3D virtual reality space. is displayed in

또 다른 특허문헌의 예로서 “가상현실 및 음성인식 기반의 실감 어학학습 콘텐츠 제공 장치 및 방법 (등록번호 제10-1743230호, 이하 특허문헌2이라 한다.)”이 존재한다.As another example of the patent document, "a device and method for providing realistic language learning content based on virtual reality and voice recognition (Registration No. 10-1743230, hereinafter referred to as Patent Document 2)" exists.

특허문헌2에 따른 발명의 경우, 저장모듈과 영사모듈과 오디오모듈과 음성인식모듈과 콘텐츠 제공모듈을 포함한다. 저장모듈은 가상현실을 재현하기 위한 영상 및 음성을 포함하는 콘텐츠를 저장한다. 영사모듈은 영상을 영사하고, 오디오모듈은 음성을 입력받거나 출력한다. 음성인식모듈은 오디오모듈로부터 수신되는 가상현실의 객체에 대한 사용자의 답변 혹은 질문을 음성인식하여 음성인식 결과를 출력한다. 콘텐츠 제공모듈은 음성인식 결과에 따라 사용자의 답변 혹은 질문을 평가하고, 평가 결과에 대응하여 객체가 사용자의 답변 혹은 질문에 대해 응답하는 음성 및 영상을 포함하는 콘텐츠를 영상모듈 및 오디오모듈이 출력하도록 제공한다.In the case of the invention according to Patent Document 2, it includes a storage module, a projection module, an audio module, a voice recognition module, and a content providing module. The storage module stores content including video and audio for reproducing virtual reality. The projection module projects an image, and the audio module receives or outputs audio. The voice recognition module outputs a voice recognition result by recognizing a user's answer or question for a virtual reality object received from the audio module. The content providing module evaluates the user's answer or question according to the voice recognition result, and in response to the evaluation result, the video module and the audio module output content including voice and video in which the object responds to the user's answer or question. to provide.

또 다른 특허문헌의 예로서 “인공지능 기반의 음성 모방 대화 서비스 베공 방법 및 시스템 (공개번호 제10-2019-0109651호, 이하 특허문헌3이라 한다.)”이 존재한다.As another example of the patent document, "AI-based voice imitation conversation service vegong method and system (Publication No. 10-2019-0109651, hereinafter referred to as Patent Document 3)" exists.

특허문헌3에 따른 발명의 경우, 인공지능 기반의 음성 모방 대화 서비스 제공 방법은, 대상 사람의 대화가 녹음된 파일을 획득하는 단계; 파일을 분석하여 대상 사람의 음성 모델을 학습하는 단계; 및 사용자의 대화가 발생됨에 응답하여, 음성 모델을 기초로 대상 사람을 모방한 인공지능의 음성 모방 대화 서비스를 사용자에게 제공하는 단계를 포함한다.In the case of the invention according to Patent Document 3, an artificial intelligence-based voice imitation dialog service providing method includes: acquiring a file in which a conversation of a target person is recorded; training the target person's speech model by analyzing the file; and in response to the user's conversation being generated, providing an artificial intelligence voice imitation conversation service that imitates a target person based on the voice model to the user.

또 다른 특허문헌의 예로서 “인공지능을 이용한 음성 대화 분석 방법 및 장치 (공개번호 제10-2019-0123362호, 이하 특허문헌4이라 한다.)”이 존재한다.As another example of the patent document, "a method and apparatus for analyzing voice conversation using artificial intelligence (Publication No. 10-2019-0123362, hereinafter referred to as Patent Document 4)" exists.

특허문헌4에 따른 발명의 경우, 인공지능 학습 모델을 이용하여 음성 대화를 분석하여 적합한 동작 모드를 통해 동작을 수행하기 위한 전자 장치의 제어 방법은, 음성을 입력받고, 음성에 대한 정보를 획득하는 단계, 음성에 대한 정보를 바탕으로 음성의 카테고리 정보를 획득하여 카테고리 정보에 대응되는 적어도 하나의 동작 모드를 결정하는 단계, 결정된 동작 모드에 대응되는 인공지능 모델을 이용하여 동작 모드와 관련된 동작을 수행하는 단계를 포함한다.In the case of the invention according to Patent Document 4, the control method of an electronic device for performing an operation through an appropriate operation mode by analyzing a voice conversation using an artificial intelligence learning model includes receiving a voice input and acquiring information about the voice. Step, determining at least one operation mode corresponding to the category information by acquiring category information of the voice based on the information on the voice, and performing an operation related to the operation mode using an artificial intelligence model corresponding to the determined operation mode including the steps of

등록번호 제10-1839726호Registration No. 10-1839726 등록번호 제10-1743230호Registration No. 10-1743230 공개번호 제10-2019-0109651호Publication No. 10-2019-0109651 공개번호 제10-2019-0123362호Publication No. 10-2019-0123362

본 발명에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템은 상기한 바와 같은 종래 문제점을 해결하기 위해 안출된 것으로서, 다음과 같은 해결하고자 하는 과제를 제시한다.The communication system through selective extraction and matching of voice data based on virtual space according to the present invention was devised to solve the conventional problems as described above, and presents the following problems.

첫째, 가상 현실 공간에 접속한 유저는 가상 캐릭터를 통해 대화를 하고자 한다.First, a user who has accessed the virtual reality space wants to have a conversation through a virtual character.

둘째, 유저와 연동된 가상 캐릭터로부터 보이스 데이터를 선별적으로 획득하여 분석하고자 한다.Second, we want to selectively acquire and analyze voice data from virtual characters linked with users.

셋째, 분석된 보이스 데이터와 미리 저장된 시나리오를 자동으로 매칭하여 적절한 응답을 하고자 한다.Third, we want to automatically match the analyzed voice data with the pre-stored scenario to give an appropriate response.

본 발명의 해결 과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems to be solved of the present invention are not limited to those mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템은 상기의 해결하고자 하는 과제를 위하여 다음과 같은 과제 해결 수단을 가진다.The communication system through selective extraction and matching of voice data based on virtual space according to the present invention has the following problem solving means for the above problems.

본 발명에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템은 가상 공간과 가상의 호스트 캐릭터(host character)를 형성하고, 상기 가상 공간에 접속한 유저(user)에게 임의의 가상 캐릭터를 부여하는 인터페이싱 유닛(interfacing unit); 상기 가상 공간에 접속한 상기 유저의 보이스 데이터(voice data)를 획득하는 레코그니션 유닛(recognition unit); 상기 레코그니션 유닛으로부터 획득된 상기 보이스 데이터를 분석하여 레터 데이터(letter data)로 변환하는 애널라이징 유닛(analyzing unit); 상기 애널라이징 유닛으로부터 변환된 상기 레터 데이터를 분류하여 미리 저장된 시나리오 중 하나의 시나리오에 매칭하는 매칭 유닛(matching unit); 및 상기 매칭 유닛으로부터 매칭된 시나리오에 따라 상기 호스트 캐릭터 또는 상기 가상 캐릭터가 선택적으로 응답하는 리플라잉 유닛(replying unit)을 포함하는 것을 특징으로 할 수 있다.The communication system through the selective extraction and matching of voice data based on the virtual space according to the present invention forms a virtual space and a virtual host character, and provides an arbitrary virtual space to a user accessing the virtual space. an interfacing unit that assigns a character; a recognition unit for acquiring voice data of the user who has accessed the virtual space; an analyzing unit that analyzes the voice data obtained from the recording unit and converts it into letter data; a matching unit that classifies the letter data converted from the analyzing unit and matches one of the pre-stored scenarios; and a replying unit to which the host character or the virtual character selectively responds according to a scenario matched from the matching unit.

본 발명에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 상기 인터페이싱 유닛은, 상기 가상 공간에 적어도 한 명 이상의 유저가 접속하면, 상기 호스트 캐릭터와 가상의 미팅룸(meeting room)이 자동으로 형성되는 크리에이팅(creating)부; 및 상기 가상 공간에 접속한 유저에게 가상의 유저 캐릭터를 부여하는 어사이닝(assigning)부를 포함하는 것을 특징으로 할 수 있다.The interfacing unit of the communication system through the selective extraction and matching of voice data based on the virtual space according to the present invention, when at least one or more users access the virtual space, the host character and a virtual meeting room (meeting room) ) is automatically formed creating (creating) unit; and an assigning unit that assigns a virtual user character to a user who has accessed the virtual space.

본 발명에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 상기 레코그니션 유닛은, 상기 가상 공간 접속한 복수 개의 유저 캐릭터 중 적어도 한 개 이상의 유저 캐릭터를 선택하는 유저 셀렉팅(user selecting)부; 및 상기 유저 셀렉팅부로부터 선택된 상기 유저 캐릭터의 보이스 데이터를 추출하여 획득하는 어콰이어링(acquiring)부를 포함하는 것을 특징으로 할 수 있다.The recording unit of the communication system through selective extraction and matching of voice data based on virtual space according to the present invention selects at least one user character from among a plurality of user characters connected to the virtual space (user selecting) unit; and an acquiring unit for extracting and obtaining voice data of the user character selected from the user selecting unit.

본 발명에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 상기 유저 셀렉팅부는, 상기 가상 공간에 접속한 상기 복수 명의 유저 캐릭터의 보이스 데이터의 음색, 음소, 음조, 강세, 억양, 속도, 숨소리, 발음, 무성음, 유성음, 보이스의 시작점, 보이스의 끝점, 보이스의 주파수 또는 보이스의 진폭 중 적어도 하나 이상을 식별하여 상기 유저의 보이스를 선택적으로 선별하는 것을 특징으로 할 수 있다.The user selecting unit of the communication system through selective extraction and matching of voice data based on the virtual space according to the present invention includes tone, phoneme, tone, stress, It may be characterized in that the user's voice is selectively selected by identifying at least one of intonation, speed, breath sound, pronunciation, unvoiced sound, voiced sound, voice start point, voice end point, voice frequency, or voice amplitude.

본 발명에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 상기 유저 셀렉팅부는, 상기 복수 개의 유저 캐릭터의 각각의 보이스 데이터를 임의의 패턴으로 구획하여 복수 개의 패턴 영역을 설정하는 패턴 파티션부; 상기 패턴 파티션부로부터 구획된 상기 복수 개의 패턴 영역 각각에 상이한 매칭넘버를 부여하는 매칭넘버 할당부; 상기 매칭넘버 할당부로부터 상기 매칭넘버가 부여된 상기 복수 개의 패턴 영역을 랜덤하게 믹싱하고 조합하여, 물리적으로 분할된 공간에 분산하여 저장하도록 하는 패턴 스캐터링부; 및 상기 패턴 스캐터링부로부터 분산 저장된 상기 복수 개의 패턴 영역을 상기 매칭넘버 할당부로부터 부여된 상기 매칭넘버를 이용하여 리매칭하는 패턴 리매칭부를 포함하는 것을 특징으로 할 수 있다.The user selecting unit of the communication system through selective extraction and matching of voice data based on virtual space according to the present invention divides each voice data of the plurality of user characters into an arbitrary pattern to set a plurality of pattern areas a pattern partition unit; a matching number allocator for assigning a different matching number to each of the plurality of pattern regions partitioned from the pattern partitioning unit; a pattern scattering unit that randomly mixes and combines the plurality of pattern regions to which the matching numbers are assigned from the matching number allocator, and distributes and stores them in a physically divided space; and a pattern rematching unit for rematching the plurality of pattern regions distributed and stored by the pattern scattering unit using the matching number provided from the matching number allocating unit.

본 발명에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 상기 애널라이징 유닛은, 상기 어콰이어링부로부터 획득된 상기 보이스 데이터를 음절 단위로 분할하는 디바이딩부; 상기 디바이딩부로부터 음절 단위로 분할된 상기 보이스 데이터의 발음으로부터 언어를 분석하는 랭귀지(language)부; 및 상기 랭귀지로부터 분석된 언어에 따라 음절 단위로 분할된 상기 보이스 데이터를 임의 조합하여 단어 또는 문장 단위의 보이스 데이터로 형성하는 센텐스(sentence)부를 포함하는 것을 특징으로 할 수 있다.The analyzing unit of the communication system through selective extraction and matching of voice data based on virtual space according to the present invention includes: a dividing unit that divides the voice data obtained from the asking unit into syllable units; a language unit for analyzing a language from the pronunciation of the voice data divided into syllable units from the dividing unit; and a sentence unit for arbitrarily combining the voice data divided into syllable units according to the language analyzed from the language to form voice data in units of words or sentences.

본 발명에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 상기 애널라이징 유닛은, 상기 단어 또는 문장 단위로 조합된 상기 보이스 데이터를 상기 레터 데이터로 변환하는 컨버팅(converting)부; 및 상기 컨버팅부로부터 변환된 상기 레터 데이터로부터 유효 단어를 선별하는 솔팅(sorting)부를 더 포함하는 것을 특징으로 할 수 있다.The analyzing unit of the communication system through selective extraction and matching of voice data based on virtual space according to the present invention is a converting unit that converts the voice data combined in units of words or sentences into the letter data ; and a sorting unit for selecting valid words from the letter data converted by the converting unit.

본 발명에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 상기 솔팅부로부터 선별된 상기 유효 단어에 따라서 상기 레터 데이터를 복수 개의 카테고리 중 하나의 카테고리에 분류 설정하는 카테고리(category)부; 및 상기 카테고리부로부터 분류된 상기 레터 데이터를 미리 저장된 시나리오에 매칭하는 어댑팅(adapting)부를 포함하는 것을 특징으로 할 수 있다.A category for classifying and setting the letter data into one of a plurality of categories according to the valid word selected from the salting unit of the communication system through selective extraction and matching of virtual space-based voice data according to the present invention )wealth; and an adapting unit matching the letter data classified from the category unit to a pre-stored scenario.

본 발명에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 상기 어댑팅부는, 상기 미리 저장된 시나리오는 복수 개의 질문 데이터와 복수 개의 답변 데이터가 저장되어, 상기 유효 단어를 상기 복수 개의 질문 데이터 또는 상기 복수 개의 답변 데이터와 비교하여 매칭하는 것을 특징으로 할 수 있다.The adapting unit of the communication system through selective extraction and matching of voice data based on virtual space according to the present invention, in the pre-stored scenario, a plurality of question data and a plurality of answer data are stored, It may be characterized in that it compares and matches the question data or the plurality of answer data.

본 발명에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 상기 리플라잉 유닛은, 상기 유저 캐릭터의 상기 보이스 데이터로부터 응답할 언어를 임의 설정하는 랭귀지 세팅부; 상기 보이스 데이터에 대해 응답할 상기 호스트 캐릭터 또는 다른 유저 캐릭터 중 리플라이 대상자를 임의 설정하는 리플라이 세팅부; 및 상기 매칭 유닛으로부터 매칭된 상기 시나리오에 따라, 상기 리플라이 대상자가 자동으로 상기 리플라이 데이터를 제공하는 리플라이 기빙부를 포함하는 것을 특징으로 할 수 있다.The replaying unit of the communication system through selective extraction and matching of virtual space-based voice data according to the present invention includes: a language setting unit for arbitrarily setting a language to respond from the voice data of the user character; a reply setting unit for randomly setting a reply target among the host character or other user characters to respond to the voice data; And according to the scenario matched from the matching unit, the reply target may be characterized in that it comprises a reply giving unit that automatically provides the reply data.

본 발명에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 상기 리플라잉 유닛은, 상기 리플라이 데이터에 대한 상기 유저 캐릭터의 리액션 데이터를 캐치하여 상기 미리 저장된 시나리오 데이터에 추가하는 것을 특징으로 할 수 있다.The replying unit of the communication system through selective extraction and matching of virtual space-based voice data according to the present invention catches the user character's reaction data for the reply data and adds it to the pre-stored scenario data can be characterized as

이상과 같은 구성의 본 발명에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템은 다음과 같은 효과를 제공한다.The communication system through selective extraction and matching of voice data based on virtual space according to the present invention having the above configuration provides the following effects.

첫째, 가상 현실 공간에 접속한 유저는 가상 캐릭터를 통해 다양한 상대와 대화를 할 수 있게 된다.First, a user who has accessed the virtual reality space can have a conversation with various opponents through a virtual character.

둘째, 유저와 연동된 복수 개의 가상 캐릭터로부터 보이스 데이터를 선별적으로 획득하여 레터 데이터를 추출할 수 있게 된다.Second, it is possible to extract letter data by selectively acquiring voice data from a plurality of virtual characters linked with the user.

셋째, 분석된 보이스 데이터와 미리 저장된 시나리오를 자동으로 매칭하여 대화 주제에 따른 적절한 응답을 할 수 있게 된다.Third, it is possible to automatically match the analyzed voice data and the pre-stored scenario to give an appropriate response according to the conversation topic.

본 발명의 효과는 이상에서 언급한 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도1은 본 발명의 일 실시예에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템을 도시한 개념도이다.
도2는 본 발명의 일 실시예에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 인터페이싱 유닛을 도시한 블록도이다.
도3은 본 발명의 일 실시예에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 레코그니션 유닛을 도시한 블록도이다.
도4는 본 발명의 일 실시예에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 레코그니션 유닛을 도시한 개념도이다.
도5는 본 발명의 일 실시예에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 유저 셀렉팅부를 도시한 블록도이다.
도6은 본 발명의 일 실시예에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 패턴 파티션부를 도시한 개념도이다.
도7은 본 발명의 일 실시예에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 매칭넘버 할당부를 도시한 개념도이다.
도8은 본 발명의 일 실시예에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 패턴 스캐터링부를 도시한 개념도이다.
도9는 본 발명의 일 실시예에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 애널라이징 유닛을 도시한 블록도이다.
도10은 본 발명의 일 실시예에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 애널라이징 유닛을 도시한 개념도이다.
도11은 본 발명의 일 실시예에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 매칭 유닛을 도시한 블록도이다.
도12는 본 발명의 일 실시예에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 매칭 유닛을 도시한 개념도이다.
도13은 본 발명의 일 실시예에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 리플라잉 유닛을 도시한 블록도이다.
도14는 본 발명의 일 실시예에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 리플라잉 유닛을 도시한 개념도이다.
1 is a conceptual diagram illustrating a communication system through selective extraction and matching of voice data based on virtual space according to an embodiment of the present invention.
2 is a block diagram illustrating an interfacing unit of a communication system through selective extraction and matching of voice data based on virtual space according to an embodiment of the present invention.
3 is a block diagram illustrating a recording unit of a communication system through selective extraction and matching of voice data based on virtual space according to an embodiment of the present invention.
4 is a conceptual diagram illustrating a recording unit of a communication system through selective extraction and matching of voice data based on virtual space according to an embodiment of the present invention.
5 is a block diagram illustrating a user selection unit of a communication system through selective extraction and matching of voice data based on virtual space according to an embodiment of the present invention.
6 is a conceptual diagram illustrating a pattern partition unit of a communication system through selective extraction and matching of voice data based on virtual space according to an embodiment of the present invention.
7 is a conceptual diagram illustrating a matching number assignment unit of a communication system through selective extraction and matching of virtual space-based voice data according to an embodiment of the present invention.
8 is a conceptual diagram illustrating a pattern scattering unit of a communication system through selective extraction and matching of voice data based on virtual space according to an embodiment of the present invention.
9 is a block diagram illustrating an analyzing unit of a communication system through selective extraction and matching of voice data based on virtual space according to an embodiment of the present invention.
10 is a conceptual diagram illustrating an analyzing unit of a communication system through selective extraction and matching of voice data based on virtual space according to an embodiment of the present invention.
11 is a block diagram illustrating a matching unit of a communication system through selective extraction and matching of voice data based on virtual space according to an embodiment of the present invention.
12 is a conceptual diagram illustrating a matching unit of a communication system through selective extraction and matching of voice data based on virtual space according to an embodiment of the present invention.
13 is a block diagram illustrating a replaying unit of a communication system through selective extraction and matching of voice data based on virtual space according to an embodiment of the present invention.
14 is a conceptual diagram illustrating a replaying unit of a communication system through selective extraction and matching of voice data based on virtual space according to an embodiment of the present invention.

본 발명에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 기술적 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. The communication system through selective extraction and matching of virtual space-based voice data according to the present invention can apply various changes and can have various embodiments, specific embodiments are illustrated in the drawings and detailed in the detailed description I would like to explain However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention.

도1은 본 발명의 일 실시예에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템을 도시한 개념도이다. 도2는 본 발명의 일 실시예에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 인터페이싱 유닛을 도시한 블록도이다. 도3은 본 발명의 일 실시예에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 레코그니션 유닛을 도시한 블록도이다. 도4는 본 발명의 일 실시예에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 레코그니션 유닛을 도시한 개념도이다. 도5는 본 발명의 일 실시예에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 유저 셀렉팅부를 도시한 블록도이다. 도6은 본 발명의 일 실시예에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 패턴 파티션부를 도시한 개념도이다. 도7은 본 발명의 일 실시예에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 매칭넘버 할당부를 도시한 개념도이다. 도8은 본 발명의 일 실시예에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 패턴 스캐터링부를 도시한 개념도이다. 도9는 본 발명의 일 실시예에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 애널라이징 유닛을 도시한 블록도이다. 도10은 본 발명의 일 실시예에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 애널라이징 유닛을 도시한 개념도이다. 도11은 본 발명의 일 실시예에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 매칭 유닛을 도시한 블록도이다. 도12는 본 발명의 일 실시예에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 매칭 유닛을 도시한 개념도이다. 도13은 본 발명의 일 실시예에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 리플라잉 유닛을 도시한 블록도이다. 도14는 본 발명의 일 실시예에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 리플라잉 유닛을 도시한 개념도이다.1 is a conceptual diagram illustrating a communication system through selective extraction and matching of voice data based on virtual space according to an embodiment of the present invention. 2 is a block diagram illustrating an interfacing unit of a communication system through selective extraction and matching of voice data based on virtual space according to an embodiment of the present invention. 3 is a block diagram illustrating a recording unit of a communication system through selective extraction and matching of voice data based on virtual space according to an embodiment of the present invention. 4 is a conceptual diagram illustrating a recording unit of a communication system through selective extraction and matching of voice data based on virtual space according to an embodiment of the present invention. 5 is a block diagram illustrating a user selection unit of a communication system through selective extraction and matching of voice data based on virtual space according to an embodiment of the present invention. 6 is a conceptual diagram illustrating a pattern partition unit of a communication system through selective extraction and matching of voice data based on virtual space according to an embodiment of the present invention. 7 is a conceptual diagram illustrating a matching number assignment unit of a communication system through selective extraction and matching of virtual space-based voice data according to an embodiment of the present invention. 8 is a conceptual diagram illustrating a pattern scattering unit of a communication system through selective extraction and matching of voice data based on virtual space according to an embodiment of the present invention. 9 is a block diagram illustrating an analyzing unit of a communication system through selective extraction and matching of voice data based on virtual space according to an embodiment of the present invention. 10 is a conceptual diagram illustrating an analyzing unit of a communication system through selective extraction and matching of voice data based on virtual space according to an embodiment of the present invention. 11 is a block diagram illustrating a matching unit of a communication system through selective extraction and matching of voice data based on virtual space according to an embodiment of the present invention. 12 is a conceptual diagram illustrating a matching unit of a communication system through selective extraction and matching of voice data based on virtual space according to an embodiment of the present invention. 13 is a block diagram illustrating a replaying unit of a communication system through selective extraction and matching of voice data based on virtual space according to an embodiment of the present invention. 14 is a conceptual diagram illustrating a replaying unit of a communication system through selective extraction and matching of voice data based on virtual space according to an embodiment of the present invention.

본 발명에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템은, 인터페이싱 유닛(interfacing unit, 100), 레코그니션 유닛(recognition unit, 200), 애널라이징 유닛(analyzing unit, 300), 매칭 유닛(matching unit, 400) 및 리플라잉 유닛(replying unit, 500)을 포함하게 된다.The communication system through selective extraction and matching of virtual space-based voice data according to the present invention is an interfacing unit 100, a recognition unit 200, an analyzing unit 300 ), a matching unit (400) and a replying unit (replying unit, 500) is included.

먼저, 인터페이싱 유닛(100)은 가상 공간과 가상의 호스트 캐릭터를 형성하고, 가상 공간에 접속한 유저에게 임의의 가상 캐릭터를 부여하는 구성이다.First, the interfacing unit 100 is configured to form a virtual space and a virtual host character, and to give an arbitrary virtual character to a user connected to the virtual space.

인터페이싱 유닛(100)에서는 도1에 도시된 바와 같이, 임의의 가상 현실 공간을 형성하며, 가상 공간은 회의실, 면접실, 강의실, 다목적실, 세미나실, 강당 등의 대화 장소를 형성할 수 있으며, 장소는 대화 주제에 맞는 장소를 생성할 수 있는 것이 바람직하다.In the interfacing unit 100, as shown in Figure 1, an arbitrary virtual reality space is formed, and the virtual space can form a conversation place such as a conference room, an interview room, a lecture room, a multi-purpose room, a seminar room, an auditorium, and the place is It would be nice to be able to create a place that fits the conversation topic.

또한, 여기서 말하는 가상의 호스트 캐릭터(host character)는, 인공지능(artificial intelligence)을 탑재된 캐릭터가 되거나, 또는 대화를 위해 가상 공간을 오픈한 유저 자체가 될 수도 있으며, 가상 공간에 참여하는 인원 또한 제한이 없으나, 호스트 캐릭터의 권한으로 참여 인원을 제한할 수도 있다.In addition, the virtual host character referred to herein may be a character equipped with artificial intelligence, or a user who opens a virtual space for conversation, and the person participating in the virtual space There is no limit, but the number of participants may be limited by the authority of the host character.

본 발명에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 인터페이싱 유닛(100)은 도2에 도시된 바와 같이, 크리에이팅(creating)부(110) 및 어사이닝(assigning)부(120)을 포함하게 된다.As shown in FIG. 2 , the interfacing unit 100 of the communication system through selective extraction and matching of voice data based on virtual space according to the present invention includes a creating unit 110 and an assigning ) to include a portion (120).

먼저, 크리에이팅부(110)는 가상 공간에 적어도 한 명 이상의 유저가 접속하면 호스트 캐릭터와 가상의 미팅룸(meeting room)이 자동으로 형성되는 구성이다.First, the creating unit 110 is configured to automatically form a virtual meeting room with a host character when at least one user accesses the virtual space.

크리에이팅부(110)는 가상의 미팅룸을 생성하며, 여기서 말하는 가상의 미팅룸은 호스트 캐릭터와 또 다른 가상 캐릭터들간의 대화가 이루어지는 곳이다.The creating unit 110 creates a virtual meeting room, and the virtual meeting room referred to herein is a place where a conversation between the host character and other virtual characters takes place.

어사이닝부(120)는 가상 공간에 접속한 유저에게 가상의 유저 캐릭터를 부여하는 구성이다.The assigning unit 120 is configured to give a virtual user character to a user who has accessed the virtual space.

어사이닝부(120)는 인터넷, 인트라넷, 유무선 통신망, 이동 통신망을 매개로 스마트폰, 스마트 노트, 태블릿 PC, 노트북, 데스크탑, 스마트 TV를 통해 가상 공간에 접속한 유저에게 각각의 고유한 유저 캐릭터를 부여하며, 가상 공간 유저는 자신이 원하는 캐릭터를 직접 선택할 수도 있다. 또한, 유저는 본인의 보이스를 통해 대화에 참여할 수 있으나, 유저 캐릭터에 맞는 적절한 보이스로 변경하여 대화에 참여할 수도 있다.The assigning unit 120 provides each unique user character to a user who accesses the virtual space through a smartphone, a smart note, a tablet PC, a laptop, a desktop, and a smart TV via the Internet, an intranet, a wired/wireless communication network, and a mobile communication network. and the virtual space user can directly select the character he or she wants. In addition, the user can participate in the conversation through his or her own voice, but can also participate in the conversation by changing to an appropriate voice for the user's character.

레코그니션 유닛(200)은 도4에 도시된 바와 같이, 가상 공간에 접속한 유저의 보이스 데이터(voice data)를 획득하는 구성이다.As shown in FIG. 4 , the registration unit 200 is configured to acquire voice data of a user who has accessed the virtual space.

레코그니션 유닛(200)은 가상 공간에 접속한 유저의 마이크, 헤드셋, 이어폰, 스피커 등을 통해 송출되는 보이스 데이터를 획득할 수 있으나, 이 외에도 다양한 장치를 통해 보이스 데이터를 획득할 수 있다.The recording unit 200 may acquire voice data transmitted through a microphone, headset, earphone, speaker, etc. of a user connected to the virtual space, but may acquire voice data through various devices in addition to this.

본 발명에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 레코그니션 유닛(200)은 도3에 도시된 바와 같이, 유저 셀렉팅(user selecting)부(210) 및 어콰이어링(acquiring)부(220)를 포함하게 된다.As shown in FIG. 3 , the recording unit 200 of the communication system through selective extraction and matching of voice data based on virtual space according to the present invention includes a user selecting unit 210 and an acquirer. It will include a ring (acquiring) portion 220.

먼저, 유저 셀렉팅부(210)는 가상 공간에 접속한 복수 개의 유저 캐릭터 중 적어도 하나 이상의 유저 캐릭터를 선택하는 구성이다.First, the user selecting unit 210 is configured to select at least one user character from among a plurality of user characters connected to the virtual space.

또한, 유저 셀렉팅부(210)는 가상 공간에 접속한 복수 개의 유저 캐릭터의 보이스 데이터로부터 음색, 음소, 음조, 강세, 억양, 속도, 숨소리, 발음, 무성음, 유성음, 보이스의 시작점, 보이스의 끝점, 보이스의 주파수 또는 진폭 중 적어도 하나 이상을 식별하여, 유저의 보이스 데이터를 선택적으로 선별하는 구성이다.In addition, the user selecting unit 210 is a voice data of a plurality of user characters connected to the virtual space, the tone, phoneme, tone, stress, intonation, speed, breath sound, pronunciation, unvoiced sound, voiced sound, the start point of the voice, the end point of the voice, It is a configuration for selectively selecting the user's voice data by identifying at least one of the frequency or amplitude of the voice.

본 발명에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 유저 셀렉팅부(210)는 도5에 도시된 바와 같이, 패턴 파티션(pattern partition)부(211), 매칭넘버(matching number) 할당부(212), 패턴 스캐터링(pattern scattering)부(213) 및 패턴 리매칭(pattern rematching)부(214)를 포함하게 된다.As shown in FIG. 5, the user selecting unit 210 of the communication system through selective extraction and matching of virtual space-based voice data according to the present invention includes a pattern partition unit 211, a matching number ( It includes a matching number assignment unit 212 , a pattern scattering unit 213 , and a pattern rematching unit 214 .

먼저, 패턴 파티션부(211)는 복수 개의 유저 캐릭터 각각의 보이스 데이터를 임의의 패턴으로 구획하여 복수 개의 패턴 영역을 설정하는 구성이다.First, the pattern partition unit 211 is configured to partition the voice data of each of a plurality of user characters into an arbitrary pattern to set a plurality of pattern areas.

패턴 파티션부(211)의 복수 개의 패턴 영역은 도6에 도시된 바와 같이, 각기 다른 유저 캐릭터의 보이스 파형 데이터를 분할하여 복수 개의 패턴 영역으로 지정할 수 있다. As shown in FIG. 6 , the plurality of pattern areas of the pattern partition unit 211 may be designated as a plurality of pattern areas by dividing voice waveform data of different user characters.

또한, 복수 개의 패턴 영역에 내재되는 파형은 유저 캐릭터에 따라 다르며, 동일한 유저 캐릭터의 파형이라 하더라도, 임의의 패턴으로 구획됨에 따라서 서로 다른 파형 데이터를 내재하게 된다.In addition, the waveforms included in the plurality of pattern areas vary depending on the user character, and even if the waveforms of the same user character are divided into arbitrary patterns, different waveform data is inherent.

아울러, 복수 개의 패턴 영역에 내재되는 파형 데이터로부터, 유저 캐릭터의 고유한 보이스 데이터를 분별할 수 있게 된다.In addition, it is possible to distinguish the unique voice data of the user character from the waveform data included in the plurality of pattern areas.

매칭넘버 할당부(212)는 패턴 파티션부(211)로부터 구획된 복수 개의 패턴 영역 각각에 상이한 매칭 넘버를 부여하는 구성이다.The matching number allocator 212 is configured to assign a different matching number to each of the plurality of pattern regions partitioned from the pattern partition unit 211 .

매칭넘버 할당부(212)의 매칭 넘버는 일종의 암호화된 넘버로서, 유저 캐릭터의 고유한 보이스 데이터를 보호하기 위한 것이다. 이때, 부여되는 매칭 넘버는 암호화되어, 접근이 허가된 관리자만에게만 공유될 수 있다. The matching number of the matching number allocator 212 is a kind of encrypted number to protect the unique voice data of the user character. In this case, the given matching number is encrypted and can be shared only with an administrator who is permitted to access.

또한, 매칭넘버 할당부(212)는 도7에 도시된 바와 같이, a1, a2, b1, b2, c1, c2와 같이 문자와 숫자의 조합으로 이루어진 상이한 매칭 넘버를 복수 개의 패턴 영역 각각에 부여하게 된다. In addition, the matching number allocator 212 assigns a different matching number consisting of a combination of letters and numbers, such as a1, a2, b1, b2, c1, c2, to each of the plurality of pattern areas, as shown in FIG. do.

패턴 스캐터링부(213)는 도8에 도시된 바와 같이, 매칭넘버 할당부(212)로부터 매칭 넘버가 부여된 복수 개의 패턴 영역을 랜덤하게 믹싱하고 조합하여, 물리적으로 분할된 공간에 분산 저장하도록 하는 구성이다.As shown in FIG. 8, the pattern scattering unit 213 randomly mixes and combines a plurality of pattern areas assigned with matching numbers from the matching number allocator 212, and distributes and stores them in a physically divided space. is a configuration that

패턴 스캐터링부(213)는 매칭 넘버가 부여된 복수 개의 패턴 영역을 무작위로 믹싱한 다음 조합하게 되는데, 이는 유저 캐릭터의 각각이 가진 고유한 보이스 데이터 정보를 보호하고, 외부로부터 유출되거나 카피되는 것을 방지하기 위한 것이다.The pattern scattering unit 213 randomly mixes and then combines a plurality of pattern areas to which matching numbers are assigned, which protects the unique voice data information of each user character and prevents leaking or copying from the outside. is to prevent

아울러, 복수 개의 패턴 영역을 랜덤하게 믹싱하기 위해 적용되는 랜덤 변수는 마찬가지로 접근이 허가된 관리자에게만 공유시키게 된다.In addition, a random variable applied to randomly mix a plurality of pattern regions is shared only with an administrator who is similarly permitted to access.

패턴 리매칭부(214)는 패턴 스캐터링부(213)로부터 분산 저장된 복수 개의 패턴 영역을 매칭 넘버를 이용하여 리매칭하는 구성이다.The pattern rematching unit 214 is configured to rematch a plurality of pattern areas distributed and stored from the pattern scattering unit 213 using a matching number.

패턴 리매칭부(214)에서 복수 개의 패턴 영역을 리매칭하기 위해서는, 접근이 허가된 관리자는 패턴 스캐터링부(213)로부터 공유된 랜덤 변수를 통해 매개하여 리매칭할 수 있게 된다.In order to rematch a plurality of pattern regions in the pattern rematching unit 214 , an administrator who is permitted to access can perform rematching through a random variable shared from the pattern scattering unit 213 .

어콰이어링부(220)는 유저 셀렉팅부(210)로부터 선택된 상기 유저 캐릭터의 보이스 데이터를 추출하여 획득하는 구성이다.The asking unit 220 is configured to extract and obtain voice data of the user character selected from the user selecting unit 210 .

어콰이어링부(220)는 가상 공간에서 호스트 캐릭터와 유저 캐릭터의 자연스러운 대화 중에 유저 셀렉팅부(210)로부터 선택된 유저 캐릭터의 보이스 데이터만을 추출하여 획득할 수 있으며, 예컨대 유저 셀렉팅부(210)로부터 복수 개의 유저 캐릭터가 선택될 경우, 복수 개의 유저 캐릭터의 각각의 복수 개의 보이스 데이터를 추출할 수 있다.The asking unit 220 may extract and obtain only the voice data of the user character selected from the user selecting unit 210 during a natural conversation between the host character and the user character in the virtual space, for example, a plurality of users from the user selecting unit 210 . When a character is selected, each of a plurality of voice data of a plurality of user characters may be extracted.

애널라이징 유닛(300)은, 레코그니션 유닛(200)으로부터 획득된 보이스 데이터를 분석하여 레터 데이터(letter data)로 변환하는 구성이다.The analyzing unit 300 is configured to analyze the voice data obtained from the recording unit 200 and convert it into letter data.

본 발명에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 애널라이징 유닛(300)은, 도9에 도시된 바와 같이, 디바이딩(dividing)부(310), 랭귀지(language)부(320), 센텐스(sentence)부(330), 컨버팅(converting)부(340) 및 솔팅(sorting)부(350)을 포함하게 된다.As shown in FIG. 9 , the analyzing unit 300 of the communication system through selective extraction and matching of voice data based on virtual space according to the present invention includes a dividing unit 310 and a language ) part 320 , a sentence part 330 , a converting part 340 , and a salting part 350 are included.

디바이딩부(310)는 어콰이어링부(220)로부터 획득된 보이스 데이터를 음절 단위로 분할하는 구성이다.The dividing unit 310 is configured to divide the voice data obtained from the asking unit 220 into syllable units.

랭귀지부(320)는 디바이딩부(310)로부터 분할된 상기 보이스 데이터의 발음으로부터 언어를 분석하는 구성이다. 예컨대, 영어는 받침이 없는 언어이며 한국어는 초성, 중성, 종성으로 구성되어 각각의 다른 소리를 낸다. 영어와 한국어는 단어와 문장의 조합하는 방식이 상이하므로, 획득된 보이스 데이터로부터 언어의 분석이 필요하다.The language unit 320 is configured to analyze a language from the pronunciation of the voice data divided from the dividing unit 310 . For example, English is a language without a consonant, and Korean is composed of an initial, middle, and final consonant, each with a different sound. Since English and Korean have different ways of combining words and sentences, it is necessary to analyze the language from the obtained voice data.

센텐스부(330)는 랭귀지부(320)로부터 분석된 언어에 따라, 분할된 보이스 데이터를 임의 조합하여 단어 또는 문장 단위의 보이스 데이터로 형성하는 구성이다.The sense unit 330 is configured to form voice data in units of words or sentences by arbitrarily combining the divided voice data according to the language analyzed by the language unit 320 .

컨버팅부(340)는, 단어 또는 문장 단위로 조합된 보이스 데이터를 레터 데이터로 변환하는 구성이다.The converting unit 340 is configured to convert voice data combined in units of words or sentences into letter data.

솔팅부(350)는 컨버팅부(340)로부터 변환된 레터 데이터로부터 유효 단어를 선별하는 구성이다.The salting unit 350 is configured to select valid words from the letter data converted by the converting unit 340 .

솔팅부(350)는 도10에 도시된 바와 같이, 유효 단어를 선별하며, 유효 단어는 핵심어에 해당하는 것으로, 레터 데이터로부터 보이스 데이터의 의미를 추출하여 적절한 응답을 하기 위한 것이다. As shown in FIG. 10 , the salting unit 350 selects valid words, and the valid words correspond to key words, and extracts the meaning of voice data from letter data to provide an appropriate response.

매칭 유닛(400)은, 도12에 도시된 바와 같이, 애널라이징 유닛(300)으로부터 변환된 레터 데이터를 분류하여 미리 저장된 시나리오 중 하나의 시나리오에 매칭하는 구성이다.As shown in FIG. 12 , the matching unit 400 is configured to classify the letter data converted from the analyzing unit 300 to match one of the pre-stored scenarios.

본 발명에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 매칭 유닛(400)은 도11에 도시된 바와 같이 카테고리(category)부(410) 및 어댑팅(adapting)부(420)를 포함하게 된다.The matching unit 400 of the communication system through selective extraction and matching of voice data based on virtual space according to the present invention includes a category unit 410 and an adapting unit ( 420) will be included.

카테고리부(410)는 솔팅부(350)로부터 선별된 유효 단어에 따라서 레터 데이터를 복수 개의 카테고리에 중 하나의 카테고리에 분류 설정하는 구성이다.The category unit 410 is configured to classify and set letter data into one category among a plurality of categories according to the valid words selected by the salting unit 350 .

어댑팅부(420)는 카테고리부(410)로부터 분류된 레터 데이터를 미리 저장된 시나리오에 매칭하는 구성이다.The adapting unit 420 is configured to match the letter data classified from the category unit 410 to a pre-stored scenario.

어댑팅부(420)의 미리 저장된 시나리오는 복수 개의 질문 데이터와 복수 개의 답변 데이터가 저장되어, 유효 단어를 복수 개의 질문 데이터 또는 복수 개의 답변 데이터와 비교하여 매칭하게 된다. 또한, 미리 저장된 시나리오에는 어떤 주제에도 응답할 수 있는 데이터가 존재한다.In the pre-stored scenario of the adapting unit 420, a plurality of question data and a plurality of answer data are stored, and valid words are compared and matched with a plurality of question data or a plurality of answer data. In addition, pre-stored scenarios have data that can respond to any topic.

리플라잉 유닛(500)은 도14에 도시된 바와 같이, 매칭 유닛(400)으로부터 매칭된 시나리오에 따라 호스트 캐릭터 또는 가상의 캐릭터가 유저의 보이스 데이터에 선택적으로 응답하는 구성이다.The replaying unit 500 is a configuration in which a host character or a virtual character selectively responds to the user's voice data according to a scenario matched from the matching unit 400 as shown in FIG. 14 .

본 발명에 따른 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템의 리플라잉 유닛(500)은 도13에 도시된 바와 같이, 랭귀지 세팅(language setting)부(510), 리플라이 세팅부(520)(reply setting)부(520) 및 리플라이 기빙(reply giving)부(530)을 포함하게 된다.As shown in FIG. 13, the replaying unit 500 of the communication system through selective extraction and matching of voice data based on virtual space according to the present invention is a language setting unit 510, a reply setting It includes a unit 520 (reply setting) unit 520 and a reply giving unit (530).

먼저, 랭귀지 세팅부(510)는 유저 캐릭터의 보이스 데이터로부터 응답할 언어를 임의 설정하는 구성이다.First, the language setting unit 510 is configured to arbitrarily set a language to respond from voice data of a user character.

랭귀지 세팅부(510)는 응답할 언어를 임의 설정하여, 예컨대, 유저 캐릭터가 한국어로 질문을 하더라도, 이에 응답하는 리플라이 대상자는 영어로 대답할 수 있으며, 랭귀지 세팅부(510)는 대화 언어를 각각의 언어로 설정하여 제공하고, 이를 통해 가상 공간 상에서는 언어가 미스매칭된 상태에서도 서로 대화가 자연스럽게 이루어질 수 있게 되는 것이다.The language setting unit 510 arbitrarily sets a language to respond to, for example, even if the user character asks a question in Korean, the reply target responding to this may answer in English, and the language setting unit 510 selects the conversation language. Each language is set and provided, and through this, conversations can occur naturally in the virtual space even when the languages are mismatched.

리플라이 세팅부(520)는 보이스 데이터에 대해 응답할 호스트 캐릭터 또는 다른 유저 캐릭터 중 리플라이 대상자를 임의 설정하는 구성이다.The reply setting unit 520 is a configuration for arbitrarily setting a reply target among the host character or other user characters to respond to the voice data.

리플라이 세팅부(520)의 리플라이 대상자는 유저 캐릭터의 보이스 데이터에 대해 응답할 캐릭터를 설정하는 것으로, 유저 캐릭터의 지목 또는 호스트 캐릭터나 다른 유저 캐릭터의 자발적인 참여 또는 랜덤하게 설정할 수 있다.The reply target of the reply setting unit 520 sets a character to respond to the user character's voice data, and may be set randomly or randomly by the designation of the user character or the voluntary participation of a host character or other user character.

리플라이 기빙부(530)는 매칭 유닛(400)으로부터 매칭된 시나리오에 따라 리플라이 대상자가 자동으로 리플라이 데이터를 제공하는 구성이다.The reply giving unit 530 is a configuration in which a reply target automatically provides reply data according to a scenario matched from the matching unit 400 .

리플라이 기빙부(530)는, 리플라이 세팅부(520)로부터 설정된 리플라이 대상자에게 유저 캐릭터의 보이스 데이터에 대한 적절한 응답 데이터를 제시할 수 있다.The reply giving unit 530 may present appropriate response data for the voice data of the user character to the reply target set by the reply setting unit 520 .

아울러, 리플라잉 유닛(500)에서는 리플라이 데이터에 대한 유저 캐릭터의 리액션 데이터를 캐치하여 미리 저장된 시나리오 데이터를 추가하여, 이를 통해 다양한 시나리오 데이터를 확보하는 것이 바람직하다.In addition, it is preferable that the replaying unit 500 catches the user character's reaction data with respect to the reply data and adds pre-stored scenario data, thereby securing various scenario data.

본 발명의 권리 범위는 특허청구범위에 기재된 사항에 의해 결정되며, 특허 청구범위에 사용된 괄호는 선택적 한정을 위해 기재된 것이 아니라, 명확한 구성요소를 위해 사용되었으며, 괄호 내의 기재도 필수적 구성요소로 해석되어야 한다.The scope of the present invention is determined by the matters described in the claims, and parentheses used in the claims are not described for selective limitation, but are used for clear components, and descriptions in parentheses are also interpreted as essential components. should be

100: 인터페이싱 유닛 110: 크리에이팅부
120: 어사이닝부 200: 레코그니션 유닛
210: 유저 셀렉팅부 211: 패턴 파티션부
212: 매칭넘버 할당부 213: 패턴 스캐터링부
214: 패턴 리매칭부 220: 어콰이어링부
300: 애널라이징 유닛 310: 디바이딩부
320: 랭귀지부 330: 센텐스부
340: 컨버팅부 350: 솔팅부
400: 매칭 유닛 410: 카테고리부
420: 어댑팅부 500: 리플라잉 유닛
510: 랭귀지 세팅부 520: 리플라이 세팅부
530: 리플라이 기빙부
100: interfacing unit 110: creating unit
120: assigning unit 200: recording unit
210: user selecting unit 211: pattern partition unit
212: matching number assignment unit 213: pattern scattering unit
214: pattern rematching unit 220: acquiring unit
300: analyzing unit 310: dividing unit
320: language section 330: sense section
340: converting unit 350: salting unit
400: matching unit 410: category part
420: adapting unit 500: replaying unit
510: language setting unit 520: reply setting unit
530: reply giving part

Claims (10)

가상 공간과 가상의 호스트 캐릭터(host character)를 형성하고, 상기 가상 공간에 접속한 유저(user)에게 임의의 가상 캐릭터를 부여하는 인터페이싱 유닛(interfacing unit);
상기 가상 공간에 접속한 상기 유저의 보이스 데이터(voice data)를 획득하는 레코그니션 유닛(recognition unit);
상기 레코그니션 유닛으로부터 획득된 상기 보이스 데이터를 분석하여 레터 데이터(letter data)로 변환하는 애널라이징 유닛(analyzing unit);
상기 애널라이징 유닛으로부터 변환된 상기 레터 데이터를 분류하여 미리 저장된 시나리오 중 하나의 시나리오에 매칭하는 매칭 유닛(matching unit); 및
상기 매칭 유닛으로부터 매칭된 시나리오에 따라 상기 호스트 캐릭터 또는 상기 가상 캐릭터가 선택적으로 응답하는 리플라잉 유닛(replying unit)을 포함하되,
상기 인터페이싱 유닛은,
상기 가상 공간에 적어도 한 명 이상의 유저가 접속하면, 상기 호스트 캐릭터와 가상의 미팅룸(meeting room)이 자동으로 형성되는 크리에이팅(creating)부; 및
상기 가상 공간에 접속한 유저에게 가상의 유저 캐릭터를 부여하는 어사이닝(assigning)부를 포함하며,
상기 레코그니션 유닛은,
상기 가상 공간 접속한 복수 개의 유저 캐릭터 중 적어도 한 개 이상의 유저 캐릭터를 선택하는 유저 셀렉팅(user selecting)부; 및
상기 유저 셀렉팅부로부터 선택된 상기 유저 캐릭터의 보이스 데이터를 추출하여 획득하는 어콰이어링(acquiring)부를 포함하며,
상기 유저 셀렉팅부는,
상기 복수 개의 유저 캐릭터의 각각의 상기 보이스 데이터를 임의의 패턴으로 구획하여 복수 개의 패턴 영역을 설정하는 패턴 파티션부;
상기 패턴 파티션부로부터 구획된 상기 복수 개의 패턴 영역 각각에 상이한 매칭넘버를 부여하는 매칭넘버 할당부;
상기 매칭넘버 할당부로부터 상기 매칭넘버가 부여된 상기 복수 개의 패턴 영역을 랜덤하게 믹싱하고 조합하여, 물리적으로 분할된 공간에 분산하여 저장하도록 하는 패턴 스캐터링부; 및
상기 패턴 스캐터링부로부터 분산 저장된 상기 복수 개의 패턴 영역을 상기 매칭넘버 할당부로부터 부여된 상기 매칭넘버를 이용하여 리매칭하는 패턴 리매칭부를 포함하며,
상기 애널라이징 유닛은,
상기 어콰이어링부로부터 획득된 상기 보이스 데이터를 음절 단위로 분할하는 디바이딩부;
상기 디바이딩부로부터 분할된 상기 보이스 데이터의 발음으로부터 언어를 분석하는 랭귀지(language)부; 및
상기 랭귀지부로부터 분석된 언어에 따라 상기 보이스 데이터를 임의 조합하여 단어 또는 문장 단위의 보이스 데이터로 형성하는 센텐스(sentence)부를 포함하는 것을 특징으로 하는, 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템.
an interfacing unit that forms a virtual space and a virtual host character, and gives an arbitrary virtual character to a user accessing the virtual space;
a recognition unit for acquiring voice data of the user who has accessed the virtual space;
an analyzing unit that analyzes the voice data obtained from the recording unit and converts it into letter data;
a matching unit that classifies the letter data converted from the analyzing unit and matches one of the pre-stored scenarios; and
a replying unit to which the host character or the virtual character selectively responds according to a scenario matched from the matching unit;
The interfacing unit is
a creating unit that automatically forms a virtual meeting room with the host character when at least one user accesses the virtual space; and
and an assigning unit that assigns a virtual user character to a user who has accessed the virtual space,
The registration unit is
a user selecting unit for selecting at least one user character from among a plurality of user characters connected to the virtual space; and
and an acquiring unit for extracting and acquiring voice data of the user character selected from the user selecting unit,
The user selecting unit,
a pattern partitioning unit configured to partition each of the voice data of the plurality of user characters into an arbitrary pattern to set a plurality of pattern areas;
a matching number allocator for assigning a different matching number to each of the plurality of pattern regions partitioned from the pattern partitioning unit;
a pattern scattering unit that randomly mixes and combines the plurality of pattern regions to which the matching number is assigned from the matching number allocator, and distributes and stores them in a physically divided space; and
a pattern rematching unit for rematching the plurality of pattern regions distributed and stored from the pattern scattering unit using the matching number provided from the matching number allocating unit;
The analyzing unit is
a dividing unit dividing the voice data obtained from the asking unit into syllable units;
a language unit for analyzing a language from the pronunciation of the voice data divided from the dividing unit; and
Selective extraction and matching of voice data based on virtual space, characterized in that it includes a sentence unit for randomly combining the voice data according to the language analyzed from the language unit to form voice data in units of words or sentences. through a communication system.
삭제delete 삭제delete 제1항에 있어서, 상기 유저 셀렉팅부는,
상기 가상 공간에 접속한 상기 복수 개의 유저 캐릭터의 보이스 데이터로부터 음색, 음소, 음조, 강세, 억양, 속도, 숨소리, 발음, 무성음, 유성음, 보이스의 시작점, 보이스의 끝점, 보이스의 주파수 또는 보이스의 진폭 중 적어도 하나 이상을 식별하여 상기 유저 캐릭터의 보이스 데이터를 선택적으로 선별하는 것을 특징으로 하는, 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템.
According to claim 1, wherein the user selecting unit,
From the voice data of the plurality of user characters connected to the virtual space, tone, phoneme, tone, stress, intonation, speed, breath sound, pronunciation, unvoiced sound, voiced sound, voice start point, voice end point, voice frequency or voice amplitude A communication system through selective extraction and matching of virtual space-based voice data, characterized in that the voice data of the user character is selectively selected by identifying at least one or more of them.
삭제delete 제1항에 있어서, 상기 애널라이징 유닛은,
상기 단어 또는 문장 단위로 조합된 상기 보이스 데이터를 상기 레터 데이터로 변환하는 컨버팅(converting)부; 및
상기 컨버팅부로부터 변환된 상기 레터 데이터로부터 유효 단어를 선별하는 솔팅(sorting)부를 더 포함하는 것을 특징으로 하는, 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템.
According to claim 1, wherein the analyzing unit,
a converting unit converting the voice data combined in units of words or sentences into the letter data; and
A communication system through selective extraction and matching of virtual space-based voice data, characterized in that it further comprises a salting unit for selecting valid words from the letter data converted from the converting unit.
제6항에 있어서, 상기 매칭 유닛은,
상기 솔팅부로부터 선별된 상기 유효 단어에 따라서 상기 레터 데이터를 복수 개의 카테고리 중 하나의 카테고리에 분류 설정하는 카테고리(category)부; 및
상기 카테고리부로부터 분류된 상기 레터 데이터를 미리 저장된 시나리오에 매칭하는 어댑팅(adapting)부를 포함하는 것을 특징으로 하는, 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템.
The method of claim 6, wherein the matching unit,
a category unit for classifying and setting the letter data into one category among a plurality of categories according to the valid word selected from the salting unit; and
A communication system through selective extraction and matching of virtual space-based voice data, characterized in that it comprises an adapting unit that matches the letter data classified from the category unit to a pre-stored scenario.
제7항에 있어서, 상기 어댑팅부는,
상기 미리 저장된 시나리오는 복수 개의 질문 데이터와 복수 개의 답변 데이터가 저장되어, 상기 유효 단어를 상기 복수 개의 질문 데이터 또는 상기 복수 개의 답변 데이터와 비교하여 매칭하는 것을 특징으로 하는, 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템.
According to claim 7, wherein the adapting unit,
In the pre-stored scenario, a plurality of question data and a plurality of answer data are stored, and the valid word is compared and matched with the plurality of question data or the plurality of answer data. Communication system through selective extraction and matching.
제7항에 있어서, 상기 리플라잉 유닛은,
상기 유저 캐릭터의 상기 보이스 데이터로부터 응답할 언어를 임의 설정하는 랭귀지 세팅부;
상기 보이스 데이터에 대해 응답할 상기 호스트 캐릭터 또는 다른 유저 캐릭터 중 리플라이 대상자를 임의 설정하는 리플라이 세팅부; 및
상기 매칭 유닛으로부터 매칭된 상기 시나리오에 따라, 상기 리플라이 대상자가 자동으로 상기 리플라이 데이터를 제공하는 리플라이 기빙부를 포함하는 것을 특징으로 하는, 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템.
The method of claim 7, wherein the re-plying unit,
a language setting unit for arbitrarily setting a language to respond to from the voice data of the user character;
a reply setting unit for randomly setting a reply target among the host character or other user characters to respond to the voice data; and
Communication through selective extraction and matching of virtual space-based voice data, characterized in that the reply target includes a reply giving unit that automatically provides the reply data according to the scenario matched from the matching unit ting system.
제9항에 있어서, 상기 리플라잉 유닛은,
상기 리플라이 데이터에 대한 상기 유저 캐릭터의 리액션 데이터를 캐치하여 상기 미리 저장된 시나리오 데이터에 추가하는 것을 특징으로 하는, 가상 공간 기반의 보이스 데이터의 선택적 추출과 매칭 통한 커뮤니케이팅 시스템.
The method of claim 9, wherein the re-plying unit,
A communication system through selective extraction and matching of voice data based on virtual space, characterized in that it catches the reaction data of the user character with respect to the reply data and adds it to the pre-stored scenario data.
KR1020200115287A 2020-09-09 2020-09-09 communicating system through selective extraction and matching of voice data based on virtual space KR102383643B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200115287A KR102383643B1 (en) 2020-09-09 2020-09-09 communicating system through selective extraction and matching of voice data based on virtual space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200115287A KR102383643B1 (en) 2020-09-09 2020-09-09 communicating system through selective extraction and matching of voice data based on virtual space

Publications (2)

Publication Number Publication Date
KR20220033194A KR20220033194A (en) 2022-03-16
KR102383643B1 true KR102383643B1 (en) 2022-04-06

Family

ID=80937933

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200115287A KR102383643B1 (en) 2020-09-09 2020-09-09 communicating system through selective extraction and matching of voice data based on virtual space

Country Status (1)

Country Link
KR (1) KR102383643B1 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070024918A (en) * 2005-08-31 2007-03-08 김유신 Apparatus and method for providing video conference service in virtual space
KR101743230B1 (en) 2016-04-18 2017-06-05 (주)케이디엠티 Apparatus and method for providing realistic language learning contents based on virtual reality and voice recognition
KR101839726B1 (en) 2017-04-28 2018-04-27 황철하 Virtual reality system with two-way communication
KR20190034035A (en) * 2017-09-22 2019-04-01 김영선 Method for providing vicarious experience service using virtual reality based on role-playing and bigdata
KR20190109651A (en) 2018-03-07 2019-09-26 이임긍 Voice imitation conversation service providing method and sytem based on artificial intelligence
KR20190123362A (en) 2018-04-06 2019-11-01 삼성전자주식회사 Method and Apparatus for Analyzing Voice Dialogue Using Artificial Intelligence

Also Published As

Publication number Publication date
KR20220033194A (en) 2022-03-16

Similar Documents

Publication Publication Date Title
US11417343B2 (en) Automatic speaker identification in calls using multiple speaker-identification parameters
CN112309365B (en) Training method and device of speech synthesis model, storage medium and electronic equipment
US11587561B2 (en) Communication system and method of extracting emotion data during translations
JP6699010B2 (en) Dialogue method, dialogue system, dialogue device, and program
Lorenzo-Trueba et al. Emotion transplantation through adaptation in HMM-based speech synthesis
Cicourel Generative semantics and the structure of social interaction
Han et al. Relative contribution of auditory and visual information to Mandarin Chinese tone identification by native and tone-naïve listeners
KR102104294B1 (en) Sign language video chatbot application stored on computer-readable storage media
Krason et al. The role of iconic gestures and mouth movements in face-to-face communication
US20220301250A1 (en) Avatar-based interaction service method and apparatus
Nakao et al. Use of machine learning by non-expert dhh people: Technological understanding and sound perception
Amezaga et al. Availability of voice deepfake technology and its impact for good and evil
KR20220048958A (en) Method of filtering subtitles of a foreign language video and system performing the same
Rahman An ay for an ah: Language of survival in African American narrative comedy
KR102383643B1 (en) communicating system through selective extraction and matching of voice data based on virtual space
Riviello et al. On the perception of dynamic emotional expressions: A cross-cultural comparison
Ensslin et al. Deep learning for speech accent detection in videogames
Esling Everyone has an accent except me
Bragg et al. Expanding a large inclusive study of human listening rates
KR102296779B1 (en) Method and system for providing literary works based on the artist's audio contents
CN111160051B (en) Data processing method, device, electronic equipment and storage medium
CN113192484A (en) Method, apparatus, and storage medium for generating audio based on text
Shan et al. Speech-in-noise comprehension is improved when viewing a deep-neural-network-generated talking face
Pucher et al. Influence of speaker familiarity on blind and visually impaired children’s perception of synthetic voices in audio games
KR100599008B1 (en) Conversation studying system and method using avatar

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right