KR101909250B1 - Speech recognition server for determining service type based on speech informaion of device, content server for providing content to the device based on the service type, the device, and methods thereof - Google Patents

Speech recognition server for determining service type based on speech informaion of device, content server for providing content to the device based on the service type, the device, and methods thereof Download PDF

Info

Publication number
KR101909250B1
KR101909250B1 KR1020120060821A KR20120060821A KR101909250B1 KR 101909250 B1 KR101909250 B1 KR 101909250B1 KR 1020120060821 A KR1020120060821 A KR 1020120060821A KR 20120060821 A KR20120060821 A KR 20120060821A KR 101909250 B1 KR101909250 B1 KR 101909250B1
Authority
KR
South Korea
Prior art keywords
content
information
terminal
service type
voice information
Prior art date
Application number
KR1020120060821A
Other languages
Korean (ko)
Other versions
KR20130137332A (en
Inventor
이상범
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020120060821A priority Critical patent/KR101909250B1/en
Publication of KR20130137332A publication Critical patent/KR20130137332A/en
Application granted granted Critical
Publication of KR101909250B1 publication Critical patent/KR101909250B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2353Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/232Content retrieval operation locally within server, e.g. reading video streams from disk arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/237Communication with additional data server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Telephonic Communication Services (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

컨텐츠 제공 서비스 타입을 결정하는 음성 인식 서버와 단말에게 컨텐츠를 제공하는 컨텐츠 서버가 제공된다. 음성 인식 서버는 단말로부터 수신되는 음성 정보를 분석하고 서비스 타입을 결정하는 음성 분석부, 결정된 서비스 타입을 포함하는 메타 코드를 생성하는 코드 생성부; 및 단말로부터 음성 정보를 수신하고, 생성된 메타 코드를 컨텐츠 서버로 전송하는 통신부를 포함한다.A voice recognition server for determining a content providing service type and a content server for providing content to a terminal are provided. The voice recognition server comprises: a voice analyzer for analyzing voice information received from the terminal and determining a service type; a code generator for generating a metacode including a determined service type; And a communication unit for receiving the voice information from the terminal and transmitting the generated meta code to the content server.

Description

단말의 음성 정보에 기초하여 서비스 타입을 결정하는 음성 인식 서버, 서비스 타입에 따라 단말로 컨텐츠를 제공하는 컨텐츠 서버, 단말 및 방법 {SPEECH RECOGNITION SERVER FOR DETERMINING SERVICE TYPE BASED ON SPEECH INFORMAION OF DEVICE, CONTENT SERVER FOR PROVIDING CONTENT TO THE DEVICE BASED ON THE SERVICE TYPE, THE DEVICE, AND METHODS THEREOF}FIELD OF THE INVENTION [0001] The present invention relates to a voice recognition server for determining a service type based on voice information of a terminal, a content server for providing content to a terminal according to a service type, PROVIDING CONTENT TO THE DEVICE BASED ON THE SERVICE TYPE, THE DEVICE, AND METHODS THEREOF}

음성 정보에 기초하여 컨텐츠를 제공하는 장치 및 방법에 관한 것으로, 보다 상세하게는 음성 정보를 입력 받는 음성 인식 서버가 컨텐츠 서버와 연동하여 단말에게 컨텐츠를 제공하는 장치 및 방법에 관한 것이다.And more particularly, to an apparatus and method for providing a content to a terminal in cooperation with a content server by a voice recognition server receiving voice information.

최근 PC와 같은 고성능의 프로세서 및 대용량의 메모리를 탑재하고, 사용자가 자유롭게 애플리케이션을 설치하여 사용할 수 있는 스마트폰(smart phone)이 급속히 보급되고 있다.2. Description of the Related Art [0002] Recently, a smart phone equipped with a high-performance processor such as a PC and a large-capacity memory and allowing a user to freely install and use an application is rapidly spreading.

이러한 스마트폰의 보급에 따라서, 사용자는 다양한 컨텐츠를 네트워크를 통해 제공 받을 수 있다. 다만, 이러한 컨텐츠를 제공 받기 위해 사용자는 정확한 컨텐츠를 지정하여 하는 불편함이 있어서, 사용자가 키워드만을 가지고 컨텐츠를 제공 받거나 또는 사용자의 취향에 따른 컨텐츠를 추천 받기 위한 방안이 강구되고 있다.With the spread of such smart phones, a user can receive various contents through the network. However, in order to receive such contents, the user is inconvenienced to designate the correct contents, and therefore, there is a method for the user to receive the contents only with the keyword or to receive the recommendation of the contents according to the user's taste.

본 발명의 일 실시예는, 음성 인식 서버를 통해서 단말이 서비스 이용자로부터 입력 받는 음성 정보에 기초하여 서비스 타입을 결정하고, 결정된 서비스 타입이 포함된 메타 코드를 생성하여 컨텐츠 서버로 전송할 수 있다. 또한, 컨텐츠 서버는 메타 코드에 기초하여 컨텐츠를 추출하고 서비스 타입에 따라 추출된 컨텐츠를 단말에게 제공할 수 있다.According to an embodiment of the present invention, a service type may be determined based on voice information received by a terminal from a service user through a voice recognition server, and a metacode including the determined service type may be generated and transmitted to a content server. In addition, the content server may extract the content based on the metacode and provide the extracted content to the terminal according to the service type.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 음성 인식 서버는, 단말로부터 수신되는 음성 정보를 분석하고 서비스 타입을 결정하는 음성 분석부, 결정된 서비스 타입을 포함하는 메타 코드를 생성하는 코드 생성부 및 음성 정보를 수신하고 생성된 메타 코드를 컨텐츠 서버로 전송하는 통신부를 포함하는 것을 특징으로 한다.According to a first aspect of the present invention, there is provided a voice recognition server including a voice analysis unit for analyzing voice information received from a terminal and determining a service type, a meta A code generation unit for generating a code, and a communication unit for receiving the voice information and transmitting the generated meta code to a content server.

한편, 본 발명의 다른 측면에 따른 컨텐츠 서버는, 음성 인식 서버로부터 메타 코드를 수신하는 수신부, 컨텐츠 및 컨텐츠와 관련된 정보를 매칭하여 등록하는 컨텐츠 등록부, 수신된 메타 코드 및 컨텐츠와 관련된 정보를 매칭하여 컨텐츠와 관련된 정보에 대응하는 컨텐츠를 추출하는 컨텐츠 추출부 및 추출된 적어도 하나 이상의 컨텐츠를 단말에게 전송하는 컨텐츠 전송부를 포함하고, 메타 코드는 음성 인식 서버에서 분석한 음성 정보에 기초하여 결정된 서비스 타입을 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a content server including a receiver for receiving a meta code from a speech recognition server, a content register for matching and registering content and information related to the content, A content extracting unit for extracting content corresponding to information related to the content, and a content transmitting unit for transmitting the extracted at least one content to the terminal, and the metacode includes a service type determined based on the voice information analyzed by the voice recognition server .

한편, 본 발명의 다른 측면에 따른 단말은, 애플리케이션 실행 중에 음성 정보를 입력 받는 음성 입력부, 음성 정보를 음성 인식 서버로 전송하는 음성 전송부, 컨텐츠 서버로부터 컨텐츠를 수신하는 컨텐츠 수신부 및 수신된 컨텐츠를 출력하는 컨텐츠 출력부를 포함하고, 컨텐츠는 음성 인식 서버에서 분석한 음성 정보에 기초하여 결정된 서비스 타입에 기초하여 추출된 것을 특징으로 한다.According to another aspect of the present invention, there is provided a terminal including a voice input unit for inputting voice information during execution of an application, a voice transmission unit for transmitting voice information to the voice recognition server, a content receiving unit for receiving content from the content server, And the content is extracted based on the service type determined based on the voice information analyzed by the voice recognition server.

한편, 본 발명의 다른 측면에 따른 컨텐츠 제공 서비스 타입을 결정하는 방법은, 단말로부터 음성 정보를 수신하는 단계, 수신된 음성 정보를 분석하고 서비스 타입을 결정하는 단계, 분석된 음성 정보에 기초하여 메타 코드를 생성하고 메타 코드는 결정된 서비스 타입을 포함하는 것인 단계 및 생성된 메타 코드를 컨텐츠 서버로 전송하는 단계를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method of determining a content providing service type, the method comprising: receiving voice information from a terminal; analyzing received voice information and determining a service type; Generating the code and the metacode including the determined service type, and transmitting the generated metacode to the content server.

한편, 본 발명의 다른 측면에 따른 컨텐츠를 제공하는 방법은, 컨텐츠 및 컨텐츠와 관련된 정보를 매칭하여 등록하는 단계, 음성 인식 서버로부터 메타 코드를 수신하는 단계, 수신된 메타 코드 및 등록된 컨텐츠와 관련된 정보를 매칭하여 등록된 컨텐츠와 관련된 정보에 대응하는 컨텐츠를 추출하는 단계 및 추출된 적어도 하나 이상의 컨텐츠를 단말에게 전송하는 단계를 포함하고, 메타 코드는 음성 인식 서버에서 분석한 음성 정보에 기초하여 결정된 서비스 타입을 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method of providing content, the method comprising: matching and registering content and content related information; receiving a meta code from a speech recognition server; Extracting content corresponding to information related to the registered content by matching information and transmitting the extracted at least one content to the terminal, wherein the metacode is determined based on the voice information analyzed by the voice recognition server And a service type.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 단말은 애플리케이션 실행 중에 서비스 이용자로부터 명확한 컨텐츠 명이 아닌, 컨텐츠와 관련된 음성 정보만을 입력 받아도, 이에 기초하여 컨텐츠를 제공 받되 다양한 방법(스트리밍 또는 다운로드 등)으로 제공 받을 수 있다. 또한, 서비스 이용자는 단말에 접촉하지 않고, 이어폰 등 음성 인식이 가능한 주변기기로 편리하게 서비스를 이용할 수 있고, 음성 정보를 통하여 서비스 이용자의 취향에 따른 추천 컨텐츠를 제공 받을 수 있다. 이 때, 리스트 제공 방식에 기초하여 좀 더 정확도 있는 서비스를 제공 발을 수 있다.According to any one of the above-mentioned means for solving the problems of the present invention, even if the terminal receives only the voice information related to the content, not the clear content name from the service user during the execution of the application, ). Also, the service user can conveniently use the service with a peripheral device capable of voice recognition, such as an earphone, without contacting the terminal, and can receive the recommended content according to the taste of the service user through the voice information. At this time, it is possible to provide a more accurate service based on the list providing method.

도 1은 본 발명의 일 실시예에 따른 컨텐츠 제공 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른, 도 1에 도시된 음성 인식 서버(200)의 구성도이다.
도 3은 본 발명의 일 실시예에 따른, 도 1에 도시된 컨텐츠 서버(300)의 구성도이다.
도 4는 본 발명의 다른 실시예에 따른 도 1에 도시된 컨텐츠 서버(300)의 구성도이다.
도 5는 본 발명의 일 실시예에 따른, 도 1에 도시된 단말(100)의 구성도이다.
도 6은 본 발명의 다른 실시예에 따른 도 1에 도시된 단말(100)의 구성도이다.
도 7은 본 발명의 일 실시예에 따라, 음성 정보에 기초하여 컨텐츠를 추출하는 방법을 설명하기 위한 순서도이다.
도 8은 본 발명의 일 실시예에 따라, 음성 정보에 기초하여 컨텐츠를 추출하고 제공하는 방법을 설명하기 위한 순서도이다.
도 9는 본 발명의 일 실시예에 따른 음성 인식 서버가 컨텐츠 제공 서비스 타입을 결정하는 방법을 나타낸 동작 흐름도이다.
도 10은 본 발명의 일 실시예에 따른 컨텐츠 서버가 컨텐츠를 제공하는 방법을 나타낸 동작 흐름도이다.
1 is a configuration diagram of a content providing system according to an embodiment of the present invention.
FIG. 2 is a configuration diagram of the speech recognition server 200 shown in FIG. 1 according to an embodiment of the present invention.
FIG. 3 is a configuration diagram of the content server 300 shown in FIG. 1 according to an embodiment of the present invention.
FIG. 4 is a configuration diagram of the content server 300 shown in FIG. 1 according to another embodiment of the present invention.
5 is a configuration diagram of the terminal 100 shown in FIG. 1 according to an embodiment of the present invention.
FIG. 6 is a configuration diagram of the terminal 100 shown in FIG. 1 according to another embodiment of the present invention.
7 is a flowchart for explaining a method of extracting contents based on voice information according to an embodiment of the present invention.
8 is a flowchart for explaining a method of extracting and providing contents based on voice information according to an embodiment of the present invention.
9 is a flowchart illustrating a method of determining a content providing service type by the voice recognition server according to an embodiment of the present invention.
10 is a flowchart illustrating a method of providing content by a content server according to an exemplary embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . Also, when an element is referred to as "comprising ", it means that it can include other elements as well, without departing from the other elements unless specifically stated otherwise.

이하, 첨부된 구성도 또는 처리 흐름도를 참고하여, 본 발명의 실시를 위한 구체적인 내용을 설명하도록 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to embodiments of the present invention, examples of which are illustrated in the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 컨텐츠 제공 시스템의 구성도이다. 도 1을 참조하면, 컨텐츠 제공 시스템은 단말(100), 음성 인식 서버(200), 컨텐츠 서버(300), CP(Contents Provider) 단말(400) 및 네트워크(500)를 포함할 수 있다. 다만, 이러한 도 1의 컨텐츠 제공 시스템은 본 발명의 일 실시예에 불과하므로 도 1을 통해 본 발명이 한정 해석되는 것은 아니다.1 is a configuration diagram of a content providing system according to an embodiment of the present invention. Referring to FIG. 1, a content providing system may include a terminal 100, a voice recognition server 200, a content server 300, a CP (Contents Provider) terminal 400, and a network 500. However, since the content providing system of FIG. 1 is only one embodiment of the present invention, the present invention is not limited to FIG.

단말(100)은 음성 정보에 기초한 컨텐츠 제공 서비스의 이용자로부터 입력 받는 컨텐츠에 대응하는 음성 정보를 음성 인식 서버로 전송할 수 있다. 이 때, 컨텐츠 제공 서비스는 단말(100)에 설치되어있는 애플리케이션을 통해 제공될 수 있다. 여기서 애플리케이션은 단말 상의 응용 프로그램(application)을 의미하며, 예를 들어, 모바일 단말(스마트폰)에서 실행되는 앱(app)을 포함할 수 있다. 또한, 컨텐츠는 영화나 방송 프로그램 등과 같이 영상 및 음성 등을 포함하는 멀티미디어 컨텐츠, 노래나 음악 같은 오디오 컨텐츠, 이미지 컨텐츠 및 텍스트(Text) 컨텐츠 등일 수 있다.The terminal 100 can transmit the voice information corresponding to the content received from the user of the content providing service based on the voice information to the voice recognition server. At this time, the content providing service can be provided through an application installed in the terminal 100. [ Here, an application refers to an application on a terminal, and may include an app (app) running on a mobile terminal (smart phone), for example. In addition, the contents can be multimedia contents including video and audio such as movies and broadcast programs, audio contents such as songs and music, image contents, and text contents.

본 발명의 다양한 실시예들에 따르면 단말(100)은 다양한 형태의 단말일 수 있다. 예를 들어, 단말은 네트워크를 통해 원격지의 서버에 접속할 수 있는 TV 장치, 컴퓨터 또는 휴대용 단말일 수 있다. 여기서, TV 장치의 일 예에는 스마트 TV, IPTV 셋톱박스 등이 포함되고, 컴퓨터의 일 예에는 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop) 등이 포함되고, 휴대용 단말의 일 예에는 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 태블릿 PC 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치가 포함될 수 있다. According to various embodiments of the present invention, the terminal 100 may be various types of terminals. For example, the terminal may be a TV device, a computer, or a portable terminal capable of connecting to a remote server via a network. Here, an example of the TV apparatus includes a smart TV, an IPTV set-top box, and the like. Examples of the computer include a notebook computer, a desktop computer, a laptop computer, One example of the terminal includes a Personal Communication System (PCS), a Global System for Mobile Communications (GSM), a Personal Digital Cellular (PDC), a Personal Handyphone System (PHS) Assistant, IMT (International Mobile Telecommunication) -2000, Code Division Multiple Access (CDMA) -2000, W-Code Division Multiple Access (W-CDMA), Wibro (Wireless Broadband Internet) terminals, smart phones, And the like may be included in the present invention.

음성 인식 서버(200)는 단말(100)로부터 네트워크(500)를 통해 입력 받은 음성 정보를 분석하고, 분석된 음성 정보에 기초하여 메타 코드를 생성하고, 생성된 메타 코드를 컨텐츠 서버(300)로 전송할 수 있다. 이 때, 음성 인식 서버(200)는 음성 정보를 분석하여 서비스 타입을 결정하고, 결정된 서비스 타입을 포함하는 메타 코드를 생성할 수 있다.The speech recognition server 200 analyzes the voice information received through the network 500 from the terminal 100, generates a meta code based on the analyzed voice information, and transmits the generated meta code to the content server 300 Lt; / RTI > At this time, the voice recognition server 200 may analyze the voice information to determine a service type and generate a meta code including the determined service type.

컨텐츠 서버(300)는 CP 단말(400)로부터 컨텐츠 및 컨텐츠와 관련된 정보를 입력 받아 매칭하여 등록하고, 음성 인식 서버(200)로부터 수신한 메타 코드와 컨텐츠와 관련된 정보를 매칭하여 상시 컨텐츠와 관련된 정보에 대응하는 컨텐츠를 추출하고, 추출된 컨텐츠를 단말(100)에 전송할 수 있다. 이 때, 메타 코드는 음성 인식 서버(200)에서 분석한 음성 정보에 기초하여 결정된 서비스 타입을 포함할 수 있다.The content server 300 receives and registers information related to content and content from the CP terminal 400 and matches the meta code received from the voice recognition server 200 with information related to the content, And transmit the extracted content to the terminal 100. [0050] FIG. At this time, the meta code may include a service type determined based on the voice information analyzed by the voice recognition server 200. [

CP 단말(400)은 컨텐츠 및 컨텐츠와 관련된 정보를 컨텐츠 서버(300)에게 전송할 수 있다. 이 때, CP 단말(400)은 컨텐츠 제작자 단말(미도시)일 수 있다. The CP terminal 400 may transmit information related to the content and the content to the content server 300. At this time, the CP terminal 400 may be a contents producer terminal (not shown).

컨텐츠 제공 시스템을 구성하는 도 1의 각 구성요소들은 일반적으로 네트워크(500)를 통해 연결될 수 있다. 네트워크(300)는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크(network)의 일 예에는 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network) 등이 포함되나 이에 한정되지는 않는다.1 constituting the content providing system can be generally connected through the network 500. [ The network 300 refers to a connection structure capable of exchanging information between nodes such as terminals and servers. An example of such a network is an Internet, a LAN (Local Area Network), a Wireless But are not limited to, a wireless local area network (LAN), a wide area network (WAN), a personal area network (PAN), and the like.

이하에서는 도 1의 음성 인식 서버(200)의 동작에 대해 보다 구체적으로 설명한다. Hereinafter, the operation of the speech recognition server 200 of FIG. 1 will be described in more detail.

도 2는 본 발명의 일 실시예에 따른, 도 1에 도시된 음성 인식 서버(200)의 구성도이다. 도 2를 참조하면, 음성 인식 서버(200)는 음성 분석부(210), 코드 생성부(220), 통신부(230) 및 데이터베이스(290)를 포함할 수 있다. 다만, 도 2에 도시된 음성 인식 서버(200)는 본 발명의 하나의 구현 예에 불과하며, 도 2에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. 예를 들어, 음성 인식 서버(200)는 관리자로부터 어떤 명령 내지 정보를 입력 받기 위한 관리자 인터페이스가 더 포함될 수 있다. 이 경우, 관리자 인터페이스는 일반적으로 키보드, 마우스 등과 같은 입력 장치가 될 수도 있으나, 영상 표시 장치에 표현되는 그래픽 유저 인터페이스(GUI, Graphical User interface)가 될 수도 있다.FIG. 2 is a configuration diagram of the speech recognition server 200 shown in FIG. 1 according to an embodiment of the present invention. 2, the voice recognition server 200 may include a voice analysis unit 210, a code generation unit 220, a communication unit 230, and a database 290. However, the speech recognition server 200 shown in FIG. 2 is only one embodiment of the present invention, and various modifications are possible based on the components shown in FIG. For example, the voice recognition server 200 may further include an administrator interface for receiving a command or information from an administrator. In this case, the manager interface may be an input device such as a keyboard, a mouse, or the like, but may be a graphical user interface (GUI) represented on a video display device.

음성 분석부(210)는 단말(100)로부터 통신부(230)를 통해 수신되는 음성 정보를 분석하고, 서비스 타입을 결정할 수 있다. 이 때, 수신되는 음성 정보는 context 형식으로 변환된 음성 정보일 수 있다.The voice analysis unit 210 can analyze the voice information received from the terminal 100 through the communication unit 230 and determine the service type. At this time, the received voice information may be voice information converted into a context format.

서비스 타입은 통신부(230)에서 수신된 음성 정보에 포함된 적어도 하나 이상의 단어에 기초하여 결정될 수 있다.The service type may be determined based on at least one word included in the voice information received at the communication unit 230. [

본 발명의 일 실시예에 따르면, 서비스 타입은 통신부(230)에서 수신된 음성 정보와 수신된 음성 정보에 대한 추가 정보에 기초하여 컨텐츠 서버(300)가 단말(100)에게 컨텐츠를 제공하는 제 1 서비스 타입과 통신부(230)에서 수신된 음성 정보에만 기초하여 컨텐츠 서버(300)가 단말(100)에게 컨텐츠를 제공하는 제 2 서비스 타입을 포함할 수 있다. 이 때, 추가 정보는 컨텐츠 서버(300)와 단말(100) 간의 리스트 제공 방식에 의하여 획득되는 정보일 수 있다. 예를 들어, 제 1 서비스 타입은, 통신부(230)에서 수신된 음성 정보가 "이승철"인 경우, 컨텐츠 서버(300)는 "이승철"에 대응하는 컨텐츠를 단말(100)에게 리스트 방식으로 제공 할 수 있고, 단말(100)이 제공 받은 리스트 중 "인연"이라는 컨텐츠를 선택하거나 "인연"이라는 추가 정보를 입력함으로써 컨텐츠 서버(300)로부터 "인연"이라는 컨텐츠를 제공 받는 서비스 타입일 수 있다. 이 때, 추가 정보는 복수 개일 수 있다. 제 2 서비스 타입은, CP(Contents Provider)가 "올레"라는 음성 정보에 대응하는 컨텐츠를 컨텐츠 서버(300)에 등록하고, 통신부(230)에서 수신된 음성 정보가 "올레"인 경우, 단말(100)이 "올레"라는 음성 정보에 대응하는 컨텐츠를 제공 받는 서비스 타입일 수 있다. 이 때, CP가 등록한 특정 음성 정보에 대응하는 컨텐츠는 미리 준비된 추천 서비스에 대응하는 컨텐츠일 수 있다. According to an exemplary embodiment of the present invention, the service type may include a first type in which the content server 300 provides content to the terminal 100 based on the voice information received in the communication unit 230 and the additional information about the received voice information, The content server 300 may include a second service type for providing the content to the terminal 100 based only on the service type and the voice information received from the communication unit 230. [ At this time, the additional information may be information obtained by the list providing method between the content server 300 and the terminal 100. For example, in the first service type, when the audio information received by the communication unit 230 is "Lee Seung-cheol ", the content server 300 provides the contents corresponding to" And may be a service type in which content called "affinity" is received from the content server 300 by selecting the content "affinity" from the list provided by the terminal 100 or inputting additional information "affinity". At this time, the additional information may be plural. The second service type is a service type in which contents (CP) stored in the content server 300 corresponding to the voice information "olle" and the voice information received in the communication unit 230 are "olle" 100) may be a service type in which contents corresponding to the voice information "olea" are provided. At this time, the content corresponding to the specific voice information registered by the CP may be the content corresponding to the recommended service prepared in advance.

본 발명의 다른 실시예에 따르면, 서비스 타입은 통신부(230)에서 수신된 음성 정보에 대응하여 기 지정된 컨텐츠를 제공하는 제 3 서비스 타입 및 단말(100)이 보유한 컨텐츠의 컨텐츠 정보에 기초하여 컨텐츠를 제공하는 제 4 서비스 타입을 포함할 수 있다. 예를 들어, 제 3 서비스 타입은 CP(Contents Provider)가 "올레"라는 음성 정보에 대응하는 컨텐츠를 컨텐츠 서버(300)에 등록하고, 통신부(230)에서 수신된 음성 정보가 "올레"인 경우, 단말(100)이 "올레"라는 음성 정보에 대응하여 기 지정된 컨텐츠를 제공 받는 서비스 타입일 수 있다. 또한, 음성 정보가 "이승철" 및 "인연"을 포함하는 경우, 단말(100)이 "이승철" 및 "인연"이라는 음성 정보에 대응하여 기 지정된 가수 이승철이 부른 인연이라는 명칭의 컨텐츠를 제공 받는 서비스 타입일 수 있다. 다만, "이승철"이 동명이인으로서 두 명 이상의 가수가 있거나, 가수 이승철이 부른 "인연"이라는 명칭의 컨텐츠가 동음이의어로서 두 개 이상인 경우, 서비스 타입은 제 1 서비스 타입일 수 있다. 제 4 서비스 타입은 통신부(230)에서 수신된 음성 정보가 "추천"이고 단말(100)이 보유한 컨텐츠들의 장르가 대부분 "재즈" 인 경우, 컨텐츠 서버(300)가 단말(100)이 보유한 컨텐츠의 컨텐츠 정보에 기초하여 단말(100)에게 "재즈" 장르 위주의 컨텐츠를 제공하는 서비스 타입일 수 있다. 이 때, 컨텐츠 정보는 컨텐츠가 음원인 경우 ID3 라는 메타 정보 표준 규격일 수 있고 추천에 필요한 우선 순위별로 컨텐츠 정보에 포함된 후술할 복수의 하위 정보를 선택할 수 있다. 또한, "재즈" 장르 위주의 추천 컨텐츠는 기 결정된 컨텐츠들일 수 있다.According to another embodiment of the present invention, the service type includes a third service type that provides pre-designated content corresponding to the voice information received in the communication unit 230, and a third service type that provides the content based on the content information of the content held by the terminal 100 And a fourth type of service providing. For example, the third service type is such that the content provider 300 registers contents corresponding to the voice information "Ole" by the CP (Content Provider), and when the voice information received by the communication unit 230 is "Ole" , And the terminal 100 may be a service type in which pre-designated content is provided corresponding to the voice information "olley ". In the case where the voice information includes "Lee Seung-cheol" and "Epiphany ", the terminal 100 receives a service named" Lee, Seung-cheol " Type. However, the service type may be the first service type if there are two or more singers with the same name as "Lee Seung-chul", or if there are two or more homonyms of the content named "lead" called by the singer Lee Seung-chul. In the fourth service type, when the voice information received from the communication unit 230 is "recommended" and the genre of the contents held by the terminal 100 is mostly "jazz ", the contents server 300 transmits the contents of the contents held by the terminal 100 Quot; jazz "genre to the terminal 100 based on the content information. In this case, the content information can be a meta information standard standard called ID3 when the content is a sound source, and can select a plurality of lower-level information to be described later included in the content information according to priority levels required for recommendation. In addition, the recommended contents based on the "jazz" genre may be predetermined contents.

코드 생성부(220)는 음성 분석부(210)에서 분석한 음성 정보에 기초하여 메타 코드를 생성할 수 있다. 이 때, 메타 코드는 음성 분석부(210)에서 결정된 서비스 타입을 포함할 수 있다.The code generation unit 220 can generate a meta code based on the voice information analyzed by the voice analysis unit 210. [ At this time, the meta code may include the service type determined by the voice analysis unit 210.

본 발명의 일 실시예에 따르면, 코드 생성부(220)는 통신부(230)에서 수신된 음성 정보와 관련된 관련 음성 정보가 수신된 경우, 수신된 음성 정보 및 수신된 관련 음성 정보에 기초하여 메타 코드를 생성할 수 있다. 이 때, 관련 음성 정보는 수신된 음성 정보에 대응하는 복수의 컨텐츠 중 적어도 하나 이상을 선택하는 음성 정보일 수 있다. 여기서 관련 음성 정보는 컨텐츠 서버(300)와 단말(100) 간의 리스트 제공 방식에 의하여 획득되는 정보일 수 있다. According to an embodiment of the present invention, when the related sound information related to the sound information received by the communication unit 230 is received, the code generation unit 220 generates a meta code based on the received sound information and the received related sound information, Lt; / RTI > In this case, the related audio information may be audio information for selecting at least one of a plurality of contents corresponding to the received audio information. Here, the related audio information may be information obtained by the list providing method between the content server 300 and the terminal 100.

본 발명의 다른 실시예에 따르면, 코드 생성부(220)에서 생성하는 메타 코드는 언어 종류 또는 제공 방식을 포함할 수 있고, 제공 방식은 스트리밍 방식 또는 다운로드 방식을 포함할 수 있다. According to another embodiment of the present invention, the metacode generated by the code generating unit 220 may include a language type or a providing method, and the providing method may include a streaming method or a download method.

통신부(230)는 음성 정보를 수신하고 코드 생성부(22)에서 생성된 메타 코드를 컨텐츠 서버(300)로 전송할 수 있다. The communication unit 230 may receive the voice information and transmit the meta code generated by the code generation unit 22 to the content server 300. [

본 발명의 일 실시예에 따르면, 통신부(230)는 단말(100)이 보유한 컨텐츠의 컨텐츠 정보를 컨텐츠 서버(300)로 전송할 것을 요청하는 컨텐츠 정보 요청 신호를 생성하여 단말로 전송할 수 있다. 이 때, 통신부(230)는 수신된 음성 정보에 기초하여 단말(100)이 보유한 컨텐츠의 컨텐츠 정보에 포함된 복수의 하위 정보 중 적어도 하나 이상의 하위 정보에 대한 선택 정보를 생성하고, 생성된 선택 정보를 포함하는 컨텐츠 정보 요청 신호를 단말(100)로 전송할 수 있다. 예를 들면, 통신부(230)에서 수신된 음성 정보가 "발라드" 및 "추천"인 경우, 단말(100)이 보유한 컨텐츠의 컨텐츠 정보에 포함된 복수의 하위 정보 중 "발라드"를 포함하는 장르에 대한 선택 정보를 생성하고, "발라드"를 포함하는 장르에 대한 선택 정보를 포함하는 컨텐츠 정보 요청 신호를 단말(100)로 전송할 수 있다. 이 때, 컨텐츠가 음원인 경우, 복수의 하위 정보는 적어도 하나 이상의 제목, 장르, 아티스트, 작곡가, 작사가, 플레이 횟수, 플레이 시간, 아티스트 홈페이지, 파일 타입 및 언어 등을 포함할 수 있다. According to an embodiment of the present invention, the communication unit 230 may generate a content information request signal requesting the content server 300 to transmit the content information of the content held by the terminal 100 to the terminal. At this time, the communication unit 230 generates selection information for at least one or more pieces of lower information among a plurality of pieces of lower information included in the content information of contents held by the terminal 100 based on the received voice information, And transmits the content information request signal to the terminal 100. For example, when the voice information received by the communication unit 230 is "ballad" and "recommended ", among the plurality of sub information contained in the content information of the content held by the terminal 100, And transmits a content information request signal including selection information on a genre including "ballad " to the terminal 100. [ At this time, when the content is a sound source, the plurality of sub information may include at least one title, a genre, an artist, a composer, a lyricist, a play count, a play time, an artist homepage, a file type and a language.

데이터베이스(290)는 데이터를 저장한다. 이 때, 데이터는 음성 인식 서버(200) 내부의 각 구성요소들 간에 입력 및 출력되는 데이터를 포함하고, 음성 인식 서버(200)와 음성 인식 서버(200) 외부의 구성요소들간에 입력 및 출력되는 데이터를 포함한다. 예를 들어, 데이터베이스(290)는 음성 분석부(210)에서 코드 생성부(230)로 전달되는 서비스 타입을 저장할 수 있다. 이러한 데이터베이스(290)의 일 예에는 음성 인식 서버(200) 내부 또는 외부에 존재하는 하드디스크드라이브, ROM(Read Only Memory), RAM(Random Access Memory), 플래쉬메모리 및 메모리카드 등이 포함된다.The database 290 stores data. At this time, the data includes data input and output between the respective components in the voice recognition server 200, and data is input and output between the voice recognition server 200 and the components outside the voice recognition server 200 Data. For example, the database 290 may store a service type transmitted from the voice analysis unit 210 to the code generation unit 230. One example of such a database 290 includes a hard disk drive, a ROM (Read Only Memory), a RAM (Random Access Memory), a flash memory, a memory card, and the like, which are internal or external to the voice recognition server 200.

이하에서는 도 1의 컨텐츠 서버(300)의 동작에 대해 보다 구체적으로 설명한다.Hereinafter, the operation of the content server 300 of FIG. 1 will be described in more detail.

도 3은 본 발명의 일 실시예에 따른, 도 1에 도시된 컨텐츠 서버(300)의 구성도이다. 도 3을 참조하면, 컨텐츠 서버(300)는 수신부(310), 컨텐츠 등록부(320), 컨텐츠 추출부(330), 컨텐츠 전송부(340) 및 데이터베이스(390)를 포함할 수 있다. 다만, 도 3에 도시된 컨텐츠 서버(300)는 본 발명의 하나의 구현 예에 불과하며, 도 3에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. 예를 들어, 컨텐츠 서버(300)는 관리자로부터 어떤 명령 내지 정보를 입력 받기 위한 관리자 인터페이스가 더 포함될 수 있다. 이 경우, 관리자 인터페이스는 일반적으로 키보드, 마우스 등과 같은 입력 장치가 될 수도 있으나, 영상 표시 장치에 표현되는 그래픽 유저 인터페이스(GUI, Graphical User interface)가 될 수도 있다.FIG. 3 is a configuration diagram of the content server 300 shown in FIG. 1 according to an embodiment of the present invention. 3, the content server 300 may include a receiving unit 310, a content registering unit 320, a content extracting unit 330, a content transmitting unit 340, and a database 390. However, the content server 300 shown in FIG. 3 is only one embodiment of the present invention, and various modifications are possible based on the components shown in FIG. For example, the content server 300 may further include an administrator interface for receiving a command or information from an administrator. In this case, the manager interface may be an input device such as a keyboard, a mouse, or the like, but may be a graphical user interface (GUI) represented on a video display device.

수신부(310)는 음성 인식 서버(200)로부터 메타 코드를 수신할 수 있다. 이 때, 메타 코드는 음성 인식 서버(200)에서 분석한 음성 정보에 기초하여 결정된 서비스 타입을 포함할 수 있다.The receiving unit 310 may receive the meta code from the voice recognition server 200. [ At this time, the meta code may include a service type determined based on the voice information analyzed by the voice recognition server 200. [

컨텐츠 등록부(320)는 CP 단말(400)로부터 컨텐츠 및 컨텐츠와 관련된 정보를 입력 받아 매칭하고 등록할 수 있다. The content registration unit 320 receives information related to content and content from the CP terminal 400, and can match and register the information.

컨텐츠 추출부(330)는 수신부(310)에서 수신한 메타 코드 및 CP 단말(400)로부터 입력 받은 컨텐츠와 관련된 정보를 매칭하여 컨텐츠와 관련된 정보에 대응하는 컨텐츠를 추출할 수 있다. 이 때, 컨텐츠와 관련된 정보는 컨텐츠 자체 정보를 관리하기 위하여 바코드 또는 URL Scheme 등의 기존 컨텐츠 코드 또는 CP가 만든 신규 컨텐츠 코드가 포함될 수 있다. 또한, 컨텐츠 추출부(330)는 컨텐츠를 추출하기 위하여 컨텐츠 코드를 추출하고, 컨텐츠 코드에 기초하여 데이터베이스(390)에 저장된 컨텐츠 코드에 대응하는 컨텐츠를 요청할 수 있다.The content extracting unit 330 may extract the content corresponding to the content related to the content by matching the meta code received by the receiving unit 310 and information related to the content received from the CP terminal 400. [ In this case, the information related to the content may include an existing content code such as a bar code or a URL scheme or a new content code created by the CP in order to manage the content self information. The content extracting unit 330 may extract a content code to extract the content and request content corresponding to the content code stored in the database 390 based on the content code.

컨텐츠 전송부(340)는 컨텐츠 추출부(330)에서 추출된 적어도 하나 이상의 컨텐츠를 단말(100)에게 전송할 수 있다.The content transmitting unit 340 may transmit at least one content extracted by the content extracting unit 330 to the terminal 100.

데이터베이스(390)는 데이터를 저장한다. 이 때, 데이터는 컨텐츠 서버(300) 내부의 각 구성요소들 간에 입력 및 출력되는 데이터를 포함하고, 컨텐츠 서버(300)와 컨텐츠 서버(300) 외부의 구성요소들간에 입력 및 출력되는 데이터를 포함한다. 예를 들어, 데이터베이스(390)는 컨텐츠 등록부(320)에서 등록한 컨텐츠 및 컨텐츠와 관련된 정보를 저장할 수 있다. 이러한 데이터베이스(390)의 일 예에는 컨텐츠 서버(300) 내부 또는 외부에 존재하는 하드디스크드라이브, ROM(Read Only Memory), RAM(Random Access Memory), 플래쉬메모리 및 메모리카드 등이 포함된다.The database 390 stores data. In this case, the data includes data input and output between the respective components in the content server 300, and includes data input and output between the content server 300 and components external to the content server 300 do. For example, the database 390 may store information related to content and content registered in the content registration unit 320. [ One example of such a database 390 includes a hard disk drive, a ROM (Read Only Memory), a RAM (Random Access Memory), a flash memory, a memory card, and the like which are present inside or outside the content server 300.

이하에서는 도 1의 컨텐츠 서버(300)의 동작의 다른 실시예에 대해 구체적으로 설명한다. Hereinafter, another embodiment of the operation of the content server 300 of FIG. 1 will be described in detail.

도 4는 본 발명의 다른 실시예에 따른 도 1에 도시된 컨텐츠 서버(300)의 구성도이다. 도 4를 참조하면, 컨텐츠 서버(300)는 컨텐츠 서버(300)는 수신부(310), 컨텐츠 등록부(320), 컨텐츠 추출부(330), 컨텐츠 전송부(340), 리스트 생성부(350), 리스트 전송부(360) 및 데이터베이스(390)를 포함할 수 있다. 다만, 도 4에 도시된 컨텐츠 서버(300)는 본 발명의 하나의 구현 예에 불과하며, 도 4에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. 예를 들어, 컨텐츠 서버(300)는 관리자로부터 어떤 명령 내지 정보를 입력 받기 위한 관리자 인터페이스가 더 포함될 수 있음은 앞서 도 3을 통해 설명된 바와 같다. FIG. 4 is a configuration diagram of the content server 300 shown in FIG. 1 according to another embodiment of the present invention. 4, the content server 300 includes a receiving unit 310, a content registering unit 320, a content extracting unit 330, a content transmitting unit 340, a list generating unit 350, A list transmission unit 360, and a database 390. However, the content server 300 shown in FIG. 4 is only one embodiment of the present invention, and various modifications are possible based on the components shown in FIG. For example, the content server 300 may further include an administrator interface for receiving a command or information from an administrator, as described with reference to FIG.

수신부(310)는 음성 인식 서버(200)로부터 메타 코드를 수신할 수 있다. 또한, 수신부(310)는 단말(100)로부터 단말(100)이 보유한 컨텐츠의 컨텐츠 정보를 수신할 수 있다. 이 때, 수신부(310)는 단말(100)로부터 단말(100)이 보유한 컨텐츠의 컨텐츠 정보에 포함된 복수의 하위 정보 중 적어도 하나 이상의 하위 정보를 수신할 수 있고, 컨텐츠 정보는 컨텐츠가 음원인 경우 ID3 라는 메타 정보 표준 규격일 수 있고 컨텐츠 정보는 적어도 하나 이상의 제목, 장르, 아티스트, 작곡가, 작사가, 플레이 횟수, 플레이 시간, 아티스트 홈페이지, 파일 타입 및 언어 등의 복수의 하위 정보를 포함할 수 있다. 또한, 수신부(310)는 후술할 리스트 생성부(350)에서 생성한 리스트 중 적어도 하나 이상의 항목을 선택하는 입력 신호를 단말(100)로부터 수신할 수 있다.The receiving unit 310 may receive the meta code from the voice recognition server 200. [ The receiving unit 310 may receive the content information of the content held by the terminal 100 from the terminal 100. [ At this time, the receiving unit 310 can receive at least one or more pieces of lower information among the plurality of pieces of lower information contained in the contents information of the contents held by the terminal 100 from the terminal 100, ID3, and the content information may include a plurality of sub information such as at least one title, a genre, an artist, a composer, a lyricist, a play count, a play time, an artist homepage, a file type and a language . The receiving unit 310 may receive an input signal from the terminal 100 to select at least one item from the list generated by the list generating unit 350, which will be described later.

컨텐츠 등록부(320)는 CP 단말(400)로부터 컨텐츠 및 컨텐츠와 관련된 정보를 입력 받아 매칭하고 등록할 수 있다. The content registration unit 320 receives information related to content and content from the CP terminal 400, and can match and register the information.

컨텐츠 추출부(330)는 수신부(310)에서 수신한 메타 코드 및 CP 단말(400)로부터 입력 받은 컨텐츠와 관련된 정보를 매칭하여 컨텐츠와 관련된 정보에 대응하는 컨텐츠를 추출할 수 있다. 또한, 컨텐츠 추출부(330)는 단말(100)로부터 수신하는 리스트 중 적어도 하나 이상의 항목을 선택하는 입력 신호에 대응하는 컨텐츠를 추출할 수 있다.The content extracting unit 330 may extract the content corresponding to the content related to the content by matching the meta code received by the receiving unit 310 and information related to the content received from the CP terminal 400. [ In addition, the content extracting unit 330 may extract the content corresponding to the input signal for selecting at least one item from the list received from the terminal 100. [

컨텐츠 전송부(340)는 컨텐츠 추출부(330)에서 추출된 적어도 하나 이상의 컨텐츠를 단말(100)에게 전송할 수 있다.The content transmitting unit 340 may transmit at least one content extracted by the content extracting unit 330 to the terminal 100.

리스트 생성부(350)는 서비스 타입이 리스트 제공 방식을 이용하여 컨텐츠를 제공하는 서비스 타입인 경우, 서비스 타입에 대응하는 적어도 하나 이상의 컨텐츠에 대응하는 리스트를 생성할 수 있다. The list generating unit 350 may generate a list corresponding to at least one content corresponding to the service type, when the service type is a service type in which the service type provides the contents using the list providing method.

리스트 전송부(360)는 리스트 생성부(350)에서 생성된 리스트를 단말(100)에게 전송할 수 있다. The list transmission unit 360 can transmit the list generated by the list generation unit 350 to the terminal 100. [

본 발명의 다른 실시예에 따르면, 리스트 전송부(360)는 리스트 생성부(350)에서 생성된 리스트를 별도의 리스트 제공 서버(미도시)로 전송할 수 있고, 리스트 제공 서버(미도시)는 전송된 리스트를 수신하여 수신한 리스트를 단말(100)에게 전송할 수 있다. 이 때, 리스트 제공 서버(미도시)는 리스트 중 적어도 하나 이상의 항목을 선택하는 입력 신호를 단말(100)로부터 수신할 수 있고, 수신한 입력 신호를 컨텐츠 서버(300)에게 전송할 수 있다. 이 경우, 컨텐츠 추출부(330)는 입력 신호에 대응하는 컨텐츠를 추출할 수 있다.According to another embodiment of the present invention, the list transmitting unit 360 may transmit the list generated by the list generating unit 350 to a separate list providing server (not shown), and the list providing server (not shown) And transmit the received list to the terminal 100. [0064] At this time, the list providing server (not shown) may receive an input signal for selecting at least one item from the list from the terminal 100, and may transmit the received input signal to the contents server 300. In this case, the content extracting unit 330 can extract the content corresponding to the input signal.

데이터베이스(390)는 데이터를 저장한다.The database 390 stores data.

이와 같은, 컨텐츠 서버(300)의 수신부(310), 컨텐츠 등록부(320), 컨텐츠 추출부(330), 컨텐츠 전송부(340) 및 데이터베이스(390)에 대하여 이상에서 설명되지 아니한 사항은 앞서 도 3을 통해 설명된 내용과 동일하거나 설명된 내용으로부터 당업자에 의해 용이하게 유추되므로 설명을 생략하도록 한다.The matters not described above regarding the receiving unit 310, the content registering unit 320, the content extracting unit 330, the content transmitting unit 340, and the database 390 of the content server 300, The description will be omitted since it is easily deduced by those skilled in the art from the same or described contents.

이하에서는 도 1의 단말(100)의 동작에 대해 보다 구체적으로 설명한다.Hereinafter, the operation of the terminal 100 of FIG. 1 will be described in more detail.

도 5는 본 발명의 일 실시예에 따른, 도 1에 도시된 단말(100)의 구성도이다. 도 5를 참조하면, 단말(100)은 음성 입력부(110), 음성 전송부(120), 컨텐츠 수신부(130), 컨텐츠 출력부(140) 및 데이터베이스(190)를 포함할 수 있다. 다만, 도 5에 도시된 단말(100)은 본 발명의 하나의 구현 예에 불과하며, 도 5에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. 예를 들어, 단말(100)은 관리자로부터 어떤 명령 내지 정보를 입력 받기 위한 관리자 인터페이스가 더 포함될 수 있다. 이 경우, 관리자 인터페이스는 일반적으로 키보드, 마우스 등과 같은 입력 장치가 될 수도 있으나, 영상 표시 장치에 표현되는 그래픽 유저 인터페이스(GUI, Graphical User interface)가 될 수도 있다.5 is a configuration diagram of the terminal 100 shown in FIG. 1 according to an embodiment of the present invention. 5, the terminal 100 may include a voice input unit 110, a voice transmission unit 120, a content receiving unit 130, a content output unit 140, and a database 190. However, the terminal 100 shown in FIG. 5 is only one embodiment of the present invention, and various modifications are possible based on the components shown in FIG. For example, the terminal 100 may further include an administrator interface for receiving a command or information from an administrator. In this case, the manager interface may be an input device such as a keyboard, a mouse, or the like, but may be a graphical user interface (GUI) represented on a video display device.

음성 입력부(110)는 애플리케이션 실행 중에 음성 정보를 입력 받을 수 있다.The voice input unit 110 can receive voice information while the application is running.

음성 전송부(120)는 음성 입력부(110)에서 입력된 음성 정보를 음성 인식 서버(200)로 전송할 수 있다.The voice transmission unit 120 may transmit the voice information input from the voice input unit 110 to the voice recognition server 200. [

컨텐츠 수신부(130)는 컨텐츠 서버(300)로부터 컨텐츠를 수신할 수 있다. 이 때, 컨텐츠는 음성 인식 서버(200)에서 분석한 음성 정보에 기초하여 결정된 서비스 타입에 기초하여 추출된 것일 수 있다.The content receiving unit 130 may receive the content from the content server 300. [ At this time, the contents may be extracted based on the service type determined based on the voice information analyzed by the voice recognition server 200. [

컨텐츠 출력부(140)는 컨텐츠 수신부(130)에서 수신한 컨텐츠를 출력할 수 있다.The content output unit 140 may output the content received by the content receiving unit 130. [

데이터베이스(190)는 데이터를 저장한다. 이 때, 데이터는 단말(100) 내부의 각 구성요소들 간에 입력 및 출력되는 데이터를 포함하고, 단말(100)과 단말(100) 외부의 구성요소들간에 입력 및 출력되는 데이터를 포함한다. 예를 들어, 데이터베이스(190)는 음성 입력부(110)에서 입력된 음성 정보를 저장할 수 있다. 이러한 데이터베이스(190)의 일 예에는 단말(100) 내부 또는 외부에 존재하는 하드디스크드라이브, ROM(Read Only Memory), RAM(Random Access Memory), 플래쉬메모리 및 메모리카드 등이 포함된다.The database 190 stores data. In this case, the data includes data input and output between the respective components in the terminal 100, and includes data input and output between the terminal 100 and components external to the terminal 100. For example, the database 190 may store voice information input from the voice input unit 110. One example of such a database 190 includes a hard disk drive, a ROM (Read Only Memory), a RAM (Random Access Memory), a flash memory, a memory card, and the like existing in the terminal 100 or the like.

이하에서는 도 1의 단말(100)의 동작의 다른 실시예에 대해 구체적으로 설명한다.Hereinafter, another embodiment of the operation of the terminal 100 of FIG. 1 will be described in detail.

도 6은 본 발명의 다른 실시예에 따른 도 1에 도시된 단말(100)의 구성도이다. 도 6을 참조하면, 단말(100)은 음성 입력부(110), 음성 전송부(120), 컨텐츠 수신부(130), 컨텐츠 출력부(140), 음성 변환부(150), 컨텐츠 정보 전송부(160), 리스트 선택부(170) 및 데이터베이스(190)를 포함할 수 있다. 다만, 도 6에 도시된 단말(100)은 본 발명의 하나의 구현 예에 불과하며, 도 6에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. 예를 들어, 단말(100)은 관리자로부터 어떤 명령 내지 정보를 입력 받기 위한 관리자 인터페이스가 더 포함될 수 있음은 앞서 도 5를 통해 설명된 바와 같다.FIG. 6 is a configuration diagram of the terminal 100 shown in FIG. 1 according to another embodiment of the present invention. 6, the terminal 100 includes a voice input unit 110, a voice transmission unit 120, a content receiving unit 130, a content output unit 140, a voice conversion unit 150, a content information transmitting unit 160 ), A list selection unit 170, and a database 190. However, the terminal 100 shown in FIG. 6 is only one embodiment of the present invention, and various modifications are possible based on the components shown in FIG. For example, the terminal 100 may further include an administrator interface for receiving a command or information from an administrator as described with reference to FIG.

음성 입력부(110)는 애플리케이션 실행 중에 음성 정보를 입력 받을 수 있다.The voice input unit 110 can receive voice information while the application is running.

음성 전송부(120)는 음성 입력부(110)에서 입력된 음성 정보를 음성 인식 서버(200)로 전송할 수 있다. 이 때, 음성 정보는 음성 변환부(150)에서 context 형식으로 변환된 것일 수 있다.The voice transmission unit 120 may transmit the voice information input from the voice input unit 110 to the voice recognition server 200. [ At this time, the voice information may be converted into the context format in the voice conversion unit 150. [

컨텐츠 수신부(130)는 컨텐츠 서버(300)로부터 컨텐츠를 수신할 수 있다.The content receiving unit 130 may receive the content from the content server 300. [

컨텐츠 출력부(140)는 컨텐츠 수신부(130)에서 수신한 컨텐츠를 출력할 수 있다.The content output unit 140 may output the content received by the content receiving unit 130. [

음성 변환부(150)는 음성 입력부(110)에서 입력 받은 음성 정보를 context 형식으로 변환할 수 있다. The voice conversion unit 150 may convert the voice information received from the voice input unit 110 into a context format.

컨텐츠 정보 전송부(160)는 음성 인식 서버(200)로부터 단말(100)이 보유한 컨텐츠의 컨텐츠 정보를 요청하는 컨텐츠 정보 요청 신호를 받는 경우, 요청 받은 컨텐츠 정보를 추출하여 컨텐츠 서버(300)에게 전송할 수 있다. When receiving the content information request signal requesting the content information of the content held by the terminal 100 from the voice recognition server 200, the content information transmitting unit 160 extracts the requested content information and transmits the extracted content information to the content server 300 .

리스트 선택부(170)는 컨텐츠 서버(300)에서 추출된 적어도 하나 이상의 컨텐츠에 대응하는 리스트를 컨텐츠 서버(300)로부터 수신하고, 수신한 리스트 중 적어도 하나 이상의 항목을 선택할 수 있다. 이 때, 리스트는 리스트 제공 서버(미도시)로부터 수신할 수 있다.The list selection unit 170 can receive from the content server 300 a list corresponding to at least one content extracted from the content server 300 and select at least one item from the received list. At this time, the list can be received from the list providing server (not shown).

데이터베이스(190)는 데이터를 저장한다.The database 190 stores data.

이와 같은, 단말(100)의 음성 입력부(110), 음성 전송부(120), 컨텐츠 수신부(130), 컨텐츠 출력부(140) 및 데이터베이스(190)에 대하여 이상에서 설명되지 아니한 사항은 앞서 도 5를 통해 설명된 내용과 동일하거나 설명된 내용으로부터 당업자에 의해 용이하게 유추되므로 설명을 생략하도록 한다.The matters not described above regarding the voice input unit 110, the voice transmission unit 120, the content receiving unit 130, the content output unit 140 and the database 190 of the terminal 100 are the same as those of FIG. 5 The description will be omitted because it is easily deduced by those skilled in the art from the same or described contents.

도 7은 본 발명의 일 실시예에 따라, 음성 정보에 기초하여 컨텐츠를 추출하는 방법을 설명하기 위한 순서도이다.7 is a flowchart for explaining a method of extracting contents based on voice information according to an embodiment of the present invention.

본 발명의 일 실시예에 따라, 음성 정보에 기초하여 컨텐츠를 추출하는 방법은 음성 인식 서버(200) 및 컨텐츠 서버(300)를 중심으로 서비스 이용자(10), 단말(100) 및 CP 단말(400)이 네트워크(500)로 연결되어 구현될 수 있다.A method for extracting contents based on voice information is performed by a service user 10, a terminal 100 and a CP terminal 400 May be connected to the network 500 and implemented.

도 7을 참조하면, 단계 S701에서 컨텐츠 서버(300)는 CP 단말(400)로부터 컨텐츠 및 컨텐츠와 관련된 정보를 입력 받을 수 있다.Referring to FIG. 7, in step S701, the content server 300 may receive information related to content and content from the CP terminal 400. [

단계 S703에서 컨텐츠 서버(300)는 S701에서 입력 받은 컨텐츠 및 컨텐츠와 관련된 정보를 매칭하고 등록할 수 있다.In step S703, the content server 300 may match and register the content and the information related to the content received in step S701.

단계 S705에서 단말(100)은 음성 정보에 기초하여 컨텐츠를 추출하는 방법에 대응하는 애플리케이션을 실행할 수 있다.In step S705, the terminal 100 can execute an application corresponding to the method of extracting contents based on the voice information.

단계 S707에서 서비스 이용자(10)는 단말(100)에게 음성 정보를 입력할 수 있다.The service user 10 can input voice information to the terminal 100 in step S707.

단계 S709에서 단말(100)은 S707에서 입력 받은 음성 정보를 음성 인식 서버(200)로 전송할 수 있다. 이 때, 음성 정보는 context 형식으로 변환된 것일 수 있다. In step S709, the terminal 100 can transmit the voice information received in step S707 to the voice recognition server 200. [ At this time, the voice information may be converted into a context format.

단계 S711에서 음성 인식 서버(200)는 S707에서 수신한 음성 정보를 분석하고, 서비스 타입을 결정할 수 있다. In step S711, the voice recognition server 200 analyzes the voice information received in step S707, and determines the service type.

단계 S713에서 음성 인식 서버(200)는 S709의 음성 정보에 기초하여 S711에서 결정된 서비스 타입을 포함하는 메타 코드를 생성할 수 있다.In step S713, the voice recognition server 200 may generate a meta code including the service type determined in step S711 based on the voice information in step S709.

단계 S715에서 음성 인식 서버(200)는 S713에서 생성된 메타 코드를 컨텐츠 서버(300)에게 전송할 수 있다.In step S715, the voice recognition server 200 may transmit the meta code generated in step S713 to the content server 300. [

단계 S717은 S711에서 결정된 서비스 타입이 단말(100)이 보유한 컨텐츠의 컨텐츠 정보에 기초하여 컨텐츠를 제공하는 서비스 타입인지 여부를 판단할 수 있다.In step S717, it is possible to determine whether the service type determined in step S711 is a service type that provides content based on the content information of the content held by the terminal 100. [

단계 S717에서 판단된 서비스 타입이 컨텐츠 정보에 기초하여 컨텐츠를 제공하는 서비스 타입인 경우, 도 7에 점선으로 도시한 S7171 내지 S7175의 단계를 추가적으로 수행할 수 있다.If the service type determined in step S717 is a service type that provides content based on the content information, steps S7171 to S7175 shown by dotted lines in Fig. 7 may be additionally performed.

단계 S7171에서 음성 인식 서버(200)는 단말(100)에게 컨텐츠 정보를 요청하는 신호를 전송할 수 있다. 이 때, 컨텐츠 정보는 컨텐츠가 음원인 경우 ID3 라는 메타 정보 표준 규격일 수 있고 컨텐츠 정보는 적어도 하나 이상의 제목, 장르, 아티스트, 작곡가, 작사가, 플레이 횟수, 플레이 시간, 아티스트 홈페이지, 파일 타입 및 언어 등의 복수의 하위 정보를 포함할 수 있고, 단계 S7171에서 음성 인식 서버(200)는 단말(100)에게 S707에서 수신된 음성 정보에 기초하여 단말(100)이 보유한 컨텐츠의 컨텐츠 정보에 포함된 복수의 하위 정보 중 적어도 하나 이상의 하위 정보를 요청하는 신호를 전송할 수 있다..In step S7171, the voice recognition server 200 may transmit a signal requesting the terminal 100 to request the content information. In this case, the content information may be a meta information standard standard called ID3 when the content is a sound source, and the content information may include at least one title, genre, artist, composer, lyricist, play count, play time, artist homepage, In step S7171, the voice recognition server 200 informs the terminal 100 of a plurality of pieces of sub information included in the content information of the contents held by the terminal 100 based on the voice information received in step S707. And transmits the signal requesting at least one or more pieces of sub information of the sub information.

단계 S7173에서 단말(100)은 S7171의 컨텐츠 정보를 요청하는 신호에 기초하여, 요청된 컨텐츠 정보를 추출할 수 있다.In step S7173, the terminal 100 can extract the requested content information based on the signal requesting the content information in step S7171.

단계 S7175는 S7173에서 추출된 컨텐츠 정보를 컨텐츠 서버(300)에게 전송할 수 있다. In step S7175, the content information extracted in step S7173 may be transmitted to the content server 300. [

단계 S719에서는 S717에서 판단된 서비스 타입이 컨텐츠 정보에 기초하여 컨텐츠를 제공하는 서비스 타입인 경우, S715의 메타 코드 및 S7175의 컨텐츠 정보에 기초하여 컨텐츠를 추출하고, S717에서 판단된 서비스 타입이 컨텐츠 정보에 기초하여 컨텐츠를 제공하는 서비스 타입이 아닌 경우, S715의 메타 코드에 기초하여 컨텐츠를 추출할 수 있다.In step S719, if the service type determined in step S717 is a service type that provides content based on the content information, the content is extracted based on the metacode of step S715 and the content information of step S7175. If the service type determined in step S717 is content information , It is possible to extract the content based on the metacode of S715.

도 8은 본 발명의 일 실시예에 따라, 음성 정보에 기초하여 컨텐츠를 추출하고 제공하는 방법을 설명하기 위한 순서도이다. 이 때, 도 8은 도 7의 S701 내지 S717의 단계(S7171 내지 S7175 단계 포함)를 준용한다.8 is a flowchart for explaining a method of extracting and providing contents based on voice information according to an embodiment of the present invention. At this time, Fig. 8 applies the steps S701 to S717 in Fig. 7 (including S7171 to S7175).

본 발명의 일 실시예에 따라, 음성 정보에 기초하여 추출된 컨텐츠를 제공하는 방법은 음성 인식 서버(200) 및 컨텐츠 서버(300)를 중심으로 서비스 이용자(10) 및 단말(100)이 네트워크(500)로 연결되어 구현될 수 있다.A method of providing contents extracted based on voice information is performed by the service user 10 and the terminal 100 around the voice recognition server 200 and the content server 300 500).

단계 S720은 도 7의 S711에서 결정된 서비스 타입이 도 7의 S707에서 수신된 음성 정보 및 리스트 제공 방식에 의하여 획득되는 수신된 음성 정보에 대한 추가 정보에 기초하여 컨텐츠를 제공하는 서비스 타입인지 여부를 판단할 수 있다.The step S720 judges whether or not the service type determined in S711 of FIG. 7 is a service type for providing contents based on the voice information received in S707 of FIG. 7 and the additional information about the received voice information obtained by the list providing method can do.

단계 S720에서 판단된 서비스 타입이 음성 정보 및 추가 정보에 기초하여 컨텐츠를 제공하는 서비스 타입이 아닌 경우, 도 8에 점선으로 도시된 S7201 및 S7205의 단계를 수행함으로써 서비스가 종료될 수 있다.If the service type determined in step S720 is not the service type providing the content based on the voice information and the additional information, the service can be terminated by performing the steps S7201 and S7205 shown by the dotted line in Fig.

단계 S7201에서 컨텐츠 서버(300)는 S717에서 판단된 서비스 타입이 컨텐츠 정보에 기초하여 컨텐츠를 제공하는 서비스 타입인 경우, S715의 메타 코드 및 S7175의 컨텐츠 정보에 기초하여 컨텐츠를 추출하고, S717에서 판단된 서비스 타입이 컨텐츠 정보에 기초하여 컨텐츠를 제공하는 서비스 타입이 아닌 경우, S715의 메타 코드에 기초하여 컨텐츠를 추출할 수 있다.In step S7201, if the service type determined in step S717 is a service type that provides content based on the content information, the content server 300 extracts the content based on the metacode of step S715 and the content information of step S7175, If the service type is not a service type providing content based on the content information, the content can be extracted based on the metacode of S715.

단계 S7203에서 컨텐츠 서버(300)는 단말(100)에게 S7201에서 추출된 컨텐츠를 전송할 수 있다.In step S7203, the content server 300 may transmit the extracted content to the terminal 100 in step S7201.

단계 S7205에서 단말(100)은 S7203에서 전송된 컨텐츠를 서비스 이용자(10)에게 출력할 수 있다.In step S7205, the terminal 100 can output the content transmitted in step S7203 to the service user 10. [

S720에서 판단된 서비스 타입이 음성 정보 및 추가 정보에 기초하여 컨텐츠를 제공하는 서비스 타입인 경우, 단계 S721은 S717에서 판단된 서비스 타입이 컨텐츠 정보에 기초하여 컨텐츠를 제공하는 서비스 타입인 경우, 컨텐츠 서버(300)는 S715의 메타 코드 및 S7175의 컨텐츠 정보에 기초하여 적어도 하나 이상의 해당 컨텐츠에 대응하는 추출 컨텐츠 리스트를 생성하고, S717에서 판단된 서비스 타입이 컨텐츠 정보에 기초하여 컨텐츠를 제공하는 서비스 타입이 아닌 경우, 컨텐츠 서버(300)는 S715의 메타 코드에 기초하여 적어도 하나 이상의 해당 컨텐츠에 대응하는 추출 컨텐츠 리스트를 생성할 수 있다.In the case where the service type determined in step S720 is a service type that provides contents based on the voice information and the additional information, in step S721, if the service type determined in step S717 is a service type that provides contents based on the contents information, The service type determination unit 300 generates an extracted content list corresponding to at least one corresponding content based on the metacode of S715 and the content information of S7175. If the service type determined in S717 is a service type for providing content based on the content information Otherwise, the content server 300 may generate an extracted content list corresponding to at least one corresponding content based on the metacode of S715.

단계 S723에서 컨텐츠 서버(300)는 S721에서 생성된 적어도 하나 이상의 컨텐츠에 대응하는 추출 컨텐츠 리스트를 단말(100)에게 전송할 수 있다. In step S723, the content server 300 may transmit to the terminal 100 an extracted content list corresponding to at least one content generated in step S721.

단계 S725에서 단말(100)은 S723의 추출 컨텐츠 리스트를 서비스 이용자(10)에게 출력할 수 있다.In step S725, the terminal 100 can output the extracted content list of S723 to the service user 10. [

단계 S727에서 단말(100)은 서비스 이용자(10)로부터 S725의 추출 컨텐츠 리스트 중 적어도 하나 이상의 항목을 선택하는 추가 정보를 입력 받을 수 있다.In step S727, the terminal 100 can receive additional information from the service user 10 to select at least one item from the extracted content list in step S725.

단계 S729은 S725의 추가 정보가 관련 음성 정보인지 여부를 판단할 수 있다. 이 때, 관련 음성 정보는 수신된 음성 정보에 대응하는 복수의 컨텐츠 중 적어도 하나 이상을 선택하는 것일 수 있다. 다만, 관련 음성 정보는 리스트 제공 방식에 기초하여 입력되는 추가 정보에 한정되지 않는다.Step S729 can determine whether the additional information in S725 is relevant voice information. At this time, the related audio information may be a selection of at least one of a plurality of contents corresponding to the received audio information. However, the related audio information is not limited to the additional information input based on the list providing method.

단계 S729에서 판단된 추가 정보가 관련 음성 정보가 아닌 경우, 도 8에 점선으로 도시된 S7291 내지 S7297의 단계를 수행함으로써 서비스가 종료될 수 있다.If the additional information determined in step S729 is not relevant voice information, the service can be terminated by performing the steps S7291 to S7297 shown by the dotted line in Fig.

단계 S7291에서 단말(100)은 컨텐츠 서버(300)에게 S727의 추가 정보를 전송할 수 있다.In step S7291, the terminal 100 can transmit the additional information of step S727 to the content server 300. [

단계 S7293에서 컨텐츠 서버(300)는 추가 정보에 기초하여 컨텐츠를 추출할 수 있다.In step S7293, the content server 300 can extract the content based on the additional information.

단계 S7295에서 컨텐츠 서버(300)는 S7293에서 추출된 컨텐츠를 단말(100)에게 제공할 수 있다.In step S7295, the content server 300 may provide the terminal 100 with the content extracted in step S7293.

단계 S7297에서 단말(100)은 S7295의 컨텐츠를 서비스 이용자(10)에게 출력할 수 있다.In step S7297, the terminal 100 can output the contents of the S7295 to the service user 10. [

단계 S729에서 판단된 추가 정보가 관련 음성 정보인 경우, 단계 S731에서 단말(100)은 추가 정보를 음성 인식 서버(200)에게 전송할 수 있다.If the additional information determined in step S729 is related voice information, the terminal 100 can transmit the additional information to the voice recognition server 200 in step S731.

단계 S733에서 음성 인식 서버(200)는 도 7의 S709의 음성 정보 및 S731의 추가 정보에 기초하여 메타 코드를 재생성할 수 있다.In step S733, the voice recognition server 200 can regenerate the meta-code based on the voice information in step S709 in Fig. 7 and the additional information in step S731.

단계 S735에서 음성 인식 서버(200)는 S735에서 재생성된 메타 코드를 컨텐츠 서버로 전송할 수 있다. In step S735, the speech recognition server 200 may transmit the regenerated metacode to the content server in step S735.

또한, S735 단계 이후, S720 내지 S735의 단계를 반복할 수 있다. After step S735, steps S720 to S735 may be repeated.

도 7 및 도 8에서 상술한 단계들(S701~S735)간의 순서는 예시일 뿐, 이에 한정되지 않는다. 즉, 상술한 단계들(S701~S735)간의 순서는 상호 변동될 수 있으며, 이중 일부 단계들은 동시에 실행될 수도 있다.The order between steps S701 to S735 described above in Fig. 7 and Fig. 8 is only an example, but is not limited thereto. That is, the order between the above-described steps S701 to S735 may be mutually varied, and some of the steps may be executed simultaneously.

도 9는 본 발명의 일 실시예에 따른 음성 인식 서버가 컨텐츠 제공 서비스 타입을 결정하는 방법을 나타낸 동작 흐름도이다. 도 9에 도시된 실시예에 따른 서비스 타입을 결정하는 방법은 도 2에 도시된 실시예에 따른 음성 인식 서버(200)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 2의 음성 인식 서버(200)에 관하여 기술된 내용은 도 9에 도시된 실시예에 따른 서비스 타입을 결정하는 방법에도 적용된다.9 is a flowchart illustrating a method of determining a content providing service type by the voice recognition server according to an embodiment of the present invention. The method for determining the service type according to the embodiment shown in FIG. 9 includes the steps of time-series processing in the speech recognition server 200 according to the embodiment shown in FIG. Therefore, the content described with respect to the speech recognition server 200 of FIG. 2 is applied to the method of determining the service type according to the embodiment shown in FIG. 9, even if omitted below.

단계 S901에서 음성 인식 서버(200)의 통신부(230)는 단말(100)로부터 음성 정보를 수신할 수 있다. 단계 S903에서 음성 분석부(210)는 통신부(230)에서 수신된 음성 정보를 분석하고 서비스 타입을 결정할 수 있다. 단계 S905에서 코드 생성부(220)는 음성 분석부(210)에서 분석된 음성 정보에 기초하여 결정된 서비스 타입이 포함된 메타 코드를 생성할 수 있다. S907에서 통신부(230)는 코드 생성부(220)에서 생성된 메타 코드를 컨텐츠 서버(300)로 전송할 수 있다.The communication unit 230 of the voice recognition server 200 can receive the voice information from the terminal 100 in step S901. In step S903, the voice analysis unit 210 may analyze the voice information received by the communication unit 230 and determine the service type. In step S905, the code generation unit 220 may generate a meta code including a service type determined based on the analyzed voice information in the voice analysis unit 210. [ In step S907, the communication unit 230 may transmit the meta code generated by the code generating unit 220 to the content server 300. [

도 10은 본 발명의 일 실시예에 따른 컨텐츠 서버가 컨텐츠를 제공하는 방법을 나타낸 동작 흐름도이다. 도 10에 도시된 실시예에 따른 컨텐츠를 제공하는 방법은 도 3에 도시된 실시예에 따른 컨텐츠 서버(300)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 3의 컨텐츠 서버(300)에 관하여 기술된 내용은 도 10에 도시된 실시예에 따른 컨텐츠를 제공하는 방법에도 적용된다.10 is a flowchart illustrating a method of providing content by a content server according to an exemplary embodiment of the present invention. The method of providing content according to the embodiment shown in FIG. 10 includes steps that are processed in a time-series manner in the content server 300 according to the embodiment shown in FIG. Therefore, even if omitted below, the content described with respect to the content server 300 of FIG. 3 also applies to the method of providing the content according to the embodiment shown in FIG.

단계 S1001에서 컨텐츠 서버(300)의 컨텐츠 등록부(320)는 컨텐츠 및 컨텐츠와 관련된 정보를 매칭하여 등록할 수 있다. 단계 S1003에서 수신부(310)는 음성 인식 서버(200)로부터 서비스 타입이 포함된 메타 코드를 수신할 수 있다. 단계 S1005에서 컨텐츠 추출부(330)는 수신부(310)에서 수신된 메타 코드 및 컨텐츠와 관련된 정보를 매칭하여 컨텐츠를 추출할 수 있다. S1007에서 컨텐츠 전송부(340)는 컨텐츠 추출부(330)에서 추출된 컨텐츠를 단말(100)에게 전송할 수 있다. In step S1001, the content registration unit 320 of the content server 300 may match and register the information related to the content and the content. In step S1003, the receiving unit 310 may receive the meta code including the service type from the speech recognition server 200. [ In step S1005, the content extracting unit 330 may extract the content by matching the meta code received from the receiving unit 310 and information related to the content. In step S1007, the content transmitting unit 340 may transmit the content extracted by the content extracting unit 330 to the terminal 100. [

본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. One embodiment of the present invention may also be embodied in the form of a recording medium including instructions executable by a computer, such as program modules, being executed by a computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes any information delivery media, including computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.It is intended that the present invention covers the modifications and variations of this invention provided they come within the scope of the appended claims and their equivalents. .

100: 단말
200: 음성 인식 서버
300: 컨텐츠 서버
400: CP 단말
500: 네크워크
100: terminal
200: voice recognition server
300: Content server
400: CP terminal
500: Network

Claims (20)

컨텐츠 제공 서비스 타입을 결정하는 음성 인식 서버에 있어서,
단말로부터 수신되는 음성 정보를 분석하고 서비스 타입을 결정하는 음성 분석부;
상기 결정된 서비스 타입을 포함하는 메타 코드를 생성하는 코드 생성부; 및
상기 단말로부터 상기 음성 정보를 수신하고, 상기 생성된 메타 코드를 컨텐츠 서버로 전송하는 통신부를 포함하되,
상기 메타 코드에 포함된 서비스 타입은
상기 수신된 음성 정보 및 상기 수신된 음성 정보에 대한 추가 정보에 기초하여 상기 단말로 제공할 컨텐츠를 결정하는 제 1 서비스 타입, 상기 수신된 음성 정보만으로 상기 단말로 제공할 컨텐츠를 결정하는 제 2 서비스 타입 및 상기 수신된 음성 정보 및 상기 단말이 보유한 컨텐츠에 기초하여 상기 단말로 제공할 컨텐츠를 결정하는 제 3 서비스 타입 중 적어도 하나의 서비스 타입을 포함하는 음성 인식 서버.
A voice recognition server for determining a content providing service type,
A voice analyzer for analyzing voice information received from the terminal and determining a service type;
A code generation unit for generating a meta code including the determined service type; And
And a communication unit for receiving the voice information from the terminal and transmitting the generated meta code to a content server,
The service type included in the meta code is
A first service type for determining contents to be provided to the terminal based on the received voice information and the additional information about the received voice information, a second service for determining contents to be provided to the terminal based on only the received voice information, And a third service type for determining a content to be provided to the terminal based on the received voice information and the content held by the terminal.
제 1 항에 있어서,
상기 통신부는 상기 단말이 보유한 컨텐츠의 컨텐츠 정보를 상기 컨텐츠 서버로 전송할 것을 요청하는 컨텐츠 정보 요청 신호를 상기 단말로 전송하는 음성 인식 서버.
The method according to claim 1,
Wherein the communication unit transmits to the terminal a content information request signal requesting the content server to transmit the content information of the content held by the terminal to the content server.
제 2 항에 있어서,
상기 통신부는 상기 수신된 음성 정보에 기초하여 상기 단말이 보유한 컨텐츠의 컨텐츠 정보에 포함된 복수의 하위 정보 중 적어도 하나 이상의 하위 정보에 대한 선택 정보를 생성하고,
상기 컨텐츠 정보 요청 신호는 상기 선택 정보를 포함하는 것인, 음성 인식 서버.
3. The method of claim 2,
Wherein the communication unit generates selection information on at least one or more pieces of lower information among a plurality of pieces of lower information included in content information of contents held by the terminal based on the received voice information,
And the content information request signal includes the selection information.
제 1 항에 있어서,
상기 서비스 타입은 상기 수신된 음성 정보에 포함된 적어도 하나 이상의 단어에 기초하여 결정되는 것인, 음성 인식 서버.
The method according to claim 1,
Wherein the service type is determined based on at least one or more words included in the received voice information.
삭제delete 제 1 항에 있어서,
상기 추가 정보는 상기 컨텐츠 서버와 상기 단말 간의 리스트 제공 방식에 의하여 획득되는 것인, 음성 인식 서버.
The method according to claim 1,
Wherein the additional information is obtained by a list providing method between the content server and the terminal.
제 1 항에 있어서,
상기 메타 코드에 포함된 서비스 타입은 상기 음성 정보에 대응하여 기 지정된 컨텐츠를 제공하는 제 4 서비스 타입을 더 포함하는 것인, 음성 인식 서버.
The method according to claim 1,
Wherein the service type included in the metacode further comprises a fourth service type for providing previously specified content corresponding to the voice information.
제 1 항에 있어서,
상기 메타 코드는 언어 종류 또는 제공 방식을 포함하고
상기 제공 방식은 스트리밍 방식 또는 다운로드 방식을 포함하는 음성 인식 서버.
The method according to claim 1,
The metacode includes a language type or a providing method
Wherein the providing method includes a streaming method or a download method.
제 1 항에 있어서,
상기 수신되는 음성 정보는 context 형식으로 변환된 음성 인식 서버.
The method according to claim 1,
And the received voice information is converted into a context type.
제 1 항에 있어서,
상기 코드 생성부는 상기 수신된 음성 정보와 관련된 추가 관련 음성 정보를 수신하는 경우, 상기 수신된 음성 정보 및 상기 관련 음성 정보에 기초하여 메타 코드를 생성하는 음성 인식 서버.
The method according to claim 1,
Wherein the code generation unit generates a meta code based on the received voice information and the related voice information when receiving additional related voice information related to the received voice information.
제 10 항에 있어서,
상기 관련 음성 정보는 상기 수신된 음성 정보에 대응하는 복수의 컨텐츠 중 적어도 하나 이상을 선택하는 것인 음성 인식 서버.
11. The method of claim 10,
Wherein the related voice information selects at least one of a plurality of contents corresponding to the received voice information.
단말에게 컨텐츠를 제공하는 컨텐츠 서버에 있어서,
음성 인식 서버로부터 메타 코드를 수신하는 수신부;
컨텐츠 및 상기 컨텐츠와 관련된 정보를 매칭하여 등록하는 컨텐츠 등록부;
상기 수신된 메타 코드 및 상기 컨텐츠와 관련된 정보를 매칭하여 상기 컨텐츠와 관련된 정보에 대응하는 컨텐츠를 추출하는 컨텐츠 추출부; 및
상기 추출된 적어도 하나 이상의 컨텐츠를 단말에게 전송하는 컨텐츠 전송부를 포함하고,
상기 메타 코드는 상기 음성 인식 서버에서 분석한 음성 정보에 기초하여 결정된 서비스 타입을 포함하되,
상기 메타 코드에 포함된 서비스 타입은 상기 음성 인식 서버가 상기 단말로부터 수신한 음성 정보 및 상기 수신한 음성 정보에 대한 추가 정보에 기초하여 상기 단말로 제공할 컨텐츠를 결정하는 제 1 서비스 타입, 상기 수신한 음성 정보만으로 상기 단말로 제공할 컨텐츠를 결정하는 제 2 서비스 타입 및 상기 수신한 음성 정보 및 상기 단말이 보유한 컨텐츠에 기초하여 상기 단말로 제공할 컨텐츠를 결정하는 제 3 서비스 타입 중 적어도 하나의 서비스 타입을 포함하는 컨텐츠 서버.
1. A content server for providing content to a terminal,
A receiving unit for receiving a meta code from the speech recognition server;
A content registration unit for matching and registering contents and information related to the contents;
A content extractor for matching the received meta code and information related to the content and extracting content corresponding to the information related to the content; And
And a content transmitting unit for transmitting the extracted at least one content to the terminal,
Wherein the meta code includes a service type determined based on the voice information analyzed by the voice recognition server,
Wherein the service type included in the metacode is a first service type in which the voice recognition server determines content to be provided to the terminal based on the voice information received from the terminal and the additional information on the received voice information, A second service type for determining content to be provided to the terminal only with one voice information, and a third service type for determining content to be provided to the terminal based on the received voice information and the content held by the terminal A content server comprising a type.
제 12 항에 있어서,
상기 수신부는 상기 단말로부터 상기 단말이 보유한 컨텐츠의 컨텐츠 정보를 수신하는 컨텐츠 서버.
13. The method of claim 12,
Wherein the receiving unit receives content information of contents held by the terminal from the terminal.
제 12 항에 있어서,
상기 서비스 타입이 상기 제 1 서비스 타입인 경우 상기 제 1 서비스 타입에 대응하는 적어도 하나 이상의 컨텐츠에 대응하는 리스트를 생성하는 리스트 생성부; 및
상기 생성된 리스트를 상기 단말에게 전송하는 리스트 전송부
를 더 포함하고
상기 수신부는 상기 단말로부터 상기 생성된 리스트 중 적어도 하나 이상의 항목을 선택하는 입력 신호를 수신하는 컨텐츠 서버.
13. The method of claim 12,
A list generator for generating a list corresponding to at least one content corresponding to the first service type if the service type is the first service type; And
A list transmission unit for transmitting the generated list to the terminal,
Lt; / RTI >
Wherein the receiving unit receives an input signal for selecting at least one item from the generated list from the terminal.
애플리케이션을 이용하여 컨텐츠 서버로부터 추출된 컨텐츠를 제공 받는 단말에 있어서,
애플리케이션 실행 중에 음성 정보를 입력 받는 음성 입력부;
상기 음성 정보를 음성 인식 서버로 전송하는 음성 전송부;
컨텐츠 서버로부터 컨텐츠를 수신하는 컨텐츠 수신부; 및
상기 수신된 컨텐츠를 출력하는 컨텐츠 출력부를 포함하고,
상기 컨텐츠는 음성 인식 서버에서 분석한 음성 정보에 기초하여 결정된 서비스 타입에 기초하여 추출되되,
상기 서비스 타입은 상기 입력받은 음성 정보 및 상기 입력받은 음성 정보에 대한 추가 정보에 기초하여 상기 단말이 수신할 컨텐츠를 결정하는 제 1 서비스 타입, 상기 입력받은 음성 정보만으로 상기 단말이 수신할 컨텐츠를 결정하는 제 2 서비스 타입 및 상기 입력받은 음성 정보 및 상기 단말이 보유한 컨텐츠에 기초하여 상기 단말이 수신할 컨텐츠를 결정하는 제 3 서비스 타입 중 적어도 하나의 서비스 타입을 포함하는 것인 단말.
A terminal that receives content extracted from a content server using an application,
A voice input unit for inputting voice information during execution of an application;
A voice transmission unit for transmitting the voice information to a voice recognition server;
A content receiving unit for receiving content from a content server; And
And a content output unit for outputting the received content,
The content is extracted based on the service type determined based on the voice information analyzed by the voice recognition server,
Wherein the service type is a first service type for determining a content to be received by the terminal based on the input voice information and the additional information about the inputted voice information, and determines a content to be received by the terminal using only the inputted voice information And a third service type for determining a content to be received by the terminal based on the second service type, the input voice information, and the content held by the terminal.
제 15 항에 있어서,
상기 입력 받는 음성 정보를 context 형식으로 변환하는 음성 변환부를 더 포함하고
상기 음성 전송부에서 전송하는 음성 정보는 상기 context 형식으로 변환된 것인 단말.
16. The method of claim 15,
And a voice conversion unit for converting the received voice information into a context format
Wherein the voice information transmitted by the voice transmission unit is converted into the context format.
제 15 항에 있어서,
상기 음성 인식 서버로부터 상기 단말이 보유한 컨텐츠의 컨텐츠 정보를 요청하는 컨텐츠 정보 요청 신호를 수신하는 경우, 상기 요청된 컨텐츠 정보를 추출하여 상기 컨텐츠 서버에게 전송하는 컨텐츠 정보 전송부를 포함하는 단말.
16. The method of claim 15,
And a content information transmitter for extracting the requested content information and transmitting the extracted content information to the content server when the content information request signal for requesting content information of the content held in the terminal is received from the voice recognition server.
제 15 항에 있어서,
상기 컨텐츠 서버에서 생성된 리스트를 상기 컨텐츠 서버로부터 수신하고 상기 수신한 리스트 중 적어도 하나 이상의 항목을 선택하는 리스트 선택부를 포함하는 단말.
16. The method of claim 15,
And a list selection unit for receiving the list generated by the content server from the content server and selecting at least one item from the received list.
음성 인식 서버가 컨텐츠 제공 서비스 타입을 결정하는 방법에 있어서,
단말로부터 음성 정보를 수신하는 단계;
상기 수신된 음성 정보를 분석하고 서비스 타입을 결정하는 단계;
상기 결정된 서비스 타입을 포함하는 메타 코드를 생성하는 단계; 및
상기 생성된 메타 코드를 컨텐츠 서버로 전송하는 단계를 포함하되,
상기 메타 코드에 포함된 서비스 타입은 상기 수신된 음성 정보 및 상기 수신된 음성 정보에 대한 추가 정보에 기초하여 상기 단말로 제공할 컨텐츠를 결정하는 제 1 서비스 타입, 상기 수신된 음성 정보만으로 상기 단말로 제공할 컨텐츠를 결정하는 제 2 서비스 타입 및 상기 수신된 음성 정보 및 상기 단말이 보유한 컨텐츠에 기초하여 상기 단말로 제공할 컨텐츠를 결정하는 제 3 서비스 타입 중 적어도 하나의 서비스 타입을 포함하는 컨텐츠 제공 서비스 타입을 결정하는 방법.
A method of determining a content providing service type by a voice recognition server,
Receiving voice information from a terminal;
Analyzing the received voice information and determining a service type;
Generating a meta code including the determined service type; And
And transmitting the generated metacode to a content server,
Wherein the service type included in the metacode is a first service type for determining a content to be provided to the terminal based on the received voice information and the additional information about the received voice information, And a third service type for determining a content to be provided to the terminal based on the received voice information and the content held by the terminal, the content providing service including at least one service type How to determine the type.
컨텐츠 서버가 단말에게 컨텐츠를 제공하는 방법에 있어서,
컨텐츠 및 상기 컨텐츠와 관련된 정보를 매칭하여 등록하는 단계;
음성 인식 서버로부터 메타 코드를 수신하는 단계;
상기 수신된 메타 코드 및 상기 등록된 컨텐츠와 관련된 정보를 매칭하여 상기 등록된 컨텐츠와 관련된 정보에 대응하는 컨텐츠를 추출하는 단계; 및
상기 추출된 적어도 하나 이상의 컨텐츠를 단말에게 전송하는 단계를 포함하고,
상기 메타 코드는 상기 음성 인식 서버에서 분석한 음성 정보에 기초하여 결정된 서비스 타입을 포함하되,
상기 메타 코드에 포함된 서비스 타입은 상기 음성 인식 서버가 상기 단말로부터 수신한 음성 정보 및 상기 음성 정보에 대한 추가 정보에 기초하여 상기 단말로 제공할 컨텐츠를 결정하는 제 1 서비스 타입, 상기 수신한 음성 정보만으로 상기 단말로 제공할 컨텐츠를 결정하는 제 2 서비스 타입 및 상기 수신한 음성 정보 및 상기 단말이 보유한 컨텐츠에 기초하여 상기 단말로 제공할 컨텐츠를 결정하는 제 3 서비스 타입 중 적어도 하나의 서비스 타입을 포함하는 컨텐츠를 제공하는 방법.
A method for a content server to provide content to a terminal,
Matching and registering contents and information related to the contents;
Receiving a meta code from a speech recognition server;
Extracting a content corresponding to information related to the registered content by matching the received meta code and information associated with the registered content; And
And transmitting the extracted at least one content to the terminal,
Wherein the meta code includes a service type determined based on the voice information analyzed by the voice recognition server,
Wherein the service type included in the metacode includes a first service type for determining a content to be provided to the terminal based on the voice information received from the terminal and the additional information on the voice information, And a third service type for determining a content to be provided to the terminal based on the received voice information and the content held by the terminal, And providing the content containing the content.
KR1020120060821A 2012-06-07 2012-06-07 Speech recognition server for determining service type based on speech informaion of device, content server for providing content to the device based on the service type, the device, and methods thereof KR101909250B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120060821A KR101909250B1 (en) 2012-06-07 2012-06-07 Speech recognition server for determining service type based on speech informaion of device, content server for providing content to the device based on the service type, the device, and methods thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120060821A KR101909250B1 (en) 2012-06-07 2012-06-07 Speech recognition server for determining service type based on speech informaion of device, content server for providing content to the device based on the service type, the device, and methods thereof

Publications (2)

Publication Number Publication Date
KR20130137332A KR20130137332A (en) 2013-12-17
KR101909250B1 true KR101909250B1 (en) 2018-10-17

Family

ID=49983582

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120060821A KR101909250B1 (en) 2012-06-07 2012-06-07 Speech recognition server for determining service type based on speech informaion of device, content server for providing content to the device based on the service type, the device, and methods thereof

Country Status (1)

Country Link
KR (1) KR101909250B1 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10972530B2 (en) * 2016-12-30 2021-04-06 Google Llc Audio-based data structure generation
KR101777392B1 (en) 2016-07-04 2017-09-11 주식회사 케이티 Central server and method for processing of voice of user
US10726836B2 (en) 2016-08-12 2020-07-28 Kt Corporation Providing audio and video feedback with character based on voice command
KR102584324B1 (en) * 2016-10-26 2023-09-27 에스케이텔레콤 주식회사 Method for providing of voice recognition service and apparatus thereof
KR101889279B1 (en) 2017-01-16 2018-08-21 주식회사 케이티 System and method for provining sercive in response to voice command
KR102436916B1 (en) * 2017-11-30 2022-08-29 주식회사 케이티 User device, method and computer program for providing alarm service
KR102119701B1 (en) * 2018-05-08 2020-06-05 서강대학교 산학협력단 Music interaction robot
WO2019231027A1 (en) * 2018-06-01 2019-12-05 엘지전자 주식회사 Portable audio equipment
US11178464B2 (en) 2018-12-14 2021-11-16 Roku, Inc. Audio search results in a multi-content source environment
CN113707182A (en) * 2021-09-17 2021-11-26 北京声智科技有限公司 Voiceprint recognition method and device, electronic equipment and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011243204A (en) * 2010-05-19 2011-12-01 Google Inc Mobile content presentation based on program context
JP2012023636A (en) * 2010-07-15 2012-02-02 Nippon Hoso Kyokai <Nhk> Content presentation device and content presentation program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100656516B1 (en) * 2004-10-29 2006-12-11 삼성전자주식회사 Apparatus and Method for Searching Multimedia Using Set-top Box
KR20100048141A (en) * 2008-10-30 2010-05-11 주식회사 케이티 Iptv contents searching system based on voice recognition and method thereof
KR20100067174A (en) * 2008-12-11 2010-06-21 한국전자통신연구원 Metadata search apparatus, search method, and receiving apparatus for iptv by using voice interface

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011243204A (en) * 2010-05-19 2011-12-01 Google Inc Mobile content presentation based on program context
JP2012023636A (en) * 2010-07-15 2012-02-02 Nippon Hoso Kyokai <Nhk> Content presentation device and content presentation program

Also Published As

Publication number Publication date
KR20130137332A (en) 2013-12-17

Similar Documents

Publication Publication Date Title
KR101909250B1 (en) Speech recognition server for determining service type based on speech informaion of device, content server for providing content to the device based on the service type, the device, and methods thereof
US8166076B2 (en) Digital media metadata management
US9798531B2 (en) Dependency-aware transformation of multi-function applications for on-demand execution
US9064154B2 (en) Systems and methods for associating electronic content
US10448070B2 (en) Media device knowledge base
US9952848B2 (en) Dependency-aware transformation of multi-function applications for on-demand execution
CN102640148A (en) Method and apparatus for presenting media segments
US20130247105A1 (en) Smart subscribe button on watch
US20130111512A1 (en) Method to evaluate the geographic popularity of geographically located user-generated content items
WO2017080167A1 (en) Video pushing method and system for third party
Lai et al. A personalized mobile IPTV system with seamless video reconstruction algorithm in cloud networks
CN108319628B (en) User interest determination method and device
CN104090887A (en) Music search method and device
US10872108B2 (en) Method and apparatus for updating multimedia playlist
JP2024063034A (en) Coordination of overlapping audio queries
US20130346381A1 (en) Multimedia Real-Time Searching Platform (SKOOP)
US9959322B1 (en) Ranking channels in search
CN111552831A (en) Music recommendation method and server
KR20080107143A (en) System and method for recommendation of music and moving video based on audio signal processing
US9495448B2 (en) Apparatus and method of generating combined profile
KR101137059B1 (en) Method and system for indexing moving picture
KR20120016335A (en) Web page pre-caching system and method for offline-executing
CN116049238A (en) Node information query method, device, equipment, medium and program product
KR100678961B1 (en) Apparatus and method for providing multimedia content streaming service
Horan et al. Destination Management Systems–Electronic Distribution Effectiveness amongst SMEs in the Hotel Sector

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant