KR100530916B1 - Terminal device, guide voice reproducing method and storage medium - Google Patents

Terminal device, guide voice reproducing method and storage medium Download PDF

Info

Publication number
KR100530916B1
KR100530916B1 KR10-2002-7016964A KR20027016964A KR100530916B1 KR 100530916 B1 KR100530916 B1 KR 100530916B1 KR 20027016964 A KR20027016964 A KR 20027016964A KR 100530916 B1 KR100530916 B1 KR 100530916B1
Authority
KR
South Korea
Prior art keywords
voice
performance data
data
guide
speech
Prior art date
Application number
KR10-2002-7016964A
Other languages
Korean (ko)
Other versions
KR20030010696A (en
Inventor
사이토아키토시
Original Assignee
야마하 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 야마하 가부시키가이샤 filed Critical 야마하 가부시키가이샤
Publication of KR20030010696A publication Critical patent/KR20030010696A/en
Application granted granted Critical
Publication of KR100530916B1 publication Critical patent/KR100530916B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/201Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
    • G10H2240/241Telephone transmission, i.e. using twisted pair telephone lines or any type of telephone network
    • G10H2240/251Mobile telephone transmission, i.e. transmitting, accessing or controlling music data wirelessly via a wireless or mobile telephone receiver, analogue or digital, e.g. DECT, GSM, UMTS

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Telephonic Communication Services (AREA)

Abstract

가이드 음성의 피치나 인토네이션 정보를 작성할 필요가 없는 단말 장치가 제공된다. 단말 장치에는 연주 이벤트 열로 이루어지는 연주 데이터와, 이 연주 데이터에 부수되어 있는 가사에 있어서의 음절마다의 음성 심벌로 이루어지는 음성 심벌 데이터로 구성되어 있는 콘텐츠 데이터가 배송된다. 상기 연주 데이터로부터 악음을 재생한다. 상기 음성 심벌 데이터에 기초해서 가이드 음성을 합성한다. 상기 연주 데이터를 먼저 읽기하여 상기 음성 합성부를 제어함으로써, 합성되는 가이드 음성의 성질을 상기 연주 데이터에 따라서 변화시킨다.A terminal apparatus is provided which does not need to prepare pitch or intonation information of a guide voice. The terminal device is delivered with content data composed of performance data composed of a performance event sequence and speech symbol data composed of speech symbols for each syllable in the lyrics accompanying the performance data. A musical note is reproduced from the performance data. A guide voice is synthesized based on the voice symbol data. By first reading the performance data and controlling the speech synthesis section, the property of the synthesized guide voice is changed in accordance with the performance data.

Description

단말 장치, 가이드 음성 재생 방법 및 기억 매체{Terminal device, guide voice reproducing method and storage medium}Terminal device, guide voice reproducing method and storage medium

본 발명은 가라오케 장치나 이동 전화기 등에 바람직하게 적용 가능하며, 콘텐츠 데이터가 배송되어서 가라오케를 행할 수 있도록 한 단말 장치 및 가이드 음성 재생 방법, 및 이 방법을 실행하는 프로그램을 기억한 기억 매체에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention is preferably applicable to karaoke apparatuses, mobile telephones, and the like, and relates to a terminal apparatus and guide audio reproducing method for carrying out karaoke with content data delivered, and a storage medium storing a program for executing the method.

디지털 셀룰러 시스템으로서 알려져 있는 PDC(Personal Digital Cellular telecommunication system) 등의 휴대 전화 시스템이나, 간이형 휴대 전화 시스템(PHS: Personal Handyphone System)에 있어서는, 점유 주파수 대역폭이 좁고, 데이터의 전송 속도가 저 비트 레이트로 되어 있다. 이 때문에, 통화를 위한 음성 신호는 고능률 압축 부호화되어서 전송되고 있다. 이 고능률 음성 압축 부호화 방식의 한 방식으로서, 음원 모델과 성도 모델로 이루어지는 음성 합성 모델을 이용하는 분석 합성 부호화 방식이 알려져 있다. 또한, 이 분석 합성 부호화 방식에는 MPC(Multi-Pulse Excited LPC) 방식이나, 코드 북을 이용해서 벡터 양자화하는 CELP(Code Excited LPC) 방식이 있으며, CELP 방식은 어떤 종류의 디지털 셀룰러 방식으로 실용화되어 있다.In a cellular phone system such as a personal digital cellular telecommunication system (PDC), which is known as a digital cellular system, or a personal handyphone system (PHS), the occupied frequency bandwidth is narrow and the data transmission rate is low. It is. For this reason, the voice signal for a call is transmitted by high efficiency compression coding. As one method of this high efficiency speech compression coding method, an analysis synthesis coding method using a speech synthesis model composed of a sound source model and a vocal tract model is known. The analytic synthesis coding schemes include MPC (Multi-Pulse Excited LPC) schemes and CELP (Code Excited LPC) schemes for vector quantization using codebooks. CELP schemes have been put to practical use in any kind of digital cellular scheme. .

그런데, 배송된 가라오케 데이터로부터 가라오케 음악을 재생함으로써 유저가 가라오케를 행하는, 즉 재생된 가라오케 음악에 맞춰서 노래 부르는 것을 가능하게 하는 가라오케 시스템이 제안되어 있다. 이러한 가라오케 시스템은 일반적으로 통신 가라오케로 불리고 있으며, 가정에도 가라오케 데이터를 배송하는 가라오케 시스템이 알려져 있다. 이러한 가라오케 시스템에 있어서는, 리퀘스트된 악곡 데이터와 화면에 시각적 프롬프트로서 표시되는 가이드 가사 데이터, 및, 필요에 따라서 배경이 되는 화상 데이터를 가라오케 데이터로서 배송하도록 하고 있다. 이용자는 배송된 가이드 가사 데이터로부터 재생되어 화면에 표시되는 가이드 가사(시각적 프롬프트)를 보면서, 악곡 데이터를 재생한 악음에 맞춰서 가창하도록 하고 있다. By the way, a karaoke system has been proposed that enables a user to perform karaoke, ie, sing along with the reproduced karaoke music, by reproducing karaoke music from the delivered karaoke data. Such karaoke systems are generally referred to as communication karaoke, and karaoke systems for delivering karaoke data to homes are also known. In such a karaoke system, the requested piece of music data, guide lyrics data displayed as a visual prompt on the screen, and image data serving as a background are provided as karaoke data as necessary. The user views the guide lyrics (visual prompts) reproduced from the delivered guide lyrics data and displayed on the screen, so that the song data is sung in accordance with the reproduced musical notes.

그렇지만, 가라오케를 행할 때에는 악음의 진행에 맞춰서 색깔이 바뀌도록 디스플레이에 표시되는 가이드 가사를 보면서 가창하기 때문에, 디스플레이를 볼 수 없는 상태의 경우에는 가라오케를 행하는 것이 곤란한 것이 많다는 문제점이 있었다. 디스플레이를 볼 수 없는 상태의 경우란 예를 들면 운전 중의 경우, 표시해야 할 디스플레이가 없는 경우, 디스플레이가 작게 표시되는 문자를 판별할 수 없는 경우 등이다.However, when performing karaoke, there is a problem that it is difficult to perform karaoke in a state where the display cannot be seen because the singer sings while viewing the guide lyrics displayed on the display so that the color changes in accordance with the progress of the music. The case where the display cannot be seen is, for example, during operation, when there is no display to be displayed, when the display cannot be small, and the like.

이것을 해결하는 통신 가라오케 시스템으로서 일본국 특개평 11-167392호 공보에 기재된 통신 가라오케 시스템이 제안되어 있다. 이 통신 가라오케 시스템은 곡 데이터, 배경 화상 데이터, 가이드 가사용 가사 표시 데이터로 이루어지는 가라오케 데이터를 배송할 때에, 읽어 내기용 가사 데이터를 첨부해서 송신하도록 한다. 이들 데이터를 수신한 가라오케 장치는 곡 데이터로부터 가라오케 음악을 재생함과 더불어, 배경 화상 데이터에 기초하는 배경 화상을 표시하는 디스플레이 상에 가라오케 음악의 진행에 맞춰서 가이드 가사를 표시한다. 또한, 읽어 내기용 가사 데이터에 포함되어 있는 악센트, 소리의 강약, 피치(성질(聲質))의 정보에 따른 합성 음성을 가사 데이터에 포함되어 있는 읽어 내기 시기 정보에 따라서 합성해서 출력하도록 하고 있다. 이것으로, 디스플레이를 보는 일 없이 음성 합성된 가사를 들음으로써 가라오케를 행할 수 있게 된다.As a communication karaoke system which solves this, the communication karaoke system of Unexamined-Japanese-Patent No. 11-167392 is proposed. When the karaoke system delivers the karaoke data including the song data, the background image data, and the guide lyrics display data for use, the communication karaoke system attaches and transmits the lyrics data for reading. Upon receiving these data, the karaoke apparatus reproduces the karaoke music from the song data, and displays the guide lyrics in accordance with the progress of the karaoke music on the display which displays the background image based on the background image data. In addition, the synthesized voice according to the information of the accent, the sound strength, and the pitch included in the read lyrics data is synthesized and output in accordance with the read timing information contained in the lyrics data. . This allows karaoke to be performed by listening to the speech synthesized lyrics without looking at the display.

그렇지만, 읽어 내기용 가사 데이터는 노래 불리기 전에 읽어 내지 않으면 안 됨과 더불어, 들었을 때에 가창하기 쉽도록, 노래 불리는 멜로디에 대응한 피치나 인토네이션으로 음성 합성할 필요가 있다. 이 때문에, 읽어 내기용 가사 데이터에는 합성 음성의 악센트, 소리의 강약, 피치(성질), 읽어 내기 시기 정보를 포함시키지 않으면 안 되고, 합성 음성의 악센트, 소리의 강약, 피치(성질), 및 읽어 내기 시기의 정보를 곡마다 멜로디 등을 분석함으로써 작성하지 않으면 안 된다고 하는 문제점이 있었다. However, the lyric data for reading must be read before the song is sung, and it is necessary to synthesize the voice with a pitch or intonation corresponding to the melody called the song so that it is easy to be sung when heard. For this reason, the lyrics data to be read must include the accent of the synthesized voice, the strength and weakness of the sound, the pitch (quality), and the read time information. The accent of the synthesized voice, the strength and weakness of the sound, the pitch (quality), and the read There was a problem that the information of the betting period must be created by analyzing melody and the like for each song.

그런데, 휴대 전화기가 널리 보급되어 있으므로 디지털 셀룰러 시스템을 이용하여 가라오케 데이터를 배송하는 것을 추정할 수 있다. 그렇지만, 상술한 바와 같이 디지털 셀룰러 시스템에서는 저 비트 레이트의 전송 속도로 되어서, 전송 용량이 한정되어 있으므로 읽어 내기용 가사 데이터가 첨부된 가라오케 데이터를 배송하는 데는 장시간이 걸리고, 통신 요금이 높아져버린다고 하는 문제점이 있었다. 또한, 가라오케 데이터를 배송하는 데는 이용자가 곡명을 리퀘스트해서 그 곡의 가라오케 데이터를 배송하도록 하고 있지만, 전송에 장시간이 들면 리퀘스트한 후 곡을 재생할 준비가 갖추어질 때까지 긴 시간이 경과해버리므로 가라오케에 대한 흥미를 잃어버릴 우려가 있었다.However, since cellular phones are widely used, it is possible to estimate that karaoke data is delivered using a digital cellular system. However, as described above, in the digital cellular system, since the transmission rate is low and the transmission capacity is limited, it takes a long time to deliver the karaoke data with the lyrics data for reading, and the communication fee becomes high. There was this. In order to deliver karaoke data, the user requests the song name and delivers the karaoke data for the song. There was a risk of losing interest.

또한, 휴대 전화기에 있어서는, 읽어 내기용 가사 데이터로부터 음성을 합성하기 위한 음성 합성 수단을 구비하지 않으면 안 되고, 휴대 전화기가 고가로 됨과 더불어 음성 합성 수단의 스페이스에 의해 휴대 전화기를 소형화할 수 없다는 문제점이 있었다.In addition, in the mobile telephone, a voice synthesizing means for synthesizing the voice from the read lyrics data must be provided, the mobile telephone becomes expensive, and the portable telephone can not be miniaturized due to the space of the voice synthesizing means. There was this.

본 발명은 이러한 사정에 비추어 행하여진 것이며, 가이드 음성의 피치나 인토네이션 정보를 작성할 필요가 없는 단말 장치 및 가이드 음성 재생 방법, 및 이 방법을 실행하는 프로그램을 기억한 기억 매체를 제공하는 것을 제1 목적으로 하고 있다.SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and a first object is to provide a terminal apparatus and a guide voice reproducing method, and a storage medium storing a program for executing the method, which does not require the preparation of the pitch or intonation information of the guide voice. I am doing it.

또, 본 발명은 전송 속도가 저속이어도 단시간에서 가라오케 데이터를 배송할 수 있음과 더불어, 가이드 음성을 재생하는 전용의 음성 합성 수단을 구비할 일이 없는 단말 장치 및 가이드 음성 재생 방법, 및 이 방법을 실행하는 프로그램을 기억한 기억 매체를 제공하는 것을 제2 목적으로 하고 있다.In addition, the present invention provides a terminal apparatus and a guide voice reproducing method which can deliver karaoke data in a short time even at a low transmission speed, and which are not equipped with a dedicated voice synthesizing means for reproducing guide voice. It is a second object to provide a storage medium storing a program to be executed.

도 1은 본 발명의 제1 실시 형태에 관한 단말 장치를 적용한 휴대 전화기의 구성예를 기지국과 함께 도시하는 도면이다.BRIEF DESCRIPTION OF THE DRAWINGS It is a figure which shows the structural example of the portable telephone which applied the terminal apparatus which concerns on 1st Embodiment of this invention with a base station.

도 2는 도 1의 휴대 전화기의 전화 기능부에 있어서의 음성 압축 합성부와 데이터베이스의 상세 구성을 도시하는 도면이다.FIG. 2 is a diagram illustrating a detailed configuration of a voice compression synthesis unit and a database in the telephone function unit of the mobile telephone of FIG. 1.

도 3은 연주 데이터의 처리의 흐름을 도 1에 도시하는 전화 기능부의 처리부의 기능 블록도와 함께 도시하는 도면이다.FIG. 3 is a diagram showing a flow of processing of performance data along with a functional block diagram of a processing unit of the telephone function unit shown in FIG. 1.

도 4는 도 1의 휴대 전화기에서 이용되는 가라오케 데이터의 구성을 도시하는 도면이다.4 is a diagram illustrating a configuration of karaoke data used in the mobile telephone of FIG. 1.

도 5는 도 1의 휴대 전화기에 가라오케 데이터를 다운로드하는 개념도이다.5 is a conceptual diagram of downloading karaoke data to the mobile phone of FIG.

도 6은 본 발명의 제2 실시 형태에 관한 단말 장치를 적용한 가라오케 장치의 구성예를 배송 센터와 함께 도시하는 도면이다.It is a figure which shows the structural example of the karaoke apparatus which applied the terminal apparatus which concerns on 2nd Embodiment of this invention with a delivery center.

도 7은 도 6의 가라오케 장치의 제어부에 있어서의 음성 합성부와 데이터베이스의 상세 구성을 도시하는 도면이다.FIG. 7 is a diagram illustrating a detailed configuration of the speech synthesis unit and the database in the control unit of the karaoke apparatus of FIG. 6.

상기 제1 목적을 달성하기 위해서, 본 발명의 제1 형태에 따르면, 연주 이벤트 열로 이루어지는 연주 데이터와, 이 연주 데이터에 부수되어 있는 가사에 있어서의 음절마다의 음성 심벌로 이루어지는 음성 심벌 데이터로 구성되어 있는 콘텐츠 데이터가 배송되는 단말 장치가 제공된다.In order to achieve the first object, according to the first aspect of the present invention, there is provided sound data including sound data for each syllable in syllables included in a performance event string and lyrics accompanying the performance data. Provided is a terminal device to which content data is delivered.

본 발명의 제1 형태에 관한 단말 장치는 상기 연주 데이터에 기초하여 악음을 재생하는 악음 재생부, 상기 연주 데이터를 먼저 읽기하여, 먼저 읽혀진 이 연주 데이터 중 보컬 라인의 연주 데이터를 분석하는 분석부, 및 상기 음성 심벌 데이터 및 상기 분석부에서의 분석 결과에 기초하여 데이터베이스로부터 음성 파라미터를 읽어 내어, 해당 읽어 내어진 음성 파라미터에 기초하여 가이드 음성을 합성하는 음성 합성부로 이루어지는 것을 특징으로 한다.A terminal device according to the first aspect of the present invention includes a music reproducing unit for reproducing a musical sound based on the performance data, an analysis unit for first reading the performance data and analyzing performance data of a vocal line among the previously read performance data; And a speech synthesizer configured to read a voice parameter from a database based on the voice symbol data and the analysis result of the analyzer and synthesize a guide voice based on the read voice parameter.

이러한 단말 장치에 따르면, 연주 데이터를 먼저 읽기하여 음성 합성부를 제어함으로써, 음성 합성부에 의해 합성되는 가이드 음성의 성질을 연주 데이터에 따라서 변화하도록 할 수 있음과 더불어, 가이드 음성의 발생 타이밍을 제어 할 수 있으므로, 피치나 인토네이션 정보를 작성할 필요가 없어진다. 이것으로, 곡마다 멜로디 등을 분석해서 합성 음성의 악센트, 소리의 강약, 피치(성질), 읽어 내기 시기 정보를 작성하는 작성 작업을 불필요로 할 수 있다.According to such a terminal device, the performance of the guide voice synthesized by the voice synthesizer can be changed according to the performance data by controlling the voice synthesizer by first reading the performance data and controlling the timing of generation of the guide voice. This eliminates the need to create pitch or intonation information. This makes it unnecessary to create a work for analyzing the melody and the like for each piece of music and creating the accents of the synthesized voice, the strength and weakness of the sound, the pitch (quality), and the reading time information.

또, 가이드 음성의 피치나 인토네이션 정보를 배송 데이터에 포함시킬 필요가 없는 것이므로, 배송하는 데이터량을 삭감할 수 있다. 또한, 연주 데이터를 먼저 읽기하여 분석함으로써 가이드 음성의 발성 타이밍을 제어할 수 있으므로, 더욱 배송하는 데이터량을 삭감할 수 있다.In addition, since the pitch and intonation information of the guide voice need not be included in the delivery data, the amount of data to be delivered can be reduced. In addition, since the voice timing of the guide voice can be controlled by first reading and analyzing the performance data, the amount of data to be delivered can be further reduced.

상기 연주 데이터는 MIDI 포맷의 연주 데이터이며, 상기 음성 심벌 데이터가 익스클루시브 메시지로서, 상기 연주 데이터 중에 삽입되어 있는 것이 바람직하다.The performance data is performance data in MIDI format, and it is preferable that the voice symbol data is inserted into the performance data as an exclusive message.

상기 단말 장치는, 상기 음성 합성부에 의해 합성되는 가이드 음성의 피치 및 인토네이션이 상기 보컬 라인의 연주 데이터의 분석 결과에 따라서 제어되는 것이 바람직하다.Preferably, the terminal apparatus controls the pitch and tonation of the guide voice synthesized by the voice synthesizer according to the analysis result of the performance data of the vocal line.

상기 음성 합성부는 상기 악음 재생부에서의 해당하는 보컬 라인의 연주 데이터에 기초하는 악음의 재생 전에 상기 가이드 음성을 합성하는 것이 바람직하다.Preferably, the voice synthesizer synthesizes the guide voice before reproducing a musical note based on performance data of a corresponding vocal line in the musical reproducing unit.

상기 단말 장치는, 상기 음성 심벌 데이터 및 상기 분석부의 분석 결과에 따라서 음성 데이터베이스로부터 읽어 내어진 음성 파라미터를 상기 음성 합성부에 부여함으로써, 상기 음성 합성부에 의해 합성되는 가이드 음성의 각 음절이 상기 음성 심벌 데이터에 따름과 더불어, 가이드 음성의 피치 및 인토네이션이 상기 보컬 라인에 따라서 변화하도록 하는 것이 한층 바람직하다.The terminal apparatus assigns a speech parameter read from a speech database according to the speech symbol data and an analysis result of the analyzer to the speech synthesizer so that each syllable of the guide speech synthesized by the speech synthesizer is the speech. In addition to the symbol data, it is more preferable that the pitch and intonation of the guide voice change according to the vocal line.

상기 제2 목적을 달성하기 위해서, 본 발명의 제2 형태에 따르면, 연주 이벤트 열로 이루어지는 연주 데이터와, 이 연주 데이터에 부수되어 있는 가사에 있어서의 음절마다의 음성 심벌로 이루어지는 음성 심벌 데이터로 구성되어 있는 콘텐츠 데이터가 배송되는 단말 장치가 제공된다.According to a second aspect of the present invention, in order to achieve the above-mentioned second object, it is composed of performance data composed of a performance event sequence and speech symbol data composed of speech symbols for each syllable in the lyrics accompanying the performance data. Provided is a terminal device to which content data is delivered.

본 발명의 제2 형태에 관한 단말 장치는 통화를 가능하게 하는 전화 기능부, 상기 연주 데이터에 기초하여 악음을 재생하는 악음 재생부, 상기 연주 데이터를 먼저 읽기하여, 먼저 읽혀진 이 연주 데이터 중 보컬 라인의 연주 데이터를 분석하는 분석부, 및 상기 음성 심벌 데이터 및 상기 분석부에서의 분석 결과에 기초하여 데이터베이스로부터 음성 파라미터를 읽어 내어, 해당 읽어 내어진 음성 파라미터에 기초해서 가이드 음성을 합성하는 음성 합성부로 이루어지는 것을 특징으로 한다.A terminal apparatus according to the second aspect of the present invention includes a telephone function unit for enabling a call, a musical tone reproducing unit for reproducing a musical sound based on the performance data, and a vocal line among the performance data read out first by reading the performance data first. An analysis unit for analyzing the performance data of the voice signal; and a voice synthesis unit for reading voice parameters from a database based on the voice symbol data and the analysis results in the analysis unit, and synthesizing the guide voice based on the read voice parameters. Characterized in that made.

이 단말 장치에 따르면, 디지털 셀룰러 시스템의 이동 전화기에 구비되어 있는 음성 데이터를 디코드하는 음성 합성부를 이용하여, 가이드 음성을 음성 합성하도록 함으로써, 새로이 음성 합성부를 구비할 필요가 없어진다. 이것으로, 가이드 음성을 출력하도록 해도 새로운 수납 스페이스를 필요로 하지 않고 소형화를 유지할 수 있다. 또한, 음성 합성부를 겸용할 수 있으므로 비용의 상승을 억제할 수 있도록 된다.According to this terminal device, the voice synthesis unit which decodes the voice data included in the mobile telephone of the digital cellular system is used to synthesize the guide voice, thereby eliminating the need for a new voice synthesis unit. This makes it possible to keep downsizing without requiring a new storage space even when the guide sound is output. In addition, since the voice synthesizer can be used as both, it is possible to suppress an increase in cost.

이 단말 장치는, 상기 음성 합성부에 의해 합성되는 가이드 음성의 피치 및 인토네이션이 상기 보컬 라인의 연주 데이터의 분석 결과에 따라서 제어되는 것이 바람직하다. It is preferable that the terminal apparatus controls the pitch and intonation of the guide voice synthesized by the voice synthesizer according to the analysis result of the performance data of the vocal line.

상기 음성 합성부는 상기 악음 재생부에서의 해당하는 보컬 라인의 연주 데이터에 기초하는 악음의 재생 전에 상기 가이드 음성을 합성하는 것이 바람직하다.Preferably, the voice synthesizer synthesizes the guide voice before reproducing a musical note based on performance data of a corresponding vocal line in the musical reproducing unit.

상기 제1 목적을 달성하기 위해서, 본 발명의 제3 형태에 따르면, 연주 이벤트 열로 이루어지는 연주 데이터와, 이 연주 데이터에 부수되어 있는 가사에 있어서의 음절마다의 음성 심벌로 이루어지는 음성 심벌 데이터로 구성되어 있는 콘텐츠 데이터가 배송되는 단말 장치를 사용하여, 가이드 음성 재생 방법이 제공된다.In order to achieve the first object, according to the third aspect of the present invention, there is provided sound data including sound data for each syllable in syllables included in a performance event sequence and accompanying lyrics. A guide audio reproduction method is provided by using a terminal device to which content data is delivered.

본 발명의 제3 형태에 관한 가이드 음성 재생 방법은 상기 연주 데이터에 기초하여 악음을 재생하는 단계, 상기 연주 데이터를 먼저 읽기하여, 먼저 읽혀진 이 연주 데이터 중 보컬 라인의 연주 데이터를 분석하는 단계, 및 상기 음성 심벌 데이터 및 상기 분석 결과에 기초하여 데이터베이스로부터 음성 파라미터를 읽어 내어, 해당 읽어 내어진 음성 파라미터에 기초하여 가이드 음성을 합성하는 단계를 포함하는 것을 특징으로 한다.The guide voice reproducing method according to the third aspect of the present invention comprises the steps of: reproducing a musical note based on the performance data, first reading the performance data, and analyzing performance data of a vocal line among the previously read performance data; And reading a voice parameter from a database based on the voice symbol data and the analysis result, and synthesizing a guide voice based on the read voice parameter.

상기 제1 목적을 달성하기 위해서, 본 발명의 제4 형태에 따르면, 상기 가이드 음성 재생 방법을 컴퓨터에 실행시키기 위한 프로그램을 넣어 둔 기억 매체가 제공된다.In order to achieve the first object, according to a fourth aspect of the present invention, a storage medium having a program for causing the computer to execute the guide audio reproduction method is provided.

이하, 본 발명의 실시 형태를 도면을 참조하면서 설명한다.EMBODIMENT OF THE INVENTION Hereinafter, embodiment of this invention is described, referring drawings.

도 1은 본 발명의 제1 실시 형태에 관한 단말 장치를 적용한 휴대 전화기의 구성예 및 기지국을 도시한다.1 shows a configuration example of a mobile phone and a base station to which the terminal apparatus according to the first embodiment of the present invention is applied.

도 1에 있어서, 1은 본 발명에 관한 휴대 전화기이며, 2는 각 무선 존을 관리하는 기지국이다. 디지털 셀룰러 시스템에서는 일반적으로 작은 존 방식이 채용되어서 서비스 에어리어 내에 다수의 무선 존이 배치되어 있다. 이 각각의 무선 존을 관리하는 것이 기지국(2)이며, 이동국인 휴대 전화기(1)가 일반 전화기와 통화할 때는, 휴대 전화기(1)가 기지국(2)을 통해서 교환기에 접속되며, 교환기로부터 일반 전화망에 접속되도록 된다. 상세에 대해서는 후술한다.In Fig. 1, 1 is a mobile phone according to the present invention, and 2 is a base station for managing each radio zone. In a digital cellular system, a small zone scheme is generally employed, and a plurality of radio zones are arranged in a service area. It is the base station 2 that manages each of these radio zones, and when the mobile phone 1 serving as the mobile station talks to the regular phone, the mobile phone 1 is connected to the exchange via the base station 2, and the general service from the exchange is performed. It will be connected to the telephone network. Details will be described later.

휴대 전화기(1)는 일반적으로 신장 가능한 안테나(10)를 구비하고, 안테나(10)는 송수신기부(11)에 접속되어 있다. 송수신기부(11)는 안테나(10)에서 수신된 신호의 복조를 행함과 더불어, 송신하는 신호를 변조해서 안테나(10)에 공급하고 있다. 전화 기능부(12)는 다른 전화기와 통화할 때에, 휴대 전화기(1)를 전화기로서 기능시키기 위한 처리 수단과, 음성의 고능률 압축에 대응하기 위한 CELP계의 인코더 기능 및 디코더 기능을 가지고 있는 음성 압축 합성부(22)를 구비하고 있다. 이 경우, 데이터베이스(24)로부터 읽어 내어진 음성 파라미터를 음성 압축 합성부(22)에 공급하여, 음성 압축 합성부(22)의 디코더 기능을 사용함으로써 음성 파라미터에 따른 음성을 합성할 수 있다. 다시 말해, 음성 압축 합성부(22)를 음성 합성 수단으로서 기능시킬 수 있다. 데이터베이스(24)에는 「a」로부터 「n」까지 및 의음(擬音)의 음성 파라미터가 격납되어 있다.The cellular phone 1 is generally provided with an extendable antenna 10, which is connected to the transceiver section 11. The transceiver section 11 demodulates the signal received by the antenna 10, modulates the signal to be transmitted, and supplies the signal to the antenna 10. The telephone function unit 12 has processing means for making the cellular phone 1 function as a telephone when talking to another telephone, and a voice having a CELP encoder function and decoder function for coping with high efficiency compression of the voice. The compression synthesis section 22 is provided. In this case, the voice parameters read from the database 24 are supplied to the voice compression synthesis section 22, and the voices corresponding to the voice parameters can be synthesized by using the decoder function of the voice compression synthesis section 22. FIG. In other words, the speech compression synthesis section 22 can function as speech synthesis means. The database 24 stores voice parameters of "a" through "n" and a false sound.

통화중은 마이크(21)로부터 입력된 음성 신호가 전화 기능부(12)의 음성 압축 합성부(22)의 인코더 기능에 의해 고능률 압축 부호화되며, 송수신기부(11)에서 변조되어서 안테나(10)로부터 송신된다. 또, 안테나(10)에서 수신된 고능률 압축 부호화된 음성 데이터는 송수신기부(11)에서 복조되어서, 전화 기능부(12)의 음성 압축 합성부(22)에서 본래의 음성 신호로 디코드되어, 스피커 등으로 이루어지는 출력부(20)로부터 출력된다. 이와 같이, 통화중은 송수신기부(11) 및 전화 기능부(12)를 통해서 신호가 송신 또는 수신된다. During a call, the voice signal input from the microphone 21 is compressed and encoded with high efficiency by the encoder function of the voice compression synthesis unit 22 of the telephone function unit 12, and is modulated by the transceiver unit 11 so that the antenna 10 Is sent from. In addition, the highly efficient compression coded speech data received by the antenna 10 is demodulated by the transceiver section 11, decoded into the original speech signal by the speech compression combining section 22 of the telephone function section 12, and the speaker. It is output from the output part 20 which consists of etc. In this way, a signal is transmitted or received via the transceiver unit 11 and the telephone function unit 12 during a call.

기억 수단(13)은 후술하는 바와 같이 배송된 가라오케 데이터가 일시 기억되는 메모리이다. 가라오케 데이터는 리퀘스트된 곡의 연주 이벤트 열로 이루어지는 연주 데이터와, 이 연주 데이터에 부수되어 있는 가사에 있어서의 음절마다의 음성 심벌로 이루어지는 음성 심벌 데이터로 구성되어 있다. 또, 가라오케 데이터에 디스플레이에 가사를 표시하는 가이드 가사 데이터를 포함하고 있어도 된다. 이 가라오케 데이터는 도 4에 도시하는 바와 같이 MIDI 포맷의 데이터로 되어 있으며, 가사의 음성 심벌 데이터는 도 4에 도시하는 바와 같이 익스클루시브 메시지로서 MIDI 데이터 중에 삽입되어 있다. 이 때문에, 가라오케 데이터 1곡의 데이터량은 얼마 안 되는 데이터량으로 할 수 있으며, 저 비트 레이트의 전송 속도로 되는 디지털 셀룰러 시스템이어도 단시간에서 1곡의 가라오케 데이터를 전송할 수 있도록 된다. The storage means 13 is a memory in which karaoke data delivered as described later is temporarily stored. The karaoke data is composed of performance data consisting of a string of performance events of the requested song, and voice symbol data composed of voice symbols for each syllable in the lyrics accompanying the performance data. The karaoke data may also contain guide lyrics data for displaying lyrics on the display. This karaoke data is in MIDI format as shown in FIG. 4, and the audio symbol data of the lyrics is inserted in the MIDI data as an exclusive message as shown in FIG. For this reason, the data amount of one piece of karaoke data can be made into a small amount of data, and even a digital cellular system with a low bit rate transfer rate can transmit one piece of karaoke data in a short time.

데이터 분리부(14)는 MIDI 디코더를 내장하고 있으며 기억 수단(13)으로부터 읽어 내어진 MIDI 데이터를 해석하고, 연주 데이터와 음성 심벌 데이터로 분리한다. 분리된 연주 데이터는 지연 회로로서 동작하는 버퍼 메모리(Buff)(15)를 통해서 시퀀서 및 MIDI 음원으로 이루어지는 악음 합성부(16)에 공급된다. 또, 분리된 음성 심벌 데이터는 연주 데이터와 함께 전화 기능부(12)에 공급된다. 전화 기능부(12)에서는, 음성 심벌 데이터에 기초해서 합성된 가이드 음성이 음성 압축 합성부(22)로부터 출력된다. 이 가이드 음성은 가라오케에 있어서 가창할 때의 가사를 디스플레이에 표시되는 가이드 가사 화상으로 바꿔서 가이드 하는 것이며, 악음 합성부(16)에서 재생된 가라오케의 악음의 진행에 맞춰서 합성되어서 출력부(20)로부터 출력된다. 따라서, 가이드 음성의 출력 타이밍은 그 가사를 가창하는 타이밍 전으로 되며, 소정 프레이즈의 길이로 된 가사가 가이드 음성으로서 합성 출력된다. 이 가이드 음성은 빠른 템포로 연주 데이터에 따른 선율로 악센트나 인토네이션이 부가되어서 합성된다.The data separating unit 14 has a built-in MIDI decoder and analyzes the MIDI data read out from the storage unit 13, and separates it into performance data and voice symbol data. The separated performance data is supplied to a music synthesizer 16 composed of a sequencer and a MIDI sound source through a buffer memory (Buff) 15 that operates as a delay circuit. The separated voice symbol data is supplied to the telephone function unit 12 together with the performance data. In the telephone function unit 12, the guide voice synthesized on the basis of the voice symbol data is output from the voice compression synthesis unit 22. The guide voice is guided by changing the lyrics of the song in the karaoke to the guide lyrics image displayed on the display. The guide voice is synthesized in accordance with the progress of the karaoke music reproduced by the music synthesizer 16, and is outputted from the output unit 20. Is output. Therefore, the output timing of the guide voice is before the timing of singing the lyrics, and the lyrics having the length of the predetermined phrase are synthesized and output as the guide voice. This guide voice is synthesized by adding accents or intonations at fast tempo and melody according to the performance data.

이렇게 가이드 음성을 출력하는 타이밍을 제어하거나, 가이드 음성에 선율 및 악센트나 인토네이션을 부가하기 위해서, 전화 기능부(12) 내의 처리부에 의해 연주 데이터 중의 보컬 라인(보컬 파트의 세그먼트)의 연주 데이터를 해석하고 있다. 예를 들면, 보컬 라인의 연주 데이터의 키의 변화(멜로디)를 분석함으로써, 가이드 음성의 피치의 변화 형태가 제어되며, 슬러나 스타카토 등의 악음 기호가 반영되는 보컬 라인의 벨로시티 정보나 발음 길이(게이트 타임) 정보를 분석함으로써, 가이드 음성의 인토네이션이나 악센트가 제어된다. 또한, 가라오케 데이터가 듀엣하는 곡인 경우에는, 보컬 라인의 연주 데이터의 키의 변화로부터, 그 프레이즈가 여성 파트인가 남성 파트인가를 분석하여, 그 프레이즈의 가이드 음성이 여성 음성 혹은 남성 음성이 되도록 피치를 결정하도록 해도 된다. In this way, in order to control the timing of outputting the guide voice, or to add melody, accent or intonation to the guide voice, the processing unit in the telephone function unit 12 analyzes the performance data of the vocal line (segment of the vocal part) in the performance data. Doing. For example, by analyzing the change (melody) of the key of the performance data of the vocal line, the change form of the pitch of the guide voice is controlled, and the velocity information and the pronunciation length of the vocal line reflecting the musical notes such as slur and staccato By analyzing the (gate time) information, the intonation and accent of the guide voice are controlled. In the case of a song in which the karaoke data is duet, it is analyzed whether the phrase is a female part or a male part from the change of the key of the performance data of the vocal line, and the pitch is set so that the guide voice of the phrase becomes the female voice or the male voice. You may make a decision.

또, 전화 기능부(12)에 공급된 음성 심벌 데이터는 데이터베이스(24)에 부여되어, 음성 심벌 데이터에서 지시되는 음성이 음절마다 음성 압축 합성부(22)에 의해 합성되도록, 데이터베이스(24)로부터 음성 파라미터가 읽어 내어진다. 이 음성 파라미터는 음성 압축 합성부(22)에 공급된다. 이 음성 파라미터는 전술한 보컬 라인의 연주 데이터의 분석 결과에 의해 제어함으로써 데이터베이스(24)로부터 읽어 내어지므로, 보컬 라인의 멜로디, 벨로시티나 발음 길이를 반영한 것으로 된다. 이것으로, 음성 압축 합성부(22)에 의해 음성 합성되는 가이드 음성의 피치, 악센트나 인토네이션을 보컬 라인에 따라서 변화 제어할 수 있다.In addition, the voice symbol data supplied to the telephone function unit 12 is supplied to the database 24 so that the voice indicated by the voice symbol data is synthesized by the voice compression synthesis unit 22 for each syllable from the database 24. Voice parameters are read. This speech parameter is supplied to the speech compression synthesis section 22. Since this audio parameter is read out from the database 24 by controlling by the analysis result of the performance data of the vocal line mentioned above, it reflects the melody, velocity, and pronunciation length of a vocal line. As a result, it is possible to change and control the pitch, accent and intonation of the guide voice synthesized by the voice compression synthesis unit 22 in accordance with the vocal line.

상술한 바와 같이, 가이드 음성은 해당하는 부분의 연주 데이터를 먼저 읽기하여 분석한 후에, 그 연주 데이터 부분에 기초해서 악음이 재생되기 전에 출력된다. 다시 말해, 연주 데이터에 기초하는 악음의 재생은 가이드 음성보다 지연해서 행하여진다. 이 지연을 버퍼 메모리(15)에 의해 실현하고 있으며, 버퍼 메모리(15)에 의해 소정 시간 지연된 연주 데이터가 악음 합성부(16)에 공급되어서 악음이 재생됨으로써, 결과적으로 음성 압축 합성부(22)에서 합성된 가이드 음성이 악음 합성부(16)에 의해 재생된 악음에 선행해서 출력부(20)로부터 출력되도록 된다.As described above, the guide voice is first read and analyzed for the performance data of the corresponding portion, and then outputted before the musical sound is reproduced based on the performance data portion. In other words, reproduction of the musical sound based on the performance data is performed later than the guide sound. This delay is realized by the buffer memory 15. The performance data delayed by the buffer memory 15 for a predetermined time is supplied to the music synthesizer 16, and the sound is reproduced. As a result, the voice compression synthesizer 22 The guide voice synthesized at is output from the output unit 20 in advance of the musical sound reproduced by the music synthesizer 16.

한편, 악음 합성부(16)는 시퀀서와 MIDI 음원에 의해 구성되며, 악음 합성부(16)에 의해 재생된 악음은 효과부(17)에 송출되어, 효과가 부가된다. 효과가 부가된 악음은 합성부(18)에서, 합성된 가이드 음성과 합성된다. 이 가이드 음성에는 악음과 합성되기 전에 효과부(23)에 의해 효과가 부여된다. 합성부(18)에서 합성된 악음과 가이드 음성은 증폭부(19)에서 증폭되어서 출력부(20)로부터 출력되도록 된다. 효과부(17, 23)에서는 예를 들면, 출력부(20)의 스피커 수에 따른 정위 제어가 행하여진다. 또한, 잔향이나 코러스 등의 효과를 부가하도록 해도 된다. 또, 데이터베이스(24)는 대표적 기계-발음 음성이 합성되는 음성 파라미터를 격납하고 있으므로, 합성된 가이드 음성을 이퀄라이저에 의해 보정하도록 해도 된다. 또, 가이드 음성의 음량을 가변할 수 있도록 해도 된다. 이렇게 하면, 가창자의 숙련에 따른 가이드 음성의 음량을 작게 할 수 있다. On the other hand, the musical sound synthesizer 16 is composed of a sequencer and a MIDI sound source, and the musical sound reproduced by the musical sound synthesizer 16 is sent to the effect unit 17 to add an effect. The sound to which the effect is added is synthesized in the synthesizer 18 with the synthesized guide voice. An effect is given to this guide voice by the effect unit 23 before being combined with the musical sound. The sound synthesized in the synthesizer 18 and the guide voice are amplified by the amplifier 19 and output from the output unit 20. In the effect units 17 and 23, for example, positioning control according to the number of speakers of the output unit 20 is performed. Moreover, you may add effects, such as reverberation and a chorus. In addition, since the database 24 stores voice parameters for synthesizing a representative machine-pronounced voice, the synthesized guide voice may be corrected by an equalizer. Further, the volume of the guide voice may be variable. In this way, the volume of the guide voice according to the skill of the singer can be reduced.

다음에, 도 1의 휴대 전화기(1)의 전화 기능부(12)에서의 음성 압축 합성부(22)와 데이터베이스(24)의 상세 구성을 도 2에 도시한다.Next, FIG. 2 shows a detailed configuration of the voice compression synthesis section 22 and the database 24 in the telephone function section 12 of the mobile phone 1 of FIG.

도 2에 도시하는 음성 압축 합성부(22)는 음성 정보를 고능률 압축 부호화한 음성 데이터를 디코드하는 대표적인 CELP계 디코더를 구비하고 있다. 단, 음성 압축 합성부(22)에는 도시되지 않고 있지만 음성 정보를 고능률로 압축 부호화할 수 있는 CELP계 인코더도 구비되고 있다.The speech compression synthesis section 22 shown in FIG. 2 includes a representative CELP decoder which decodes speech data obtained by highly efficient compression encoding speech information. Although not shown in the speech compression synthesis section 22, a CELP type encoder capable of compressing and encoding speech information with high efficiency is also provided.

음성 합성의 원리적인 설명을 행하면, 음성의 특징은 성대로부터 발생되는 원음성의 피치(L)나 노이즈 성분(「원음성 특징 파라미터(J)」로 불림)과, 목, 입을 음성이 통과시의 성도 전달 특성이나 입술에서의 방사 특성(「성도 특징 파라미터」로 불림)에 의해 표현할 수 있다. 다시 말해, 원음성을 발생하는 성대 모델과, 성대 모델에 종속된 성도 모델로 음성 합성 모델을 표현할 수 있다.Principle of speech synthesis is that the speech characteristics are the pitch L of the original sound generated from the vocal cords or the noise component (called the original speech characteristic parameter J), and the sound of the throat and mouth when passing through. It can be expressed by the vocal tract propagation characteristic or the radiation characteristic on the lips (called "the saint characteristic parameter"). In other words, the speech synthesis model may be represented by a vocal cord model that generates the original voice and a vocal model that is dependent on the vocal cord model.

도 2에 도시하는 음성 압축 합성부(22)에서의 CELP계 디코더는 이 음성 합성 모델에 기초하여 음성 합성함으로써, 압축 부호화된 음성 데이터를 본래의 음성으로 디코드하고 있다. The CELP decoder in the speech compression synthesis section 22 shown in Fig. 2 decodes the speech coded speech data into the original speech by speech synthesis based on this speech synthesis model.

도 2에 있어서, 음성 압축 합성부(22)에 입력된 프레임마다의 압축 음성 데이터는 데이터 처리부(30)에서, 인덱스(I), 피치(L) 및 반사 계수(γ)의 각 음성 파라미터로 분리되어서, 피치(L)의 파라미터는 숏트 텀(short term) 발진부(32)에, 인덱스(I)의 파라미터는 코드 북(31)에, 반사 계수(γ)의 파라미터는 목 근사 필터(34)에 분배된다. 한편, 코드 북(31)은 인코더에서의 원음용 코드 북과 공통의 내용으로 되어, ROM(Read Only Memory)에 그 내용이 기록되고 있다.In Fig. 2, the compressed speech data for each frame input to the speech compression synthesis section 22 is separated into the speech parameters of the index I, the pitch L and the reflection coefficient γ in the data processing section 30. The parameters of the pitch L are set to the short term oscillator 32, the parameters of the index I to the codebook 31, and the parameters of the reflection coefficient γ to the neck approximation filter 34. Is distributed. On the other hand, the codebook 31 has the same content as the codebook for the original sound in the encoder, and the content is recorded in the ROM (Read Only Memory).

피치(L)의 파라미터에 기초해서 숏트 텀 발진부(32)로부터는 피치(L)의 음성의 복호 신호가 발생되어서 원파형 재생부(33)에 공급된다. 원파형 재생부(33)에는 코드 북(31)으로부터 읽어 내어진 인덱스(I)로 나타내는 코드 벡터의 데이터가 공급되고 있으며, 이 데이터를 피치(L)의 음성의 복호 신호로 합성함으로써, 원파형 재생부(33)에서 합성 원파형이 재생된다. 이 원파형 재생부(33)로부터 출력되는 합성 원파형은 인간의 성대의 진동에 의해 발생된 파형과 마찬가지의 파형이며, 반사 계수(γ)의 파라미터에 의해 필터 계수가 제어되는 목 근사 필터(34)에서 필터 처리되어서, 음성 합성으로 된다. 목 근사 필터(34)는 인간의 목이나 입의 전달 함수를 재현하고 있으며, 미리 데이터 처리부(30)로부터 공급된 반사 계수(γ)를 축적해 두어서, 필요로 할 때에 그 각 필터에 공급하고 있다. 목 근사 필터(34)로부터 출력되는 합성 음성은 스펙트럴 필터(35)에 공급되어서, 음성으로서의 부자연스러움이 제거되어서 출력된다. 이것으로, 통화 신호인 고능률 압축 부호화된 압축 음성 데이터가 음성 압축 합성부(22)에서 디코드되어서 출력되도록 된다. Based on the parameters of the pitch L, the short term oscillation unit 32 generates a decoded signal of the voice of the pitch L, and is supplied to the wave form reproducing unit 33. The data of the code vector indicated by the index I read from the code book 31 is supplied to the waveform reproducing section 33. The data is synthesized by the decoded signal of the speech of the pitch L. In the reproducing section 33, the synthesized waveform is reproduced. The synthesized circular waveform output from the circular waveform reproducing section 33 is a waveform similar to the waveform generated by the vibration of the human vocal cords, and the neck approximation filter 34 whose filter coefficient is controlled by the parameter of the reflection coefficient γ. ) Is filtered, resulting in speech synthesis. The neck approximation filter 34 reproduces the transfer function of the human neck or mouth. The neck approximation filter 34 accumulates the reflection coefficient? Supplied from the data processing unit 30 in advance, and supplies it to each filter when necessary. have. The synthesized voice output from the neck approximation filter 34 is supplied to the spectral filter 35, whereby unnaturalness as voice is eliminated and output. As a result, the highly efficient compression-coded compressed speech data as a call signal is decoded by the speech compression synthesis section 22 to be output.

또, 데이터 분리부(14)에서 분리된 음성 심벌 데이터는 데이터베이스(24)의 음성 데이터베이스(40)에 공급되며, 공급된 음성 심벌 데이터로 지시되는 가이드 음성을 합성하기 위한 피치 파라미터, 파형 선택 파라미터 및 반사 계수 파라미터가 음성 데이터베이스(40)로부터 출력된다. 출력된 피치(Lg)의 피치 파라미터는 숏트 텀 발진부(32)에 공급되며, 피치(Lg)의 음성의 복호 신호가 숏트 텀 발진부(32)로부터 발생되어서 원파형 재생부(33)에 공급된다. 파형 선택 파라미터는 파형 데이터베이스(41)에 공급되어서, 성종을 부여하는 파형 데이터가 파형 데이터베이스(41)로부터 읽어 내어져서 원파형 재생부(33)에 출력된다. 원파형 재생부(33)에서는 피치(Lg)의 복호 신호와 성종을 부여하는 파형 데이터가 합성되어서, 합성 원파형이 재생된다. 이 원파형 재생부(33)로부터 출력되는 합성 원파형은 음성 데이터베이스(40)로부터 반사 공급 파라미터가 공급되는 반사 계수 변경용 데이터베이스(42)로부터 읽어 내어진 반사 계수(γg)의 파라미터에 의해 필터 계수가 제어되는 목 근사 필터(34)에서 필터 처리되어서, 가이드 음성이 음성 합성된다. 목 근사 필터(34)로부터 출력되는 합성 음성은 스펙트럴 필터(35)에 공급되어서, 음성으로서의 부자연스러움이 제거되어서 가이드 음성으로서 출력된다.In addition, the speech symbol data separated by the data separator 14 is supplied to the speech database 40 of the database 24, and pitch parameters, waveform selection parameters, and the like for synthesizing the guide speech indicated by the supplied speech symbol data and The reflection coefficient parameter is output from the speech database 40. The pitch parameter of the output pitch Lg is supplied to the short term oscillator 32, and a decoded signal of the voice of the pitch Lg is generated from the short term oscillator 32 and supplied to the wave form reproducing unit 33. The waveform selection parameter is supplied to the waveform database 41 so that waveform data giving the holy species is read from the waveform database 41 and output to the waveform reproducing section 33. In the circular waveform reproducing section 33, the decoded signal of the pitch Lg and the waveform data giving the holy species are synthesized, and the synthesized circular waveform is reproduced. The synthesized waveform output from this wave form reproducing section 33 is a filter coefficient by a parameter of the reflection coefficient γ g read out from the reflection coefficient changing database 42 to which the reflection supply parameter is supplied from the audio database 40. Is filtered in the neck approximation filter 34 which is controlled so that the guide voice is speech synthesized. The synthesized voice output from the neck approximation filter 34 is supplied to the spectral filter 35 so that unnaturalness as voice is removed and output as a guide voice.

여기에서, 데이터베이스(24)에는 제어 신호가 공급되고 있다. 이 제어 신호는 가이드 음성의 피치(Lg) 및 피치(Lg)의 변화 형태를 제어함과 더불어, 가이드 음성의 인토네이션이나 악센트를 제어하는 신호이다. 제어 신호는 전화 기능부(12)에 내장되어 있는 처리부에 의해, 연주 데이터 중의 보컬 라인의 연주 데이터를 해석한 해석 결과의 정보이다. 제어 신호에 의해 피치 파라미터(Lg)를 제어해서 숏트 텀 발진부(32)의 발진 주파수를 변경하면, 음성 합성되는 가이드 음성을 여성 음성으로도 남성 음성으로도 할 수 있다. 또, 파형 데이터베이스(41)로부터 읽어 내어지는 파형 데이터를 변경함으로써, 가이드 음성의 성종을 변경할 수 있다. 또한, 반사 계수 변경용 데이터 페이스(42)로부터 읽어 내어지는 반사 계수(γg)의 파라미터를 변경함으로써, 가이드 음성의 인토네이션이나 악센트를 변경할 수 있다.Here, the control signal is supplied to the database 24. The control signal is a signal for controlling the pitch Lg and the variation form of the pitch Lg of the guide voice and controlling the innation and accent of the guide voice. The control signal is information of an analysis result obtained by analyzing the performance data of the vocal line in the performance data by the processing unit built in the telephone function unit 12. If the oscillation frequency of the short term oscillation unit 32 is changed by controlling the pitch parameter Lg by the control signal, the voice synthesized guide voice can be either female voice or male voice. In addition, by changing the waveform data read from the waveform database 41, the species of the guide voice can be changed. In addition, by changing the parameter of the reflection coefficient γg read out from the reflection coefficient changing data phase 42, the innation and the accent of the guide voice can be changed.

이 경우, 상기한 바와 같이 제어 신호는 보컬 라인의 연주 데이터를 해석해서 작성되고 있기 때문에, 가이드 음성의 피치 및 인토네이션이나 악센트를 보컬 라인의 멜로디에 따라서 변화할 수 있다. 이것으로, 이용자는 가창하기 전에 가이드 음성을 들음으로써, 어떤 키로 어떻게 가창하면 좋은 것일지 이해할 수 있다. In this case, since the control signal is created by analyzing the performance data of the vocal line as described above, the pitch, innation and accent of the guide voice can be changed according to the melody of the vocal line. In this way, the user can understand how to sing with any key by listening to the guide voice before singing.

또한, 데이터베이스(24)에는 가이드 음성의 발성 타이밍 및 템포를 나타내는 정보인 시간 정보(Time)가 공급되고 있으며, 시간 정보(Time)에 따라서 파형 데이터베이스(41)로부터 소정 파형이 읽어 내어짐과 더불어, 반사 계수 변경용 데이터베이스(42)로부터 소정 반사 계수(γg)의 파라미터가 읽어 내어진다. 이 시간 정보(Time)는 보컬 라인의 연주 데이터를 해석함으로써, 가이드 음성하는 가사가 가창되는 타이밍 전의 타이밍 등으로 출력된다. 또한, 시간 정보(Time)에 의해 가이드 음성의 각 음절의 길이가 제어되어, 가이드 음성을 출력하는 속도가 제어된다.The database 24 is supplied with time information (Time), which is information indicating the utterance timing and tempo of the guide voice, and a predetermined waveform is read from the waveform database 41 according to the time information (Time). The parameter of predetermined reflection coefficient (gamma) g is read from the reflection coefficient change database 42. As shown in FIG. The time information (Time) is output at the timing before the timing at which the lyrics to guide voice are sung, by analyzing the performance data of the vocal line. In addition, the length of each syllable of the guide voice is controlled by the time information Time, and the speed at which the guide voice is output is controlled.

상기한 바와 같이 보컬 라인의 연주 데이터는 전화 기능부(12) 내의 처리부에 의해 해석된다. 이 해석 처리는 처리부가 해석 프로그램을 실행함으로써 행하여지지만, 이 해석 처리를 하드웨어적으로 나타낸 구성을 도 3에 도시한다. As described above, the performance data of the vocal line is interpreted by the processing unit in the telephone function unit 12. Although this analysis process is performed by a processor executing an analysis program, the structure which showed this analysis process in hardware is shown in FIG.

도 3에 있어서, 배송된 가라오케 데이터인 MIDI 데이터는 송수신기부(11)로부터 기억 수단(13)에 공급된다. 기억 수단(13)으로부터 데이터 분리부(14)에 의해 읽어 내어진 MIDI 데이터는 MIDI 디코더 기능을 가지는 데이터 분리부(14)에서 해석되어서 연주 데이터와 음성 심벌 데이터로 분리된다. 이 MIDI 데이터는 도 4에 도시하는 바와 같이 MIDI 데이터 중에 가이드 음성용 음성 심벌 열로 되는 음성 심벌 데이터가 익스클루시브 메시지로서 삽입되어 있다. 익스클루시브 메시지는 도 4에 도시하는 바와 같이 MIDI 데이터 중의 스테이터스 ·바이트 "F0"과 "F7" 사이에 개재된 메시지 부분으로 나타난다. 이 익스클루시브 메시지는 프레이즈마다로 되어 있는 가이드 음성의 음성 심벌 열로 이루어지고, 그 프레이즈의 가이드 음성을 발성시키는 타이밍 정보를 포함시키도록 해도 된다. In FIG. 3, MIDI data which is delivered karaoke data is supplied from the transceiver section 11 to the storage means 13. MIDI data read out from the storage means 13 by the data separator 14 is interpreted by the data separator 14 having a MIDI decoder function and separated into performance data and voice symbol data. In this MIDI data, as shown in Fig. 4, voice symbol data, which is a voice symbol string for a guide voice, is inserted as an exclusive message in the MIDI data. Exclusive messages appear as message parts interposed between status bytes " F0 " and " F7 " in the MIDI data as shown in FIG. This exclusive message is composed of a voice symbol string of guide voices for each phrase, and may include timing information for uttering the guide voices of the phrases.

데이터 분리부(14)에서 분리된 음성 심벌 데이터는 가이드 음성의 높이 ·속도 결정부(36)에 공급되어서, 가이드 음성의 피치나 속도(템포)가 결정된다. 이 경우, 이용자가 피치 지정을 함으로써, 가이드 음성을 여성 음성 혹은 남성 음성으로 할 수 있다. 또한, 가이드 음성의 높이 ·속도 결정부(36)에는 보컬 라인 분석부(38)로부터 피치 정보 및 템포 정보, 및 인토네이션 정보나 악센트 정보가 스위치(SW)를 통해서 공급되고 있다. 가이드 음성의 높이 ·속도 결정부(36)로부터는 지정된 피치의 가이드 음성으로 함과 더불어 보컬 라인에 따른 가이드 음성으로 하기 위해서, 공급된 각종 정보에 따른 제어 신호가 음성 심벌 데이터와 함께 출력된다. 제어 신호는 가이드 음성의 피치, 속도(템포), 및 인토네이션, 악센트를 제어하기 위한 신호이다. The voice symbol data separated by the data separating unit 14 is supplied to the height / speed determining unit 36 of the guide voice, so that the pitch or speed (tempo) of the guide voice is determined. In this case, when the user specifies pitch, the guide voice can be a female voice or a male voice. In addition, pitch information and tempo information, and intonation information and accent information are supplied from the vocal line analyzer 38 to the height / speed determination unit 36 of the guide voice through the switch SW. From the height and velocity determination unit 36 of the guide voice, the control signal according to the supplied various information is output together with the voice symbol data in order to be a guide voice of a specified pitch and guide voice along the vocal line. The control signal is a signal for controlling the pitch, speed (tempo), intonation, and accent of the guide voice.

한편, 스위치(SW)가 오프되고 있음과 더불어 높이 지정되지 않는 경우는, 가이드 음성은 디폴트의 피치로 된다. 또, 가이드 음성의 선율을 보컬 라인에 따른 선율로 하면 부자연스러워지는 경우는, 스위치(SW)를 오프하면 된다. 이 경우는 단조로운 가이드 음성이 된다. On the other hand, when the switch SW is off and the height is not specified, the guide voice becomes the default pitch. If the melody of the guide voice is tuned along the vocal line, the switch SW may be turned off when it becomes unnatural. In this case, it becomes a monotonous guide voice.

데이터 분리부(14)에서 분리된 연주 데이터는 전화 기능부(12) 내의 보컬 라인 분석부(38)에 공급되어서 보컬 라인의 연주 데이터가 분석된다. 또, 분리된 연주 데이터는 버퍼 메모리(15)에 의해 지연되어서 악음 합성부(16)에 공급된다. 이것으로, 연주 데이터에 기초하는 악음은 가이드 음성보다 지연되어서 재생되도록 됨과 더불어, 보컬 라인 분석부(38)에서 먼저 읽기되어서 분석되도록 된다. 보컬 라인 분석부(38)에서는 보컬 라인의 키의 변화(멜로디)나, 슬러나 스타카토 등의 악음 기호가 반영되는 벨로시티 정보나 엔벨로프(envelope) 정보가 분석된다. 또한, 듀레이션 정보 및 게이트 타임 정보도 분석된다. 분석된 결과 얻어진 멜로디 정보는 피치 제어 정보로서 보컬 라인 분석부(38)로부터 가이드 음성의 높이 ·속도 결정부(36)에 공급된다. 또, 벨로시티 정보나 엔벨로프 정보를 분석해서 얻어진 악센트 제어 정보나 인토네이션 제어 정보도 가이드 음성의 높이 ·속도 결정부(36)에 공급된다. 또한, 듀레이션 정보 및 게이트 타임 정보를 분석해서 얻어진 가이드 음성의 발성 타이밍 정보 및 가이드 음성의 템포 정보가 가이드 음성의 높이 ·속도 결정부(36)에 공급된다. The performance data separated by the data separation unit 14 is supplied to the vocal line analyzer 38 in the telephone function unit 12 so that the performance data of the vocal lines is analyzed. In addition, the separated performance data is delayed by the buffer memory 15 and supplied to the music synthesizer 16. As a result, the music sound based on the performance data is reproduced with a delay than the guide voice, and is read and analyzed by the vocal line analyzer 38 first. The vocal line analyzer 38 analyzes velocity information or envelope information in which a change (melody) of the vocal line's key and a musical note such as slaw or staccato are reflected. In addition, duration information and gate time information are also analyzed. The melody information obtained as a result of the analysis is supplied from the vocal line analysis unit 38 to the height / speed determination unit 36 of the guide voice as pitch control information. In addition, the accent control information and intonation control information obtained by analyzing the velocity information and the envelope information are also supplied to the height / speed determination unit 36 of the guide voice. The voice timing information of the guide voice and the tempo information of the guide voice obtained by analyzing the duration information and the gate time information are supplied to the height / speed determination unit 36 of the guide voice.

한편, 보컬 라인 분석부(38)에서는 듀엣 곡의 경우, 분석하는 보컬 라인이 여성 파트인가 남성 파트인가의 분석도 행하고, 그 분석 결과에 따른 피치 정보를 가이드 음성의 높이 ·속도 결정부(36)에 공급하고 있다.On the other hand, the vocal line analyzing unit 38 also analyzes whether the vocal line to be analyzed is a female part or a male part in the case of a duet song, and the pitch information according to the analysis result is used to determine the height and velocity of the guide voice. Supply to.

이것으로, 가이드 음성의 피치 및 각 음절의 길이는 보컬 라인의 멜로디에 따라서 제어되도록 된다. 또, 듀엣 곡의 경우는 여성 파트의 악음 전에는 여성 음성에 의한 가이드 음성이 출력되며, 남성 파트의 악음 전에는 남성 음성에 의한 가이드 음성이 출력되도록 된다. 또, 보컬 라인 분석부(38)로부터 공급된 가이드 음성의 발성 타이밍 정보에 따른 타이밍으로 가이드 음성이 출력되어, 그 가이드 음성의 속도는 템포 정보에 따른 속도가 된다. 한편, 가이드 음성의 발성 타이밍 정보 및 템포 정보는 시간 정보(Time)로서 가이드 음성의 높이 ·속도 결정부(36)로부터 출력된다. 또, 음성 심벌 데이터 중에 가이드 음성을 발성시키는 타이밍 정보가 포함되어 있는 경우는, 그 타이밍 정보에 기초해서 가이드 음성을 발성시키도록 한다.As a result, the pitch of the guide voice and the length of each syllable are controlled according to the melody of the vocal line. In the case of the duet music, the guide voice by the female voice is output before the female voice, and the guide voice by the male voice is output before the male music. The guide voice is output at a timing corresponding to the voice timing information of the guide voice supplied from the vocal line analyzer 38, and the speed of the guide voice is a speed according to the tempo information. On the other hand, the voice timing information and tempo information of the guide voice are output from the height / speed determination unit 36 of the guide voice as time information (Time). When the voice symbol data includes timing information for uttering the guide voice, the guide voice is uttered based on the timing information.

그런데, 가이드 음성의 높이 ·속도 결정부(36)로부터 출력되는 제어 신호는 보간기(37)를 통해서 데이터베이스(24)에 출력되고 있다. 이 보간기(37)는 보컬 라인의 멜로디에 따라서 가이드 음성의 피치를 변화시킬 때에, 피치가 부자연스럽게 변화하는 것을 방지하고 있다. 또, 보컬 라인의 멜로디의 속도에 따라서 가이드 음성의 피치의 변화 속도를 다이내믹하게 변화시키고 있다. 이것으로, 가이드 음성이 매끈매끈한 음성으로서 출력되도록 된다. 한편, 버퍼 메모리(15)는 보컬 라인이 재생되는 타이밍과 가이드 음성을 동기시키기 위해서 설치되어 있으며, 전술한 가이드 음성의 발성 타이밍 정보는 버퍼 메모리(15)의 지연 시간을 고려한 발성 타이밍 정보로 되어 있다. By the way, the control signal output from the height / speed determination unit 36 of the guide voice is output to the database 24 via the interpolator 37. The interpolator 37 prevents the pitch from changing unnaturally when the pitch of the guide voice is changed in accordance with the melody of the vocal line. In addition, the speed of change of the pitch of the guide voice is dynamically changed in accordance with the speed of the melody of the vocal line. As a result, the guide voice is output as a smooth voice. On the other hand, the buffer memory 15 is provided for synchronizing the timing at which the vocal line is reproduced with the guide voice, and the above-mentioned voice timing information of the guide voice is voice timing information in consideration of the delay time of the buffer memory 15. .

그런데, 본 발명의 제1 실시 형태에 관한 단말 장치를 적용한 휴대 전화기(1)는 외부에서 가라오케 데이터를 다운로드할 수 있다. By the way, the mobile telephone 1 to which the terminal apparatus which concerns on 1st Embodiment of this invention is applied can download karaoke data from the outside.

도 5는 휴대 전화기(1)와 마찬가지의 구성으로 되어 있는 휴대 전화기(1a) 및 휴대 전화기(1b)에 가라오케 데이터를 다운로드하는 개념도이다.5 is a conceptual diagram of downloading karaoke data to the mobile phone 1a and the mobile phone 1b having the same configuration as the mobile phone 1.

일반적으로 휴대 전화기에 있어서의 셀룰러 시스템은 작은 존 방식이 채용되어서 서비스 에어리어 내에 다수의 무선 존이 배치되어 있다. 이 각각의 무선 존을 관리하는 것이 각각의 무선 존에 설치된 기지국이며, 이동국인 휴대 전화기가 일반 전화기와 통화할 때는, 휴대 전화기가 속하는 무선 존을 관리하고 있는 기지국을 통해서 이동 교환국에 접속되어, 이동 교환국으로부터 일반 전화망에 접속되도록 된다. 이것으로, 휴대 전화기는 각 무선 존을 관리하는 기지국과 무선 회선을 통해서 접속됨으로써 다른 전화기와 통화를 행할 수 있도록 된다. 또, 다른 무선 존에 속하는 휴대 전화기와 통화할 때는, 휴대 전화기가 속하는 무선 존을 관리하고 있는 기지국을 통해서 이동 교환국에 접속되며, 이동 교환국으로부터 상대측의 휴대 전화기가 속하는 기지국을 통하여 다른 휴대 전화기와 통화를 행할 수 있도록 된다. In general, a cellular system in a cellular phone employs a small zone system, and a plurality of radio zones are arranged in a service area. It is the base station installed in each wireless zone that manages each radio zone, and when the mobile telephone which is a mobile station calls with a normal telephone, it is connected to the mobile switching center through the base station which manages the wireless zone to which the mobile telephone belongs. The exchange will be connected to the public telephone network. As a result, the cellular phone can be connected to the base station for managing each radio zone via a wireless line, so that the cellular phone can make a call with another telephone. When talking to a cellular phone belonging to another radio zone, the mobile switching center is connected to the mobile switching center through a base station managing the radio zone to which the cellular phone belongs. Can be done.

이러한 셀룰러 시스템의 예가 도 5에 도시되어 있으며, 휴대 전화기(1a)가 기지국(2a)∼기지국(2d) 중 기지국(2c)이 관리하는 무선 존 내에 속하고 있으며, 휴대 전화기(1b)가 기지국(2a)에 속해 있는 경우가 도시되어 있다. 휴대 전화기(1a)와 기지국(2c)은 무선 회선에 의해 접속되어 있으며, 통화를 행할 때나 위치 등록을 행할 때의 업(up) 신호는 기지국(2c)에서 수신되어서 처리된다. 관리하는 기지국이 기지국(2a)으로 되어 있지만, 휴대 전화기(1b)도 마찬가지다. 기지국(2a)∼기지국(2d)은 각각 다른 무선 존을 관리하고 있지만, 그 무선 존의 가장자리는 서로 겹치도록 되어 있어도 된다. 기지국(2a)∼기지국(2d)은 다중화 회선을 통해서 이동 교환국(3)에 접속되며, 또한, 다수의 이동 교환국(3)은 게이트 교환국(4)에서 선을 모아서 일반 전화 교환국(5a)에 접속된다. 다수 설치된 게이트 교환국(4)은 서로 중계 전송로에서 접속되어 있다. 일반 전화 교환국(5a, 5b, 5c ···)은 각 지역마다 설치되어 있으며, 일반 전화 교환국(5a, 5b, 5c ···) 간도 중계 전송로에서 서로 접속되어 있다. 일반 전화 교환국(5a, 5b, 5c ···)의 각각에는 다수의 일반 전화가 접속되어 있으며, 예를 들면, 일반 전화 교환국(5b)에는 배송 센터(6)가 접속되어 있다.An example of such a cellular system is shown in Fig. 5, wherein the cellular phone 1a belongs to a wireless zone managed by the base station 2c of the base stations 2a to 2d, and the cellular phone 1b is a base station ( The case belonging to 2a) is shown. The cellular phone 1a and the base station 2c are connected by a wireless line, and an up signal when making a call or registering a location is received by the base station 2c and processed. Although the base station to be managed is the base station 2a, the same applies to the mobile phone 1b. Although the base stations 2a to 2d each manage different radio zones, the edges of the radio zones may overlap each other. The base stations 2a to 2d are connected to the mobile switching center 3 through a multiplexed line, and a plurality of mobile switching centers 3 collect lines at the gate switching center 4 and are connected to the general switching center 5a. do. A plurality of gate switching stations 4 are connected to each other in a relay transmission path. The general telephone switching centers 5a, 5b and 5c are provided in each region, and the general telephone switching centers 5a, 5b and 5c are connected to each other in the relay transmission path. A large number of general telephones are connected to each of the general telephone switching centers 5a, 5b, 5c ..., for example, and a delivery center 6 is connected to the general telephone switching center 5b.

배송 센터(6)에는 수시 신곡이 추가되어서 다수의 가라오케 데이터가 축적되어 있으며, 발명의 본 실시 형태에 있어서는, 일반 전화망에 접속되어 있는 배송 센터(6)로부터, 예를 들면 휴대 전화기(1a, 1b)에 가라오케 데이터를 다운로드할 수 있도록 되어 있다. 여기에서, 휴대 전화기(1a)가 가라오케 데이터를 다운로드할 때는, 휴대 전화기(1a)는 배송 센터(6)의 전화 번호를 발신한다. 이것으로, 휴대 전화기(1a) - 기지국(2c) - 이동 교환국(3) - 게이트 교환국(4) - 일반 전화 교환국(5a) - 일반 전화 교환국(5b) - 배송 센터(6)의 경로로, 배송 센터(6)와 휴대 전화기(1a)가 접속된다. 이어서, 휴대 전화기(1a)는 표시부에 표시되는 가이던스를 따라서 텐키나 조그 다이얼 등을 조작하면, 소망 곡명의 가라오케 데이터를 리퀘스트해서 다운로드할 수 있다. 이 경우의 가라오케 데이터에는 가이드 음성의 음성 심벌 데이터가 포함되어 있다. 휴대 전화기(1b)도 마찬가지로 하여, 소망 곡명의 가라오케 데이터를 리퀘스트해서 다운로드할 수 있다. 한편, 배송 센터(6)를 인터넷에 접속해서 인터넷을 통해서 배송 센터(6)로부터 가라오케 데이터를 다운로드하도록 해도 된다.Occasionally new songs are added to the delivery center 6 to store a large number of karaoke data. In the present embodiment of the invention, for example, mobile phones 1a and 1b from the delivery center 6 connected to a general telephone network. Karaoke data can be downloaded. Here, when the cellular phone 1a downloads the karaoke data, the cellular phone 1a transmits the telephone number of the delivery center 6. By this, the cell phone 1a-the base station 2c-the mobile switching center 3-the gate switching center 4-the general switching center 5a-the general switching center 5b-the delivery center 6 are delivered by the route. The center 6 and the cellular phone 1a are connected. Subsequently, when the mobile phone 1a operates a tenkey, a jog dial, or the like along the guidance displayed on the display unit, the mobile phone 1a can request and download karaoke data of a desired song name. The karaoke data in this case contains voice symbol data of the guide voice. Similarly, the cellular phone 1b can request and download karaoke data of a desired song name. Alternatively, the delivery center 6 may be connected to the Internet to download karaoke data from the delivery center 6 via the Internet.

한편, 도 1에 도시하는 휴대 전화기(1)에서 가라오케를 행하고 있는 때에는, 마이크(21)로부터 입력된 가창음도 출력부(20)로부터 출력되도록 된다. 이 경우, 휴대 전화기(1)가 핸즈프리로 통화할 수 있도록 되어 있으며, 핸즈프리로 가라오케를 행하고 있는 때에는 출력부(20)로부터의 출력 소리가 마이크(21)에서 입력되어서 하우링을 일으키는 일이 있다. 그래서, 휴대 전화기(1)가 핸즈프리로 통화할 수 있을 경우는, 에코 캔슬러(canceller) 회로를 설치해서 하우링을 방지하도록 한다. 또, 출력부(20)로부터의 출력을 FM 모듈레이터에 의해 미약 전파로서 송신하고, 실내나 차내에 설치되어 있는 FM 수신기로 수신해서 출력하도록 해도 된다. 이 경우도 하우링을 일으키는 일이 있으므로, 에코 캔설러 회로를 설치하도록 한다. On the other hand, when karaoke is performed in the mobile phone 1 shown in FIG. 1, the song sound input from the microphone 21 is also output from the output unit 20. In this case, the mobile phone 1 can talk hands-free, and when karaoke is hands-free, the output sound from the output unit 20 may be input from the microphone 21 to cause howling. Therefore, when the cellular phone 1 can talk hands-free, an echo canceller circuit is provided to prevent howling. In addition, the output from the output unit 20 may be transmitted as a weak radio wave by the FM modulator, and may be received and output by an FM receiver installed indoors or in a vehicle. In this case as well, a howling may be caused. Therefore, an echo canceler circuit should be provided.

또한, 가라오케를 행하고 있는 경우는, 휴대 전화기(1)의 송신부는 리퀘스트하는 이외에는 사용하지 않으므로, 리퀘스트하는 경우를 제외하고 송신부에 공급하는 전원(1)을 오프함으로써, 전지의 지속 시간을 향상하도록 해도 된다. In the case where karaoke is being performed, the transmitter of the mobile phone 1 is not used except for the request, so that the duration of the battery can be improved by turning off the power supply 1 supplied to the transmitter except for the request. do.

다음에, 본 발명의 단말 장치를 가라오케 장치에 적용한 제2 실시 형태의 구성예를 배송 센터와 함께 도 6에 도시한다. Next, the structural example of 2nd Embodiment which applied the terminal apparatus of this invention to the karaoke apparatus is shown in FIG. 6 with a delivery center.

본 실시 형태는 제1 실시 형태와는 기본적으로 통신 기능과 표시 기능에 있어서 상이할 뿐이다. 다시 말해, 제1 실시 형태의 송수신 기능부(11), 전화 기능부(12)와 대응하는 모뎀(111), 제어부(112)의 구성이 다르고, 또 표시부(126)가 추가되어 있는 점이 휴대 전화에 적용된 제1 실시 형태와 다르고, 그 밖의 구성 요소는 기능적으로 동일하기 때문에, 동일한 부호를 첨부해서 그 상세한 설명을 생략한다. This embodiment differs from the first embodiment basically only in a communication function and a display function. In other words, the configuration of the transmission / reception function unit 11, the telephone function unit 12, the modem 111, and the control unit 112 of the first embodiment is different, and the display unit 126 is added. Since it is different from the 1st Embodiment applied to and the other component is functionally the same, the same code | symbol is attached | subjected and the detailed description is abbreviate | omitted.

도 6에 있어서, 100은 본 발명의 제2 실시 형태에 관한 단말 장치를 적용한 가라오케 장치이며, 가라오케 장치(100)에는 배송 센터(6)로부터 가라오케 데이터를 다운로드할 수 있도록 되고 있다. 가라오케 장치(100)와 배송 센터(6)는 통신 회선에 의해 접속되어 있으며, 통신 회선은 전화 회선 등에 의해 구성되어 있다. 가라오케 장치(100)는 모뎀(111)을 구비하며, 모뎀(111)을 통해서 배송 센터(6)로부터 소망의 가라오케 데이터를 다운로드하도록 하고 있다. 모뎀(111)은 수신된 신호의 복조를 행함과 더불어, 송신하는 신호를 변조해서 통신 회선에 송출하고 있다. 제어부(112)는 표시 제어부(125)나 음성 합성부(122)를 구비하고 있음과 더불어, 가라오케 장치(100)의 각 부를 제어하고 있는 제어부이다. 제어부(112)에서 음성 합성하는 경우, 데이터베이스(24)로부터 읽어 내어진 음성 파라미터를 음성 합성부(122)에 공급해서 음성 파라미터에 따른 음성을 합성할 수 있다. 데이터베이스(24)에는 「a」로부터 「n」까지 및 의음의 음성 파라미터가 격납되어 있다. In Fig. 6, 100 is a karaoke apparatus to which the terminal apparatus according to the second embodiment of the present invention is applied, and the karaoke apparatus 100 is capable of downloading karaoke data from the delivery center 6. The karaoke apparatus 100 and the delivery center 6 are connected by the communication line, and the communication line is comprised by the telephone line. The karaoke apparatus 100 is equipped with the modem 111, and makes it possible to download desired karaoke data from the delivery center 6 via the modem 111. FIG. The modem 111 demodulates the received signal, modulates the signal to be transmitted, and transmits it to the communication line. The control part 112 is a control part which is equipped with the display control part 125 and the speech synthesis part 122, and controls each part of the karaoke apparatus 100. As shown in FIG. In the case of speech synthesis by the controller 112, the speech parameters read from the database 24 can be supplied to the speech synthesizer 122 to synthesize speech according to the speech parameters. The database 24 stores voice parameters of "a" through "n" and a false sound.

기억 수단(13)은 제1 실시 형태와 마찬가지로, 배송된 가라오케 데이터가 기억되는 메모리이다. 또, 본 실시 형태에 있어서는, 가라오케 데이터는 리퀘스트된 곡의 연주 이벤트 열로 이루어지는 연주 데이터와, 이 연주 데이터에 부수되어 있는 가사에 있어서의 음절마다의 음성 심벌로 이루어지는 음성 심벌 데이터와, 표시부(126)에 가이드 가사를 표시하는 가이드 가사 표시 데이터로 구성되어 있으며, 이 가이드 가사 표시 데이터는 모뎀(111)으로부터 제어부(112)에 공급된다. 가이드 가사 표시 데이터는 연주 데이터가 연주될 때에 제어부(112)로부터 순차로 표시부(126)에 공급되어서 가이드 가사가 표시부(126)에 표시되도록 된다. 이때에, 연주 데이터의 장르에 어울리는 배경 영상 데이터가 도시하지 않은 대용량 기억 수단으로부터 읽어 내어져, 가이드 가사와 함께 표시부(126)에 표시된다.The storage means 13 is a memory in which delivered karaoke data is stored similarly to the first embodiment. In the present embodiment, the karaoke data includes performance data consisting of a string of performance events of the requested song, voice symbol data composed of voice symbols for each syllable in the lyrics accompanying the performance data, and the display unit 126. Is composed of guide lyrics display data for displaying the guide lyrics. The guide lyrics display data is supplied from the modem 111 to the control unit 112. The guide lyrics display data are sequentially supplied from the control unit 112 to the display unit 126 when the performance data is played so that the guide lyrics are displayed on the display unit 126. At this time, the background image data suitable for the genre of the performance data is read out from the mass storage means (not shown) and displayed on the display unit 126 together with the guide lyrics.

또, 가이드 가사 표시 데이터를 제외하는 가라오케 데이터는 상기 도 4에 도시하는 바와 같이 MIDI 포맷의 데이터로 되어 있으며, 가사의 음성 심벌 데이터는 도 4에 도시하는 바와 같이 익스클루시브 메시지로서 MIDI 데이터 중에 삽입되어 있다. 이 때문에, 가라오케 데이터에 있어서의 1곡의 데이터량은 가이드 가사 표시 데이터를 제외하면 얼마 안 되는 데이터량으로 할 수 있으며, 단시간에서 1곡의 가라오케 데이터를 전송할 수 있도록 된다. Karaoke data excluding the guide lyrics display data is data in MIDI format as shown in FIG. 4, and the audio symbol data of lyrics is inserted into the MIDI data as an exclusive message as shown in FIG. It is. For this reason, the data amount of one piece of karaoke data can be set to a small amount of data except for the guide lyrics display data, so that one piece of karaoke data can be transmitted in a short time.

본 실시 형태에 있어서는, 데이터 분리부(14)에 의해 분리된 음성 심벌 데이터는 연주 데이터와 함께 제어부(112)에 공급된다. 제어부(112)에서는 음성 심벌 데이터에 기초해서 합성된 가이드 음성이 음성 합성부(122)로부터 출력된다. 이 가이드 음성은 가라오케에 있어서 가창할 때에 표시부(126)에 표시되는 가이드 가사를 보지 않아도 가이드하기 위한 것이고, 악음 합성부(16)에서 재생된 가라오케의 악음의 진행에 맞춰서 합성되어서 출력부(20)로부터 출력된다. In this embodiment, the voice symbol data separated by the data separating unit 14 is supplied to the control unit 112 together with the performance data. The control unit 112 outputs the guide voice synthesized based on the voice symbol data from the voice synthesis unit 122. The guide voice is for guiding the guide lyrics displayed on the display unit 126 when the song is sung in karaoke, and is synthesized in accordance with the progress of the karaoke music reproduced by the music synthesizer 16 to output the output unit 20. Is output from

도 6에 도시하는 가라오케 장치(100)에서 가라오케를 행하고 있는 때에는, 마이크(21)로부터 입력된 가창음도 출력부(20)로부터 출력되도록 된다. When karaoke is performed in the karaoke apparatus 100 shown in FIG. 6, the song sound input from the microphone 21 is also output from the output unit 20.

다음에, 본 발명의 제2 실시 형태에 관한 가라오케 장치(100)의 제어부(112)에서의 음성 합성부(122)와 데이터베이스(24)의 상세 구성을 도 7에 도시한다.Next, FIG. 7 shows a detailed configuration of the speech synthesis unit 122 and the database 24 in the control unit 112 of the karaoke apparatus 100 according to the second embodiment of the present invention.

도 7에 도시하는 음성 합성부(122)는 제1 실시 형태의 단말 장치가 적용된 휴대 전화기(1)의 전화 기능부(12)의 음성 압축 합성부(22)와는 달리, 인코더를 구비하고 있지 않다. 그 밖의 구성은 상기 음성 압축 합성부(22)와 같으므로 그 설명을 생략한다. The speech synthesis unit 122 shown in FIG. 7 does not include an encoder, unlike the speech compression synthesis unit 22 of the telephone function unit 12 of the mobile phone 1 to which the terminal device of the first embodiment is applied. . Other configurations are the same as those of the speech compression synthesis section 22, and thus description thereof is omitted.

또, 제1 실시 형태와 마찬가지로, 보컬 라인의 연주 데이터는 제어부(112) 내의 처리부에 의해 해석되며, 이 해석 처리는 처리부가 해석 프로그램을 실행함으로써 행하여지지만, 이 해석 처리의 흐름은 도 3에 도시하는 제1 실시 형태의 휴대 전화(1)의 경우와 같으므로, 그 설명을 생략한다.In addition, similar to the first embodiment, the performance data of the vocal line is interpreted by the processing unit in the control unit 112, and this analysis processing is performed by executing the analysis program, but the flow of this analysis processing is shown in FIG. Since it is the same as that of the mobile telephone 1 of 1st Embodiment mentioned, the description is abbreviate | omitted.

여기에서, 가라오케 장치(100)가 가라오케 데이터를 다운로드할 때의 형태를 설명하면, 가라오케 장치(100)는 배송 센터(6)에 모뎀(111)을 통해서 액세스한다. 이것으로, 가라오케 장치(100)와 배송 센터(6)가 접속된다. 이어서, 가라오케 장치(100)는 표시부(126)에 표시되는 가이던스를 따라서 도시하지 않은 입력 수단을 조작하면, 소망 곡명의 가라오케 데이터를 리퀘스트해서 다운로드할 수 있다. 이 경우의 가라오케 데이터에는 가이드 음성의 음성 심벌 데이터가 포함됨과 더불어, 가이드 가사 표시 데이터가 첨부되고 있다. 한편, 배송 센터(6)를 인터넷에 접속해서 인터넷에 액세스함으로써, 배송 센터(6)로부터 가라오케 데이터를 다운로드하도록 해도 된다. Here, a description will be made when the karaoke apparatus 100 downloads karaoke data. The karaoke apparatus 100 accesses the delivery center 6 via the modem 111. In this way, the karaoke apparatus 100 and the delivery center 6 are connected. Next, when the karaoke apparatus 100 operates the input means which is not shown in accordance with the guidance displayed on the display part 126, the karaoke apparatus 100 can request and download karaoke data of a desired music name. In this case, the karaoke data includes voice symbol data of the guide voice and is accompanied by guide lyrics display data. On the other hand, the karaoke data may be downloaded from the delivery center 6 by connecting the delivery center 6 to the Internet and accessing the Internet.

한편, 상술한 실시 형태의 기능을 실현하는 소프트웨어의 프로그램 코드를 기록한 기억 매체에 의해 이 프로그램을 가라오케 장치, 휴대 전화, 퍼스널 컴퓨터 등의 전자기기에 인스톨하고, 그 전자기기의 컴퓨터(또는 CPU)가 이 프로그램을 실행함으로써도, 본 발명의 목적이 달성되는 것은 말할 필요도 없다.On the other hand, the program is installed in an electronic apparatus such as a karaoke apparatus, a mobile telephone, a personal computer, and the like by a storage medium on which program code of software for realizing the functions of the above-described embodiments is installed, and the computer (or CPU) of the electronic apparatus is installed. Needless to say, the execution of the program also achieves the object of the present invention.

이 경우, 기억 매체를 이용해서 전자기기에 인스톨된 프로그램 코드 자체가 본 발명의 신규인 기능을 실현하게 되고, 그 프로그램 코드를 기억한 기억 매체는 본 발명을 구성하게 된다.In this case, the program code itself installed in the electronic apparatus using the storage medium realizes the novel function of the present invention, and the storage medium storing the program code constitutes the present invention.

프로그램 코드를 기록하기 위한 기억 매체로서는 예를 들면, 플로피디스크, 하드디스크, 광디스크, 광자기디스크, CD-ROM, CD-R, 자기 테이프, 불휘발성 메모리 카드, ROM 등을 이용할 수 있다. 또, 통신 네트워크를 통해서 서버 컴퓨터로부터 프로그램 코드가 공급되도록 해도 된다. As a storage medium for recording the program code, for example, a floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile memory card, ROM, or the like can be used. In addition, the program code may be supplied from the server computer via the communication network.

또, 컴퓨터가 읽어 낸 프로그램 코드를 실행함으로써, 상술한 실시 형태의 기능이 실현될 뿐만 아니라, 그 프로그램 코드의 지시에 기초하여, 컴퓨터상에서 가동하고 있는 OS 등이 실제의 처리 일부 또는 전부를 행하고, 그 처리에 의해 상술한 실시 형태의 기능이 실현되는 경우도 포함되는 것은 말할 필요도 없다. 또한, 기억 매체로부터 읽어 내어진 프로그램 코드가 가라오케 장치나 퍼스널 컴퓨터 등에 삽입된 기능 확장 보드나 그들에 접속된 기능 확장 유닛에 구비되는 메모리에 기입된 후, 그 프로그램 코드의 지시에 기초하여, 그 기능 확장 보드나 기능 확장 유닛에 구비되는 CPU 등이 실제의 처리 일부 또는 전부를 행하고, 그 처리에 의해 상술한 실시 형태의 기능이 실현되는 경우도 포함되는 것은 말할 필요도 없다.In addition, by executing the program code read out by the computer, not only the functions of the above-described embodiments are realized but also the OS or the like running on the computer performs part or all of the actual processing based on the instruction of the program code, It goes without saying that the process includes the case where the functions of the above-described embodiments are realized. Furthermore, after the program code read out from the storage medium is written into a memory provided in a function expansion board inserted in a karaoke device or a personal computer or the like or a function expansion unit connected thereto, the function is based on an instruction of the program code. It goes without saying that the CPU or the like provided in the expansion board or the function expansion unit performs part or all of the actual processing, and the processing includes the case where the functions of the above-described embodiments are realized.

이상 설명한 바와 같이, 본 발명의 단말 장치는 통신 기능을 구비한 가라오케 장치에 적용할 수 있음과 더불어, 가라오케 기능을 구비한 휴대 전화기나 자동차 전화기 등의 이동 전화기에 적용할 수 있다. 또, 가라오케 기능을 갖추고 있는 전자기기에 있어서, 모뎀이나 휴대 전화기 등을 접속해서 통신 기능을 가지게 함으로써, 본 발명의 단말 장치를 적용할 수 있도록 된다.As described above, the terminal device of the present invention can be applied to a karaoke device having a communication function, and can be applied to a mobile phone such as a mobile phone or a car phone having a karaoke function. In addition, in an electronic device having a karaoke function, the terminal device of the present invention can be applied by connecting a modem, a mobile phone, or the like to have a communication function.

Claims (13)

연주 이벤트 열로 이루어지는 연주 데이터와, 이 연주 데이터에 부수되어 있는 가사에 있어서의 음절마다의 음성 심벌로 이루어지는 음성 심벌 데이터로 구성되어 있는 콘텐츠 데이터가 통신 네트워크를 통해서 배송되는 단말 장치에 있어서,In a terminal apparatus in which performance data consisting of a performance event sequence and content data composed of voice symbol data consisting of voice symbols for each syllable in the lyrics accompanying the performance data are delivered through a communication network, 상기 연주 데이터에 기초하여 악음을 재생하는 악음 재생부;A music sound reproducing unit which reproduces the music sound based on the performance data; 상기 연주 데이터를 먼저 읽기하여, 먼저 읽혀진 이 연주 데이터 중 보컬 라인의 연주 데이터를 분석하는 분석부; 및 An analysis unit which first reads the performance data and analyzes the performance data of the vocal line among the previously read performance data; And 상기 음성 심벌 데이터 및 상기 분석부에서의 분석 결과에 기초하여 데이터베이스로부터 음성 파라미터를 읽어 내어, 해당 읽어 내어진 음성 파라미터에 기초하여 가이드 음성을 합성하는 음성 합성부를 포함하는 단말 장치.And a voice synthesizer configured to read a voice parameter from a database based on the voice symbol data and the analysis result of the analyzer and synthesize a guide voice based on the read voice parameter. 제1항에 있어서, 상기 연주 데이터는 MIDI 포맷의 연주 데이터이며, 상기 음성 심벌 데이터가 익스클루시브 메시지로서, 상기 연주 데이터 중에 삽입되어 있는 단말 장치.The terminal device according to claim 1, wherein the performance data is performance data in MIDI format, and the voice symbol data is an exclusive message and is inserted into the performance data. 제1항에 있어서, 상기 음성 합성부에 의해 합성되는 가이드 음성의 피치 및 인토네이션은 상기 보컬 라인의 연주 데이터의 분석 결과에 따라서 제어되는 단말 장치.The terminal apparatus according to claim 1, wherein the pitch and intonation of the guide voice synthesized by the voice synthesizer are controlled according to a result of analysis of performance data of the vocal line. 제1항에 있어서, 상기 음성 합성부는 상기 악음 재생부에서의 해당하는 보컬 라인의 연주 데이터에 기초하는 악음의 재생 전에 상기 가이드 음성을 합성하는 단말 장치.The terminal apparatus according to claim 1, wherein the voice synthesis unit synthesizes the guide voice before reproduction of a musical note based on performance data of a corresponding vocal line in the musical tone reproducing unit. 삭제delete 연주 이벤트 열로 이루어지는 연주 데이터와, 이 연주 데이터에 부수되어 있는 가사에 있어서의 음절마다의 음성 심벌로 이루어지는 음성 심벌 데이터로 구성되어 있는 콘텐츠 데이터가 통신 네트워크를 통해서 배송되는 단말 장치에 있어서,In a terminal apparatus in which performance data consisting of a performance event sequence and content data composed of voice symbol data consisting of voice symbols for each syllable in the lyrics accompanying the performance data are delivered through a communication network, 통화를 가능하게 하는 전화 기능부;A telephone function to enable a call; 상기 연주 데이터에 기초하여 악음을 재생하는 악음 재생부;A music sound reproducing unit which reproduces the music sound based on the performance data; 상기 연주 데이터를 먼저 읽기하여, 먼저 읽혀진 이 연주 데이터 중 보컬 라인의 연주 데이터를 분석하는 분석부; 및An analysis unit which first reads the performance data and analyzes the performance data of the vocal line among the previously read performance data; And 상기 음성 심벌 데이터 및 상기 분석부에서의 분석 결과에 기초하여 데이터베이스로부터 음성 파라미터를 읽어 내어, 해당 읽어 내어진 음성 파라미터에 기초해서 가이드 음성을 합성하는 음성 합성부를 포함하는 단말 장치.And a speech synthesizer configured to read a voice parameter from a database based on the voice symbol data and the analysis result of the analyzer, and synthesize a guide voice based on the read voice parameter. 삭제delete 제6항에 있어서, 상기 연주 데이터는 MIDI 포맷의 연주 데이터이며, 상기 음성 심벌 데이터가 익스클루시브 메시지로서, 상기 연주 데이터 중에 삽입되어 있는 단말 장치.The terminal device according to claim 6, wherein the performance data is performance data in MIDI format, and the voice symbol data is included in the performance data as an exclusive message. 제6항에 있어서, 상기 음성 합성부에 의해 합성되는 가이드 음성의 피치 및 인토네이션은 상기 보컬 라인의 연주 데이터의 분석 결과에 따라서 제어되는 단말 장치.The terminal device according to claim 6, wherein the pitch and intonation of the guide voice synthesized by the voice synthesizer are controlled according to the analysis result of the performance data of the vocal line. 제6항에 있어서, 상기 음성 합성부는 상기 악음 재생부에서의 해당하는 보컬 라인의 연주 데이터에 기초하는 악음의 재생 전에 상기 가이드 음성을 합성하는 단말 장치.7. The terminal apparatus according to claim 6, wherein the voice synthesis unit synthesizes the guide voice before reproduction of a musical note based on performance data of a corresponding vocal line in the musical tone reproducing unit. 삭제delete 연주 이벤트 열로 이루어지는 연주 데이터와, 이 연주 데이터에 부수되어 있는 가사에 있어서의 음절마다의 음성 심벌로 이루어지는 음성 심벌 데이터로 구성되어 있는 콘텐츠 데이터가 통신 네트워크를 통해서 배송되는 단말 장치를 위한 가이드 음성 재생 방법에 있어서,Guide audio reproduction method for a terminal device in which content data consisting of performance data consisting of performance event strings and voice symbol data of speech symbols for each syllable in the lyrics accompanying the performance data is delivered through a communication network. To 상기 연주 데이터에 기초하여 악음을 재생하는 단계;Reproducing a musical sound based on the performance data; 상기 연주 데이터를 먼저 읽기하여, 먼저 읽혀진 이 연주 데이터 중 보컬 라인의 연주 데이터를 분석하는 단계; 및First reading the performance data and analyzing the performance data of the vocal line among the previously read performance data; And 상기 음성 심벌 데이터 및 상기 분석 결과에 기초하여 데이터베이스로부터 음성 파라미터를 읽어 내어, 해당 읽어 내어진 음성 파라미터에 기초하여 가이드 음성을 합성하는 단계를 포함하는 가이드 음성 재생 방법.And reading a voice parameter from a database based on the voice symbol data and the analysis result, and synthesizing a guide voice based on the read voice parameter. 연주 이벤트 열로 이루어지는 연주 데이터와, 이 연주 데이터에 부수되어 있는 가사에 있어서의 음절마다의 음성 심벌로 이루어지는 음성 심벌 데이터로 구성되어 있는 콘텐츠 데이터가 통신 네트워크를 통해서 배송되는 단말 장치를 위한, 가이드 음성 재생 방법을 컴퓨터에 실행시키기 위한 프로그램을 격납한 기억 매체에 있어서, 상기 프로그램은,Guide audio reproduction for a terminal device in which content data consisting of performance data consisting of performance event strings and voice symbol data consisting of voice symbols for each syllable in the lyrics accompanying the performance data is delivered through a communication network. A storage medium storing a program for causing a computer to execute a method, the program comprising: 상기 연주 데이터에 기초하여 악음을 재생하는 악음 재생 모듈;A music reproducing module for reproducing a musical sound based on the performance data; 상기 연주 데이터를 먼저 읽기하여, 먼저 읽혀진 이 연주 데이터 중 보컬 라인의 연주 데이터를 분석하는 분석 모듈; 및An analysis module for first reading the performance data and analyzing the performance data of the vocal line among the previously read performance data; And 상기 음성 심벌 데이터 및 상기 분석 모듈에서의 분석 결과에 기초하여 데이터베이스로부터 음성 파라미터를 읽어 내어, 해당 읽어 내어진 음성 파라미터에 기초하여 가이드 음성을 합성하는 음성 합성 모듈을 포함하는 기억 매체.And a speech synthesis module that reads the speech parameter from a database based on the speech symbol data and the analysis result in the analysis module, and synthesizes the guide speech based on the read speech parameter.
KR10-2002-7016964A 2000-06-12 2001-06-11 Terminal device, guide voice reproducing method and storage medium KR100530916B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000175358A JP2001356784A (en) 2000-06-12 2000-06-12 Terminal device
JPJP-P-2000-00175358 2000-06-12
PCT/JP2001/004911 WO2001097209A1 (en) 2000-06-12 2001-06-11 Terminal device, guide voice reproducing method and storage medium

Publications (2)

Publication Number Publication Date
KR20030010696A KR20030010696A (en) 2003-02-05
KR100530916B1 true KR100530916B1 (en) 2005-11-23

Family

ID=18677250

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-7016964A KR100530916B1 (en) 2000-06-12 2001-06-11 Terminal device, guide voice reproducing method and storage medium

Country Status (7)

Country Link
JP (1) JP2001356784A (en)
KR (1) KR100530916B1 (en)
CN (1) CN100461262C (en)
AU (1) AU2001264240A1 (en)
HK (1) HK1054460A1 (en)
TW (1) TW529018B (en)
WO (1) WO2001097209A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240059075A (en) 2022-10-27 2024-05-07 김기범 Machine learning-based online vocal analysis service system

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4236533B2 (en) * 2003-07-18 2009-03-11 クリムゾンテクノロジー株式会社 Musical sound generator and program thereof
JP4305084B2 (en) * 2003-07-18 2009-07-29 ブラザー工業株式会社 Music player
JP4999497B2 (en) * 2007-02-28 2012-08-15 株式会社第一興商 Car karaoke system with part singing assist function
JP2010054530A (en) * 2008-08-26 2010-03-11 Sony Corp Information processor, light emission control method, and computer program
JP2014170373A (en) * 2013-03-04 2014-09-18 Toshiba Tec Corp Information processing terminal and program
JP6728754B2 (en) * 2015-03-20 2020-07-22 ヤマハ株式会社 Pronunciation device, pronunciation method and pronunciation program
US11404041B2 (en) * 2017-05-24 2022-08-02 Nippon Hoso Kyokai Audio guidance generation device, audio guidance generation method, and broadcasting system
KR102290901B1 (en) * 2021-01-04 2021-08-19 주식회사 디어유 Song playing system

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6431496A (en) * 1987-07-28 1989-02-01 Matsushita Electric Works Ltd Manufacture of ceramics wiring board
JP3300553B2 (en) * 1994-11-10 2002-07-08 株式会社エクシング Karaoke equipment
JPH0926798A (en) * 1995-07-12 1997-01-28 Kanda Tsushin Kogyo Co Ltd Phs communication karaoke system
JP4132109B2 (en) * 1995-10-26 2008-08-13 ソニー株式会社 Speech signal reproduction method and device, speech decoding method and device, and speech synthesis method and device
JPH09179574A (en) * 1995-12-27 1997-07-11 Yamaha Corp Karaoke singing equipment
JPH1031496A (en) * 1996-07-15 1998-02-03 Casio Comput Co Ltd Musical sound generating device
JPH10161683A (en) * 1996-12-04 1998-06-19 Harness Sogo Gijutsu Kenkyusho:Kk On-vehicle karaoke device
JPH11325943A (en) * 1998-05-11 1999-11-26 Sony Corp Navigation system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240059075A (en) 2022-10-27 2024-05-07 김기범 Machine learning-based online vocal analysis service system

Also Published As

Publication number Publication date
HK1054460A1 (en) 2003-11-28
CN100461262C (en) 2009-02-11
JP2001356784A (en) 2001-12-26
TW529018B (en) 2003-04-21
KR20030010696A (en) 2003-02-05
CN1436345A (en) 2003-08-13
AU2001264240A1 (en) 2001-12-24
WO2001097209A1 (en) 2001-12-20

Similar Documents

Publication Publication Date Title
KR100582154B1 (en) Data interchange format of sequence data, sound reproducing apparatus and server equipment
KR100469215B1 (en) Telephone terminal
KR100496620B1 (en) Musical composition reproducing apparatus, portable terminal, musical composition reproducing method, and storage medium
JP2000194384A (en) System and method for recording and synthesizing sound, and infrastracture for distributing recorded sound to be reproduced on remote place
KR100530916B1 (en) Terminal device, guide voice reproducing method and storage medium
KR100586365B1 (en) Portable telephone and portable telephone system
KR100591378B1 (en) Music reproducing apparatus and method and cellular terminal apparatus
KR100578588B1 (en) Music reproducing apparatus
EP1076895B1 (en) A system and method to improve the quality of coded speech coexisting with background noise
KR20030020991A (en) Musical sound generator, portable terminal, musical sound generating method, and storage medium
US7356373B2 (en) Method and device for enhancing ring tones in mobile terminals
KR100619826B1 (en) Music and audio synthesize apparatus and method for mobile communication device
US20020066359A1 (en) Tone generator system and tone generating method, and storage medium
JP2004294816A (en) Mobile terminal device
JP2001034299A (en) Sound synthesis device
WO2002005433A1 (en) A method, a device and a system for compressing a musical and voice signal
KR100862126B1 (en) Portable communication terminal
TW200427297A (en) Speech and music reproduction apparatus
JP2001042867A (en) Sound generation control device, and device and system using the same
KR20080080013A (en) Mobile terminal apparatus
JP2005156946A (en) Music reproducing device, voice reproducing device, method for reproducing music and voice and its program
JP2002055182A (en) Alarm setting method for alarm timepiece alarm timepiece device with downloading function
KR20050088705A (en) Method for synthesizing voice
JP2005107136A (en) Voice and musical piece reproducing device
JP2004240333A (en) Method and program for generating voice

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121019

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20131018

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20141022

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20151016

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20161019

Year of fee payment: 12

LAPS Lapse due to unpaid annual fee