JP2016206493A - Controller and program - Google Patents

Controller and program Download PDF

Info

Publication number
JP2016206493A
JP2016206493A JP2015089605A JP2015089605A JP2016206493A JP 2016206493 A JP2016206493 A JP 2016206493A JP 2015089605 A JP2015089605 A JP 2015089605A JP 2015089605 A JP2015089605 A JP 2015089605A JP 2016206493 A JP2016206493 A JP 2016206493A
Authority
JP
Japan
Prior art keywords
music
unit
range
recommended
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015089605A
Other languages
Japanese (ja)
Other versions
JP6582517B2 (en
Inventor
智子 奥村
Tomoko Okumura
智子 奥村
桂三 濱野
Keizo Hamano
桂三 濱野
良朋 太田
Yoshitomo Ota
良朋 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2015089605A priority Critical patent/JP6582517B2/en
Publication of JP2016206493A publication Critical patent/JP2016206493A/en
Application granted granted Critical
Publication of JP6582517B2 publication Critical patent/JP6582517B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To enhance convenience of a device for creating a synthetic singing sound in a karaoke.SOLUTION: A controller according to one embodiment comprises: a music compass acquisition part for acquiring music compass information according to a compass of music which is reproduced by a reproduction part for reproducing music; a recommendation compass acquisition part for, related to a tone color which can be set to a signal creation part for creating an audio signal based on a set tone color and an operation to a performance operation piece, acquiring recommendation compass information which is predetermined as the recommended compass; and a setting part for, based on the music compass information acquired by the music compass acquisition part and the recommendation compass information acquired by the recommendation compass acquisition part, setting a relationship between the compass of the music reproduced by the reproduction part and the tone color set to the signal creation part.SELECTED DRAWING: Figure 9

Description

本発明は、合成歌唱音を生成する際の設定を制御する技術に関する。   The present invention relates to a technique for controlling settings when generating a synthesized singing sound.

電子鍵盤装置などの電子楽器において、楽器音などを想定した電子音を生成する以外にも、歌唱音を合成して生成することが行われている。このような歌唱音(実際の歌唱と区別して、以下、合成歌唱音という)は、例えば、歌詞などの文字に応じた音声素片を組み合わせつつ、指定された音高になるように波形を合成することによって、その文字を発音したような合成音が生成される。従来は、予め用意した楽譜(シーケンスデータ等)と文字とを組み合わせて、合成歌唱音を生成する技術が用いられていたが、特許文献1、2のように、電子鍵盤装置への演奏操作に応じてリアルタイムに合成歌唱音を生成していく技術も開発されている。   In an electronic musical instrument such as an electronic keyboard device, in addition to generating an electronic sound that assumes a musical instrument sound or the like, a singing sound is synthesized and generated. Such a singing sound (to be distinguished from an actual singing, hereinafter referred to as a synthesized singing sound) is synthesized with a waveform so that a specified pitch is obtained, for example, by combining speech segments corresponding to characters such as lyrics. By doing so, a synthesized sound that sounds like the character is generated. Conventionally, a technique for generating a synthesized singing sound by combining a musical score (sequence data or the like) prepared in advance with a character has been used. However, as in Patent Documents 1 and 2, it is used for performance operation on an electronic keyboard device. In response to this, a technique for generating a synthesized singing sound in real time has been developed.

特開2008−170592号公報JP 2008-170592 A 特開2014−62969号公報JP 2014-62969 A

ところで、カラオケでは、歌唱したい曲の伴奏音を出力する装置を用いることによって、自らがその曲を歌唱して楽しむ。一方、上記の特許文献1、2に開示される電子楽器のように、演奏操作に応じてリアルタイムに歌唱音声を生成することができるようになってきたことにより、カラオケにおいて、自分の歌唱音声の代わりに合成歌唱音を用いたいという要望がでてきている。   By the way, in karaoke, by using a device that outputs an accompaniment sound of a song to be sung, the user can sing and enjoy the song. On the other hand, like the electronic musical instruments disclosed in Patent Documents 1 and 2 above, it has become possible to generate a singing voice in real time according to a performance operation. Instead, there is a desire to use synthetic singing sounds.

自分の歌唱音声であれば事前の準備がなくともカラオケ装置が備えられた部屋で気軽にカラオケを楽しむことができる。一方、特許文献1、2の技術では予め歌詞の文字列を電子鍵盤装置に登録しておくなどの様々な事前設定が必要であり、気軽にカラオケを楽しむことができなかった。また、電子鍵盤装置においては、合成歌唱音の音色(声の種類)を変更できる場合もある。このような場合に、カラオケに用いる音色として、何の音色を用いるのが最適なのか判断ができない場合があった。そのため、電子鍵盤装置を用いてカラオケをする場合においても、気軽にカラオケを楽しむことができるように、合成歌唱音を生成するための設定を容易にして利便性を高めることが望まれている。   If you have your own singing voice, you can easily enjoy karaoke in a room equipped with karaoke equipment without any prior preparation. On the other hand, in the techniques of Patent Documents 1 and 2, various prior settings such as registering a character string of lyrics in the electronic keyboard device in advance are necessary, and karaoke cannot be enjoyed easily. In the electronic keyboard device, the tone color (voice type) of the synthesized singing sound may be changed. In such a case, it may not be possible to determine which timbre is optimal as the timbre used in karaoke. Therefore, even when karaoke is performed using an electronic keyboard device, it is desired to facilitate the setting for generating a synthesized singing sound and improve convenience so that karaoke can be easily enjoyed.

本発明の目的の一つは、カラオケにおいて、合成歌唱音を生成する装置の利便性を高めることにある。   One of the objects of the present invention is to improve the convenience of an apparatus for generating a synthesized singing sound in karaoke.

本発明の一実施形態によると、楽曲を再生する再生部によって再生される楽曲の音域に対応した楽曲音域情報を取得する楽曲音域取得部と、演奏操作子に対する操作および設定された音色に基づいてオーディオ信号を生成する信号生成部に対し設定可能な前記音色に関し、推奨される音域として予め決められた推奨音域情報を取得する推奨音域取得部と、
前記楽曲音域取得部によって取得された前記楽曲音域情報および前記推奨音域取得部によって取得された前記推奨音域情報に基づいて、前記再生部において再生される前記楽曲の音域と、前記信号生成部に対して設定される前記音色との関係を設定する設定部と、を備えることを特徴とする制御装置が提供される。
According to one embodiment of the present invention, based on the music tone range acquisition unit that acquires music range information corresponding to the range of the music that is played back by the playback unit that plays back the music, the operation on the performance operator, and the set timbre Regarding the timbre that can be set for the signal generation unit that generates an audio signal, a recommended sound range acquisition unit that acquires recommended sound range information predetermined as a recommended sound range, and
Based on the music range information acquired by the music range acquisition unit and the recommended range information acquired by the recommended range acquisition unit, the range of the music to be played back in the playback unit, and the signal generation unit And a setting unit that sets a relationship with the timbre set in this way.

前記信号生成部は、さらに前記楽曲の歌詞を示す歌詞データに基づいて前記オーディオ信号を生成してもよい。   The signal generation unit may further generate the audio signal based on lyrics data indicating lyrics of the music.

前記設定部は、前記推奨音域情報と前記楽曲音域情報とに基づいて、前記信号生成部に設定する音色を決定することによって前記関係を設定してもよい。   The setting unit may set the relationship by determining a timbre to be set in the signal generation unit based on the recommended sound range information and the music sound range information.

前記設定部は、前記推奨音域情報および前記楽曲音域情報に基づいて、前記信号生成部に設定する候補となる複数の音色を特定し、当該複数の音色をユーザに提示し、当該複数の音色のうちユーザから指定された音色を、前記信号生成部に設定する音色として決定してもよい。   The setting unit specifies a plurality of timbres that are candidates to be set in the signal generation unit based on the recommended tone range information and the music tone range information, presents the plurality of tone colors to the user, and sets the plurality of tone colors. Of these, the tone color designated by the user may be determined as the tone color to be set in the signal generation unit.

前記設定部は、前記楽曲音域情報と前記推奨音域情報とに基づいて、前記再生部によって再生される楽曲のトランスポーズ量を決定することによって前記関係を設定してもよい。   The setting unit may set the relationship by determining a transpose amount of the music played by the playback unit based on the music range information and the recommended range information.

前記設定部は、さらに予め決められた複数の音高の組み合わせと、トランスポーズ後の当該楽曲のメロディの音高とに基づいて、前記楽曲のトランスポーズ量を決定してもよい。   The setting unit may further determine a transposition amount of the music based on a combination of a plurality of predetermined pitches and a pitch of the melody of the music after the transposition.

前記楽曲の音高に関するデータを解析して、前記楽曲音域情報を生成する音域解析部をさらに備え、前記楽曲音域取得部は、生成された前記楽曲音域情報を取得してもよい。   The apparatus may further include a sound range analysis unit that analyzes data related to the pitch of the music and generates the music range information, and the music range acquisition unit may acquire the generated music range information.

本発明の一実施形態によると、楽曲を再生する再生部によって再生される楽曲の音域に対応した楽曲音域情報、および演奏操作子に対する操作および予め設定された音色に基づいてオーディオ信号を生成する信号生成部に対して設定可能な前記音色に関し、推奨される音域として予め決められた推奨音域情報を取得し、取得された前記楽曲音域情報および前記推奨音域情報に基づいて、前記再生部において再生される前記楽曲の音域と、前記信号生成部に対して設定される前記音色との関係を設定することを、コンピュータに実行させるためのプログラムが提供される。   According to one embodiment of the present invention, a signal for generating an audio signal based on music range information corresponding to the musical range of the music reproduced by the reproducing unit that reproduces the music, and an operation on the performance operator and a preset tone color With respect to the timbre that can be set for the generation unit, recommended range information predetermined as a recommended range is acquired, and is reproduced in the playback unit based on the acquired musical range information and the recommended range information. There is provided a program for causing a computer to set a relationship between a tone range of the music and the timbre set for the signal generation unit.

本発明の一実施形態によれば、カラオケにおいて、合成歌唱音を生成する装置の利便性を高めることができる。   According to one embodiment of the present invention, in karaoke, the convenience of an apparatus that generates a synthesized singing sound can be improved.

本発明の第1実施形態におけるカラオケシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the karaoke system in 1st Embodiment of this invention. 本発明の第1実施形態におけるカラオケ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the karaoke apparatus in 1st Embodiment of this invention. 本発明の第1実施形態における制御端末の構成を示すブロック図である。It is a block diagram which shows the structure of the control terminal in 1st Embodiment of this invention. 本発明の第1実施形態における電子鍵盤装置の構成を示すブロック図である。It is a block diagram which shows the structure of the electronic keyboard apparatus in 1st Embodiment of this invention. 本発明の第1実施形態におけるカラオケ装置で実現される機能を示すブロック図である。It is a block diagram which shows the function implement | achieved with the karaoke apparatus in 1st Embodiment of this invention. 本発明の第1実施形態における電子鍵盤装置で実現される機能を示すブロック図である。It is a block diagram which shows the function implement | achieved with the electronic keyboard apparatus in 1st Embodiment of this invention. 本発明の第1実施形態における電子鍵盤装置において設定可能な音色を説明する図である。It is a figure explaining the timbre which can be set in the electronic keyboard apparatus in 1st Embodiment of this invention. 本発明の第1実施形態における信号生成部における処理を説明するフローチャートである。It is a flowchart explaining the process in the signal generation part in 1st Embodiment of this invention. 本発明の第1実施形態における制御端末で実現される機能を示すブロック図である。It is a block diagram which shows the function implement | achieved by the control terminal in 1st Embodiment of this invention. 本発明の第1実施形態において、第1の例の楽曲の音域に基づく調整方法を説明する図である。In 1st Embodiment of this invention, it is a figure explaining the adjustment method based on the sound range of the music of a 1st example. 本発明の第1実施形態において、第2の例の楽曲の音域に基づく調整方法を説明する図である。In 1st Embodiment of this invention, it is a figure explaining the adjustment method based on the sound range of the music of a 2nd example. 本発明の第1実施形態において、第3の例の楽曲の音域に基づく調整方法を説明する図である。In 1st Embodiment of this invention, it is a figure explaining the adjustment method based on the sound range of the music of the 3rd example. 本発明の第2実施形態における制御端末で実現される機能を示すブロック図である。It is a block diagram which shows the function implement | achieved by the control terminal in 2nd Embodiment of this invention.

以下、本発明の一実施形態におけるカラオケシステムについて、図面を参照しながら詳細に説明する。以下に示す実施形態は本発明の実施形態の一例であって、本発明はこれらの実施形態に限定されるものではない。   Hereinafter, a karaoke system according to an embodiment of the present invention will be described in detail with reference to the drawings. The following embodiments are examples of the embodiments of the present invention, and the present invention is not limited to these embodiments.

<第1実施形態>
[全体構成]
本発明の一実施形態におけるカラオケシステムについて、図面を参照しながら詳細に説明する。一実施形態に係るカラオケシステムは、合成歌唱音を生成することができる電子鍵盤装置を用いてカラオケをする場合に、対象となる楽曲を指定することによって、この電子鍵盤装置に対する設定を容易に行える機能を有している。
<First Embodiment>
[overall structure]
A karaoke system according to an embodiment of the present invention will be described in detail with reference to the drawings. The karaoke system according to an embodiment can easily set the electronic keyboard device by specifying a target music piece when performing karaoke using the electronic keyboard device capable of generating a synthesized singing sound. It has a function.

図1は、本発明の第1実施形態におけるカラオケシステムの構成を示すブロック図である。カラオケシステム100は、カラオケ装置1、制御端末2、電子鍵盤装置3、カラオケ用サーバ1000、および歌唱合成用サーバ2000を備える。この例では、カラオケ装置1、制御端末2、カラオケ用サーバ1000および歌唱合成用サーバ2000は、インターネットなどのネットワークNWを介して接続されている。なお、制御端末2は、この例では、カラオケ装置1に指示を送るリモコンなどであるが、スマートフォン、ノートパソコンなどの携帯端末であってもよいし、デスクトップパソコン等の端末であってもよい。スマートフォンなどのコンピュータである場合には、制御プログラムをインストールして実行することによって、以下に説明する制御端末2の機能が実現されてもよい。この例では、制御端末2は、カラオケ装置1および電子鍵盤装置3に対して、ネットワークNWを介さずに短距離無線通信によって接続されるが、ネットワークNWを介した通信によって接続されてもよい。短距離無線通信とは、例えば、Bluetooth(登録商標)、赤外線通信、LAN(Local Area Network)などを用いた通信である。   FIG. 1 is a block diagram showing the configuration of the karaoke system in the first embodiment of the present invention. The karaoke system 100 includes a karaoke device 1, a control terminal 2, an electronic keyboard device 3, a karaoke server 1000, and a song synthesis server 2000. In this example, the karaoke device 1, the control terminal 2, the karaoke server 1000, and the singing composition server 2000 are connected via a network NW such as the Internet. In this example, the control terminal 2 is a remote controller that sends an instruction to the karaoke apparatus 1, but may be a mobile terminal such as a smartphone or a notebook computer, or a terminal such as a desktop personal computer. In the case of a computer such as a smartphone, the function of the control terminal 2 described below may be realized by installing and executing a control program. In this example, the control terminal 2 is connected to the karaoke device 1 and the electronic keyboard device 3 by short-range wireless communication without going through the network NW, but may be connected by communication through the network NW. The short-range wireless communication is communication using, for example, Bluetooth (registered trademark), infrared communication, LAN (Local Area Network), or the like.

カラオケ用サーバ1000は、カラオケ装置1においてカラオケを提供するために必要な楽曲データを、曲IDに対応付けて記憶している記憶装置を備える。楽曲データは、カラオケの歌唱曲に関連するデータ、例えば、ガイドメロディデータ、伴奏データ、歌詞データなどが含まれている。ガイドメロディデータは、歌唱曲のメロディを示すデータである。伴奏データは、歌唱曲の伴奏を示すデータである。ガイドメロディデータおよび伴奏データは、MIDI形式で表現されたデータであってもよい。歌詞データは、歌唱すべき歌詞(文字)を規定するデータである。また、楽曲データには、歌詞データに基づいて表示される歌詞テロップを色替えするタイミングを示すタイミングデータが含まれていてもよい。このタイミングデータによれば、歌唱曲の進行位置と、その進行位置において歌唱すべき歌詞の対応付けができる。   The karaoke server 1000 includes a storage device that stores music data necessary for providing karaoke in the karaoke apparatus 1 in association with the music ID. The music data includes data related to the karaoke song, for example, guide melody data, accompaniment data, and lyrics data. The guide melody data is data indicating the melody of the song. Accompaniment data is data indicating the accompaniment of a song. The guide melody data and accompaniment data may be data expressed in the MIDI format. The lyric data is data that defines the lyrics (characters) to be sung. Further, the music data may include timing data indicating the timing of changing the color of the lyrics telop displayed based on the lyrics data. According to this timing data, the progress position of the song can be associated with the lyrics to be sung at the progress position.

歌唱合成用サーバ2000は、歌唱曲に合わせた設定を電子鍵盤装置3に対して行うための設定データを、曲IDに対応付けて記憶している記憶装置を備える。設定データには、曲IDに対応する歌唱曲の歌詞データが含まれている。この例では、設定データには、さらに、楽曲のメロディの音域を示す楽曲音域情報が含まれている。なお、歌唱合成用サーバ2000に記憶されている歌詞データと、カラオケ用サーバ1000に記憶されている歌詞データとは、同じであってもよいし、異なっていてもよい。すなわち、歌唱合成用サーバ2000に記憶されている歌詞データは、歌唱すべき歌詞(文字)を規定するデータである点においては同じであるが、電子鍵盤装置3において利用しやすい形式に調整されている。この形式としては、例えば、1音で2文字分の歌唱をする場合を識別する情報、フレーズの区切りを識別する情報などを含む場合がある。   The singing voice synthesizing server 2000 includes a storage device that stores setting data for setting the electronic keyboard device 3 according to the singing song in association with the song ID. The setting data includes lyric data of the song corresponding to the song ID. In this example, the setting data further includes music range information indicating the range of the melody of the music. Note that the lyrics data stored in the song synthesis server 2000 and the lyrics data stored in the karaoke server 1000 may be the same or different. That is, the lyric data stored in the singing voice synthesizing server 2000 is the same in that it is data defining the lyrics (characters) to be sung, but is adjusted to a format that is easy to use in the electronic keyboard device 3. Yes. This format may include, for example, information for identifying a case where two characters are sung with one sound, information for identifying a phrase break, and the like.

続いて、カラオケ装置1、制御端末2および電子鍵盤装置3について、ハードウエア構成を説明する。   Next, the hardware configuration of the karaoke device 1, the control terminal 2, and the electronic keyboard device 3 will be described.

[カラオケ装置のハードウエア構成]
図2は、本発明の第1実施形態におけるカラオケ装置の構成を示すブロック図である。カラオケ装置1は、制御部101、記憶部103、操作部105、表示部107、通信部109、および信号処理部111を含む。これらの各構成は、バスを介して接続されている。また、信号処理部111には、オーディオ信号の入力を受け付ける入力端子113およびスピーカ115が接続されている。入力端子113に入力されるオーディオ信号は、この例では、電子鍵盤装置3によって供給されたり、マイクロフォンから供給されたりする。
[Karaoke equipment hardware configuration]
FIG. 2 is a block diagram showing a configuration of the karaoke apparatus according to the first embodiment of the present invention. The karaoke apparatus 1 includes a control unit 101, a storage unit 103, an operation unit 105, a display unit 107, a communication unit 109, and a signal processing unit 111. Each of these components is connected via a bus. The signal processing unit 111 is connected to an input terminal 113 for receiving audio signal input and a speaker 115. In this example, the audio signal input to the input terminal 113 is supplied by the electronic keyboard device 3 or supplied from a microphone.

制御部101は、CPUなどの演算処理回路を含む。制御部101は、記憶部103に記憶された制御プログラムをCPUにより実行して、各種機能をカラオケ装置1において実現させる。実現される機能の一部(カラオケ機能)については、別途説明する。記憶部103は、不揮発性メモリ、ハードディスク等の記憶装置である。記憶部103は、上記の制御プログラムを記憶する。制御プログラムは、ネットワーク経由でダウンロードされてもよいが、磁気記録媒体、光記録媒体、光磁気記録媒体、半導体メモリなどのコンピュータ読み取り可能な記録媒体に記憶した状態で提供されてもよい。以下に説明する制御端末2および電子鍵盤装置3で用いられる制御プログラムについても同様に提供されてもよい。また、記憶部103は、カラオケ用サーバ1000からダウンロードした楽曲データを一時的に記憶するバッファでもある。   The control unit 101 includes an arithmetic processing circuit such as a CPU. The control unit 101 causes the CPU to execute a control program stored in the storage unit 103 to realize various functions in the karaoke apparatus 1. A part of the realized function (karaoke function) will be described separately. The storage unit 103 is a storage device such as a nonvolatile memory or a hard disk. The storage unit 103 stores the control program. The control program may be downloaded via a network, but may be provided in a state stored in a computer-readable recording medium such as a magnetic recording medium, an optical recording medium, a magneto-optical recording medium, or a semiconductor memory. Control programs used in the control terminal 2 and the electronic keyboard device 3 described below may be provided in the same manner. The storage unit 103 is also a buffer that temporarily stores music data downloaded from the karaoke server 1000.

操作部105は、操作パネルなどの装置であり、入力された操作に応じた信号を制御部101に出力する。表示部107は、液晶ディスプレイ、有機ELディスプレイ等の表示装置であり、制御部101による制御に基づいた画面が表示される。なお、操作部105と表示部107とは一体としてタッチパネルを構成してもよい。通信部109は、制御部101の制御に基づいて、ネットワークNWを介して外部装置に接続したり、短距離無線通信によって制御端末2と接続したりする。   The operation unit 105 is a device such as an operation panel, and outputs a signal corresponding to the input operation to the control unit 101. The display unit 107 is a display device such as a liquid crystal display or an organic EL display, and displays a screen based on control by the control unit 101. Note that the operation unit 105 and the display unit 107 may be integrated into a touch panel. Based on the control of the control unit 101, the communication unit 109 connects to an external device via the network NW or connects to the control terminal 2 by short-range wireless communication.

信号処理部111は、MIDI形式の信号からオーディオ信号を生成する音源、A/Dコンバータ、D/Aコンバータ等を含む。入力端子113から入力されたオーディオ信号は信号処理部111に出力され、信号処理部111においてA/D変換されて制御部101に出力される。入力されたオーディオ信号は、記憶部103にバッファされて、歌唱の評価等に用いられてもよい。また、伴奏データは、制御部101によって読み出され、信号処理部111においてオーディオ信号に変換され、スピーカ115から歌唱曲の伴奏音として出力される。このとき、入力端子113に入力されたオーディオ信号も、伴奏音に合成されて出力される。   The signal processing unit 111 includes a sound source that generates an audio signal from a MIDI format signal, an A / D converter, a D / A converter, and the like. The audio signal input from the input terminal 113 is output to the signal processing unit 111, subjected to A / D conversion in the signal processing unit 111, and output to the control unit 101. The input audio signal may be buffered in the storage unit 103 and used for singing evaluation or the like. The accompaniment data is read by the control unit 101, converted into an audio signal by the signal processing unit 111, and output from the speaker 115 as an accompaniment sound of the song. At this time, the audio signal input to the input terminal 113 is also synthesized with the accompaniment sound and output.

[制御端末のハードウエア構成]
制御端末2は、カラオケ装置1に対する制御(例えば、歌唱曲の指定、音量、トランスポーズ等)を実行したり、電子鍵盤装置3に対する制御(例えば、歌詞の設定、音色等の設定等)を実行したりする。
[Hardware configuration of control terminal]
The control terminal 2 executes control on the karaoke device 1 (for example, designation of a song, volume, transpose, etc.) and control on the electronic keyboard device 3 (for example, setting of lyrics, setting of tone, etc.) To do.

図3は、本発明の第1実施形態における制御端末の構成を示すブロック図である。制御端末2は、制御部201、記憶部203、操作部205、表示部207、および通信部209を含む。これらの各構成は、バスを介して接続されている。   FIG. 3 is a block diagram showing the configuration of the control terminal in the first embodiment of the present invention. The control terminal 2 includes a control unit 201, a storage unit 203, an operation unit 205, a display unit 207, and a communication unit 209. Each of these components is connected via a bus.

制御部201は、CPUなどの演算処理回路を含む。制御部201は、記憶部203に記憶された制御プログラムをCPUにより実行して、各種機能を制御端末2において実現させる。実現される機能の一部(設定制御機能)については、別途説明する。記憶部203は、不揮発性メモリ、ハードディスク等の記憶装置である。記憶部203は、上記の制御プログラムを記憶する。   The control unit 201 includes an arithmetic processing circuit such as a CPU. The control unit 201 executes a control program stored in the storage unit 203 by the CPU, and realizes various functions in the control terminal 2. A part of the realized function (setting control function) will be described separately. The storage unit 203 is a storage device such as a nonvolatile memory or a hard disk. The storage unit 203 stores the control program.

操作部205は、操作パネルなどの装置であり、入力された操作に応じた信号を制御部201に出力する。表示部207は、液晶ディスプレイ、有機ELディスプレイ等の表示装置であり、制御部201による制御に基づいた画面が表示される。なお、操作部205と表示部207とは一体としてタッチパネルを構成してもよい。通信部209は、制御部201の制御に基づいて、ネットワークNWを介して外部装置に接続したり、短距離無線通信によってカラオケ装置1および電子鍵盤装置3と接続したりする。   The operation unit 205 is a device such as an operation panel, and outputs a signal corresponding to the input operation to the control unit 201. The display unit 207 is a display device such as a liquid crystal display or an organic EL display, and displays a screen based on control by the control unit 201. Note that the operation unit 205 and the display unit 207 may be integrated with each other as a touch panel. Based on the control of the control unit 201, the communication unit 209 connects to an external device via the network NW, or connects to the karaoke device 1 and the electronic keyboard device 3 through short-range wireless communication.

[電子鍵盤装置のハードウエア構成]
電子鍵盤装置3は、鍵盤(演奏操作子)の操作に応じて、設定内容に従って合成歌唱音を生成する装置である。この例では、生成された合成歌唱音は、入力端子113を介してカラオケ装置1のスピーカ115から出力される。
[Hardware configuration of electronic keyboard device]
The electronic keyboard device 3 is a device that generates a synthesized singing sound according to the set contents in accordance with the operation of the keyboard (performance operator). In this example, the generated synthesized singing sound is output from the speaker 115 of the karaoke apparatus 1 via the input terminal 113.

図4は、本発明の第1実施形態における電子鍵盤装置の構成を示すブロック図である。電子鍵盤装置3は、制御部301、記憶部303、操作部305、表示部307、通信部309、インターフェイス317、および鍵盤321を含む。これらの各構成は、バスを介して接続されている。   FIG. 4 is a block diagram showing a configuration of the electronic keyboard device according to the first embodiment of the present invention. The electronic keyboard device 3 includes a control unit 301, a storage unit 303, an operation unit 305, a display unit 307, a communication unit 309, an interface 317, and a keyboard 321. Each of these components is connected via a bus.

制御部301は、CPUなどの演算処理回路を含む。制御部301は、記憶部303に記憶された制御プログラムをCPUにより実行して、各種機能を電子鍵盤装置3において実現させる。実現される機能の一部については、別途説明する。記憶部303は、不揮発性メモリ等の記憶装置である。記憶部303は、上記の制御プログラムを記憶する。また、記憶部303は、合成歌唱音を示すオーディオ信号を生成する際に用いる設定情報(歌詞データ、音色等)、合成歌唱音を生成するための音声素片等を記憶する。なお、この音色は、合成歌唱音の種類(男声、女声等)を示す。以下の説明では合成歌唱音の種類は、男声および女声としているが、その他にも、例えば子供、大人、日本語、英語等、またはこれらの組み合わせ等、様々な声の種類があってもよい。   The control unit 301 includes an arithmetic processing circuit such as a CPU. The control unit 301 causes the CPU to execute a control program stored in the storage unit 303 to realize various functions in the electronic keyboard device 3. Some of the realized functions will be described separately. The storage unit 303 is a storage device such as a nonvolatile memory. The storage unit 303 stores the control program. In addition, the storage unit 303 stores setting information (lyric data, timbre, etc.) used when generating an audio signal indicating a synthesized singing sound, a speech element for generating a synthesized singing sound, and the like. This timbre indicates the type of synthetic singing sound (male voice, female voice, etc.). In the following description, the types of synthesized singing sounds are male voice and female voice, but there may be various voice types such as children, adults, Japanese, English, etc., or a combination thereof.

操作部305は、スイッチ、ボリュームつまみなどの装置であり、入力された操作に応じた信号を制御部301に出力する。表示部307は、液晶ディスプレイ、有機ELディスプレイ等の表示装置であり、制御部301による制御に基づいた画面が表示される。なお、操作部305と表示部307とは一体としてタッチパネルを構成してもよい。通信部309は、制御部301の制御に基づいて、短距離無線通信によって制御端末2と接続する。   The operation unit 305 is a device such as a switch or a volume knob, and outputs a signal corresponding to the input operation to the control unit 301. The display unit 307 is a display device such as a liquid crystal display or an organic EL display, and displays a screen based on control by the control unit 301. Note that the operation unit 305 and the display unit 307 may be integrated with each other as a touch panel. The communication unit 309 connects to the control terminal 2 by short-range wireless communication based on the control of the control unit 301.

インターフェイス317は、生成されたオーディオ信号を出力する端子を含む。鍵盤321は、複数の鍵が配列されている。各鍵を操作すると、その操作に応じた演奏信号が制御部301に出力される。演奏信号は、操作された鍵の位置を示す情報(キーナンバ)、押鍵したことを示す情報(キーオン)、離鍵したことを示す情報(キーオフ)、および押鍵速度(ベロシティ)等を含む。具体的には、押鍵されると、キーオン、ベロシティおよびキーナンバが対応付けられて出力され、離鍵するとキーオフが出力される。制御部301は、この演奏信号を用いて、合成歌唱音を生成する。   The interface 317 includes a terminal that outputs the generated audio signal. A plurality of keys are arranged on the keyboard 321. When each key is operated, a performance signal corresponding to the operation is output to the control unit 301. The performance signal includes information indicating the position of the operated key (key number), information indicating that the key is pressed (key on), information indicating that the key is released (key off), key pressing speed (velocity), and the like. Specifically, when a key is pressed, key-on, velocity, and key number are output in association with each other, and when the key is released, key-off is output. The control part 301 produces | generates a synthetic song sound using this performance signal.

続いて、カラオケ装置1、制御端末2および電子鍵盤装置3のそれぞれにおいて、制御プログラムを実行することによって実現される機能について説明する。なお、以下に説明する各機能を実現する構成の一部または全部は、ハードウエアによって実現されてもよい。これらの機能によって、ユーザは、対象となる楽曲を指定することによって、電子鍵盤装置3がその楽曲に応じて設定される。   Next, functions realized by executing a control program in each of the karaoke device 1, the control terminal 2, and the electronic keyboard device 3 will be described. A part or all of the configuration for realizing each function described below may be realized by hardware. With these functions, the user designates the target music piece, and the electronic keyboard device 3 is set according to the music piece.

[カラオケ装置の機能]
図5は、本発明の第1実施形態におけるカラオケ装置で実現される機能を示すブロック図である。カラオケ機能10は、選曲部11、再生部13、歌詞表示部15、採点部17、およびトランスポーズ制御部19を含む。選曲部11は、制御端末2によって指定された歌唱曲の曲IDを取得して、カラオケ用サーバ1000から曲IDに対応した楽曲データを取得する。選曲部11によって取得された楽曲データのうち、伴奏データは再生部13に提供され、歌詞データは歌詞表示部15に提供される。再生部13は、伴奏データに基づいて、伴奏音を再生してスピーカ115から発音させる。歌詞表示部15は、歌詞データに基づいて表示部107に歌詞を表示する。この際、歌詞とともに、楽曲の進行に合わせて歌唱すべき位置を示す情報(ワイプ等)についても表示される。なお、表示部107には、さらに、電子鍵盤装置3において設定されている音色に対応した画像が表示されてもよい。例えば、音色に対応する声をイメージしたキャラクタが表示されてもよい。
[Functions of karaoke equipment]
FIG. 5 is a block diagram illustrating functions realized by the karaoke apparatus according to the first embodiment of the present invention. The karaoke function 10 includes a music selection unit 11, a reproduction unit 13, a lyrics display unit 15, a scoring unit 17, and a transpose control unit 19. The music selection unit 11 acquires the song ID of the singing song designated by the control terminal 2 and acquires the song data corresponding to the song ID from the karaoke server 1000. Of the music data acquired by the music selection unit 11, accompaniment data is provided to the reproduction unit 13, and lyrics data is provided to the lyrics display unit 15. The reproduction unit 13 reproduces the accompaniment sound based on the accompaniment data and causes the speaker 115 to generate a sound. The lyrics display unit 15 displays lyrics on the display unit 107 based on the lyrics data. At this time, the information (wipe etc.) indicating the position to be sung in accordance with the progress of the music is displayed together with the lyrics. The display unit 107 may further display an image corresponding to the tone set in the electronic keyboard device 3. For example, a character simulating a voice corresponding to a timbre may be displayed.

採点部17は、入力されたオーディオ信号の評価を実施して,評価に応じた評価点を算出する。算出された評価点は、例えば、表示部107に表示される。この評価は、例えば以下の通り実施される。まず、オーディオ信号から合成歌唱音(電子鍵盤装置3から取得した場合)または歌唱音声(マイクロフォンから取得した場合)の音高の時間変化を算出し、ガイドメロディの音高と比較する。そして、これらの音高の一致の程度に基づいて評価点が算出される。この音高は、例えば、オーディオ信号の波形のゼロクロスを用いた方法、FFT(Fast Fourier Transform)を用いた方法などの公知の方法で算出されればよい。   The scoring unit 17 evaluates the input audio signal and calculates an evaluation score corresponding to the evaluation. The calculated evaluation score is displayed on the display unit 107, for example. This evaluation is performed as follows, for example. First, the time change of the pitch of the synthesized singing sound (when acquired from the electronic keyboard device 3) or the singing voice (when acquired from the microphone) is calculated from the audio signal and compared with the pitch of the guide melody. An evaluation score is calculated based on the degree of coincidence of these pitches. The pitch may be calculated by a known method such as a method using a zero cross of the waveform of an audio signal or a method using FFT (Fast Fourier Transform).

トランスポーズ制御部19は、再生部13において再生される伴奏音の音高を、半音単位で全体的に上げたり下げたりして平行移動させるように変化(トランスポーズ)させる。トランスポーズ量は、操作部105を介してユーザによって設定されたり、制御端末2によって設定されたりする。制御端末2によって設定される場合には、後述するトランスポーズ指示部28(図9参照)からの指示を受ける。トランスポーズ制御部19は、例えばトランスポーズ量が「+3」で設定されれば、伴奏データが示す伴奏音の音高を、全体的に半音3つだけ高くなるように変更して、再生部13に伴奏音を再生させる。以上が、カラオケ装置1の機能についての説明である。   The transpose control unit 19 changes (transposes) the pitch of the accompaniment sound reproduced by the reproduction unit 13 so as to be translated in parallel by raising or lowering in semitone units. The transpose amount is set by the user via the operation unit 105 or set by the control terminal 2. When set by the control terminal 2, an instruction is received from a transpose instruction unit 28 (see FIG. 9) described later. For example, if the transpose amount is set to “+3”, the transpose control unit 19 changes the pitch of the accompaniment sound indicated by the accompaniment data so as to be increased by three semitones as a whole, and the reproduction unit 13 To play the accompaniment sound. The above is the description of the function of the karaoke apparatus 1.

[電子鍵盤装置の機能]
図6は、本発明の第1実施形態における電子鍵盤装置の第1の例で実現される機能を示すブロック図である。合成歌唱音生成機能30は、音色設定部31、歌詞設定部33、信号生成部35、および推奨音域出力部37を含む。すなわち、電子鍵盤装置3は、合成歌唱音生成機能30を備えた合成歌唱音生成装置を含んでいることになる。
[Functions of electronic keyboard device]
FIG. 6 is a block diagram showing functions implemented by the first example of the electronic keyboard device according to the first embodiment of the present invention. The synthesized singing sound generation function 30 includes a timbre setting unit 31, a lyrics setting unit 33, a signal generation unit 35, and a recommended sound range output unit 37. In other words, the electronic keyboard device 3 includes a synthetic singing sound generation device provided with a synthetic singing sound generation function 30.

音色設定部31は、信号生成部35に対して、合成歌唱音として出力させる音色(声の種類)を設定する。この例では、図7に示すように、4種類の音色が設定可能である。4つの音色のいずれは、操作部305を介してユーザによって設定されたり、制御端末2によって設定されたりする。制御端末2によって設定される場合には、後述する音色設定指示部27(図9参照)からの指示を受ける。   The timbre setting unit 31 sets the timbre (voice type) to be output as a synthesized singing sound to the signal generation unit 35. In this example, as shown in FIG. 7, four kinds of timbres can be set. Any of the four timbres is set by the user via the operation unit 305 or set by the control terminal 2. When set by the control terminal 2, an instruction is received from a tone color setting instruction unit 27 (see FIG. 9) described later.

図7は、本発明の第1実施形態における電子鍵盤装置において設定可能な音色を説明する図である。この例では、設定可能な音色は、「女声A」、「女声B」、「男声A」、「男声B」の4種類である。それぞれの音色に対しては、少なくとも、合成歌唱音として出力するにあたって推奨される音域(推奨音域情報)が設定されている。推奨される音域とは、合成歌唱音として出力する際に、自然な歌唱音として再現できる音域を示しているのであって、推奨される音域の範囲外において合成歌唱音が生成できないことを示しているのではない。なお、図7に示すように、各音色には、推奨音域だけでなく、推奨ジャンル、推奨テンポなどが設定されていてもよい。   FIG. 7 is a diagram illustrating timbres that can be set in the electronic keyboard device according to the first embodiment of the present invention. In this example, there are four types of timbres that can be set: “female voice A”, “female voice B”, “male voice A”, and “male voice B”. For each tone color, at least a recommended sound range (recommended sound range information) is set for outputting as a synthesized singing sound. The recommended range indicates a range that can be reproduced as a natural song sound when output as a synthesized song sound, and indicates that a synthesized song sound cannot be generated outside the recommended range. I'm not. As shown in FIG. 7, not only a recommended sound range but also a recommended genre, a recommended tempo, and the like may be set for each tone color.

図6に戻って説明を続ける。歌詞設定部33は、制御端末2から送信される歌詞データを取得して、歌詞設定データに含まれる歌詞データを信号生成部35に対して設定する。信号生成部35は、音色設定部31によって設定された音色、および歌詞設定部33によって設定された歌詞データを用いて、鍵盤321の操作に応じた合成歌唱音を示すオーディオ信号を生成する。推奨音域出力部37は、制御端末2からの要求に応じて、信号生成部35に設定可能な各音色を識別する情報に対応付けて、それぞれの推奨音域情報を出力する。続いて、信号生成部35における合成歌唱音の生成処理について、概要を簡単に説明する。なお、電子鍵盤装置を用いて合成歌唱音を生成する技術については、例えば、上記の特許文献1(特開2008−170592号公報)、特許文献2(特開2014−62969号公報)に開示されている。   Returning to FIG. 6, the description will be continued. The lyrics setting unit 33 acquires the lyrics data transmitted from the control terminal 2 and sets the lyrics data included in the lyrics setting data for the signal generation unit 35. The signal generation unit 35 uses the timbre set by the timbre setting unit 31 and the lyric data set by the lyric setting unit 33 to generate an audio signal indicating a synthesized singing sound according to the operation of the keyboard 321. In response to a request from the control terminal 2, the recommended sound range output unit 37 outputs each recommended sound range information in association with information identifying each tone color that can be set in the signal generation unit 35. Next, the outline of the synthetic singing sound generation processing in the signal generation unit 35 will be briefly described. In addition, about the technique which produces | generates a synthetic song sound using an electronic keyboard apparatus, it is disclosed by said patent document 1 (Unexamined-Japanese-Patent No. 2008-170592) and patent document 2 (Unexamined-Japanese-Patent No. 2014-62969), for example. ing.

[合成歌唱音の生成処理]
図8は、本発明の第1実施形態における信号生成部における処理を説明するフローチャートである。信号生成部35に音色および歌詞データが設定されると、図8に示す処理が開始される。まず、信号生成部35は、設定された歌詞データが示す歌詞の最初の文字を指定する(ステップS301)。指定されている文字とその前後の文字とがそれぞれ区別されて表示部307に表示されていてもよい。鍵盤321から出力される演奏信号により演奏操作(押鍵)の有無を判定し、押鍵が行われるまで待つ(ステップS303;No)。
[Synthetic song generation process]
FIG. 8 is a flowchart for explaining processing in the signal generation unit in the first embodiment of the present invention. When timbre and lyrics data are set in the signal generator 35, the processing shown in FIG. 8 is started. First, the signal generator 35 designates the first character of the lyrics indicated by the set lyrics data (step S301). The designated character and the characters before and after the character may be distinguished from each other and displayed on the display unit 307. The presence / absence of a performance operation (key depression) is determined based on a performance signal output from the keyboard 321 and waits until a key depression is performed (step S303; No).

演奏操作が行われた場合(ステップS303;Yes)、指定されている文字を読み出し(ステップS305)、演奏操作(押鍵)が行われた鍵(キーナンバ)に指定される音高、および音色設定部31によって設定された音色で、読み出した文字を発声させるための合成歌唱音を示すオーディオ信号を生成する(ステップS307)。例えば、設定された音色が「女声A」であり、読み出した文字が「か(ka)」であり、演奏操作された鍵が「C4」である場合には、C4の音高で「か(ka)」を発声する女声Aの合成歌唱音が生成される。   When a performance operation has been performed (step S303; Yes), the designated character is read (step S305), and the pitch and tone setting specified for the key (key number) on which the performance operation (key depression) has been performed. An audio signal indicating a synthesized singing sound for uttering the read character with the timbre set by the unit 31 is generated (step S307). For example, if the set tone is “female voice A”, the read character is “ka (ka)”, and the performance-operated key is “C4”, the pitch of C4 indicates “ka ( A synthesized singing sound of female voice A uttering “ka)” is generated.

指定されている文字(読み出した文字)が歌詞の最後の文字ではない場合(ステップS309;No)、次の文字を指定して(ステップS311)、次の演奏操作を待つ(ステップS303;No)。順次、次の文字が指定されていき、最後の文字になった場合(ステップS309;Yes)には、再びステップS301に戻る。このようにすることによって、演奏操作に応じた音高に調整された歌詞が順次発声される合成歌唱音が生成される。そして、合成歌唱音を示すオーディオ信号がカラオケ装置1に対して出力される。なお、操作部305等に対する所定の操作を受け付けると、強制的に次の文字が指定されるようにしてもよい。また、歌詞をフレーズ単位で区分する情報を取得している場合には、所定の操作を受け付けると、いずれかのフレーズ(直前または直後など)の最初の文字が強制的に指定されるようにしてもよい。以上が、電子鍵盤装置3の機能についての説明である。   When the designated character (read character) is not the last character of the lyrics (step S309; No), the next character is designated (step S311) and the next performance operation is awaited (step S303; No). . If the next character is sequentially designated and becomes the last character (step S309; Yes), the process returns to step S301 again. By doing in this way, the synthetic singing sound by which the lyrics adjusted to the pitch according to performance operation are uttered sequentially is produced | generated. Then, an audio signal indicating the synthesized singing sound is output to the karaoke apparatus 1. When a predetermined operation on the operation unit 305 or the like is received, the next character may be forcibly designated. Also, if you have acquired information that categorizes the lyrics in phrase units, you can force the first character of one of the phrases (immediately before or after) to be specified when a given operation is accepted. Also good. This completes the description of the functions of the electronic keyboard device 3.

[制御端末の機能]
図9は、本発明の第1実施形態における制御端末で実現される機能を示すブロック図である。設定制御機能20は、曲指定部21、歌詞データ取得部22、歌詞設定提供部23、楽曲音域取得部24、推奨音域取得部25、設定部26、音色設定指示部27、およびトランスポーズ指示部28を含む。すなわち、制御端末2は、設定制御機能20を備えた制御装置を含むことになる。曲指定部21は、カラオケとして楽しむ歌唱曲の指定をユーザから受け付け、その歌唱曲を特定する曲IDをカラオケ装置1(選曲部11)に対して通知する。
[Function of control terminal]
FIG. 9 is a block diagram showing functions implemented by the control terminal in the first embodiment of the present invention. The setting control function 20 includes a song designation unit 21, a lyrics data acquisition unit 22, a lyrics setting providing unit 23, a musical tone range acquisition unit 24, a recommended range acquisition unit 25, a setting unit 26, a tone color setting instruction unit 27, and a transpose instruction unit. 28. That is, the control terminal 2 includes a control device having the setting control function 20. The song designation unit 21 receives designation of a song to be enjoyed as karaoke from the user and notifies the karaoke device 1 (the song selection unit 11) of a song ID that identifies the song.

歌詞データ取得部22は、上記の曲IDの歌唱曲に対応する歌詞データを取得する。この例では、歌詞データは、設定データを歌唱合成用サーバ2000から受信することによって取得される。歌詞設定提供部23は、歌詞データ取得部22において取得した歌詞データを、合成歌唱音の生成のために設定する歌詞データとして電子鍵盤装置3に提供する。なお、カラオケ装置1において用いる歌詞データを電子鍵盤装置3において用いることが可能である場合もある。この場合には、歌詞データ取得部22は、カラオケ用サーバ1000から歌詞データを取得するようにしてもよいし、カラオケ装置1から取得するようにしてもよい。   The lyric data acquisition unit 22 acquires lyric data corresponding to the song with the song ID. In this example, the lyric data is acquired by receiving the setting data from the song composition server 2000. The lyric setting providing unit 23 provides the lyric data acquired by the lyric data acquiring unit 22 to the electronic keyboard device 3 as lyric data to be set for generating a synthesized singing sound. Note that lyrics data used in the karaoke device 1 may be used in the electronic keyboard device 3 in some cases. In this case, the lyrics data acquisition unit 22 may acquire the lyrics data from the karaoke server 1000 or may acquire it from the karaoke apparatus 1.

楽曲音域取得部24は、上記の曲IDの歌唱曲に対応する楽曲音域情報を取得する。この例では、楽曲音域情報は、設定データを歌唱合成用サーバ2000から受信することによって取得される。推奨音域取得部25は、通信可能な電子鍵盤装置3から、当該装置に設定可能な音色を識別する情報および推奨音域情報を取得する。図1に示すように電子鍵盤装置3が2台である場合には、推奨音域取得部25は、各電子鍵盤装置3から、当該装置に設定可能な音色を識別する情報および推奨音域情報を、その情報を提供した装置の識別情報とともに取得する。   The music sound range acquisition unit 24 acquires music sound range information corresponding to the song of the above-described music ID. In this example, the music range information is acquired by receiving setting data from the singing synthesis server 2000. The recommended sound range acquisition unit 25 acquires information for identifying a timbre that can be set for the device and recommended sound range information from the communicable electronic keyboard device 3. As shown in FIG. 1, when there are two electronic keyboard devices 3, the recommended sound range acquisition unit 25 obtains information for identifying a tone color that can be set in the device and recommended sound range information from each electronic keyboard device 3. Acquired together with the identification information of the device that provided the information.

設定部26は、楽曲音域情報と推奨音域情報とに基づいて、楽曲の音域と各電子鍵盤装置3(信号生成部35)に設定する音色とを調整する。電子鍵盤装置3において設定される音色の決定をすること、音色の決定とトランスポーズ量(楽曲の音域の変更量)を決定すること、および音色の選択の余地がない場合(例えば、電子鍵盤装置3において1種類の音色のみに固定されている場合)にトランスポーズ量を決定することのいずれかを実施することによって、この調整が行われる。これによって、楽曲音域全体が推奨音域に含まれるように調整する。なお、楽曲音域が広く、推奨音域に含めることができない場合には、予め決められた第1ルールに従って調整されればよい。第1ルールとは、例えば、楽曲音域のできるだけ多くの音高が推奨音域に含まれるように調整されることであってもよいし、推奨音域にメロディの音数ができるだけ多く含まれるように調整されることであってもよい。   The setting unit 26 adjusts the musical tone range and the timbre set for each electronic keyboard device 3 (signal generation unit 35) based on the musical tone range information and the recommended musical range information. When there is no room for determination of a timbre set in the electronic keyboard device 3, determination of a timbre and a transpose amount (amount of change in the musical tone range), and selection of a timbre (for example, an electronic keyboard device) This adjustment is performed by performing one of the determination of the amount of transposition (if the tone is fixed to only one kind of tone color in FIG. 3). As a result, adjustment is made so that the entire musical sound range is included in the recommended sound range. If the musical tone range is wide and cannot be included in the recommended range, it may be adjusted according to a predetermined first rule. The first rule may be, for example, an adjustment so that as many pitches as possible in the music range are included in the recommended range, and an adjustment is made so that the recommended range includes as many melody sounds as possible. It may be done.

設定部26において電子鍵盤装置3に設定すべき音色が決定されると、音色設定指示部27は、電子鍵盤装置3(音色設定部31)に対して、決定された音色を設定するように指示する。一方、設定部26においてトランスポーズ量が決定されると、トランスポーズ指示部28は、カラオケ装置1(トランスポーズ制御部19)に対して、決定されたトランスポーズ量を設定するように指示する。   When the timbre to be set in the electronic keyboard device 3 is determined by the setting unit 26, the timbre setting instruction unit 27 instructs the electronic keyboard device 3 (tone setting unit 31) to set the determined timbre. To do. On the other hand, when the setting unit 26 determines the transpose amount, the transpose instruction unit 28 instructs the karaoke apparatus 1 (transpose control unit 19) to set the determined transpose amount.

[調整方法]
続いて、設定部26における調整方法について、図10〜図12を用いて説明する。ここで、電子鍵盤装置3において設定可能な音色は図7で示した例である。図10〜図12は、選択した楽曲によってメロディの音域が異なっている3つの例における調整方法を説明した図である。
[Adjustment method]
Next, an adjustment method in the setting unit 26 will be described with reference to FIGS. Here, the timbre that can be set in the electronic keyboard device 3 is the example shown in FIG. 10 to 12 are diagrams illustrating adjustment methods in three examples in which the melody range is different depending on the selected music piece.

[第1の例]
図10は、本発明の第1実施形態において、第1の例の楽曲の音域に基づく調整方法を説明する図である。第1の例では、楽曲音域がF2〜C4の「楽曲X」が指定された場合である。楽曲音域を4つの音色の推奨音域と比べると、「女声B」のみが楽曲音域全てを含む。したがって、図10に示す例では、電子鍵盤装置3において設定されるべき音色として、「女声B」が決定される。一方、この例では、トランスポーズの必要は無い。
[First example]
FIG. 10 is a diagram for explaining an adjustment method based on the musical tone range of the first example in the first embodiment of the present invention. In the first example, “music X” having a music sound range of F2 to C4 is designated. When the musical tone range is compared with the recommended tone range of the four timbres, only “female voice B” includes the entire musical tone range. Therefore, in the example shown in FIG. 10, “female voice B” is determined as a timbre to be set in the electronic keyboard device 3. On the other hand, in this example, there is no need for transposition.

[第2の例]
図11は、本発明の第1実施形態において、第2の例の楽曲の音域に基づく調整方法を説明する図である。第2の例では、楽曲音域がE2〜E3の「楽曲Y」が指定された場合である。楽曲音域を4つの音色の推奨音域と比べると、「女声B」および「男声B」が楽曲音域全てを含む。このように複数の音色が候補になる場合には、予め決められた第2ルールに従っていずれかの音色を電子鍵盤装置3において設定されるべき音色として決定する。第2ルールとは、例えば、楽曲音域の中心音と、推奨音域の中心音との差が少ない方が選択されることである。第2ルールによれば、電子鍵盤装置3において設定されるべき音色として、「男声B」が決定される。この例においても、トランスポーズの必要は無い。
[Second example]
FIG. 11 is a diagram for explaining an adjustment method based on the musical tone range of the second example in the first embodiment of the present invention. In the second example, “music Y” having a music sound range of E2 to E3 is designated. When the musical tone range is compared with the recommended tone ranges of the four tones, “female voice B” and “male voice B” include all the musical tone ranges. When a plurality of timbres are candidates as described above, any timbre is determined as a timbre to be set in the electronic keyboard device 3 in accordance with a predetermined second rule. The second rule is, for example, that the one having a smaller difference between the central sound of the musical composition sound range and the central sound of the recommended sound range is selected. According to the second rule, “male voice B” is determined as a timbre to be set in the electronic keyboard device 3. In this example, there is no need for transposition.

なお、第2ルールは、楽曲音域の重心音と、推奨音域の中心音との差が少ない方が選択されることであってもよく、様々なルールが適用可能である。ここで、重心音とは、本明細書では、メロディ音の音高の分布の中央値を示す音のことをいう。したがって、相対的に高音が多ければ、重心音は中心音より高音になる。なお、重心音を用いる場合には、楽曲音域情報は、重心音の音高など、重心音を認識するための情報を含むようにすればよい。   Note that the second rule may be to select the one with a smaller difference between the center of gravity sound of the music sound range and the center sound of the recommended sound range, and various rules can be applied. Here, the barycentric sound means a sound indicating the median value of the pitch distribution of the melody sound in this specification. Therefore, if there are relatively many high sounds, the barycentric sound becomes higher than the central sound. In the case where the barycentric sound is used, the music range information may include information for recognizing the barycentric sound such as the pitch of the barycentric sound.

また、第2ルールは、音色に対して設定された推奨ジャンル、推奨テンポなどの付加情報があれば、この付加情報を参照して、複数の候補の音色からいずれかの音色を選択することであってもよい。このとき、楽曲に対応して設定されたジャンル、テンポなどの情報を、カラオケ用サーバ1000または歌唱合成用サーバ2000から取得しておく。設定部26は、楽曲のジャンル、テンポと音色に対して設定された付加情報とを比較し、比較結果に基づいて、いずれかの音色を選択すればよい。   Further, according to the second rule, if there is additional information such as a recommended genre and a recommended tempo set for a timbre, the timbre is selected from a plurality of candidate timbres with reference to the additional information. There may be. At this time, information such as the genre and tempo set corresponding to the music is acquired from the karaoke server 1000 or the singing composition server 2000. The setting unit 26 may compare the genre and tempo of the music with the additional information set for the timbre, and select any timbre based on the comparison result.

なお、第2ルールで決定する代わりに、ユーザに音色の選択をゆだねてもよい。この場合には、設定部26は、楽曲音域全てを含む推奨音域の「女声B」および「男声B」を、設定の候補となる音色として特定し、これらの音色を表示部207に表示することによってユーザに提示する。そして、ユーザが操作部305を介していずれかの音色を選択すると、設定部26は、選択された音色を信号生成部37において設定する音色として決定する。   In addition, you may leave selection of a timbre to a user instead of determining with a 2nd rule. In this case, the setting unit 26 identifies “female voice B” and “male voice B” in the recommended sound range including the entire music sound range as timbres that are candidates for setting, and displays these timbres on the display unit 207. To the user. When the user selects any timbre via the operation unit 305, the setting unit 26 determines the selected timbre as a timbre to be set in the signal generation unit 37.

[第3の例]
図12は、本発明の第1実施形態において、第3の例の楽曲の音域に基づく調整方法を説明する図である。第3の例では、楽曲音域がE3〜G4の「楽曲Z」が指定された場合である。楽曲音域を4つの音色の推奨音域と比べると、いずれも楽曲音域全てを含む音色はない。この場合には、第3ルールに従っていずれかの音色を選択し、その音色の推奨音域に楽曲音域全てが含まれるように、第4ルールに従って楽曲のトランスポーズ量を決定する。
[Third example]
FIG. 12 is a diagram illustrating an adjustment method based on the musical tone range of the third example in the first embodiment of the present invention. The third example is a case where “music Z” having a music sound range of E3 to G4 is designated. When the musical tone range is compared with the recommended tone range of the four tones, there is no tone that includes all the musical tone ranges. In this case, one of the timbres is selected according to the third rule, and the amount of music transposition is determined according to the fourth rule so that the entire musical tone range is included in the recommended range of the timbre.

第3ルールとは、例えば、楽曲音域以上の推奨音域をもつ音色のうち、最も近い推奨音域の音色を選択することである。第4ルールとは、楽曲音域の中心音と、推奨音域の中心音とが一致または半音以内に近づくようにトランスポーズすることである。第3ルールおよび第4ルールによれば、電子鍵盤装置3において設定されるべき音色として、「女声B」が決定される。また、楽曲のトランスポーズ量として、「−7」が決定される。このようにすると、「楽曲Z」は、トランスポーズ後の音域が、A2〜C4に変換され、「女声B」の推奨音域に含まれるようになる。   The third rule is to select, for example, a tone color having the closest recommended tone range among tone colors having a recommended tone range equal to or higher than the musical tone range. The fourth rule is to perform transposition so that the central tone of the musical composition range and the central tone of the recommended range match or approach within a semitone. According to the third rule and the fourth rule, “female voice B” is determined as a timbre to be set in the electronic keyboard device 3. Also, “−7” is determined as the amount of music transposition. In this way, the musical range of “music Z” is converted to A2 to C4 and included in the recommended musical range of “female voice B”.

なお、第3ルールは、最も広い音域の音色を選択することであってもよいし、ランダムに選択することであってもよいし、楽曲音域をオクターブ単位でトランスポーズした場合に、トランスポーズ後の楽曲音域全体が推奨音域に含まれるような音色を選択することであってもよく、様々なルールが適用可能である。また、第4ルールは、楽曲音域の重心音と、推奨音域の中心音とが一致または半音以内に近づくようにトランスポーズすることであってもよく、様々なルールが適用可能である。   The third rule may be to select the timbre of the widest range, or to select it randomly, or after transposing the musical tone range in octaves. It is possible to select a timbre such that the entire musical tone range is included in the recommended musical range, and various rules can be applied. Further, the fourth rule may be transposition so that the barycentric sound of the music sound range and the central sound of the recommended sound range match or approach within a semitone, and various rules can be applied.

また、図12において、電子鍵盤装置3で使用可能な音色設定が「男声B」のみである場合(またはユーザが意図的に設定を「男声B」に固定して歌唱合成を行う場合)には、楽曲Zのトランスポーズ量として「−14」が決定される。しかしながら、トランスポーズ量を1オクターブ以上も変更して再生すると、伴奏の再生音が不自然になる場合がある。そこで、トランスポーズ量は、例えば、「−6」以上「+6」以下の範囲に変更されるようにしてもよい。すなわち、トランスポーズ量が「−6」より小さい値に決定された場合には、「+12」の整数倍を加算して、「−6」以上「+6」以下の範囲に収まるように変更する。一方、トランスポーズ量が「+6」より大きい値に決定された場合には、「−12」の整数倍を加算して、「−6」以上「+6」以下の範囲に収まるように変更する。楽曲Zを「男声B」の音域にトランスポーズする例では、トランスポーズ量が最終的に「−2」に変更されて決定されることになる。なお、楽曲Zを「女声B」の音域にトランスポーズする例では、トランスポーズ量が最終的に「+5」に変更されて決定されることになる。   In addition, in FIG. 12, when the tone setting that can be used in the electronic keyboard device 3 is only “male voice B” (or when the user intentionally fixes the setting to “male voice B” and synthesizes a song). “−14” is determined as the transpose amount of the music piece Z. However, if the transpose amount is changed by more than one octave and reproduced, the accompaniment reproduced sound may become unnatural. Therefore, the transpose amount may be changed to a range of “−6” to “+6”, for example. That is, when the transpose amount is determined to be a value smaller than “−6”, an integer multiple of “+12” is added, and the transpose amount is changed to fall within the range of “−6” to “+6”. On the other hand, when the transpose amount is determined to be a value larger than “+6”, an integer multiple of “−12” is added, and the transpose amount is changed to fall within the range of “−6” to “+6”. In the example of transposing the musical piece Z to the range of “male voice B”, the transposition amount is finally changed to “−2” and determined. In the example of transposing the musical piece Z to the range of “woman voice B”, the amount of transposition is finally changed to “+5” and determined.

このようにトランスポーズ量を変更してカラオケ装置1において伴奏を再生し、電子鍵盤装置3において「男声B」の推奨音域内で演奏すると、本来のメロディ音域よりも1オクターブ下で合成歌唱音が生成されることになる。これであっても、伴奏とメロディとのキーは一致するため、違和感のない演奏(例えば,女性ボーカル楽曲を男性が歌唱するような通常の歌唱方法)を行うことができる。   In this way, when the transposition amount is changed and the accompaniment is reproduced in the karaoke device 1 and the electronic keyboard device 3 is played within the recommended range of the “male voice B”, the synthesized singing sound is one octave lower than the original melody range. Will be generated. Even in this case, since the keys of the accompaniment and the melody match, it is possible to perform a performance without a sense of incongruity (for example, a normal singing method in which a man sings female vocal music).

ここで、トランスポーズした後のメロディの音高の組み合わせによっては、電子鍵盤装置3において演奏しにくい場合もある。例えば、楽曲のキーがCメジャーであった場合には、ほとんど白鍵のみで演奏できる。一方、トランスポーズ量が「+4」であると、トランスポーズ後の楽曲のキーがEメジャーとなり演奏の際に黒鍵の頻度が多くなってしまい、初心者が演奏する場合には、非常に難しい演奏を強いられることになる。したがって、できるだけ白鍵が多くなり、かつ楽曲音域全体が推奨音域に含まれるようにすることを第4ルールとしてもよい。例えば、EメジャーよりもFメジャーの方が、一般的には白鍵の演奏頻度が高くなるため、トランスポーズ量を「+4」ではなく「+5」とすればよい。なお、このように楽曲のキーを用いる場合には、楽曲音域情報は、楽曲のキーを認識するための情報を含むようにすればよい。   Here, depending on the combination of the pitches of the melody after transposition, it may be difficult to play on the electronic keyboard device 3. For example, if the music key is C major, it can be played with only white keys. On the other hand, if the amount of transposition is “+4”, the key of the music after transposition becomes E major, and the frequency of black keys increases during performance, which is very difficult for beginners to perform. Will be forced. Therefore, the fourth rule may be to increase the number of white keys as much as possible, and to include the entire music range within the recommended range. For example, the F major generally has a higher white key performance frequency than the E major, so the transpose amount may be “+5” instead of “+4”. When the music key is used in this way, the music sound range information may include information for recognizing the music key.

また、楽曲のキーに基づいてトランスポーズ量が決定されるのではなく、メロディの音高を解析し、トランスポーズ後のメロディにおいても、できるだけ白鍵が多くなるようにトランスポーズ量が決定されてもよい。また、演奏者によっては白鍵のみにすることが最適であるとは限らないため、トランスポーズ後のメロディの音高が、予め設定された音高をできるだけ多く含むようにトランスポーズ量が決定されてもよい。予め設定された音高として、全ての白鍵を選択すれば、上記の通り、きるだけ白鍵が多くなるようにトランスポーズ量が決定されることになる。なお、このようにメロディの音高別の音数を用いる場合には、楽曲音域情報は、メロディの音高別の音数を認識するための情報(ガイドメロディデータでもよい)を含むようにすればよい。   Also, instead of determining the amount of transposition based on the key of the song, the pitch of the melody is analyzed and the amount of transposition is determined so that the white key is as much as possible in the melody after transposition. Also good. Also, depending on the player, it is not always optimal to use only white keys, so the amount of transposition is determined so that the pitch of the melody after transposition includes as much of the preset pitch as possible. May be. If all white keys are selected as preset pitches, the amount of transposition is determined so that as many white keys as possible are selected as described above. When the number of melody pitches is used in this way, the musical tone range information should include information for recognizing the number of melody pitches (may be guide melody data). That's fine.

さらに、トランスポーズした後のメロディの音高の組み合わせにより、電子鍵盤装置3において演奏しにくい場合、信号生成部35が生成する合成歌唱音に対してトランスポーズをすることによって、演奏しやすいように調整してもよい。電子鍵盤装置3においてトランスポーズをする場合には、例えば、操作部305を操作することによってトランスポーズ量が設定できればよい。以上が制御端末2の機能についての説明である。   Further, when it is difficult to play the electronic keyboard device 3 due to the combination of the pitches of the melody after transposition, it is easy to perform by transposing the synthesized singing sound generated by the signal generator 35. You may adjust. When transposing the electronic keyboard device 3, for example, the transpose amount may be set by operating the operation unit 305. The above is the description of the function of the control terminal 2.

このように、本発明の第1実施形態におけるカラオケシステム100によれば、制御端末2においてカラオケ装置1に対して歌唱したい楽曲を指定すると、電子鍵盤装置3に対しても、その歌唱曲に対応した合成歌唱音を生成するための歌詞データ等が設定される。また、電子鍵盤装置3において用いられる音色の推奨音域と、楽曲の音域とを調整することができるため、楽曲にあった音色の設定ができる。また、設定に適当な音色がなくても、楽曲をトランスポーズすることによって、設定可能な音色の推奨音域に楽曲の音域をあわせることもできる。このように、ユーザはカラオケに用いる音色の選択に悩まなくてもよいため、電子鍵盤装置3の利便性を高めることができる。   As described above, according to the karaoke system 100 according to the first embodiment of the present invention, when the tune to be sung to the karaoke device 1 is specified on the control terminal 2, the singing tune is also supported to the electronic keyboard device 3. Lyric data and the like for generating the synthesized singing sound is set. In addition, since the recommended tone range of the timbre used in the electronic keyboard device 3 and the tone range of the music can be adjusted, it is possible to set the timbre suitable for the music. Even if there is no appropriate timbre for setting, the musical range of the musical piece can be matched with the recommended musical range of the timbre that can be set by transposing the musical piece. Thus, since the user does not have to worry about the selection of the timbre used for karaoke, the convenience of the electronic keyboard device 3 can be enhanced.

<第2実施形態>
第1実施形態では、楽曲音域取得部24は、歌唱合成用サーバ2000から楽曲音域情報を受信することによって楽曲の音域を取得していたが、第2実施形態では、楽曲のメロディから音域を解析する設定制御機能20Aについて説明する。
Second Embodiment
In the first embodiment, the music range acquisition unit 24 acquires the range of the music by receiving the music range information from the singing synthesis server 2000, but in the second embodiment, the music range is analyzed from the melody of the music. The setting control function 20A will be described.

図13は、本発明の第2実施形態における制御端末で実現される機能を示すブロック図である。図13に示すように設定制御機能20Aは、第1実施形態における設定制御機能20に対して、解析部29が備えられている。解析部29は、曲指定部21において指定された曲IDの歌唱曲に対応するメロディを示すデータを取得する。この例では、ガイドメロディデータをカラオケ用サーバ1000または歌唱合成用サーバ2000から取得する。そして、解析部29は、ガイドメロディデータからメロディの各音の音高を特定し、最高音と最低音との範囲を楽曲音域とした楽曲音域情報を生成する。楽曲音域取得部24は、解析部29が生成した楽曲音域情報を取得する。このようにすれば、歌唱合成用サーバ2000において、楽曲音域情報を予め準備しておかなくてもよい。   FIG. 13 is a block diagram illustrating functions implemented by the control terminal according to the second embodiment of the present invention. As shown in FIG. 13, the setting control function 20A includes an analysis unit 29 compared to the setting control function 20 in the first embodiment. The analysis unit 29 acquires data indicating a melody corresponding to the song of the song ID designated by the song designation unit 21. In this example, guide melody data is acquired from the server for karaoke 1000 or the server for song synthesis 2000. And the analysis part 29 specifies the pitch of each sound of a melody from guide melody data, and produces | generates the music sound range information which made the range of the highest sound and the lowest sound the music sound range. The music sound range acquisition unit 24 acquires the music sound range information generated by the analysis unit 29. If it does in this way, in the song synthesis server 2000, it is not necessary to prepare music range information in advance.

<その他の実施形態>
上記の設定部26における調整方法については、楽曲音域全体が推奨音域に含まれるように調整する方法として様々な例を説明したが、一般的な楽しみ方とは異なる楽しみ方を提供するために、意図的に楽曲音域と推奨音域とが異なるように調整する方法であってもよい。
<Other embodiments>
About the adjustment method in said setting part 26, although various examples were demonstrated as a method of adjusting so that the whole music sound range may be contained in a recommendation sound range, in order to provide the way of enjoying different from a general way of enjoying, A method of intentionally adjusting the music sound range and the recommended sound range to be different may be used.

上記の電子鍵盤装置3は、演奏操作子に対する操作、設定された音色、および歌詞データに基づいて合成歌唱音を生成する装置であったが、歌詞データを用いずに、楽器音を生成する装置であってもよい。この場合には、音色は楽器の種類に対応して設定され、その楽器に対する推奨音域が設定されればよい。   The electronic keyboard device 3 described above is a device that generates a synthesized singing sound based on an operation on a performance operator, a set tone color, and lyrics data, but a device that generates a musical instrument sound without using lyrics data It may be. In this case, the timbre is set according to the type of the instrument, and the recommended sound range for the instrument may be set.

上記の実施形態における説明では、電子鍵盤装置3に対して歌詞データが提供される際には、1曲全体の歌詞データが含まれた状態で提供されていたが、伴奏音の再生に合わせてリアルタイムに提供されてもよい。リアルタイムに提供される場合には、例えば、演奏操作が行われると、制御端末2から1文字ずつ歌詞が提供されてもよいし、数文字ずつ提供されてもよいし、または、フレーズ単位で提供されてもよい。   In the description of the above embodiment, when lyrics data is provided to the electronic keyboard device 3, it is provided in a state where the lyrics data of the entire song is included. It may be provided in real time. When provided in real time, for example, when a performance operation is performed, lyrics may be provided one by one from the control terminal 2, several characters may be provided, or provided in phrases. May be.

上述したカラオケシステム100においては、カラオケ装置1、制御端末2、および電子鍵盤装置3はそれぞれの機能がそれぞれの装置において実現されていたが、各装置の一部の機能または全体の機能が他の装置で実現されてもよい。例えば、制御端末2における設定制御機能20の一部または全部が電子鍵盤装置3において実現されてもよい。制御端末2における設定制御機能20の全部が電子鍵盤装置3において実現される場合には、制御端末2と電子鍵盤装置3とが一体型の装置であることと等しい。また、これとは逆にさらに多くの装置を用いて、各機能が実現されていてもよい。例えば、電子鍵盤装置3のうち、合成歌唱音生成機能30を備えた合成歌唱音生成装置と、鍵盤321の部分を備えた装置(例えば、MIDIキーボードなど)とを別々に構成してもよい。このとき、合成歌唱音生成装置は、制御端末2に含まれていてもよい。   In the karaoke system 100 described above, the karaoke device 1, the control terminal 2, and the electronic keyboard device 3 have their respective functions realized in their respective devices, but some or all of the functions of each device are different. It may be realized by an apparatus. For example, part or all of the setting control function 20 in the control terminal 2 may be realized in the electronic keyboard device 3. When the entire setting control function 20 in the control terminal 2 is realized in the electronic keyboard device 3, it is equivalent to the control terminal 2 and the electronic keyboard device 3 being an integrated device. On the contrary, each function may be realized by using more devices. For example, in the electronic keyboard device 3, a synthetic singing sound generation device provided with the synthetic singing sound generation function 30 and a device (for example, a MIDI keyboard) provided with a keyboard 321 portion may be configured separately. At this time, the synthetic singing sound generation device may be included in the control terminal 2.

合成歌唱音は、ユーザが鍵盤321の鍵を押下することによって生成されていた。すなわち、鍵は、合成歌唱音を生成するための演奏操作子の一例であった。一方、演奏操作子は鍵以外であってもよく、例えば、ギターシンセサイザ(ギター型のコントローラ)の弦であってもよいし、ウインドシンセサイザ(管楽器型のコントローラ)のキーであってもよい。   The synthesized singing sound was generated when the user pressed the key on the keyboard 321. That is, the key is an example of a performance operator for generating a synthesized singing sound. On the other hand, the performance operator may be other than a key, for example, a string of a guitar synthesizer (guitar type controller) or a key of a wind synthesizer (wind instrument type controller).

1…カラオケ装置、2…制御端末、3…電子鍵盤装置、10…カラオケ機能、11…選曲部、13…再生部、15…歌詞表示部、17…採点部、19…トランスポーズ制御部、20,20A…設定制御機能、21…曲指定部、22…歌詞データ取得部、23…歌詞設定提供部、24…楽曲音域取得部、25…推奨音域取得部、26…設定部、27…音色設定指示部、28…トランスポーズ指示部、29…解析部、30…合成歌唱音生成機能、31…音色設定部、33…歌詞設定部、35…信号生成部、37…推奨音域出力部、100…カラオケシステム、101,201,301…制御部、103,203,303…記憶部、105,205,305…操作部、107,207,307…表示部、109,209,309…通信部、111…信号処理部、113…入力端子、115…スピーカ、317…インターフェイス、321…鍵盤、1000…カラオケ用サーバ、2000…歌唱合成用サーバ DESCRIPTION OF SYMBOLS 1 ... Karaoke apparatus, 2 ... Control terminal, 3 ... Electronic keyboard apparatus, 10 ... Karaoke function, 11 ... Music selection part, 13 ... Playback part, 15 ... Lyric display part, 17 ... Grading part, 19 ... Transpose control part, 20 , 20A ... Setting control function, 21 ... Song designation unit, 22 ... Lyric data acquisition unit, 23 ... Lyrics setting providing unit, 24 ... Musical tone range acquisition unit, 25 ... Recommended range acquisition unit, 26 ... Setting unit, 27 ... Tone setting Instructing unit 28 ... Transpose instruction unit 29 ... Analyzing unit 30 ... Synthetic singing sound generating function 31 ... Tone color setting unit 33 ... Lyric setting unit 35 ... Signal generating unit 37 ... Recommended tone range output unit 100 ... Karaoke system 101, 201, 301 ... control unit, 103, 203, 303 ... storage unit, 105, 205, 305 ... operation unit, 107, 207, 307 ... display unit, 109, 209, 309 ... communication unit, 111 ... No. processor, 113 ... input terminal, 115 ... speaker, 317 ... interface, 321 ... keyboard, 1000 ... karaoke server, 2000 ... server for singing synthesizing

Claims (8)

楽曲を再生する再生部によって再生される楽曲の音域に対応した楽曲音域情報を取得する楽曲音域取得部と、
演奏操作子に対する操作および設定された音色に基づいてオーディオ信号を生成する信号生成部に対し設定可能な前記音色に関し、推奨される音域として予め決められた推奨音域情報を取得する推奨音域取得部と、
前記楽曲音域取得部によって取得された前記楽曲音域情報および前記推奨音域取得部によって取得された前記推奨音域情報に基づいて、前記再生部において再生される前記楽曲の音域と、前記信号生成部に対して設定される前記音色との関係を設定する設定部と、
を備えることを特徴とする制御装置。
A music range acquisition unit for acquiring music range information corresponding to the range of the music played by the playback unit for playing back the music;
A recommended tone range acquisition unit for acquiring recommended tone range information predetermined as a recommended tone range with respect to the tone color that can be set for a signal generation unit that generates an audio signal based on an operation on a performance operator and a set tone color; ,
Based on the music range information acquired by the music range acquisition unit and the recommended range information acquired by the recommended range acquisition unit, the range of the music to be played back in the playback unit, and the signal generation unit A setting unit for setting a relationship with the timbre set by
A control device comprising:
前記信号生成部は、さらに前記楽曲の歌詞を示す歌詞データに基づいて前記オーディオ信号を生成することを特徴とする請求項1に記載の制御装置。   The control apparatus according to claim 1, wherein the signal generation unit further generates the audio signal based on lyrics data indicating lyrics of the music. 前記設定部は、前記推奨音域情報と前記楽曲音域情報とに基づいて、前記信号生成部に設定する音色を決定することによって前記関係を設定することを特徴とする請求項1に記載の制御装置。   The control device according to claim 1, wherein the setting unit sets the relationship by determining a timbre to be set in the signal generation unit based on the recommended sound range information and the music sound range information. . 前記設定部は、前記推奨音域情報および前記楽曲音域情報に基づいて、前記信号生成部に設定する候補となる複数の音色を特定し、当該複数の音色をユーザに提示し、当該複数の音色のうちユーザから指定された音色を、前記信号生成部に設定する音色として決定することを特徴とする請求項3に記載の制御装置。   The setting unit specifies a plurality of timbres that are candidates to be set in the signal generation unit based on the recommended tone range information and the music tone range information, presents the plurality of tone colors to the user, and sets the plurality of tone colors. 4. The control apparatus according to claim 3, wherein a tone color designated by a user is determined as a tone color set in the signal generation unit. 前記設定部は、前記楽曲音域情報と前記推奨音域情報とに基づいて、前記再生部によって再生される楽曲のトランスポーズ量を決定することによって前記関係を設定することを特徴とする請求項1に記載の制御装置。   The said setting part sets the said relationship by determining the transpose amount of the music reproduced | regenerated by the said reproduction | regeneration part based on the said music sound range information and the said recommended sound range information. The control device described. 前記設定部は、さらに予め決められた複数の音高の組み合わせと、トランスポーズ後の当該楽曲のメロディの音高とに基づいて、前記楽曲のトランスポーズ量を決定することを特徴とする請求項5に記載の制御装置。   The setting unit further determines a transposition amount of the music based on a combination of a plurality of predetermined pitches and a pitch of a melody of the music after the transposition. 5. The control device according to 5. 前記楽曲の音高に関するデータを解析して、前記楽曲音域情報を生成する音域解析部をさらに備え、
前記楽曲音域取得部は、生成された前記楽曲音域情報を取得することを特徴とする請求項1に記載の制御装置。
Analyzing data relating to the pitch of the music, further comprising a sound range analysis unit for generating the music sound range information,
The control apparatus according to claim 1, wherein the music sound range acquisition unit acquires the generated music sound range information.
楽曲を再生する再生部によって再生される楽曲の音域に対応した楽曲音域情報、および演奏操作子に対する操作および予め設定された音色に基づいてオーディオ信号を生成する信号生成部に対し設定可能な前記音色に関し、推奨される音域として予め決められた推奨音域情報を取得し、
取得された前記楽曲音域情報および前記推奨音域情報に基づいて、前記再生部において再生される前記楽曲の音域と、前記信号生成部に対して設定される前記音色との関係を設定することを、コンピュータに実行させるためのプログラム。
The musical tone range information corresponding to the musical tone range of the musical piece to be reproduced by the reproducing unit that reproduces the musical piece, and the timbre that can be set for the signal generating unit that generates the audio signal based on the operation on the performance operator and the preset timbre , Get recommended range information predetermined as recommended range,
Based on the acquired music range information and the recommended range information acquired, setting the relationship between the range of the music to be reproduced in the reproduction unit and the timbre set for the signal generation unit, A program that causes a computer to execute.
JP2015089605A 2015-04-24 2015-04-24 Control device and program Expired - Fee Related JP6582517B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015089605A JP6582517B2 (en) 2015-04-24 2015-04-24 Control device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015089605A JP6582517B2 (en) 2015-04-24 2015-04-24 Control device and program

Publications (2)

Publication Number Publication Date
JP2016206493A true JP2016206493A (en) 2016-12-08
JP6582517B2 JP6582517B2 (en) 2019-10-02

Family

ID=57489851

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015089605A Expired - Fee Related JP6582517B2 (en) 2015-04-24 2015-04-24 Control device and program

Country Status (1)

Country Link
JP (1) JP6582517B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020013170A (en) * 2019-10-30 2020-01-23 カシオ計算機株式会社 Electronic music instrument, control method of electronic music instrument and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002304176A (en) * 2001-04-03 2002-10-18 Yamaha Corp Electronic music device, control method therefor and program
JP2004045695A (en) * 2002-07-11 2004-02-12 Yamaha Corp Apparatus and program for musical performance data processing
JP2004226782A (en) * 2003-01-24 2004-08-12 Yamaha Corp Apparatus and program for processing musical performance data
JP2004287096A (en) * 2003-03-20 2004-10-14 Sony Corp Method and apparatus for singing synthesis, program, recording medium, and robot device
JP2004287099A (en) * 2003-03-20 2004-10-14 Sony Corp Method and apparatus for singing synthesis, program, recording medium, and robot device
JP2014062969A (en) * 2012-09-20 2014-04-10 Yamaha Corp Singing synthesizer and singing synthesis program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002304176A (en) * 2001-04-03 2002-10-18 Yamaha Corp Electronic music device, control method therefor and program
JP2004045695A (en) * 2002-07-11 2004-02-12 Yamaha Corp Apparatus and program for musical performance data processing
JP2004226782A (en) * 2003-01-24 2004-08-12 Yamaha Corp Apparatus and program for processing musical performance data
JP2004287096A (en) * 2003-03-20 2004-10-14 Sony Corp Method and apparatus for singing synthesis, program, recording medium, and robot device
JP2004287099A (en) * 2003-03-20 2004-10-14 Sony Corp Method and apparatus for singing synthesis, program, recording medium, and robot device
JP2014062969A (en) * 2012-09-20 2014-04-10 Yamaha Corp Singing synthesizer and singing synthesis program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020013170A (en) * 2019-10-30 2020-01-23 カシオ計算機株式会社 Electronic music instrument, control method of electronic music instrument and program

Also Published As

Publication number Publication date
JP6582517B2 (en) 2019-10-02

Similar Documents

Publication Publication Date Title
JP2011069900A (en) Thrumming stringed instrument performance evaluation device
JP6492933B2 (en) CONTROL DEVICE, SYNTHETIC SINGING SOUND GENERATION DEVICE, AND PROGRAM
JP6977741B2 (en) Information processing equipment, information processing methods, performance data display systems, and programs
JP3915807B2 (en) Automatic performance determination device and program
JPWO2018174073A1 (en) Transposition device, transposition method and program
JP6589356B2 (en) Display control device, electronic musical instrument, and program
JP6617784B2 (en) Electronic device, information processing method, and program
JP6582517B2 (en) Control device and program
JP6315677B2 (en) Performance device and program
JP5969421B2 (en) Musical instrument sound output device and musical instrument sound output program
JP5708730B2 (en) Musical performance device and musical performance processing program
JP3873914B2 (en) Performance practice device and program
JP6578725B2 (en) Control terminal device, synthetic song generator
JP7331887B2 (en) Program, method, information processing device, and image display system
JP2004326133A (en) Karaoke device having range-of-voice notifying function
JP2014066937A (en) Piano roll type musical score display device, piano roll type musical score display program, and piano roll type musical score display method
JPH1185174A (en) Karaoke sing-along machine which enables a user to play accompaniment music
JP3812509B2 (en) Performance data processing method and tone signal synthesis method
JP3547394B2 (en) Karaoke device with scat input ensemble system
JP6036800B2 (en) Sound signal generating apparatus and program
JP2004170840A (en) Musical performance controller and program for musical performance control
JP5034471B2 (en) Music signal generator and karaoke device
JP2022010066A (en) Information processing device, information processing method, and program
JPH10171475A (en) Karaoke (accompaniment to recorded music) device
JP2022145465A (en) Information processing device, electronic musical instrument, information processing system, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190819

R151 Written notification of patent or utility model registration

Ref document number: 6582517

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees