JP6966738B1 - Sound data generation system, sound data generation program, and sound data generation method - Google Patents

Sound data generation system, sound data generation program, and sound data generation method Download PDF

Info

Publication number
JP6966738B1
JP6966738B1 JP2020138841A JP2020138841A JP6966738B1 JP 6966738 B1 JP6966738 B1 JP 6966738B1 JP 2020138841 A JP2020138841 A JP 2020138841A JP 2020138841 A JP2020138841 A JP 2020138841A JP 6966738 B1 JP6966738 B1 JP 6966738B1
Authority
JP
Japan
Prior art keywords
data
sound
electronic musical
musical instrument
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020138841A
Other languages
Japanese (ja)
Other versions
JP2022034909A (en
Inventor
淑臣 井上
Original Assignee
淑臣 井上
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 淑臣 井上 filed Critical 淑臣 井上
Priority to JP2020138841A priority Critical patent/JP6966738B1/en
Application granted granted Critical
Publication of JP6966738B1 publication Critical patent/JP6966738B1/en
Publication of JP2022034909A publication Critical patent/JP2022034909A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】MIDIデータに基づく電子楽器の演奏音を取得した場合に、その演奏音に他の楽器の演奏音又は人の音声を合わせ易くして音楽を制作できる音データ生成システムを提供する。【解決手段】音データ生成システム1は、複数のオーナーの電子楽器うちの特定のオーナーBの電子ピアノ60の遠隔操作を選択可能な選択部30bと、電子ピアノ60に接続され、MIDIデータに基づいて電子ピアノ60を自動演奏させ、自動演奏音と同期して自動録音した電子ピアノ音を生成すると共に、電子ピアノ音及び自動演奏音と同期して所定のリズムを有するリズムガイドを組み合わせた組み合わせデータを生成する演奏録音制御部50aと、MIDIデータを、端末20から受信して演奏録音制御部50aに送信可能で、電子ピアノ音及び組み合わせデータを、演奏録音制御部50aから受信して端末20によって受信されることが可能である受送信部30cと、を備える。【選択図】図1PROBLEM TO BE SOLVED: To provide a sound data generation system capable of producing music by easily matching a performance sound of another musical instrument or a human voice with the performance sound of an electronic musical instrument based on MIDI data. SOLUTION: A sound data generation system 1 is connected to a selection unit 30b capable of selecting remote operation of an electronic piano 60 of a specific owner B among electronic musical instruments of a plurality of owners, and the electronic piano 60, and is based on MIDI data. The electronic piano 60 is automatically played to generate an automatically recorded electronic piano sound in synchronization with the automatic playing sound, and a combination data combining the electronic piano sound and a rhythm guide having a predetermined rhythm in synchronization with the automatic playing sound. The performance recording control unit 50a and the MIDI data can be received from the terminal 20 and transmitted to the performance recording control unit 50a, and the electronic piano sound and the combination data are received from the performance recording control unit 50a by the terminal 20. A transmission / reception unit 30c capable of being received is provided. [Selection diagram] Fig. 1

Description

本発明は、音データ生成システム、音データ生成プログラム、及び音データ生成方法に関する。 The present invention relates to a sound data generation system, a sound data generation program, and a sound data generation method.

従来、第1の電子楽器と別の場所にある第2の電子楽器とを公衆通信網を経由して接続し、第1の電子楽器から第2の電子楽器へとMIDIデータを送信する技術が特許文献1に開示されている。また、この特許文献1に記載の技術では、携帯電話端末によって、MIDIデータが送信された第2の電子楽器を遠隔操作して演奏のスタートストップをすることができる。 Conventionally, a technique of connecting a first electronic musical instrument and a second electronic musical instrument at a different location via a public communication network and transmitting MIDI data from the first electronic musical instrument to the second electronic musical instrument has been used. It is disclosed in Patent Document 1. Further, in the technique described in Patent Document 1, a mobile phone terminal can remotely control a second electronic musical instrument to which MIDI data is transmitted to start and stop a performance.

特開2001−100742号公報Japanese Unexamined Patent Publication No. 2001-100742

ここで、例えば、第2の電子楽器として良質な音質を有する高価な電子楽器を使用して、この第2の電子楽器で演奏される演奏音に対して、更に別の第3の電子楽器で演奏される演奏音等を組み合わせる場合に、第2の電子楽器で演奏される演奏開始のタイミングに、第3の電子楽器で演奏される演奏開始のタイミングを合わせることが難しい場合がある。 Here, for example, an expensive electronic musical instrument having good sound quality is used as the second electronic musical instrument, and a third electronic musical instrument is used with respect to the performance sound played by the second electronic musical instrument. When combining the performance sounds to be played, it may be difficult to match the timing of the start of the performance played by the third electronic musical instrument with the timing of the start of the performance played by the second electronic musical instrument.

本発明は、このような従来の課題を解決するためになされたものであり、その発明の目的とするところは、ユーザーが、MIDIデータに基づいて特定の電子楽器の演奏音を取得した場合に、その演奏音に他の楽器の演奏音又は人の音声を合わせ易くして音楽を制作することができる音データ生成システム、音データ生成プログラム、及び音データ生成方法を提供することにある。 The present invention has been made to solve such a conventional problem, and an object of the present invention is when a user acquires a playing sound of a specific electronic musical instrument based on MIDI data. , A sound data generation system, a sound data generation program, and a sound data generation method capable of producing music by easily matching the performance sound of another musical instrument or the human voice with the performance sound.

本発明に係る音データ生成システムは、登録される複数のオーナーの電子楽器の情報を提供して特定のオーナーの電子楽器の遠隔操作を選択可能な選択部と、該電子楽器に接続され、MIDIデータに基づいて前記電子楽器を自動演奏させることにより自動演奏音を発生させ、前記自動演奏音と同期して自動録音した録音データを生成すると共に、前記録音データ、及び前記自動演奏音と同期して所定のリズムを有するリズムガイドを組み合わせた組み合わせデータを生成する制御部と、前記MIDIデータを、ユーザーの端末から受信して前記制御部に送信可能であり、かつ、前記録音データ及び前記組み合わせデータを、前記制御部から受信して前記端末によって受信可能である、又は前記制御部から受信して前記端末に送信可能な受送信部と、を備える、ことを特徴とする。 The sound data generation system according to the present invention is connected to a selection unit that provides information on the electronic musical instruments of a plurality of registered owners and can select remote operation of the electronic musical instrument of a specific owner, and is connected to the electronic musical instrument. An automatic performance sound is generated by automatically playing the electronic musical instrument based on the data, and the automatically recorded recording data is generated in synchronization with the automatic performance sound, and is synchronized with the recorded data and the automatic performance sound. The control unit that generates combination data by combining rhythm guides having a predetermined rhythm, the MIDI data can be received from the user's terminal and transmitted to the control unit, and the recorded data and the combination data can be transmitted. Is provided with a transmission / reception unit that can be received from the control unit and can be received by the terminal, or can be received from the control unit and transmitted to the terminal.

本発明に係る音データ生成プログラムは、ユーザーの端末からオーナーの電子楽器に送信したMIDIデータに基づいて前記電子楽器を自動演奏させることにより自動演奏音を発生させ、前記自動演奏音と同期して自動録音した録音データを生成すると共に、前記録音データ、及び前記自動演奏音と同期して所定のリズムを有するリズムガイドを組み合わせた組み合わせデータを生成する制御過程をコンピュータに実行させる、ことを特徴とする。 The sound data generation program according to the present invention generates an automatic performance sound by automatically playing the electronic musical instrument based on the MIDI data transmitted from the user's terminal to the owner's electronic musical instrument, and synchronizes with the automatic performance sound. It is characterized by having a computer execute a control process of generating automatically recorded recording data and generating combination data by combining the recorded data and a rhythm guide having a predetermined rhythm in synchronization with the automatic performance sound. do.

本発明に係る音データ生成方法は、登録される複数のオーナーの電子楽器のうちの特定のオーナーの電子楽器の遠隔操作を選択する過程と、MIDIデータを、ユーザーの端末から受信して前記電子楽器に送信する過程と、前記MIDIデータに基づいて前記電子楽器を自動演奏させることにより自動演奏音を発生させ、前記自動演奏音と同期して自動録音した録音データを生成すると共に、前記録音データ、及び前記自動演奏音と同期して所定のリズムを有するリズムガイドを組み合わせた組み合わせデータを生成する制御過程と、前記録音データ及び前記組み合わせデータを、前記端末によって受信され、又は前記端末に送信する過程と、を備える、ことを特徴とする。 The sound data generation method according to the present invention includes a process of selecting a remote operation of an electronic musical instrument of a specific owner from among registered electronic musical instruments of a plurality of owners, and receiving MIDI data from a user's terminal to obtain the electronic musical instrument. The process of transmitting to the musical instrument and the automatic playing sound of the electronic musical instrument based on the MIDI data are generated to generate the automatically recorded recording data in synchronization with the automatic playing sound, and the recorded data. , And the control process of generating a combination data in which a rhythm guide having a predetermined rhythm is combined in synchronization with the automatic performance sound, and the recorded data and the combination data are received by the terminal or transmitted to the terminal. It is characterized by having a process.

本発明の音データ生成システム等によれば、MIDIデータに基づいて電子楽器を自動演奏させて自動演奏音を発生させ、この自動演奏音を録音した録音データ、及びこれと組み合わされるリズムガイドを取得することができる。ユーザーは、リズムガイドにタイミングを合わせながら他の楽器を演奏し、又は歌を歌うことができる。その結果、ユーザーが、MIDIデータに基づいて特定の電子楽器の演奏音を取得した場合に、その演奏音に他の楽器の演奏音又は人の音声を合わせ易くして音楽を制作することができる。 According to the sound data generation system of the present invention, an electronic musical instrument is automatically played based on MIDI data to generate an automatic performance sound, and the recorded data obtained by recording the automatic performance sound and the rhythm guide combined with the recorded data are acquired. can do. The user can play another instrument or sing a song in time with the rhythm guide. As a result, when the user acquires the performance sound of a specific electronic musical instrument based on the MIDI data, it is possible to easily match the performance sound of another musical instrument or the human voice with the performance sound to produce music. ..

本発明によれば、ユーザーが、MIDIデータに基づいて特定の電子楽器の演奏音を取得した場合に、その演奏音に他の楽器の演奏音又は人の音声を合わせ易くして音楽を制作することができる。 According to the present invention, when a user acquires a performance sound of a specific electronic musical instrument based on MIDI data, it is easy to match the performance sound of another musical instrument or a human voice with the performance sound to produce music. be able to.

本発明の実施形態に係る制御部を備える音データ生成システムの概念図である。It is a conceptual diagram of the sound data generation system provided with the control unit which concerns on embodiment of this invention. (a)リズムガイド付きデータにユーザーの歌声及びユーザーのギター音をのせる音楽制作に関する説明図である。(b)リズムガイド無しデータにユーザーの歌声及びユーザーのギター音をのせる音楽制作に関する説明図である。(A) It is explanatory drawing about music production which puts a user's singing voice and a user's guitar sound on the data with a rhythm guide. (B) It is explanatory drawing about music production which puts a user's singing voice and a user's guitar sound on the data without a rhythm guide. (a)ユーザーの歌声、ユーザーのギター音、オーナーの電子ピアノ音、カウントインを追加する前のリズムガイドの組み合わせのタイミングを示す概念図である。(b)ユーザーの歌声、ユーザーのギター音、オーナーの電子ピアノ音、カウントインを追加した後のリズムガイドの組み合わせのタイミングを示す概念図である。(A) It is a conceptual diagram which shows the timing of the combination of the user's singing voice, the user's guitar sound, the owner's electronic piano sound, and the rhythm guide before adding the count-in. (B) It is a conceptual diagram which shows the timing of the combination of the user's singing voice, the user's guitar sound, the owner's electronic piano sound, and the rhythm guide after adding the count-in. (a)ユーザーの歌声、ユーザーのギター音、オーナーの電子ピアノ音、調整拍を追加する前のリズムガイドの組み合わせのタイミングを示す概念図である。(b)ユーザーの歌声、ユーザーのギター音、オーナーの電子ピアノ音、調整拍を追加した後のリズムガイドの組み合わせのタイミングを示す概念図である。(A) It is a conceptual diagram which shows the timing of the combination of the user's singing voice, the user's guitar sound, the owner's electronic piano sound, and the rhythm guide before adding the adjustment beat. (B) It is a conceptual diagram which shows the timing of the combination of the user's singing voice, the user's guitar sound, the owner's electronic piano sound, and the rhythm guide after adding the adjustment beat. 本発明の変形例に係る制御部を備える音データ生成システムの概念図である。It is a conceptual diagram of the sound data generation system provided with the control part which concerns on the modification of this invention.

以下、本発明を好適な実施形態に沿って説明する。なお、本発明は以下に示す実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲において適宜変更可能である。また、以下に示す実施形態においては、一部構成の図示や説明を省略している箇所があるが、省略された技術の詳細については、以下に説明する内容と矛盾点が発生しない範囲内において、適宜公知又は周知の技術が適用されていることはいうまでもない。 Hereinafter, the present invention will be described with reference to preferred embodiments. The present invention is not limited to the embodiments shown below, and can be appropriately modified without departing from the spirit of the present invention. Further, in the embodiments shown below, some parts of the configuration are omitted from the illustration and description, but the details of the omitted technology are within a range that does not cause any contradiction with the contents described below. Needless to say, publicly known or well-known techniques are applied as appropriate.

図1は、本発明の実施形態に係る音データ生成システム1の概念図である。音データ生成システム1は、MIDIデータ提供サーバー5と、端末20と、遠隔操作サーバー30と、演奏録音サーバー50と、電子ピアノ60(電子楽器)と、を備える。MIDIデータ提供サーバー5と端末20との間、端末20と遠隔操作サーバー30との間、遠隔操作サーバー30と演奏録音サーバー50との間は、インターネット100を介して接続される。 FIG. 1 is a conceptual diagram of a sound data generation system 1 according to an embodiment of the present invention. The sound data generation system 1 includes a MIDI data providing server 5, a terminal 20, a remote control server 30, a performance recording server 50, and an electronic piano 60 (electronic musical instrument). The MIDI data providing server 5 and the terminal 20, the terminal 20 and the remote control server 30, and the remote control server 30 and the performance recording server 50 are connected via the Internet 100.

[ユーザーの端末]
ユーザーAの端末20は、操作部20aと、端末制御部20bと、を有する。端末20は、インターネット100に接続されたコンピュータのうち、主にユーザー側が使う機器(スマートフォン、タブレットパソコン、パソコン等)のことをいい、本実施形態では、端末20として、スマートフォンが用いられる。
操作部20aは、端末制御部20bの駆動を操作する部分である。
端末制御部20bは、ユーザーAによる操作部20aの操作により、MIDIデータ提供サーバー5と、遠隔操作サーバー30と、オーナーBの演奏録音サーバー50と、の関係において以下の制御を行う。
[User's terminal]
The terminal 20 of the user A has an operation unit 20a and a terminal control unit 20b. The terminal 20 refers to a device (smartphone, tablet personal computer, personal computer, etc.) mainly used by the user among the computers connected to the Internet 100, and in the present embodiment, the smartphone is used as the terminal 20.
The operation unit 20a is a part that operates the drive of the terminal control unit 20b.
The terminal control unit 20b performs the following control in relation to the MIDI data providing server 5, the remote control server 30, and the performance recording server 50 of the owner B by the operation of the operation unit 20a by the user A.

端末制御部20bは、MIDIデータ(演奏情報)を、矢印J1のようにMIDIデータ提供サーバー5から受信する。MIDIデータ提供サーバー5には種々の音楽のMIDIデータ(演奏情報)が登録してあり、ユーザーAが操作部20aを操作することにより、特定のMIDIデータ(演奏情報)を取得することができるようになっている。端末制御部20bは、MIDIデータ(演奏情報)を、矢印J2のように遠隔操作サーバー30に送信する。ここで用いられるMIDIデータは、演奏情報(発音せよ、音の高さは、音の大きさは、といった楽器や音源のメッセージ)である。MIDI(Musical Instrument Digital Interface)は、電子楽器の演奏データを機器間で転送及び共有するための共通規格である。 The terminal control unit 20b receives MIDI data (performance information) from the MIDI data providing server 5 as shown by the arrow J1. MIDI data (performance information) of various music is registered in the MIDI data providing server 5, so that the user A can acquire specific MIDI data (performance information) by operating the operation unit 20a. It has become. The terminal control unit 20b transmits MIDI data (performance information) to the remote control server 30 as shown by the arrow J2. The MIDI data used here is performance information (messages of musical instruments and sound sources such as sound, pitch, and loudness). MIDI (Musical Instrument Digital Interface) is a common standard for transferring and sharing performance data of electronic musical instruments between devices.

また、端末制御部20bは、録音データ(音声データ)を、矢印J7のように遠隔操作サーバー30から受信する。ここでいう録音データは、音声データ(マイク等で録音した音の波形をサンプリングしたもの)である。 Further, the terminal control unit 20b receives the recorded data (voice data) from the remote control server 30 as shown by the arrow J7. The recorded data here is voice data (sampling of the waveform of the sound recorded by a microphone or the like).

[遠隔操作サーバー]
遠隔操作サーバー30は、遠隔操作制御部30aと、選択部30bと、受送信部30cと、を有する。
遠隔操作制御部30aには、複数のユーザーAのアカウント、複数のオーナーのアカウントが作成されている。そして、遠隔操作制御部30aは、電子楽器、MIDIインターフェース、及びオーディオインターフェースの情報が登録される。遠隔操作制御部30aは、電子楽器を貸したい複数のオーナーの各々が所有する電子楽器、MIDIインターフェース、及びオーディオインターフェースの情報を、遠隔操作制御部30aに内容データが置かれているウェブサイト上に表示させ、ユーザーAは、端末20の操作部20aを操作することにより端末20の画面上でそれらの情報を閲覧したり確認したりすることができる。
[Remote control server]
The remote control server 30 has a remote control control unit 30a, a selection unit 30b, and a transmission / reception unit 30c.
Accounts of a plurality of users A and accounts of a plurality of owners are created in the remote control control unit 30a. Then, the remote control control unit 30a registers information on the electronic musical instrument, the MIDI interface, and the audio interface. The remote control unit 30a displays information on the electronic musical instrument, the IID interface, and the audio interface owned by each of the plurality of owners who want to rent the electronic musical instrument on the website where the content data is placed in the remote control unit 30a. By displaying the display, the user A can view and confirm the information on the screen of the terminal 20 by operating the operation unit 20a of the terminal 20.

選択部30bは、登録される複数のオーナーの電子楽器のうちの特定のオーナーBの電子楽器をユーザーAが借りるための選択を可能にする部分であり、ユーザーAは、端末20の操作部20aを操作することにより端末20の画面上で自分が借りたい複数の電子楽器を確認することができる。本実施形態では、ユーザーAは、オーナーBの電子ピアノ60を選択する場合を例示する。 The selection unit 30b is a part that enables the user A to select the electronic musical instrument of the specific owner B among the electronic musical instruments of the plurality of registered owners for the user A to borrow, and the user A is the operation unit 20a of the terminal 20. By operating, you can check a plurality of electronic musical instruments that you want to borrow on the screen of the terminal 20. In the present embodiment, the user A exemplifies the case where the electronic piano 60 of the owner B is selected.

受送信部30cは、MIDIデータ(演奏情報)を、矢印J2のようにユーザーAの端末20の端末制御部20bから受信して矢印J3のようにオーナーBの演奏録音サーバー50及び電子ピアノ60に送信可能である。受送信部30cは、後述の録音データ(音声データ)及び後述の組み合わせデータE1を矢印J6のようにオーナーBの演奏録音サーバー50から受信し、矢印J7のようにユーザーAの端末20の端末制御部20bに受信(ダウンロード)されることが可能である。 The transmission / reception unit 30c receives MIDI data (performance information) from the terminal control unit 20b of the terminal 20 of the user A as shown by the arrow J2, and transmits the MIDI data (performance information) to the performance recording server 50 and the electronic piano 60 of the owner B as shown by the arrow J3. It can be sent. The transmission / reception unit 30c receives the recording data (voice data) described later and the combination data E1 described later from the performance recording server 50 of the owner B as shown by the arrow J6, and the terminal control of the terminal 20 of the user A as shown by the arrow J7. It can be received (downloaded) by the unit 20b.

[オーナー側]
オーナーBは、演奏録音サーバー50及び電子ピアノ60を所有している。この電子ピアノ60の音色は、種々の電子ピアノ毎に異なる。そのため、ユーザーAは、どの電子ピアノを使用するか、あるいはどの電子楽器を使用するかを考慮することになる。
演奏録音サーバー50は、電子ピアノ60に接続されており、インターネット100を介して遠隔操作サーバー30にも接続されている。演奏録音サーバー50としては、例えば、Linux(登録商標)を導入したパソコンを用いても良いし、あるいはLinuxを導入したラズベリーパイ(Raspberry Pi)(登録商標)(一例としてRaspberry Pi3)を用いても良い。
[Owner side]
Owner B owns a performance recording server 50 and an electronic piano 60. The tone color of the electronic piano 60 is different for each of the various electronic pianos. Therefore, the user A considers which electronic piano to use or which electronic musical instrument to use.
The performance recording server 50 is connected to the electronic piano 60, and is also connected to the remote control server 30 via the Internet 100. As the performance recording server 50, for example, a personal computer in which Linux (registered trademark) is introduced may be used, or a Raspberry Pi (registered trademark) (Raspberry Pi 3 in which Linux is introduced) (as an example, Raspberry Pi 3) in which Linux is introduced may be used. good.

演奏録音サーバー50は、演奏録音制御部50a(制御部)を有する。演奏録音制御部50aは、定期的に、遠隔操作サーバー30に接続して、ユーザーAから録音依頼があるかを確認する。演奏録音制御部50aは、オーナーBの電子ピアノ60のMIDIインターフェースと接続されており、ユーザーAの録音依頼がある場合には、矢印J4のようにMIDIデータ(演奏情報)をオーナーBの電子ピアノ60に送信する。そして、演奏録音制御部50aは、MIDIデータ(演奏情報)に基づいてオーナーBの電子ピアノ60を自動演奏させる。演奏録音制御部50aは、オーナーBの電子ピアノ60のオーディオインターフェースと接続されており、矢印J5のように自動演奏音のデータを受信して、録音データ(音声データ)として保有する。 The performance recording server 50 has a performance recording control unit 50a (control unit). The performance recording control unit 50a periodically connects to the remote control server 30 and confirms whether or not there is a recording request from the user A. The performance recording control unit 50a is connected to the MIDI interface of the electronic piano 60 of the owner B, and when there is a recording request of the user A, the MIDI data (performance information) is stored in the electronic piano of the owner B as shown by the arrow J4. Send to 60. Then, the performance recording control unit 50a automatically plays the electronic piano 60 of the owner B based on the MIDI data (performance information). The performance recording control unit 50a is connected to the audio interface of the electronic piano 60 of the owner B, receives the automatic performance sound data as shown by the arrow J5, and holds it as recording data (voice data).

演奏録音制御部50aは、その自動演奏音と同期して自動録音した録音データを生成する。これと同時に、演奏録音制御部50aは、その自動演奏音と同期して所定のリズムを有する後述のリズムガイドQを録音データに組み合わせた後述の組み合わせデータE1を生成する(図2(a)参照)。所定のリズムといった場合には、メトロノームのように一分当たりに何拍設けるかという風な一定時間毎の音の並びのリズムの他、強勢のある音節が時間的にほぼ等間隔に繰り返される強勢リズム、各音節が時間的にほぼ等間隔で現れる音節リズムも含まれる。例えば、音と音との時間間隔が同じリズムの他、音と音との時間間隔が異なっても小節毎に同じ音の繰り返しとなるリズムも含まれる。 The performance recording control unit 50a generates recording data automatically recorded in synchronization with the automatic performance sound. At the same time, the performance recording control unit 50a generates the combination data E1 described later in which the rhythm guide Q described later having a predetermined rhythm is combined with the recording data in synchronization with the automatic performance sound (see FIG. 2A). ). In the case of a predetermined rhythm, in addition to the rhythm of a sequence of sounds at regular intervals, such as how many beats are provided per minute like a metronome, stressful syllables are repeated at approximately equal intervals in time. Rhythms and syllable rhythms in which each syllable appears at approximately equal intervals in time are also included. For example, in addition to a rhythm in which the time interval between sounds is the same, a rhythm in which the same sound is repeated for each bar even if the time interval between sounds is different is included.

この演奏録音制御部50aによる前述の録音データの生成及び前述の組み合わせデータE1の生成工程は、プログラム化されており、コンピュータに実行させることが可能な音データ生成プログラムとして形成されている。演奏録音制御部50aは、矢印J6のように録音データ(音声データ)及び組み合わせデータE1を遠隔操作サーバー30に送信し、遠隔操作サーバー30にアップロードする。なお、演奏録音制御部50aは、前述の音データ生成プログラムを、遠隔操作サーバー30からダウンロードして保有するようにされていても良い。 The above-mentioned recording data generation and the above-mentioned combination data E1 generation step by the performance recording control unit 50a are programmed and formed as a sound data generation program that can be executed by a computer. The performance recording control unit 50a transmits the recording data (voice data) and the combination data E1 to the remote control server 30 and uploads them to the remote control server 30 as shown by the arrow J6. The performance recording control unit 50a may be configured to download and hold the above-mentioned sound data generation program from the remote control server 30.

ユーザーAは、端末20の端末制御部20bにより遠隔操作サーバー30の遠隔操作制御部30a及びオーナーBの演奏録音サーバー50の演奏録音制御部50aを制御するので、実質的に、ユーザーAが、オーナーBの電子ピアノ60にMIDIデータ(演奏情報)を送信して、電子ピアノ60を自動演奏させ、その自動演奏音を録音して、録音データを回収することになる。 Since the user A controls the remote operation control unit 30a of the remote operation server 30 and the performance recording control unit 50a of the performance recording server 50 of the owner B by the terminal control unit 20b of the terminal 20, the user A substantially owns the owner. MIDI data (performance information) is transmitted to the electronic piano 60 of B, the electronic piano 60 is automatically played, the automatic performance sound is recorded, and the recorded data is collected.

図2(a)は、リズムガイドQ付きの組み合わせデータE1にユーザーAの歌声R及びユーザーAのギター音Sをのせる音楽制作に関する説明図である。図2(b)は、リズムガイドQ無しの単独データE2にユーザーAの歌声R及びユーザーAのギター音Sをのせる音楽制作に関する説明図である。演奏録音サーバー50は、遠隔操作サーバー30からオーナーBの電子ピアノ60の録音データ(音声データ)(ここでは電子ピアノ音P)を受信する。また、演奏録音サーバー50は、録音データに対応するリズムガイドQを作成する。そして、演奏録音サーバー50は、遠隔操作サーバー30に対して、録音データ及びリズムガイドQを組み合わせた組み合わせデータE1を送信する。それから、ユーザーAが決済した後に、演奏録音サーバー50は、遠隔操作サーバー30に対して、録音データ単独の単独データE2を追加して送信する。 FIG. 2A is an explanatory diagram relating to music production in which the singing voice R of the user A and the guitar sound S of the user A are placed on the combination data E1 with the rhythm guide Q. FIG. 2B is an explanatory diagram relating to music production in which the singing voice R of the user A and the guitar sound S of the user A are placed on the independent data E2 without the rhythm guide Q. The performance recording server 50 receives the recording data (voice data) (here, the electronic piano sound P) of the electronic piano 60 of the owner B from the remote control server 30. Further, the performance recording server 50 creates a rhythm guide Q corresponding to the recorded data. Then, the performance recording server 50 transmits the combination data E1 that combines the recording data and the rhythm guide Q to the remote control server 30. Then, after the payment is made by the user A, the performance recording server 50 additionally transmits the independent data E2 of the recording data alone to the remote control server 30.

そして、ユーザーAは、ユーザーAの歌声Rのパートの録音時には、リズムガイドQ付きの組み合わせデータE1を用いて録音する。同様に、ユーザーAは、ギター音Sのパートの録音時には、リズムガイドQ付きの組み合わせデータE1を用いて録音する。端末20の端末制御部20bは、オーナーBの電子ピアノ60の録音データと、リズムガイドQと、ユーザーAの歌声Rと、ユーザーAのギター音Sと、を組み合わせる。それから、ユーザーAは、組み合わせデータE1を単独データE2に差し替えることにより、リズムガイドQを無くしてパート毎のずれがない音楽を制作することができる。なお、この差し替えは、例えば、操作部20aを操作して端末制御部20bを制御することによって行う。 Then, when recording the part of the singing voice R of the user A, the user A records using the combination data E1 with the rhythm guide Q. Similarly, when recording the part of the guitar sound S, the user A records using the combination data E1 with the rhythm guide Q. The terminal control unit 20b of the terminal 20 combines the recorded data of the electronic piano 60 of the owner B, the rhythm guide Q, the singing voice R of the user A, and the guitar sound S of the user A. Then, by replacing the combination data E1 with the single data E2, the user A can eliminate the rhythm guide Q and produce music without deviation for each part. It should be noted that this replacement is performed, for example, by operating the operation unit 20a to control the terminal control unit 20b.

図3(a)は、オーナーBの電子ピアノ音P、カウントインを追加する前のリズムガイドQ、ユーザーAの歌声R、ユーザーAのギター音Sの組み合わせのタイミングを示す概念図である。図3(b)は、オーナーBの電子ピアノ音P、カウントインを追加した後のリズムガイドQ、ユーザーAの歌声R、ユーザーAのギター音Sの組み合わせのタイミングを示す概念図である。 FIG. 3A is a conceptual diagram showing the timing of the combination of the electronic piano sound P of the owner B, the rhythm guide Q before adding the count-in, the singing voice R of the user A, and the guitar sound S of the user A. FIG. 3B is a conceptual diagram showing the timing of the combination of the electronic piano sound P of the owner B, the rhythm guide Q after adding the count-in, the singing voice R of the user A, and the guitar sound S of the user A.

例えば、演奏録音制御部50aは、電子ピアノ60が自動演奏を開始する自動演奏の開始のタイミング前に所定のカウントインを追加することがユーザーAによって選択された場合には、図3(a)に示されるように、曲の開始前のカウントインが第1所定拍X1(本実施形態では2拍)必要であって、曲の開始後のカウントインが第2所定拍X2(本実施形態では2拍)必要であることを認識する。 For example, when the performance recording control unit 50a is selected by the user A to add a predetermined count-in before the timing of the start of the automatic performance in which the electronic piano 60 starts the automatic performance, FIG. 3A is shown. As shown in, the count-in before the start of the song requires the first predetermined beat X1 (2 beats in the present embodiment), and the count-in after the start of the song is the second predetermined beat X2 (in the present embodiment). 2 beats) Recognize that it is necessary.

これに対応して、リズムガイドQは、曲の開始後のカウントインの第2所定拍X2に相当する部分Q1(本実施形態では2拍)を含んでいるが、曲の開始前のカウントインの第1所定拍X1に相当する部分Y1(本実施形態では2拍)が不足している。そのため、演奏録音制御部50aは、図3(b)に示されるように、リズムガイドQの開始のタイミングをカウントインの開始のタイミングに設定する(すなわちリズムガイドQの先頭に追加拍Q2を追加する)ことにより、リズムガイドQを前に延長する。この結果、リズムガイドQに元から含まれた部分Q1と、リズムガイドQに後から追加された追加拍Q2と、により、カウントインが構成される。 Correspondingly, the rhythm guide Q includes a portion Q1 (2 beats in the present embodiment) corresponding to the second predetermined beat X2 of the count-in after the start of the song, but the count-in before the start of the song. The portion Y1 (2 beats in this embodiment) corresponding to the first predetermined beat X1 is insufficient. Therefore, as shown in FIG. 3B, the performance recording control unit 50a sets the start timing of the rhythm guide Q to the start timing of the count-in (that is, the additional beat Q2 is added to the beginning of the rhythm guide Q). By doing so, the rhythm guide Q is extended forward. As a result, the count-in is configured by the portion Q1 originally included in the rhythm guide Q and the additional beat Q2 added later to the rhythm guide Q.

図4(a)は、オーナーBの電子ピアノ音P、調整拍Q3を追加する前のリズムガイドQ、ユーザーAの歌声R、ユーザーAのギター音Sの組み合わせのタイミングを示す概念図である。図4(b)は、オーナーBの電子ピアノ音P、調整拍Q3を追加した後のリズムガイドQ、ユーザーAの歌声R、ユーザーAのギター音Sの組み合わせのタイミングを示す概念図である。 FIG. 4A is a conceptual diagram showing the timing of the combination of the electronic piano sound P of the owner B, the rhythm guide Q before adding the adjustment beat Q3, the singing voice R of the user A, and the guitar sound S of the user A. FIG. 4B is a conceptual diagram showing the timing of the combination of the electronic piano sound P of the owner B, the rhythm guide Q after adding the adjustment beat Q3, the singing voice R of the user A, and the guitar sound S of the user A.

例えば、演奏録音制御部50aは、電子ピアノ音Pが自動演奏する曲が裏拍でリズムを取る曲である場合には、図4(a)に示されるように、曲の開始と拍の頭との間にずれZ1が生じる。そのために、拍のタイミングとリズムガイドQのタイミングとの間にもずれZ1が生じる。なお、裏拍でリズムを取る音楽には、例えば、ロック、ジャズ、レゲエ、ヒップホップ等がある。 For example, when the song automatically played by the electronic piano sound P is a song that takes a rhythm in the back beat, the performance recording control unit 50a starts the song and starts the beat, as shown in FIG. 4A. A gap Z1 is generated between the two. Therefore, a deviation Z1 occurs between the timing of the beat and the timing of the rhythm guide Q. Note that music that takes a rhythm with a back beat includes, for example, rock, jazz, reggae, hip hop, and the like.

それにも関わらず、リズムガイドQは、曲の開始後の半拍分早く開始している。そのため、演奏録音制御部50aは、図4(b)に示されるように、リズムガイドQの開始のタイミングを、曲の開始のタイミングに設定する(すなわちリズムガイドQの先頭に調整拍Q3を追加する)ことにより、リズムガイドQを前に延長する。 Nevertheless, the rhythm guide Q starts half a beat earlier than the start of the song. Therefore, as shown in FIG. 4B, the performance recording control unit 50a sets the start timing of the rhythm guide Q to the start timing of the song (that is, the adjustment beat Q3 is added to the beginning of the rhythm guide Q). By doing so, the rhythm guide Q is extended forward.

次に、前述した音データ生成システム1の動作について説明する。例えば、ユーザーAは、端末20の操作部20aを操作して、MIDIデータ提供サーバー5にアクセスする。ユーザーAは、操作部20aを操作して、MIDIデータ提供サーバー5に登録されている特定の音楽のMIDIデータをダウンロードして端末制御部20bに取得する。 Next, the operation of the sound data generation system 1 described above will be described. For example, the user A operates the operation unit 20a of the terminal 20 to access the MIDI data providing server 5. The user A operates the operation unit 20a to download the MIDI data of the specific music registered in the MIDI data providing server 5 and acquire it in the terminal control unit 20b.

ユーザーAは、次に、遠隔操作サーバー30にアクセスする。遠隔操作サーバー30には、複数のオーナーが貸与を目的として登録している複数の電子楽器がアップされている。これらの複数の電子楽器の各々は、オーナーによって電源オンに設定されている。ユーザーAは、複数の電子楽器のいずれかである例えば電子ピアノ60を選択し(電子楽器の選択過程)、その電子ピアノ60に前述の特定の音楽に用いられている特定の楽器(例えば電子ピアノ)のMIDIデータを送信する(MIDIデータの送信過程)。このときに、そのMIDIデータは、端末20、遠隔操作サーバー30、演奏録音サーバー50の順に送信される。 User A then accesses the remote control server 30. A plurality of electronic musical instruments registered by a plurality of owners for the purpose of lending are uploaded to the remote control server 30. Each of these electronic musical instruments is set to power on by the owner. User A selects, for example, an electronic piano 60, which is one of a plurality of electronic musical instruments (the process of selecting an electronic musical instrument), and the electronic musical instrument 60 is a specific musical instrument (for example, an electronic piano) used for the above-mentioned specific music. ) MIDI data is transmitted (MIDI data transmission process). At this time, the MIDI data is transmitted in the order of the terminal 20, the remote control server 30, and the performance recording server 50.

演奏録音サーバー50の演奏録音制御部50aは、MIDIデータに基づいて電子ピアノ60を自動演奏させると共に自動録音させる。演奏録音制御部50aは、電子ピアノ音P(録音データ)及びリズムガイドQを組み合わせた組み合わせデータE1と、電子ピアノ音P(録音データ)の単独データE2とを生成する(制御過程)。 The performance recording control unit 50a of the performance recording server 50 automatically plays and automatically records the electronic piano 60 based on the MIDI data. The performance recording control unit 50a generates a combination data E1 that combines the electronic piano sound P (recording data) and the rhythm guide Q, and a single data E2 of the electronic piano sound P (recording data) (control process).

演奏録音制御部50aは、遠隔操作サーバー30に組み合わせデータE1及び単独データE2の生成が完了したことをユーザーAにメール送信により伝える(録音データ及び組み合わせデータE1のお知らせ過程)。ユーザーAは、遠隔操作サーバー30にアクセスして組み合わせデータE1をユーザーAの端末20にダウンロード(受信)することにより取得する。ユーザーAは、この組み合わせデータE1にユーザーAの歌声Rと、ユーザーAのギター音Sと、を更に組み合わせる。そして、ユーザーAは、それを試し聞きする。ユーザーAは、試し聞きをした結果、その出来に満足した場合には、単独データE2を取得するために決済をする。 The performance recording control unit 50a informs the remote control server 30 that the generation of the combined data E1 and the independent data E2 has been completed by sending an e-mail to the user A (notification process of the recorded data and the combined data E1). The user A accesses the remote control server 30 and downloads (receives) the combination data E1 to the terminal 20 of the user A to acquire the combination data E1. The user A further combines the combination data E1 with the singing voice R of the user A and the guitar sound S of the user A. Then, the user A tries and listens to it. When the user A is satisfied with the result of the trial hearing, the user A makes a payment in order to acquire the independent data E2.

そうすると、演奏録音制御部50aは、単独データE2のダウンロード(受信)が可能であることをユーザーAにメール送信により伝える。ユーザーAは、遠隔操作サーバー30にアクセスして単独データE2をユーザーAの端末20にダウンロード(受信)することにより取得する。ユーザーAは、端末20の操作部20aを操作して、組み合わせデータE1を単独データE2に差し替える。その結果、オーナーBの電子ピアノ60の電子ピアノ音Pと、ユーザーAの歌声Rと、ユーザーAのギター音Sと、が組み合わされた音楽(リズムガイドQが無い音楽)を完成させることができる。 Then, the performance recording control unit 50a informs the user A that the independent data E2 can be downloaded (received) by sending an e-mail. The user A accesses the remote control server 30 and downloads (receives) the independent data E2 to the terminal 20 of the user A to acquire the data E2. The user A operates the operation unit 20a of the terminal 20 to replace the combination data E1 with the single data E2. As a result, it is possible to complete music (music without a rhythm guide Q) in which the electronic piano sound P of the owner B's electronic piano 60, the singing voice R of the user A, and the guitar sound S of the user A are combined. ..

以上で述べたように、本実施形態に係る音データ生成システム1は、登録される複数のオーナーの電子楽器の情報を提供して特定のオーナーBの電子ピアノ60の遠隔操作を選択可能な選択部30bと、電子ピアノ60に接続され、MIDIデータに基づいて電子ピアノ60を自動演奏させることにより自動演奏音を発生させ、自動演奏音と同期して自動録音した電子ピアノ音Pを生成すると共に、電子ピアノ音P、及び自動演奏音と同期して所定のリズムを有するリズムガイドQを組み合わせた組み合わせデータE1を生成する演奏録音制御部50aと、MIDIデータをユーザーAの端末20から受信して演奏録音制御部50aに送信可能であり、かつ、電子ピアノ音P及び組み合わせデータE1を、演奏録音制御部50aから受信して端末20によって受信されることが可能である受送信部30cと、を備える。 As described above, the sound data generation system 1 according to the present embodiment provides information on the electronic musical instruments of a plurality of registered owners, and can select the remote operation of the electronic piano 60 of a specific owner B. The electronic piano 60 is connected to the unit 30b and the electronic piano 60, and the electronic piano 60 is automatically played based on the MIDI data to generate an automatic playing sound, and the electronic piano sound P automatically recorded in synchronization with the automatic playing sound is generated. , The performance recording control unit 50a that generates the combination data E1 that combines the electronic piano sound P and the rhythm guide Q having a predetermined rhythm in synchronization with the automatic performance sound, and the MIDI data is received from the terminal 20 of the user A. The transmission / reception unit 30c, which can be transmitted to the performance recording control unit 50a and can receive the electronic piano sound P and the combination data E1 from the performance recording control unit 50a and received by the terminal 20. Be prepared.

こうした構成によれば、MIDIデータに基づいて電子ピアノ60を自動演奏させて自動演奏音を発生させ、この自動演奏音を録音した電子ピアノ音P、及びこれと組み合わされるリズムガイドQを取得することができる。ユーザーAは、リズムガイドQにタイミングを合わせながら他の楽器を演奏し、又は歌を歌うことができる。その結果、ユーザーAが、MIDIデータに基づいて特定の電子ピアノ60の演奏音を取得した場合に、その演奏音に他の楽器の演奏音又は人の音声を合わせ易くして音楽を制作することができる。 According to such a configuration, the electronic piano 60 is automatically played based on the MIDI data to generate an automatic performance sound, and the electronic piano sound P on which the automatic performance sound is recorded and the rhythm guide Q combined with the electronic piano sound P are acquired. Can be done. User A can play another musical instrument or sing a song while adjusting the timing to the rhythm guide Q. As a result, when the user A acquires the playing sound of the specific electronic piano 60 based on the MIDI data, the playing sound of another musical instrument or the human voice can be easily matched with the playing sound to produce music. Can be done.

また、本実施形態に係る音データ生成システム1では、演奏録音制御部50aは、電子ピアノ60が自動演奏を開始する自動演奏の開始のタイミング前に所定拍のカウントインを付加することがユーザーAによって選択された場合には、電子ピアノ音Pの先頭にカウントインの分の無音データを形成すると共に、リズムガイドQの開始のタイミングを、カウントインの開始のタイミングに設定する。こうした構成によれば、無音データ部分が確保されて、無音データ部分の最初からリズムガイドQが形成されることになり、十分なカウントインの長さが確保される。 Further, in the sound data generation system 1 according to the present embodiment, the performance recording control unit 50a may add a count-in of a predetermined beat before the timing of the start of the automatic performance in which the electronic piano 60 starts the automatic performance. When selected by, the silent data for the count-in is formed at the beginning of the electronic piano sound P, and the start timing of the rhythm guide Q is set to the start timing of the count-in. According to such a configuration, the silent data portion is secured, the rhythm guide Q is formed from the beginning of the silent data portion, and a sufficient count-in length is secured.

また、本実施形態に係る音データ生成システム1では、演奏録音制御部50aは、電子ピアノ60が自動演奏する曲が裏拍でリズムを取る曲である場合には、リズムガイドQの開始のタイミングを、半拍早い時間に設定する。こうした構成によれば、裏拍のタイミングにリズムガイドQのタイミングを合わせることができる。 Further, in the sound data generation system 1 according to the present embodiment, the performance recording control unit 50a determines the start timing of the rhythm guide Q when the song automatically played by the electronic piano 60 is a song that takes a rhythm with a back beat. Is set to a half beat earlier time. According to such a configuration, the timing of the rhythm guide Q can be adjusted to the timing of the back beat.

以上、実施形態に基づき本発明を説明したが、本発明は上記実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で、変更を加えても良いし、可能な範囲で適宜他の技術を組み合わせても良い。 Although the present invention has been described above based on the embodiments, the present invention is not limited to the above embodiments, and changes may be made without departing from the spirit of the present invention, and other examples may be made as appropriate. You may combine the technologies of.

[変形例1]
本実施形態では、電子楽器として電子ピアノが使用されたが、上記実施形態に限定されず、電子オルガン、シンセサイザー、サンプラー、ドラムマシン、テルミン、電子ギター等が用いられても良い。
[Modification 1]
In this embodiment, an electronic piano is used as an electronic musical instrument, but the present invention is not limited to the above embodiment, and an electronic organ, a synthesizer, a sampler, a drum machine, a theremin, an electronic guitar, or the like may be used.

[変形例2]
本実施形態では、端末20としてスマートフォンが用いられ、端末20の端末制御部20bがMIDIデータ提供サーバー5からMIDIデータを受信する構成であったが、上記実施形態に限定されなくても良い。例えば、図5に示されるように、端末20としてパソコンが用いられ、ユーザーAが電子ピアノ10を弾いた音を矢印J1のように端末20としてのパソコンに送信し、その音に基づいて端末20としてのパソコンでMIDIデータを作成する構成であっても良い。なお、図5において、端末20としてのパソコンは、操作部20aと、端末制御部20bと、を有し、操作部20aの操作によって端末制御部20bによる制御ができるように構成されている。
[Modification 2]
In the present embodiment, a smartphone is used as the terminal 20, and the terminal control unit 20b of the terminal 20 receives MIDI data from the MIDI data providing server 5, but the present embodiment is not limited to the above embodiment. For example, as shown in FIG. 5, a personal computer is used as the terminal 20, the sound of the user A playing the electronic piano 10 is transmitted to the personal computer as the terminal 20 as shown by the arrow J1, and the terminal 20 is based on the sound. It may be configured to create MIDI data on a personal computer as a device. In FIG. 5, the personal computer as the terminal 20 has an operation unit 20a and a terminal control unit 20b, and is configured to be controlled by the terminal control unit 20b by the operation of the operation unit 20a.

[変形例3]
本実施形態では、受送信部30cは、録音データ(音声データ)及び組み合わせデータE1を、矢印J7のようにユーザーAの端末20の端末制御部20bに受信(ダウンロード)されることが可能であったが、上記実施形態に限定されなくても良い。例えば、受送信部30cは、録音データ(音声データ)及び組み合わせデータE1を、矢印J7のようにユーザーAの端末20の端末制御部20bに送信可能に構成しても良い。この場合には、受送信部30cは、メールで送信しても良く、SNS(Social Networking Service)により送信しても良い。
[Modification 3]
In the present embodiment, the transmission / reception unit 30c can receive (download) the recorded data (voice data) and the combination data E1 to the terminal control unit 20b of the terminal 20 of the user A as shown by the arrow J7. However, it does not have to be limited to the above embodiment. For example, the transmission / reception unit 30c may be configured so that the recording data (voice data) and the combination data E1 can be transmitted to the terminal control unit 20b of the terminal 20 of the user A as shown by the arrow J7. In this case, the transmission / reception unit 30c may be transmitted by e-mail or may be transmitted by SNS (Social Networking Service).

1 :音データ生成システム
5 :MIDIデータ提供サーバー
10,60 :電子ピアノ(電子楽器)
20 :端末
20a :操作部
20b :端末制御部
30 :遠隔操作サーバー
30a :遠隔操作制御部
30b :選択部
30c :受送信部
50 :演奏録音サーバー
50a :演奏録音制御部(制御部)
100 :インターネット
A :ユーザー
B :オーナー
E1 :組み合わせデータ
E2 :単独データ
J1,J2,J3,J4,J5,J6,J7 :矢印
P :電子ピアノ音(録音データ)
Q :リズムガイド
Q1 :部分
Q2 :追加拍
Q3 :調整拍
R :ユーザーの歌声
S :ユーザーのギター音
X1 :第1所定拍
X2 :第2所定拍
Y1 :部分
Z1 :ずれ
1: Sound data generation system 5: MIDI data providing server 10, 60: Electronic piano (electronic musical instrument)
20: Terminal 20a: Operation unit 20b: Terminal control unit 30: Remote operation server 30a: Remote operation control unit 30b: Selection unit 30c: Transmission / reception unit 50: Performance recording server 50a: Performance recording control unit (control unit)
100: Internet A: User B: Owner E1: Combination data E2: Single data J1, J2, J3, J4, J5, J6, J7: Arrow P: Electronic piano sound (recorded data)
Q: Rhythm guide Q1: Part Q2: Additional beat Q3: Adjustment beat R: User's singing voice S: User's guitar sound X1: First predetermined beat X2: Second predetermined beat Y1: Part Z1: Deviation

Claims (5)

登録される複数のオーナーの電子楽器の情報を提供して特定のオーナーの電子楽器の遠隔操作を選択可能な選択部と、
該電子楽器に接続され、MIDIデータに基づいて前記電子楽器を自動演奏させることにより自動演奏音を発生させ、前記自動演奏音と同期して自動録音した録音データを生成すると共に、前記録音データ、及び前記自動演奏音と同期して所定のリズムを有するリズムガイドを組み合わせた組み合わせデータを生成する制御部と、
前記MIDIデータを、ユーザーの端末から受信して前記制御部に送信可能であり、かつ、前記録音データ及び前記組み合わせデータを、前記制御部から受信して前記端末によって受信されることが可能である、又は前記制御部から受信して前記端末に送信可能な受送信部と、
を備える、ことを特徴とする音データ生成システム。
A selection unit that provides information on the electronic musical instruments of multiple owners to be registered and allows remote control of the electronic musical instruments of a specific owner to be selected.
The electronic musical instrument is connected to the electronic musical instrument, and the electronic musical instrument is automatically played based on the MIDI data to generate an automatic performance sound, and the recorded data automatically recorded in synchronization with the automatic performance sound is generated, and the recorded data, And a control unit that generates combination data by combining a rhythm guide having a predetermined rhythm in synchronization with the automatic performance sound.
The MIDI data can be received from the user's terminal and transmitted to the control unit, and the recording data and the combination data can be received from the control unit and received by the terminal. Or a transmission / reception unit that can be received from the control unit and transmitted to the terminal.
A sound data generation system characterized by being equipped with.
前記制御部は、
前記電子楽器が自動演奏を開始する自動演奏の開始のタイミング前に所定拍のカウントインを付加することがユーザーによって選択された場合には、
前記録音データの先頭に前記カウントインの分の無音データを形成すると共に、
前記リズムガイドの開始のタイミングを、前記カウントインの開始のタイミングに設定する、ことを特徴とする請求項1に記載の音データ生成システム。
The control unit
If the user chooses to add a predetermined beat count-in before the timing of the start of the automatic performance of the electronic musical instrument.
At the beginning of the recorded data, silence data for the count-in is formed, and at the same time, silent data is formed.
The sound data generation system according to claim 1, wherein the start timing of the rhythm guide is set to the start timing of the count-in.
前記制御部は、
前記電子楽器が自動演奏する曲が裏拍でリズムを取る曲である場合には、
前記リズムガイドの開始のタイミングを、半拍早いタイミングに設定する、ことを特徴とする請求項1又は請求項2に記載の音データ生成システム。
The control unit
If the song automatically played by the electronic musical instrument is a song that takes a rhythm with a back beat,
The sound data generation system according to claim 1 or 2, wherein the start timing of the rhythm guide is set to a timing half a beat earlier.
ユーザーの端末からオーナーの電子楽器に送信したMIDIデータに基づいて前記電子楽器を自動演奏させることにより自動演奏音を発生させ、前記自動演奏音と同期して自動録音した録音データを生成すると共に、前記録音データ、及び前記自動演奏音と同期して所定のリズムを有するリズムガイドを組み合わせた組み合わせデータを生成する制御過程をコンピュータに実行させる、ことを特徴とする音データ生成プログラム。 An automatic performance sound is generated by automatically playing the electronic musical instrument based on the MIDI data transmitted from the user's terminal to the owner's electronic musical instrument, and the recorded data automatically recorded in synchronization with the automatic performance sound is generated. A sound data generation program comprising causing a computer to execute a control process for generating combination data by combining the recorded data and a rhythm guide having a predetermined rhythm in synchronization with the automatic performance sound. 登録される複数のオーナーの電子楽器のうちの特定のオーナーの電子楽器の遠隔操作を選択する過程と、
MIDIデータを、ユーザーの端末から受信して前記電子楽器に送信する過程と、
前記MIDIデータに基づいて前記電子楽器を自動演奏させることにより自動演奏音を発生させ、前記自動演奏音と同期して自動録音した録音データを生成すると共に、前記録音データ、及び前記自動演奏音と同期して所定のリズムを有するリズムガイドを組み合わせた組み合わせデータを生成する制御過程と、
前記録音データ及び前記組み合わせデータを、前記端末によって受信され、又は前記端末に送信する過程と、
を備える、ことを特徴とする音データ生成方法。
The process of selecting the remote control of a specific owner's electronic musical instrument among the registered multiple owner's electronic musical instruments, and
The process of receiving MIDI data from the user's terminal and transmitting it to the electronic musical instrument,
An automatic performance sound is generated by automatically playing the electronic musical instrument based on the MIDI data, and the recorded data automatically recorded in synchronization with the automatic performance sound is generated, and the recorded data and the automatic performance sound are combined with each other. A control process that generates combination data by combining rhythm guides that have a predetermined rhythm in synchronization,
The process of receiving the recorded data and the combination data by the terminal or transmitting the combination data to the terminal.
A sound data generation method characterized by being equipped with.
JP2020138841A 2020-08-19 2020-08-19 Sound data generation system, sound data generation program, and sound data generation method Active JP6966738B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020138841A JP6966738B1 (en) 2020-08-19 2020-08-19 Sound data generation system, sound data generation program, and sound data generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020138841A JP6966738B1 (en) 2020-08-19 2020-08-19 Sound data generation system, sound data generation program, and sound data generation method

Publications (2)

Publication Number Publication Date
JP6966738B1 true JP6966738B1 (en) 2021-11-17
JP2022034909A JP2022034909A (en) 2022-03-04

Family

ID=78509563

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020138841A Active JP6966738B1 (en) 2020-08-19 2020-08-19 Sound data generation system, sound data generation program, and sound data generation method

Country Status (1)

Country Link
JP (1) JP6966738B1 (en)

Also Published As

Publication number Publication date
JP2022034909A (en) 2022-03-04

Similar Documents

Publication Publication Date Title
US20040176025A1 (en) Playing music with mobile phones
US20220108674A1 (en) System, method, and non-transitory computer-readable storage medium for collaborating on a musical composition over a communication network
JP6457326B2 (en) Karaoke system that supports transmission delay of singing voice
US20180121446A1 (en) Multiple distant musician audio loop recording apparatus and listening method
JP5684492B2 (en) Guitars and other musical instruments with telecommunications functions and entertainment systems using such musical instruments
JP4103364B2 (en) Karaoke system, karaoke device, and server device for karaoke system
KR100819775B1 (en) Network based music playing/song accompanying service apparatus, system method and computer recordable medium
JP2006514361A (en) Software distribution
JP6966738B1 (en) Sound data generation system, sound data generation program, and sound data generation method
JP3870671B2 (en) Mobile terminal device
KR101605497B1 (en) A Method of collaboration using apparatus for musical accompaniment
JP2011138130A (en) Karaoke co-performance method using mobile electronic device
JP2008304821A (en) Musical piece concert release system
JP2011197344A (en) Server
WO2022049732A1 (en) Information processing device and information processing method
JP3709798B2 (en) Fortune-telling and composition system, fortune-telling and composition device, fortune-telling and composition method, and storage medium
JP2006154777A (en) Music generation system
JP2001356764A (en) Sound information distributing method and concert method using portable communication equipment
KR20140125440A (en) Acoustic processing device and communication acoustic processing system
JP2002091464A (en) Karaoke device for storing and reproducing operation history during performance
JP3970664B2 (en) Karaoke device that can receive and play the user's original music from a mobile phone
JP2022114309A (en) Online session server device
JP2014048471A (en) Server, and music reproduction system
JP2022130028A (en) karaoke system
JP6492754B2 (en) Musical instruments and musical instrument systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210928

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211008

R150 Certificate of patent or registration of utility model

Ref document number: 6966738

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150