CN108630186B - 电子乐器、其控制方法以及记录介质 - Google Patents

电子乐器、其控制方法以及记录介质 Download PDF

Info

Publication number
CN108630186B
CN108630186B CN201810238752.XA CN201810238752A CN108630186B CN 108630186 B CN108630186 B CN 108630186B CN 201810238752 A CN201810238752 A CN 201810238752A CN 108630186 B CN108630186 B CN 108630186B
Authority
CN
China
Prior art keywords
sound
data
musical instrument
singing voice
volume
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810238752.XA
Other languages
English (en)
Other versions
CN108630186A (zh
Inventor
中村厚士
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Publication of CN108630186A publication Critical patent/CN108630186A/zh
Application granted granted Critical
Publication of CN108630186B publication Critical patent/CN108630186B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/46Volume control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/32Constructional details
    • G10H1/34Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
    • G10H1/344Structural association with individual keys
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/005Musical accompaniment, i.e. complete instrumental rhythm synthesis added to a performed melody, e.g. as output by drum machines
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • G10H2220/011Lyrics displays, e.g. for karaoke applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/031File merging MIDI, i.e. merging or mixing a MIDI-like file or stream with a non-MIDI file or stream, e.g. audio or video
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/455Gensound singing voices, i.e. generation of human voices for musical applications, vocal singing sounds or intelligible words at a desired pitch or with desired vocal effects, e.g. by phoneme synthesis

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

本发明提供电子乐器、其控制方法以及记录介质,将歌词音容易听取地输出。使具备用于指定音高的多个操作件的电子乐器的计算机执行如下处理:发音指示受理处理,受理与通过上述多个操作件中的任一个操作件指定的指定音高相应的发音指示;乐器音发音处理,在不存在与上述指定音高对应的歌词的情况下,基于上述发音指示,使发音部对与上述指定音高相应的乐器音进行发音;以及歌声发音处理,在存在与上述指定音高对应的歌词的情况下,基于上述发音指示,使上述发音部对与上述歌词以及上述指定音高相应的歌声进行发音。

Description

电子乐器、其控制方法以及记录介质
本申请以2017年3月23日提交的日本专利申请2017-057257为基础且享受其优先权,并将该基础申请的内容全部援用于本申请。
技术领域
本发明涉及电子乐器、其控制方法以及记录介质。
背景技术
以往,已知有一种电子键盘乐器,具有利用了键的发光功能的基于光的键操作引导功能,其特征在于,具有:按键预告定时取得单元,对于应当指示按键的按键指示键,取得比应当按键的按键定时靠前的按键预告定时;以及发光控制单元,对于上述按键指示键,在由上述按键预告定时取得单元取得的按键预告定时开始发光,并且,以上述按键定时为界使发光方式变化(参照专利文献1)。
专利文献1:日本特开2015-081981号公报
然而,具有与乐曲相匹配的歌词的乐曲也较多,如果随着电子乐器的演奏的进行而使歌声播放,则可以认为能够一边欣赏一边进行电子乐器的练习等。
另一方面,存在如下问题:即便与电子乐器的演奏相匹配地输出歌声(以下,也称作歌词音。),当电子乐器的声音(以下,也称作伴奏音、乐器音。)的音量变大时,也难以听取歌词音。
此外,在乐曲之中,也有时不包含与所指定的音高对应的歌词,但是如果每当演奏者通过操作件来指定音高时就简单地使歌词前进,则歌词会比演奏者的意图更快地先前进,存在无法提供良好地歌唱的电子乐器这样的问题。
发明内容
本发明是鉴于这种情况而完成的,根据本发明,能够提供良好地歌唱的电子乐器等。
为了实现上述目的,本发明的一个实施方式的电子乐器具备:
多个操作件,用于指定音高;以及
处理器,
上述处理器执行如下处理:
发音指示受理处理,受理与由上述多个操作件中的任一个操作件指定的指定音高相应的发音指示;
乐器音发音处理,在不存在与上述指定音高对应的歌词的情况下,基于上述发音指示,使发音部对与上述指定音高相应的乐器音进行发音;以及
歌声发音处理,在存在与上述指定音高对应的歌词的情况下,基于上述发音指示,使上述发音部对与上述歌词以及上述指定音高相应的歌声进行发音。
附图说明
当与以下的附图相配合地考虑以下的详细描述时,能够得到本申请的更深刻的理解。
图1是本发明所涉及的第1实施方式的电子乐器的俯视图。
图2是本发明所涉及的第1实施方式的电子乐器的框图。
图3是表示本发明所涉及的第1实施方式的键的局部剖视侧视图。
图4是表示本发明所涉及的第1实施方式的CPU所执行的练习模式的主流程的流程图。
图5是本发明所涉及的第1实施方式的CPU所执行的练习模式的子流程即第1乐器音用数据分析的流程图。
图6是本发明所涉及的第1实施方式的CPU所执行的右手练习模式的子流程即右手练习的流程图。
图7是本发明所涉及的第1实施方式的音源部所执行的音源部处理的流程图。
图8是表示本发明所涉及的第1实施方式的CPU所执行的练习模式的变形例的流程图。
图9是表示本发明所涉及的第2实施方式的CPU所执行的练习模式的主流程的流程图。
图10是本发明所涉及的第2实施方式的CPU所执行的右手练习模式的子流程即右手练习的流程图。
图11是本发明所涉及的第2实施方式的CPU所执行的右手练习模式的子流程即第1乐器音用数据分析的流程图。
图12是本发明所涉及的第2实施方式的音源部所执行的音源部处理的流程图。
具体实施方式
(第1实施方式)
以下,参照附图对本发明所涉及的第1实施方式的电子乐器1进行说明。
另外,在以下的实施方式中,具体地是作为电子乐器1为键盘乐器的方式进行说明,但是本发明的电子乐器1并不限定于键盘乐器。
图1是第1实施方式的电子乐器1的俯视图,图2是电子乐器1的框图,图3是表示键10的局部剖视侧视图。
如图1所示,本实施方式所涉及的电子乐器1例如是电钢琴、合成器、电子琴等具有键盘的电子键盘乐器,电子乐器1具备多个键10、操作面板31、显示面板41以及发音部51。
此外,如图2所示,电子乐器1具备操作部30、显示部40、音源部50、演奏引导部60、存储部70以及CPU80。
操作部30包括多个键10、按键检测部20以及操作面板31。
键10是在演奏者进行演奏时成为用于向电子乐器1进行发音以及消音的指示的输入部的部分。
按键检测部20是对键10被按键的情况进行检测的部分,如图3所示,具有橡胶开关。
具体而言,按键检测部20具备在基板21a上例如设置有梳齿状的开关触点21b的电路基板21、以及配置在电路基板21上的圆顶橡胶22。
圆顶橡胶22具备配置成覆盖开关触点21b的圆顶部22a、以及设置在该圆顶部22a的与开关触点21b对置的面上的碳面22b。
并且,当演奏者对键10进行按键时,键10以支点为基准朝圆顶部22a侧运动,通过设置于与圆顶部22a对置的键10的位置的凸部11,将圆顶部22a朝电路基板21侧按压,当圆顶部22a压曲变形时,碳面22b与开关触点21b抵接。
如此,开关触点21b成为短路状态,开关触点21b导通,检测到键10的按键。
反之,当演奏者停止对键10进行按键时,键10返回到图3所示的按键前的状态,与此相配合,圆顶部22a也返回到原来的状态,碳面22b从开关触点21b分离。
如此,开关触点21b变得不导通,检测到键10离键的情况。
另外,该按键检测部20与各个键10对应地设置。
此外,虽然省略图示以及说明,但是本实施方式的按键检测部20具备对键10的按键的强度即按键速度进行检测的功能(例如,基于压力传感器的压力检测来确定按键速度的功能)。
但是,检测按键速度的功能并不限定于通过压力传感器来实现,也可以为,作为开关触点21b而设置多个电独立的触点部,根据各触点部短路的时间差等来求出键10的运动的速度,而检测按键速度。
操作面板31具有供演奏者进行各种设定等的操作按钮,例如,是用于进行练习模式的使用/不使用的选择、所使用的练习模式的种类的选择、音量调整等各种设定操作等的部分。
显示部40具有显示面板41(例如,带触摸面板的液晶监视器),是进行与演奏者对操作面板31的操作相伴随的消息的显示、用于后述的练习模式的选择的显示等的部分。
另外,在本实施方式中,显示部40具有触摸面板功能,因此,显示部40能够承担操作部30的一部分功能。
音源部50是根据来自CPU80的指示而使发音部51(扬声器等)输出声音的部分,具有DSP(数字模拟处理器)、放大器。
演奏引导部60是在选择了练习模式时用于视觉地表示演奏者应当按键的键10的部分,将在之后进行说明。
因此,如图3所示,本实施方式的演奏引导部60具备LED61、以及对该LED61的点亮以及熄灭等进行控制的LED控制驱动器。
另外,LED61与各个键10对应地设置,键10的与LED61对置的部分能够透射光。
存储部70具备读取专用的存储器即ROM、以及能够进行读写的存储器即RAM。
并且,在存储部70中,除了用于进行电子乐器1的整体控制的控制程序以外,还存储有乐曲数据(例如,包含第1乐器音用数据、歌词数据、第2乐器音用数据等)、歌词音用数据(基本音波形数据)、以及与各键10对应的乐器音波形数据等,并且存储有CPU80在根据控制程序进行控制的过程中生成的数据等(例如,分析结果数据等)。
另外,也可以为,在存储部70中存储有与演奏者能够进行选曲的乐曲相应的多个乐曲数据,与各键10对应的乐器音波形数据存储于音源部50。
第1乐器音用数据是与用右手进行演奏的旋律部分对应的乐曲数据所包含的旋律数据,如后所述,具有在对右手的演奏(旋律演奏)进行练习的右手练习时、用于进行引导以使演奏者能够在正确的定时对正确的键10进行操作(按键以及离键)的数据等。
具体而言,第1乐器音用数据具有如下的数据系列:在从演奏的开始到结束为止的期间,演奏者按照与旋律部分的乐音对应的音符的排列顺序进行操作的键10的顺序所对应的分别独立的数据(以下,也称作第1乐器音的数据。)排列而成。
并且,各第1乐器音的数据包含:对应的键10的信息;与后述的第2乐器音用数据(伴奏数据)的前进相应而应当按键以及离键的定时(音符开以及音符关的定时);以及对应的键10的声音(以下,也称作第1乐器音。)的音高信息即第1音高。
另外,此处所述的对应的键10的声音(第1乐器音),是指第1乐器音的数据(第1乐器音用数据的分别独立的数据)分别是与乐曲数据所包含的旋律部分的乐音对应的音符的声音,因此,第1音高对应于乐曲数据所包含的旋律部分的音符的音高。
另一方面,在以下,为了与乐曲数据所包含的旋律部分的音符的音高即第1音高相区分,将不是乐曲数据所包含的旋律部分的音符的音高的音高记载为第2音高。
此外,第1乐器音的数据还包含与在发音时从后述的与各键10对应的乐器音波形数据中使用哪个乐器音波形数据等相关的信息,以便还能够应对自动地进行旋律演奏的自动演奏。
另外,将与第1乐器音的数据对应的乐器音波形数据、即旋律部分的乐器音波形数据记载为第1乐器音波形数据。
歌词数据具有与各第1乐器音的数据对应的分别独立的数据(以下,也称作歌词的数据。)排列而成的数据系列。
并且,各歌词的数据包含与从存储有与后述的歌声的声音对应的基本音波形数据的歌词音用数据中、使用哪个基本音波形数据等相关的信息,以便在与各第1乐器音的数据对应的键10被按键时,从发音部51连同与被按键的键10对应的第1乐器音一起对歌声进行发音。
第2乐器音用数据是与用左手进行演奏的伴奏部分对应的乐曲数据所包含的伴奏数据,如后所述,具有在对左手的演奏(伴奏演奏)进行练习的左手练习时、用于进行引导以使演奏者能够在正确的定时对正确的键10进行操作(按键以及离键)的数据等。
具体而言,与第1乐器音用数据相同,第2乐器音用数据具有如下的数据系列:在从演奏的开始到结束为止的期间,演奏者按照与伴奏部分的乐音对应的音符的排列顺序进行操作的键10的顺序所对应的分别独立的数据(以下,也称作第2乐器音的数据。)排列而成。
并且,各第2乐器音的数据包含:对应的键10的信息;应当按键以及离键的定时(音符开以及音符关的定时);以及对应的键10的声音(以下,也称作第2乐器音。)的音高信息即第3音高。
另外,此处所述的对应的键10的声音(第2乐器音),是指第2乐器音的数据(第2乐器音用数据的分别独立的数据)分别是与乐曲数据所包含的伴奏部分的乐音对应的音符的声音,因此,第3音高对应于乐曲数据所包含的伴奏部分的音符的音高。
此外,第2乐器音的数据还包含与在发音时从后述的与各键10对应的乐器音波形数据中使用哪个乐器音波形数据等相关的信息,以便还能够应对自动地进行伴奏演奏的自动演奏。
另外,将与第2乐器音的数据对应的乐器音波形数据、即伴奏部分的乐器音波形数据记载为第2乐器音波形数据。
歌词音用数据具有用于使发音部51对与歌声对应的语音进行发音的、与歌声的各语音对应的基本音波形数据。
在本实施方式中,将音高被标准化的声音波形作为基本音波形数据,作为控制部起作用的CPU80将基于第1音高生成的基本音波形数据作为歌声波形数据,而进行将该歌声波形数据向音源部50输出的输出处理,以便从发音部51对歌声进行发音。
并且,音源部50基于该输出的歌声波形数据从发音部51对歌声进行发音。
另一方面,具有上述的第1乐器音用数据、歌词数据以及第2乐器音用数据等的乐曲数据,还被作为如下数据使用:在练习双手的演奏、即用右手进行演奏的旋律的演奏以及用左手进行演奏的伴奏的演奏的双方的演奏的双手练习时,进行引导以使演奏者能够在正确的定时对正确的键10进行操作(按键以及离键)。
分析结果数据是对第1乐器音用数据进行分析而制作、且包含为了使基于歌声波形数据的来自发音部51的歌声的发音在容易听取的状态下发音而需要的信息的数据,例如,具有在从演奏的开始到结束为止的期间、与演奏者用右手进行操作的键10(与第1乐器音对应的键10)的顺序对应的分别独立的数据(以下,也称作分析结果的数据。)排列而成的数据系列。分析结果数据的详细情况将后述。
与各键10对应的乐器音波形数据,是在各键10被按键时,作为控制部起作用的CPU80为了从发音部51对乐器音进行发音而向音源部50输出的数据。
并且,在演奏者对键10进行按键时,当CPU80设定被按键的键10的音符指令(音符开指令)而将音符指令(音符开指令)向音源部50输出(发送)时,接收到音符指令(音符开指令)的音源部50按照该音符指令(音符开指令)使发音部51进行发音。
CPU80是负责电子乐器1整体的控制的部分。
并且,CPU80例如进行使与键10的按键相应的乐音经由音源部50从发音部51发音的控制、根据键10的离键而使所发音的乐音消音的控制等。
此外,CPU80在后述的练习模式中,还进行基于在练习模式中使用的数据使LED控制驱动器执行LED61的点亮熄灭的控制等。
并且,上述说明的各部(操作部30、显示部40、音源部50、演奏引导部60、存储部70以及CPU80)通过总线100以能够通信的方式连接,在各部之间能够进行所需要的数据的交换。
接着,对电子乐器1所具备的练习模式进行说明。
电子乐器1所具备的练习模式包含右手练习模式(旋律练习模式)、左手练习模式(伴奏练习模式)、以及双手练习模式(旋律以及伴奏练习模式)。
当用户选择任一个练习模式并对要演奏的乐曲进行选曲时,执行所选择的练习模式。
右手练习模式是如下的练习模式:对于用右手进行演奏的旋律部分,在应当按键的定时使LED61点亮来对应当按键的键10进行按键引导,并且,在对该按键后的键10进行离键的定时使LED61熄灭来进行离键引导,进而,自动演奏用左手进行演奏的伴奏部分,并且与旋律相配合地输出歌声。
左手练习模式是如下的练习模式:对于用左手进行演奏的伴奏部分,在应当按键的定时使LED61点亮来对应当按键的键10进行按键引导,并且,在对该按键后的键10进行离键的定时使LED61熄灭来进行离键引导,进而,自动演奏用右手进行演奏的旋律部分,并且与旋律相配合地输出歌声。
双手练习模式是如下的练习模式:对于用右手进行演奏的旋律部分以及用左手进行演奏的伴奏部分,在应当按键的定时使LED61点亮来对应当按键的键10进行按键引导,并且,在对该按键后的键10进行离键的定时使LED61熄灭来进行离键引导,进而,与旋律相配合地输出歌声。
以下,参照图4至图7对实现这样的练习模式的CPU80以及音源部50(DSP)的具体的处理顺序进行说明。
图4是表示CPU80所执行的练习模式的主流程的流程图,图5是CPU80所执行的练习模式的子流程即第1乐器音用数据分析的流程图,图6是CPU80所执行的右手练习模式的子流程即右手练习的流程图,图7是音源部50(DSP)所执行的音源部处理的流程图。
当演奏者在对操作面板31等进行操作而选择了练习模式以及乐曲之后进行规定的开始操作时,CPU80开始图4所示的主流程的处理。
如图4所示,CPU80在步骤ST11中执行了后述的第1乐器音用数据分析的处理之后,判定演奏者所选择的练习模式是否是右手练习模式(步骤ST12)。
CPU80在步骤ST12的判定结果为是的情况下,前进至后述的右手练习的处理(步骤ST13),在判定结果为否的情况下,前进至是否是左手练习模式的判定(步骤ST14)。
CPU80在步骤ST14的判定结果为是的情况下,开始左手练习的处理(步骤ST15)。
并且,在左手练习的处理中,对于用左手进行演奏的伴奏部分,在应当按键的定时使LED61点亮来对应当按键的键10进行按键引导,并且,在对该按键后的键10进行离键的定时使LED61熄灭来进行离键引导,进而,自动演奏用右手进行演奏的旋律部分,并且与旋律相配合地输出歌声。
另外,关于左手练习的旋律、伴奏以及歌声的音量,按照与之后说明的右手练习相同的音量关系从发音部51发音即可。
CPU80在步骤ST14的判定结果为否的情况下,执行余下的练习模式即双手练习模式。
具体而言,CPU80在步骤ST14的判定结果为否的情况下,开始双手练习的处理(步骤ST16)。
并且,在双手练习的处理中,对于用右手进行演奏的旋律部分以及用左手进行演奏的伴奏部分,在应当按键的定时使LED61点亮来对应当按键的键10进行按键引导,并且,在对该按键后的键10进行离键的定时使LED61熄灭来进行离键引导,进而,与旋律相配合地输出歌声。
另外,关于双手练习的旋律、伴奏以及歌声的音量,按照与之后说明的右手练习相同的音量关系从发音部51发音即可。
接着,对图5所示的第1乐器音用数据分析的处理进行说明。
该第1乐器音用数据分析的处理是CPU80所进行的处理,且是求出与第1乐器音用数据所包含的各第1乐器音的数据对应的分析结果的数据,并制作所求出的各分析结果的数据的集合体即分析结果数据的处理。
如图5所示,CPU80在步骤ST101中从存储部70中取得与所选曲的乐曲对应的乐曲数据,并且在步骤ST102中取得乐曲数据中的第1乐器音用数据的开头的第1乐器音的数据。
然后,CPU80在取得了第1乐器音的数据之后,在步骤ST103中,根据乐曲数据中的歌词数据来判定是否存在与第1乐器音的数据对应的歌词的数据,在步骤ST103的判定结果为否的情况下,CPU80在步骤ST104中,将第1乐器音的数据记录为成为存储部70的分析结果数据的数据系列的一个数据的、分析结果的数据。
CPU80在步骤ST103的判定结果为是的情况下,在步骤ST105中,从存储部70的歌词音用数据中取得与歌词的数据对应的基本音波形数据。
然后,CPU80在步骤ST106中,对所取得的基本音波形数据的音高设定第1乐器音的数据的第1音高,并且设定基本音量(UV)。
接着,CPU80在步骤ST107中,将第1音高以及基本音量(UV)被设定为与第1乐器音的数据对应的基本音波形数据连同第1乐器音的数据一起记录为成为存储部70的分析结果数据的数据系列的一个数据的、分析结果的数据。
CPU80在步骤ST104或者步骤ST107的处理结束之后,在步骤ST108中,判定在第1乐器音用数据中是否残留有下一个第1乐器音的数据。
然后,CPU80在步骤ST108的判定结果为是的情况下,在步骤ST109中,从第1乐器音用数据中取得下一个第1乐器音的数据,之后返回到步骤ST103,反复进行从步骤ST104或者步骤ST105到步骤ST107的处理。
CPU80在步骤ST108的判定结果为否的情况下,在步骤ST110中,从乐曲数据所包含的第1乐器音用数据所包含的多个音符的音高中提取第1音高中的最低的音高以及最高的音高,并计算出音高范围而设定基于音高范围的阈值。
然后,CPU80在步骤ST111中,将阈值以上的高音域的音高范围记录于分析结果数据。
例如,将所求出的音高范围的90%以上等设定为阈值即可。
如此,音高范围中的阈值以上的高音域的音高范围的区域与歌曲的高潮相对应的情况较多,利用高音域的音高范围的记录,使其反映到之后说明的音量的设定等。
接着,CPU80在步骤ST112中,执行根据乐曲数据所包含的歌词数据来判别(计算)与歌词的标题名称一致的范围的重要部分判别处理,对被判别为是重要部分的与歌词的标题名称一致的范围所对应的分析结果数据的基本音波形数据进行是重要部分的设定,并记录于分析结果数据。
另外,与歌词的标题名称一致的部分也与高潮相对应的情况较多,通过预先进行是重要部分的设定,由此使其反映到之后说明的音量的设定等。
进而,CPU80在步骤ST113中,执行根据乐曲数据所包含的歌词数据判别(计算)歌词的重复部分的重要部分判别处理,对与被判别为是重要部分的歌词的重复部分相对应的分析结果数据的基本音波形数据进行是重要部分的设定,并记录于分析结果数据。
另外,歌词的重复部分也与歌曲的高潮相对应的情况较多,通过预先进行是重要部分的设定,由此使其反映到之后说明的音量的设定等。
然后,当步骤ST113的处理结束时,返回到图4的主流程的处理。
接着,对图4的步骤ST13的处理、即图6所示的右手练习的处理进行说明。
图6所示的右手练习的处理是CPU80所进行的处理,且是主要对右手练习模式所需要的处理中、除了自动演奏以外的部分进行表示的处理,实际上,在停止自动演奏的进行时,向音源部50发送使其进行该处理的指令,此外,在再次开始自动演奏的进行时,也向音源部50发送使其进行该处理的指令。
如图6所示,CPU80在步骤ST201中,从存储部70中取得与所选曲的乐曲对应的第2乐器音用数据(伴奏数据)以及分析结果数据,并且在步骤ST202中,将从发音部51对基于与第2乐器音用数据的第2乐器音的数据对应的第2乐器音波形数据的发音进行发音时的音量设为第4音量(BV),并开始伴奏的自动演奏。
另外,当开始伴奏的自动演奏时,CPU80执行依次受理与根据第2乐器音用数据指定的音高相应的第2发音指示的发音指示受理处理、以及与通过发音指示受理处理受理了第2发音指示的情况相应而将用于从发音部51发音比后述的第1音量小的第4音量的第2乐器音的第2乐器音波形数据依次向音源部50输出的输出处理,并进行使伴奏进行自动演奏的处理。
然后,CPU80在步骤ST203中,取得分析结果数据的开头的分析结果的数据,在步骤ST204中,基于在步骤ST203中取得的开头的分析结果的数据,判定是否是第1乐器音的数据的音符开的定时。
在该步骤ST204的判定结果为否的情况下,CPU80在步骤ST205中,判定是否是第1乐器音的数据的音符关的定时,在步骤ST205的判定结果为否的情况下,再次进行步骤ST204的判定。
即,CPU80反复进行步骤ST204以及步骤ST205的判定,直至步骤ST204或者步骤ST205的某一个的判定结果成为是为止。
CPU80在步骤ST204的判定结果为是的情况下,在步骤ST206中,使应当按键的键10的LED61点亮,并且在步骤ST207中,判定使LED61点亮后的键10是否被按键。
此处,在步骤ST207的判定结果为否的情况下,CPU80在步骤ST208中,在持续进行了当前的基于第2乐器音波形数据的发音的状态下停止伴奏的自动演奏的进行,并且反复进行步骤ST207的判定处理。
另一方面,在步骤ST207的判定结果为是的情况下,CPU80在步骤ST209中,判定是否处于自动演奏的进行停止中,在该判定结果为是的情况下,在步骤ST210中,再次开始自动演奏的进行,并前进至步骤ST211,在该判定结果为否的情况下,无需再次开始自动演奏的进行的处理,因此,不进行步骤ST210的处理而前进至步骤ST211。
接着,CPU80在步骤ST211中,根据按键速度来设定被按键的键10(与第1乐器音对应的键10)的第1基本音量(MV),并且在步骤ST212中,根据按键速度来设定被按键的键10(与第1乐器音对应的键10)的声音的发音用的第1音量(MV1)。
如此,使用基于与按键速度相关的速度信息的第1基本音量(MV)以及作为伴奏的音量的第4音量(BV),将第4音量(BV)与对第1基本音量(MV)乘以规定的系数而得到的值相加,由此求出第1音量(MV1),因此,如上述那样,第4音量(BV)成为比第1音量(MV1)小的音量。
接着,CPU80在步骤ST213中,判定是否存在与第1乐器音的数据对应的歌词的数据。
CPU80在步骤ST213的判定结果为否的情况下,在步骤ST214中,执行受理与通过按键而指定的键10(与第1乐器音对应的键10)的第1音高相应的乐音的第1发音指示的发音指示受理处理,并根据通过发音指示受理处理而受理的第1发音指示,设定将用于对第1音量(MV1)的第1乐器音进行发音的第1乐器音波形数据向音源部50输出的输出处理用的音符指令A(音符开)。
另一方面,在步骤ST213的判定结果为是的情况下,CPU80在步骤ST215中,基于在步骤ST203中取得的分析结果的数据的基本音波形数据以及第1音高,设定用于作为第1音高的基本音波形数据而生成的歌声波形数据的发音的第2音量(UV1)。
具体而言,通过将在步骤ST212中设定的第1音量(MV1)与在步骤ST203中取得的分析结果的数据的基本音量(UV)相加,由此求出第2音量(UV1)。
因此,第2音量(UV1)成为比第1音量(MV1)大的音量。
另外,如之后要说明的那样,当在步骤ST230中进行取得分析结果数据的下一个分析结果的数据的处理的情况下,在步骤ST215中,通过将在步骤ST212中设定的第1音量(MV1)与在步骤ST230中取得的下一个分析结果的数据的基本音量(UV)相加,由此求出第2音量(UV1),在该情况下,第2音量(UV1)也成为比第1音量(MV1)大的音量。
因此,始终通过比以第1音量发音的第1乐器音波形数据的音量大的音量来进行歌声波形数据的发音。
此外,伴奏的第2乐器音波形数据以比第1音量小的第4音量发音,因此,始终通过比以第4音量发音的第2乐器音波形数据的音量大的音量来进行歌声波形数据的发音。
接着,CPU80在步骤ST216中,判定是否对分析结果数据的基本音波形数据进行重要部分的设定。
CPU80在步骤ST216的判定结果为否的情况下,在步骤ST217中,执行受理与通过按键而指定的键10(与第1乐器音对应的键10)的第1音高相应的乐音的第1发音指示的发音指示受理处理,并根据通过发音指示受理处理而受理的第1发音指示,设定将用于从发音部51对第1音量的第1乐器音进行发音的第1乐器音波形数据向音源部50输出、并且将用于以第2音量(UV1)从发音部51对歌声进行发音的歌声波形数据向音源部50输出的输出处理用的音符指令A(音符开)。
另外,在设定步骤ST217的音符指令A(音符开)时,参照在图5的步骤ST111中记录于分析结果数据的阈值以上的高音域的音高范围,在通过按键而指定的键10(与第1乐器音对应的键10)的第1音高包含在该高音域的音高范围内的情况下,进行代替用于歌声波形数据的发音的第2音量(UV1)而设为比第2音量大出α音量的量的第3音量(UV2)的处理。
另一方面,在步骤ST216的判定结果为是的情况下,在图5的步骤ST112以及步骤ST113的重要部分判别处理中,会判别为相当于重要部分,因此,CPU80在步骤ST218中,代替用于歌声波形数据的发音的第2音量(UV1)而设定比第2音量大出α音量的量的第3音量(UV2)。
即,该歌声波形数据相当于被判别为是重要部分的输出部分的歌声,因此,在步骤ST218中,执行用于输出用于对比第2音量(UV1)大的第3音量(UV2)的歌声进行发音的歌声波形数据的音量设定处理(强调为以较大的音量进行发音的处理)。
然后,CPU80在步骤ST219中,执行受理与通过按键而指定的键10(与第1乐器音对应的键10)的第1音高相应的乐音的第1发音指示的发音指示受理处理,并根据通过发音指示受理处理而受理的第1发音指示,设定将用于从发音部51对第1音量(MV1)的第1乐器音进行发音的第1乐器音波形数据向音源部50输出、并且将用于以第3音量(UV2)从发音部51对歌声进行发音的歌声波形数据向音源部50输出的输出处理用的音符指令A(音符开)。
如上所述,如果步骤ST214、步骤ST217、步骤ST219的任一个的处理结束,则CPU80在步骤ST220中,通过向音源部50输出音符指令A(音符开)来执行输出处理,如参照图7在之后要说明的那样,使音源部50进行与音符开指令相应的处理。
接着,CPU80在步骤ST221中,判定与音符开的当前的第1乐器音相关的音符关是否结束,在该判定结果为否的情况下,返回到步骤ST204。
结果,在与音符开的当前的第1乐器音相关的音符关未结束的情况下,CPU80反复进行步骤ST205的判定处理,等待第1乐器音的数据的音符关的定时。
然后,当步骤ST205的判定结果成为是时,CPU80在步骤ST222中,使应当离键的键10的LED61熄灭,并且在步骤ST223中,判定使LED61熄灭后的键10是否离键。
此处,在步骤ST223的判定结果为否的情况下,CPU80在步骤ST224中,在持续进行了当前的基于第2乐器音波形数据的发音的状态下停止伴奏的自动演奏的进行,并且反复进行步骤ST223的判定处理。
另一方面,在步骤ST223的判定结果为是的情况下,CPU80在步骤ST225中,判定是否处于自动演奏的进行停止中,在该判定结果为是的情况下,在步骤ST226中,再次开始自动演奏的进行,并前进至步骤ST227。
反之,在步骤ST223的判定结果为否的情况下,无需再次开始自动演奏的进行的处理,CPU80不进行步骤ST226的处理而前进至步骤ST227。
接着,CPU80在步骤ST227中,设定所离键的键10(与第1乐器音对应的键10)的音符指令A(音符关),并且在步骤ST228中,向音源部50输出音符指令A(音符关),如参照图7在之后要说明的那样,使音源部50进行与音符关指令相应的处理。
之后,CPU80在步骤ST221中,判定与音符开的当前的第1乐器音相关的音符关是否结束,在该判定结果为是的情况下,在步骤ST229中,判定在分析结果数据中是否残留有下一个分析结果的数据。
然后,CPU80在步骤ST229的判定结果为是的情况下,在步骤ST230中取得下一个分析结果的数据,之后返回到步骤ST204,反复进行步骤ST204到步骤ST229的处理,而在步骤ST229的判定结果为否的情况下,返回到图4所示的主流程,全部处理结束。
接着,参照图7对前进至步骤ST220或者步骤ST228时所实施的音源部处理的内容进行说明。
该音源部处理是音源部50的DSP(以下,简称为DSP。)作为音控制部起作用而进行的处理,与从CPU80向音源部50的指令发送相应地执行。
如图7所示,DSP在步骤ST301中反复判断是否从CPU80接收到指令。
DSP在步骤ST301的判定结果为是的情况下,在步骤ST302中判定所接收的指令是否是音符指令A,在该判定结果为否的情况下,在步骤ST303中,进行音符指令A以外的处理、例如伴奏部分的处理(与伴奏的自动演奏相关联的处理)等。
另一方面,在步骤ST302的判定结果为是的情况下,DSP在步骤ST304中判定所接收的音符指令A是否是音符开指令。
DSP在步骤ST304的判定结果为是的情况下,在步骤ST305中,判定在音符指令A(音符开指令)中是否存在歌声波形数据。
然后,在步骤ST305的判定结果为否的情况下,DSP在步骤ST306中,执行对第1乐器音进行发音的处理,即,使发音部51以第1音量(MV1)对第1乐器音波形数据进行发音的处理。
此外,在步骤ST305的判定结果为是的情况下,DSP在步骤ST307中,执行对第1乐器音以及歌声进行发音的处理,即,使发音部51以第1音量(MV1)对第1乐器音波形数据进行发音、并且使发音部51以第2音量(UV1)或者第3音量(UV2)对歌声波形数据进行发音的处理。
另外,根据在之前说明的音符指令A(音符开指令)的设定中设定了第2音量(UV1)与第3音量(UV2)的哪个,来决定歌声波形数据以第2音量(UV1)与第3音量(UV2)的哪个发音。
另一方面,在步骤ST304的判定结果为否的情况下,即,在接收指令是音符关指令的情况下,DSP在步骤ST308中,执行使从发音部51发音的第1乐器音以及歌声消音的处理。
如以上那样,根据第1实施方式,在练习模式中输出的歌声的音量始终以比旋律以及伴奏的音量大的音量从发音部51发音,因此容易听见歌声。
而且,相当于歌词的高潮等的部分,音量进一步变大,因此,从发音部51对动人的歌声进行发音。
然而,在上述实施方式中,根据图6的步骤ST207的判定,仅在按照引导的键10被按键时处理才前进,因此,通过按键而指定的键10(与第1乐器音对应的键10)的第1音高成为乐曲数据所包含的音符的音高。
但是,也可以包括如下情况:不设置步骤ST207的判定,通过按键而指定的键10(与第1乐器音对应的键10)的音高为不是乐曲数据所包含的音符的音高的第2音高。
在该情况下,只要演奏者能够设定上述说明的所指定的键10(与第1乐器音对应的键10)的第1音高成为乐曲数据所包含的音符的音高的第1模式、以及包括为不是乐曲数据所包含的音符的音高的第2音高的情况的第2模式即可。
然后,只要根据演奏者设定了第1模式与第2模式的哪个,CPU80进行选择第1模式与第2模式的模式选择处理、并执行第1模式与第2模式的哪个即可。
此外,在选择了第2模式的情况下,如果通过按键而指定的键10(与第1乐器音对应的键10)的音高为不是乐曲数据所包含的音符的音高的第2音高,则只要将基于第2音高生成的基本音波形数据设为歌声波形数据即可。
进而,在第2模式中,也可以省略基于LED61的点亮熄灭的按键以及离键的引导。
(第1实施方式的变形例)
接着,参照图8对本发明所涉及的第1实施方式的变形例进行说明。
图8是表示第1实施方式的变形例的流程图。
另外,本实施方式的电子乐器1的基本内容也与已经在第1实施方式中说明了的相同,因而,在以下,主要对与第1实施方式不同的部分进行说明,对于与第1实施方式相同的方面有时省略说明。
如图8所示,第1实施方式的变形例与图4所示的第1实施方式的主流程的不同点在于,在CPU80所进行的主流程中具备步骤ST17的处理。
在步骤ST17中,CPU80进行基于第1音高或者第2音高生成的歌声波形数据的修正。
具体而言,具备对基于第1音高或者第2音高生成的基本音波形数据所包含的某个频带进行滤波处理的滤波处理部,通过该滤波处理部对基于第1音高或者第2音高生成的基本音波形数据所包含的某个频带进行滤波处理,由此生成歌声波形数据。
例如,作为滤波处理,可以考虑对存在埋没于第1乐器音(旋律音)以及第2乐器音(伴奏音)而难以听见的可能性的频带的振幅进行放大而使其容易听见的处理、对基本音波形数据所包含的频率的高频域部分的振幅进行放大而使声道特征清楚来强调个性的处理等。
(第2实施方式)
接着,参照图9至图12对本发明所涉及的第2实施方式进行说明。
图9是表示CPU80所执行的练习模式的主流程的流程图,图10是CPU80所执行的右手练习模式的子流程即右手练习的流程图,图11是CPU80所执行的右手练习模式的子流程即第1乐器音用数据分析的流程图,图12是音源部50(DSP)所执行的音源部处理的流程图。
另外,本实施方式的电子乐器1的基本内容也与已经在第1实施方式中说明了的相同,因而,在以下,主要仅对与第1实施方式不同的部分进行说明,对于与第1实施方式相同的方面有时省略说明。
图9至图12所示的第2实施方式与第1实施方式的不同点主要在于,第1乐器音用数据分析处理不在主流程中进行而在右手练习处理中进行,以及用于歌声波形数据的发音的音量的设定由音源部处理进行。
当演奏者在对操作面板31等进行操作而选择了练习模式以及乐曲之后、进行规定的开始操作时,CPU80开始图9所示的主流程的处理。
如图9所示,CPU80在步骤ST21中,判定演奏者所选择的练习模式是否是右手练习模式。
CPU80在步骤ST21的判定结果为是的情况下,前进至后述的右手练习的处理(步骤ST22),在判定结果为否的情况下,前进至是否是左手练习模式的判定(步骤ST23)。
CPU80在步骤ST23的判定结果为是的情况下,开始左手练习的处理(步骤ST24)。
然后,在左手练习的处理中,对于用左手进行演奏的伴奏部分,在应当对应当按键的键10进行按键的定时使LED61点亮来进行按键引导,并且在对该按键后的键10进行离键的定时使LED61熄灭来进行离键引导,进而,对用右手进行演奏的旋律部分进行自动演奏,并且与旋律相匹配地输出歌声。
另外,对于左手练习的旋律、伴奏以及歌声的音量,只要按照与之后说明的右手练习相同的音量关系从发音部51进行发音即可。
CPU80在步骤ST23的判定结果为否的情况下,执行余下的练习模式即双手练习模式。
具体而言,CPU80在步骤ST23的判定结果为否的情况下,开始双手练习的处理(步骤ST25)。
然后,在双手练习的处理中,对于用右手进行演奏的旋律部分以及用左手进行演奏的伴奏部分,在应当对应当按键的键10进行按键的定时使LED61点亮来进行按键引导,并且在对该按键后的键10进行离键的定时使LED61熄灭来进行离键引导,进而,与旋律相匹配地输出歌声。
另外,对于双手练习的旋律、伴奏以及歌声的音量,只要按照与之后说明的右手练习相同的音量关系从发音部51进行发音即可。
然后,在前进至上述的步骤ST22的情况下,由CPU80执行图10所示的右手练习的处理。
具体而言,如图10所示,CPU80在步骤ST401中,从存储部70中取得与所选曲的乐曲对应的第2乐器音用数据(伴奏数据)以及第1乐器音用数据(旋律数据),并且在步骤ST402中,将从发音部51对基于与第2乐器音用数据对应的第2乐器音波形数据的发音进行发音时的音量设为第4音量(BV),并开始伴奏的自动演奏。
另外,与第1实施方式相同,当开始伴奏的自动演奏时,CPU80执行依次受理与根据第2乐器音用数据指定的音高相应的第2发音指示的发音指示受理处理、以及与通过发音指示受理处理受理了第2发音指示的情况相应地将用于从发音部51对比第1音量小的第4音量的第2乐器音进行发音的第2乐器音波形数据依次向音源部50输出的输出处理,并进行使伴奏进行自动演奏的处理。
然后,CPU80当在步骤ST403中执行了后述的第1乐器音用数据分析的处理之后,在步骤ST404中取得分析结果数据的开头的分析结果的数据。
接着,CPU80在步骤ST405中判定是否是第1乐器音的数据的音符开的定时,并且步骤ST406中,判定是否是第1乐器音的数据的音符关的定时,反复进行步骤ST405以及步骤ST406的判定直至任一个判定结果成为是为止。
该处理与第1实施方式的图6的步骤ST204以及步骤ST205相同。
然后,CPU80在步骤ST405的判定结果为是的情况下,在步骤ST407中,使应当按键的键10的LED61点亮,并且在步骤ST408中,判定使LED61点亮后的键10是否被按键。
此处,与第1实施方式的图6的步骤ST208以及步骤ST209相同,在步骤ST408的判定结果为否的情况下,CPU80在步骤ST409中,在持续进行了当前的基于第2乐器音波形数据的发音的状态下停止伴奏的自动演奏的进行,并且反复进行步骤ST408的判定处理。
另一方面,在步骤ST408的判定结果为是的情况下,CPU80在步骤ST410中,判定是否处于自动演奏的进行停止中,在该判定结果为是的情况下,在步骤ST411中,再次开始自动演奏的进行,并前进至步骤ST412,在该判定结果为否的情况下,无需再次开始自动演奏的进行的处理,因此,不进行步骤ST411的处理而前进至步骤ST412。
接着,CPU80与第1实施方式的图6的步骤ST211以及步骤ST212相同,在步骤ST412中,根据按键速度来设定被按键的键10(与第1乐器音对应的键10)的声音(第1乐器音)的第1基本音量(MV),并且在步骤ST413中,设定被按键的键10(与第1乐器音对应的键10)的声音的发音用的第1音量(MV1)。
然后,CPU80在步骤ST414中,执行受理与通过按键而指定的键10(与第1乐器音对应的键10)的第1音高相应的乐音的第1发音指示的发音指示受理处理,并根据通过发音指示受理处理而受理的第1发音指示来设定将用于对第1音量(MV1)的第1乐器音进行发音的第1乐器音波形数据向音源部50输出的输出处理用的音符指令A(音符开)。
另外,在分析结果的数据中包含基本音波形数据的情况下,在设定该音符指令A(音符开)时,还设定作为第1音高的基本音波形数据而生成的歌声波形数据。
此外,在后述的第1乐器音用数据分析的处理(图11)中,在对于分析结果数据的基本音波形数据存在重要部分的设定的情况下,在设定该音符指令A(音符开)时,对于作为第1音高的基本音波形数据而生成的歌声波形数据进行重要部分的设定。
进而,在设定该音符指令A(音符开)时,在作为第1音高的基本音波形数据而生成的歌声波形数据包含于分析结果数据的阈值以上的高音域的音高范围的情况下,也对于歌声波形数据进行为阈值以上的高音域的设定。
当音符指令A(音符开)的设定结束时,CPU80在步骤ST415中,通过向音源部50输出音符指令A(音符开)来执行输出处理,如参照图12在之后说明的那样,使音源部50进行与音符开指令相应的处理。
此外,CPU80在步骤ST416中,判定与音符开的当前的第1乐器音相关的音符关是否结束,在该判定结果为否的情况下,返回到步骤ST405。
结果,与第1实施方式相同,在与音符开的当前的第1乐器音相关的音符关未结束的情况下,CPU80反复进行步骤ST406的判定处理,等待第1乐器音的数据的音符关的定时。
然后,CPU80在步骤ST406的判定结果为是的情况下,执行与第1实施方式的图6的步骤ST222到步骤ST228相同的处理即步骤ST417到步骤ST423的处理,并再次在步骤ST416中判定与音符开的当前的第1乐器音相关的音符关是否结束。
在该判定结果为是的情况下,在步骤ST424中,判定在分析结果数据中是否残留有下一个分析结果的数据。
然后,CPU80在步骤ST424的判定结果为是的情况下,在步骤ST425中取得下一个分析结果的数据,之后返回到步骤ST405,反复进行步骤ST405到步骤ST424的处理,而在步骤ST424的判定结果为否的情况下,返回到图9的主流程,整体的处理结束。
此处,通过将图10的流程图的步骤ST412到步骤ST415与图6的流程图的步骤ST215到步骤ST220进行对比可知,虽然整体的处理类似,但是在图10的流程图中,未进行对歌声波形数据进行发音时的音量(第2音量或者第3音量)的设定,该部分通过参照图12后述的音源部处理来进行。
接着,在说明图12的流程之前,对图11所示的第1乐器音用数据分析的处理进行说明。
该处理是与在第1实施方式的图4的步骤ST11中进行的处理类似的处理,但是在第2实施方式中在作为图10的步骤ST403的处理来实施这一点上不同。
另外,该第1乐器音用数据分析的处理是CPU80所进行的处理这一点上相对于第1实施方式并未改变,第1乐器音用数据分析的处理是求出与第1乐器音用数据所包含的各第1乐器音的数据对应的分析结果的数据、并制作该所求出的各分析结果的数据的集合体即分析结果数据的处理。
如图11所示,CPU80在步骤ST501中,从存储部70中取得与所选曲的乐曲对应的乐曲数据,并且在步骤ST502中取得乐曲数据中的第1乐器音用数据的开头的第1乐器音的数据。
然后,CPU80在取得了第1乐器音的数据之后,在步骤ST503中,判定在乐曲数据中的歌词数据中是否存在与第1乐器音的数据对应的歌词的数据,在步骤ST503的判定结果为否的情况下,CPU80在步骤ST504中,将第1乐器音的数据记录为成为存储部70的分析结果数据的数据系列的一个数据的、分析结果的数据。
CPU80在步骤ST503的判定结果为是的情况下,在步骤ST505中,从存储部70的歌词音用数据中取得与歌词的数据对应的基本音波形数据。
然后,CPU80在步骤ST506中,将第1乐器音的数据的第1音高设定为所取得的基本音波形数据的音高。
此处,在与该步骤ST506对应的第1实施方式的图5的步骤ST106中,设定有对于基本音波形数据的基本音量(UV),但是在第2实施方式中音量的设定通过图12所示的音源部处理来进行,因此,在步骤ST506中不进行基本音量(UV)的设定。
接着,CPU80在步骤ST507中,将以与第1乐器音的数据对应的方式设定有第1音高的基本音波形数据连同第1乐器音的数据一起记录为成为存储部70的分析结果数据的数据系列的一个数据的、分析结果的数据。
CPU80在步骤ST504或者步骤ST507的处理结束之后,在步骤ST508中,判定在第1乐器音用数据中是否残留有下一个第1乐器音的数据。
然后,CPU80在步骤ST508的判定结果为是的情况下,在步骤ST509中从第1乐器音用数据取得下一个第1乐器音的数据,之后返回到步骤ST503,反复进行步骤ST504或者步骤ST505到步骤ST507的处理。
CPU80在步骤ST508的判定结果为否的情况下,与第1实施方式的图5的步骤ST110以及步骤ST111相同,在步骤ST510中,从乐曲数据所包含的第1乐器音用数据所包含的多个音符的音高中提取第1音高中的最低的音高以及最高的音高,计算出音高范围而设定基于音高范围的阈值,并且在步骤ST511中,将阈值以上的高音域的音高范围记录于分析结果数据。
例如,在该情况下,作为阈值,也与第1实施方式相同地设定音高范围的90%以上等即可。
此外,与第1实施方式的图5的步骤ST112相同,CPU80在步骤ST512中,执行从乐曲数据所包含的歌词数据中取得歌词的标题名称的数据,将所制作的分析结果数据的第2歌词音的数据的排列与标题名称进行比较,而对与标题名称一致的范围进行判别(计算)的重要部分判别处理,对于相当于被判别为是重要部分的与歌词的标题名称一致的范围的、分析结果数据的基本音波形数据进行是重要部分的设定,并记录于分析结果数据。
进而,与第1实施方式的图5的步骤ST113相同,CPU80在步骤ST513中,执行从乐曲数据所包含的歌词数据中对歌词的重复部分进行判别(计算)的重要部分判别处理,对于与被判别为是重要部分的歌词的重复部分相当的分析结果数据的基本音波形数据进行是重要部分的设定,并记录于分析结果数据,之后返回到图10的处理。
如上所述,图11所示的第1乐器音用数据分析的处理成为与图5所示的第1乐器音用数据分析的处理大致类似的处理,但是在步骤ST506中未设定有对于基本音波形数据的基本音量(UV)这一点不同。
接着,对图12所示的音源部处理进行说明。
图12所示的音源部处理是音源部50的DSP(以下,简称为DSP。)作为音控制部起作用而进行的处理,与从CPU80向音源部50的指令发送相应地执行。
如将图12与图7进行对比可知的那样,图12所示的步骤ST601到步骤ST604以及步骤ST612为与图7所示的步骤ST301到步骤ST304以及步骤ST308相同的处理,因此省略说明,在以下,对步骤ST605到步骤ST611进行说明。
DSP在步骤ST604的判定结果为是的情况下,在步骤ST605中,判定在音符指令A(音符开)中是否存在歌声波形数据。
然后,在步骤ST605的判定结果为否的情况下,DSP在步骤ST606中,执行对第1乐器音进行发音的处理。
具体而言,基于音符指令A(音符开)所包含的第1乐器音波形数据以及第1音量(MV1),DSP执行使发音部51以第1音量(MV1)对第1乐器音波形数据进行发音的处理。
另一方面,在步骤ST605的判定结果为是的情况下,DSP执行对歌声波形数据的发音用的第2音量(UV1)进行设定的处理。
具体而言,与第1实施方式的第2音量(UV1)相同,设定将对于成为歌声波形数据的基础的基本音波形数据的基本音量(UV)与第1音量(MV1)相加而得到的第2音量(UV1)。
然后,DSP在步骤ST608中,判定音符指令A(音符开)所包含的歌声波形数据是否是重要部分。
DSP在该判定结果为否的情况下,在步骤ST609中,执行对第1音量(MV1)的第1乐器音以及第2音量(UV1)或者第3音量(UV2)的歌声进行发音的处理。
具体而言,在未对歌声波形数据进行阈值以上的高音域的设定的情况下,执行使发音部51以第1音量(MV1)对第1乐器音波形数据进行发音、并且使发音部51以第2音量(UV1)对歌声波形数据进行发音的处理。
反之,在对歌声波形数据进行阈值以上的高音域的设定的情况下,执行使发音部51以第1音量(MV1)对第1乐器音波形数据进行发音、并且使发音部51以比第2音量大出α音量的量的第3音量(UV2)对歌声波形数据进行发音的处理。
另一方面,在步骤ST608的判定结果为是的情况下,DSP在步骤ST610中,执行对于歌声波形数据代替用于发音的第2音量(UV1)而设定比第2音量大出α音量的量的第3音量(UV2)的处理。
然后,DSP在步骤ST611中,执行对第1音量(MV1)的第1乐器音以及第3音量(UV2)的歌声进行发音的处理。
即,执行使发音部51以第1音量(MV1)对第1乐器音波形数据进行发音、并且使发音部51以比第2音量大出α音量的量的第3音量(UV2)对歌声波形数据进行发音的处理。
如以上那样,在第2实施方式中,使作为音源部50的音控制部(另外,也简称为控制部。)起作用的DSP进行在第1实施方式中由CPU80进行的处理的一部分(例如,歌声波形数据的音量设定等),即便如此也能够与第1实施方式相同,在练习模式中输出的歌声的音量始终能够以比旋律以及伴奏的音量大的音量从发音部51进行发音,能够容易地听见歌声。
此外,也能够使与歌词的高潮等相当的部分的音量进一步变大,也能够从发音部51对动人的歌声进行发音。
以上,关于具体的实施方式,对本发明的电子乐器1进行了说明,但本发明并不限定于上述的具体的实施方式。
例如,在上述的实施方式中,表示了具备进行整体控制的CPU80以及进行音源部50的控制的DSP,并使DSP作为使发音部51进行发音的音控制部起作用的情况,但是并不一定需要如此。
例如,也可以省略音源部50的DSP,CPU80兼任音源部50的控制,反之,也可以使音源部50的DSP兼任整体控制而省略CPU80。
在本实施例中,由演奏者指定音高,由此,CPU80执行歌词有无判别处理,在具有歌词数据的情况下(例如,图6的ST213的是),输出与所指定的音高相应的第1乐器音以及歌声音,在没有歌词数据的情况下(例如,图6的ST213的否),不输出歌声音而仅输出第1乐器音。
但是,在具有歌词数据的情况下(例如,图6的ST213的是),当然也可以不输出上述第1乐器音而仅输出歌词音。
此外,在演奏者用双手进行演奏的情况下,例如在用右手演奏旋律部分、用左手演奏伴奏部分的情况下,也能够应用本发明。即,CPU80执行判别所指定的音高是旋律部分以及伴奏部分的哪个部分的部分判别处理。由此,上述旋律部分以及上述伴奏部分的各音量被设定为,基于旋律部分的音量成为比基于伴奏部分的音量大的音量。
如此,本发明并不限定于具体的实施方式,在本发明的技术范围内包括实现本发明的目的的范围内的各种变形、改良等,这对于本领域技术人员而言从专利请求范围的记载能够明确得知。

Claims (9)

1.一种电子乐器,具备:
多个操作件,用于指定音高;以及
处理器,
上述处理器执行如下处理:
发音指示受理处理,受理与通过上述多个操作件中的任一个操作件指定的指定音高相应的发音指示;
乐器音发音处理,在不存在与上述指定音高对应的歌词的情况下,基于上述发音指示,使发音部对与上述指定音高相应的乐器音进行发音;
歌声发音处理,在存在与上述指定音高对应的歌词的情况下,基于上述发音指示,使上述发音部对与上述歌词以及上述指定音高相应的歌声进行发音;以及
重要部分判别处理,从乐曲数据中判别乐曲的重要部分,
上述歌声发音处理使上述发音部以比与上述发音指示相应的发音定时未包含于上述重要部分的情况下的歌声大的音量、对与上述发音指示相应的发音定时包含于上述重要部分的情况下的歌声进行发音。
2.如权利要求1所述的电子乐器,其中,
上述处理器执行歌词有无判断处理,在该歌词有无判断处理中,基于歌词数据来判断有无与上述指定音高对应的上述歌词。
3.如权利要求1所述的电子乐器,其中,
上述处理器执行伴奏发音处理,在该伴奏发音处理中,使上述发音部以比通过上述乐器音发音处理发音的上述乐器音以及通过上述歌声发音处理发音的上述歌声小的音量,与上述乐器音或者上述歌声的发音相匹配地对与上述乐器音或者上述歌声相应的伴奏进行发音。
4.如权利要求3所述的电子乐器,其中,
上述处理器执行部分判别处理,在该部分判别处理中,判别上述指定音高是旋律部分以及伴奏部分的哪个部分,
将上述旋律部分以及上述伴奏部分的各音量设定为,基于上述判别出的上述旋律部分的音量成为比基于上述判别出的上述伴奏部分的音量大的音量。
5.如权利要求1所述的电子乐器,其中,
上述多个操作件是具有多个白键以及多个黑键的键盘,
发音指示受理处理受理与通过演奏者指定上述键盘所包含的键而得到的速度值相应的上述发音指示,
上述歌声发音处理为,使上述发音部以与上述速度值相应的第1音量对上述乐器音进行发音,并且使上述发音部以比上述第1音量大的第2音量对上述歌声进行发音。
6.如权利要求1所述的电子乐器,其中,
上述处理器执行滤波处理,在该滤波处理中,对与上述指定音高相应的基本音波形数据所包含的某个频带的振幅进行放大,由此生成上述歌声的特征被强调的歌声数据,
上述歌声发音处理使上述发音部对基于通过上述滤波处理而生成的上述歌声数据的歌声进行发音。
7.如权利要求1所述的电子乐器,其中,
上述重要部分至少包含根据乐曲决定的高音域的部分、歌词的重复部分、以及包含歌词的标题的部分的任一个。
8.一种电子乐器的控制方法,使具备用于指定音高的多个操作件的电子乐器的计算机执行如下处理:
发音指示受理处理,受理与通过上述多个操作件中的任一个操作件指定的指定音高相应的发音指示;
乐器音发音处理,在不存在与上述指定音高对应的歌词的情况下,基于上述发音指示,使发音部对与上述指定音高相应的乐器音进行发音;
歌声发音处理,在存在与上述指定音高对应的歌词的情况下,基于上述发音指示,使上述发音部对与上述歌词以及上述指定音高相应的歌声进行发音;以及
重要部分判别处理,从乐曲数据中判别乐曲的重要部分,
上述歌声发音处理使上述发音部以比与上述发音指示相应的发音定时未包含于上述重要部分的情况下的歌声大的音量、对与上述发音指示相应的发音定时包含于上述重要部分的情况下的歌声进行发音。
9.一种记录介质,记录有电子乐器的控制方法,该电子乐器的控制方法使具备用于指定音高的多个操作件的电子乐器的计算机执行如下处理:
发音指示受理处理,受理与通过上述多个操作件中的任一个操作件指定的指定音高相应的发音指示;
乐器音发音处理,在不存在与上述指定音高对应的歌词的情况下,基于上述发音指示,使发音部对与上述指定音高相应的乐器音进行发音;
歌声发音处理,在存在与上述指定音高对应的歌词的情况下,基于上述发音指示,使上述发音部对与上述歌词以及上述指定音高相应的歌声进行发音;以及
重要部分判别处理,从乐曲数据中判别乐曲的重要部分,
上述歌声发音处理使上述发音部以比与上述发音指示相应的发音定时未包含于上述重要部分的情况下的歌声大的音量、对与上述发音指示相应的发音定时包含于上述重要部分的情况下的歌声进行发音。
CN201810238752.XA 2017-03-23 2018-03-22 电子乐器、其控制方法以及记录介质 Active CN108630186B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017057257A JP6497404B2 (ja) 2017-03-23 2017-03-23 電子楽器、その電子楽器の制御方法及びその電子楽器用のプログラム
JP2017-057257 2017-03-23

Publications (2)

Publication Number Publication Date
CN108630186A CN108630186A (zh) 2018-10-09
CN108630186B true CN108630186B (zh) 2023-04-07

Family

ID=63583544

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810238752.XA Active CN108630186B (zh) 2017-03-23 2018-03-22 电子乐器、其控制方法以及记录介质

Country Status (3)

Country Link
US (1) US10304430B2 (zh)
JP (1) JP6497404B2 (zh)
CN (1) CN108630186B (zh)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11282407B2 (en) * 2017-06-12 2022-03-22 Harmony Helper, LLC Teaching vocal harmonies
JP7052339B2 (ja) * 2017-12-25 2022-04-12 カシオ計算機株式会社 鍵盤楽器、方法及びプログラム
JP6587008B1 (ja) * 2018-04-16 2019-10-09 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
JP6587007B1 (ja) * 2018-04-16 2019-10-09 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
JP6547878B1 (ja) 2018-06-21 2019-07-24 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
JP6610715B1 (ja) 2018-06-21 2019-11-27 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
JP6610714B1 (ja) * 2018-06-21 2019-11-27 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
JP7331366B2 (ja) * 2019-01-22 2023-08-23 ヤマハ株式会社 演奏システム、演奏モード設定方法および演奏モード設定装置
CN109712596A (zh) * 2019-03-12 2019-05-03 范清福 新型扬琴
JP7059972B2 (ja) 2019-03-14 2022-04-26 カシオ計算機株式会社 電子楽器、鍵盤楽器、方法、プログラム
JP6939922B2 (ja) 2019-03-25 2021-09-22 カシオ計算機株式会社 伴奏制御装置、伴奏制御方法、電子楽器及びプログラム
JP7263998B2 (ja) * 2019-09-24 2023-04-25 カシオ計算機株式会社 電子楽器、制御方法およびプログラム
JP7088159B2 (ja) 2019-12-23 2022-06-21 カシオ計算機株式会社 電子楽器、方法及びプログラム
JP7180587B2 (ja) 2019-12-23 2022-11-30 カシオ計算機株式会社 電子楽器、方法及びプログラム
JP7419830B2 (ja) * 2020-01-17 2024-01-23 ヤマハ株式会社 伴奏音生成装置、電子楽器、伴奏音生成方法および伴奏音生成プログラム
JP7036141B2 (ja) * 2020-03-23 2022-03-15 カシオ計算機株式会社 電子楽器、方法及びプログラム
JP7212850B2 (ja) * 2020-12-09 2023-01-26 カシオ計算機株式会社 スイッチ装置及び、電子機器
CN112908286A (zh) * 2021-03-18 2021-06-04 魔豆科技(中山)有限公司 智能手琴及其控制方法、计算机可读存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0519765A (ja) * 1991-07-11 1993-01-29 Casio Comput Co Ltd 電子楽器
CA2090948A1 (en) * 1992-03-09 1993-09-10 Brian C. Gibson Musical entertainment system
JPH10149180A (ja) * 1996-11-20 1998-06-02 Yamaha Corp カラオケのテンポ制御装置
JPH11237881A (ja) * 1997-12-17 1999-08-31 Yamaha Corp 自動作曲装置と記録媒体
JP2001109471A (ja) * 1999-10-12 2001-04-20 Nippon Telegr & Teleph Corp <Ntt> 音楽検索装置,音楽検索方法および音楽検索プログラムを記録した記録媒体
JP2002328676A (ja) * 2001-04-27 2002-11-15 Kawai Musical Instr Mfg Co Ltd 電子楽器、発音処理方法及びプログラム
CN1761993A (zh) * 2003-03-20 2006-04-19 索尼株式会社 歌声合成方法和设备、程序、记录介质以及机器人设备
JP2007163792A (ja) * 2005-12-13 2007-06-28 Kawai Musical Instr Mfg Co Ltd 電子楽器及びコンピュータプログラム
CN103514874A (zh) * 2012-06-27 2014-01-15 雅马哈株式会社 声音合成方法和声音合成设备
JP2014153378A (ja) * 2013-02-05 2014-08-25 Casio Comput Co Ltd 演奏装置、演奏方法およびプログラム

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4731847A (en) * 1982-04-26 1988-03-15 Texas Instruments Incorporated Electronic apparatus for simulating singing of song
US4527274A (en) * 1983-09-26 1985-07-02 Gaynor Ronald E Voice synthesizer
JPS6325698A (ja) 1986-07-18 1988-02-03 松下電器産業株式会社 電子楽器
JP2925754B2 (ja) * 1991-01-01 1999-07-28 株式会社リコス カラオケ装置
US5895449A (en) * 1996-07-24 1999-04-20 Yamaha Corporation Singing sound-synthesizing apparatus and method
JPH10240244A (ja) * 1997-02-26 1998-09-11 Casio Comput Co Ltd 押鍵指示装置
US6104998A (en) * 1998-03-12 2000-08-15 International Business Machines Corporation System for coding voice signals to optimize bandwidth occupation in high speed packet switching networks
JP2000010556A (ja) * 1998-06-19 2000-01-14 Rhythm Watch Co Ltd 自動演奏装置
JP3614049B2 (ja) * 1999-09-08 2005-01-26 ヤマハ株式会社 カラオケ装置、カラオケ装置の外部装置およびカラオケシステム
JP4174940B2 (ja) * 2000-02-04 2008-11-05 ヤマハ株式会社 カラオケ装置
JP3815347B2 (ja) * 2002-02-27 2006-08-30 ヤマハ株式会社 歌唱合成方法と装置及び記録媒体
WO2004027577A2 (en) * 2002-09-19 2004-04-01 Brian Reynolds Systems and methods for creation and playback performance
JP3823930B2 (ja) * 2003-03-03 2006-09-20 ヤマハ株式会社 歌唱合成装置、歌唱合成プログラム
JP3858842B2 (ja) 2003-03-20 2006-12-20 ソニー株式会社 歌声合成方法及び装置
JP3864918B2 (ja) * 2003-03-20 2007-01-10 ソニー株式会社 歌声合成方法及び装置
JP4305084B2 (ja) 2003-07-18 2009-07-29 ブラザー工業株式会社 音楽再生装置
US7915511B2 (en) * 2006-05-08 2011-03-29 Koninklijke Philips Electronics N.V. Method and electronic device for aligning a song with its lyrics
TWI330795B (en) * 2006-11-17 2010-09-21 Via Tech Inc Playing systems and methods with integrated music, lyrics and song information
US8465366B2 (en) * 2009-05-29 2013-06-18 Harmonix Music Systems, Inc. Biasing a musical performance input to a part
US9147385B2 (en) * 2009-12-15 2015-09-29 Smule, Inc. Continuous score-coded pitch correction
JP2011215358A (ja) * 2010-03-31 2011-10-27 Sony Corp 情報処理装置、情報処理方法及びプログラム
GB2493470B (en) * 2010-04-12 2017-06-07 Smule Inc Continuous score-coded pitch correction and harmony generation techniques for geographically distributed glee club
TWI408672B (zh) * 2010-09-24 2013-09-11 Hon Hai Prec Ind Co Ltd 具有實現歌詞同步顯示功能的電子裝置及其方法
JP2012103603A (ja) * 2010-11-12 2012-05-31 Sony Corp 情報処理装置、楽曲区間抽出方法、及びプログラム
US9026942B2 (en) * 2011-02-25 2015-05-05 Cbs Interactive Inc. Song lyric processing with user interaction
JP5821824B2 (ja) * 2012-11-14 2015-11-24 ヤマハ株式会社 音声合成装置
US9508329B2 (en) * 2012-11-20 2016-11-29 Huawei Technologies Co., Ltd. Method for producing audio file and terminal device
JP2015081981A (ja) 2013-10-22 2015-04-27 ヤマハ株式会社 電子鍵盤楽器
CN106463111B (zh) * 2014-06-17 2020-01-21 雅马哈株式会社 基于字符的话音生成的控制器与***
JP2016080827A (ja) * 2014-10-15 2016-05-16 ヤマハ株式会社 音韻情報合成装置および音声合成装置
PL3212554T3 (pl) * 2014-10-29 2019-07-31 Inventio Ag System oraz sposób zachowania prywatności osób w systemach dźwigowych
WO2016207478A1 (en) * 2015-06-26 2016-12-29 Kone Corporation Content information of floor of elevator
US10087046B2 (en) * 2016-10-12 2018-10-02 Otis Elevator Company Intelligent building system for altering elevator operation based upon passenger identification
US10096190B2 (en) * 2016-12-27 2018-10-09 Badawi Yamine System and method for priority actuation
JP2018159786A (ja) * 2017-03-22 2018-10-11 カシオ計算機株式会社 電子楽器、方法及びプログラム
US10544007B2 (en) * 2017-03-23 2020-01-28 International Business Machines Corporation Risk-aware management of elevator operations
US10412027B2 (en) * 2017-03-31 2019-09-10 Otis Elevator Company System for building community posting
CN106991995B (zh) * 2017-05-23 2020-10-30 广州丰谱信息技术有限公司 一种无级变调及揉键变音的恒定唱名键盘数码视唱琴
US20180366097A1 (en) * 2017-06-14 2018-12-20 Kent E. Lovelace Method and system for automatically generating lyrics of a song
US20190002234A1 (en) * 2017-06-29 2019-01-03 Canon Kabushiki Kaisha Elevator control apparatus and elevator control method

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0519765A (ja) * 1991-07-11 1993-01-29 Casio Comput Co Ltd 電子楽器
CA2090948A1 (en) * 1992-03-09 1993-09-10 Brian C. Gibson Musical entertainment system
JPH10149180A (ja) * 1996-11-20 1998-06-02 Yamaha Corp カラオケのテンポ制御装置
JPH11237881A (ja) * 1997-12-17 1999-08-31 Yamaha Corp 自動作曲装置と記録媒体
JP2001109471A (ja) * 1999-10-12 2001-04-20 Nippon Telegr & Teleph Corp <Ntt> 音楽検索装置,音楽検索方法および音楽検索プログラムを記録した記録媒体
JP2002328676A (ja) * 2001-04-27 2002-11-15 Kawai Musical Instr Mfg Co Ltd 電子楽器、発音処理方法及びプログラム
CN1761993A (zh) * 2003-03-20 2006-04-19 索尼株式会社 歌声合成方法和设备、程序、记录介质以及机器人设备
JP2007163792A (ja) * 2005-12-13 2007-06-28 Kawai Musical Instr Mfg Co Ltd 電子楽器及びコンピュータプログラム
CN103514874A (zh) * 2012-06-27 2014-01-15 雅马哈株式会社 声音合成方法和声音合成设备
JP2014153378A (ja) * 2013-02-05 2014-08-25 Casio Comput Co Ltd 演奏装置、演奏方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
音高修正插件的应用;黄春克;《音响技术》;20070801(第08期);全文 *

Also Published As

Publication number Publication date
US20180277075A1 (en) 2018-09-27
JP2018159831A (ja) 2018-10-11
CN108630186A (zh) 2018-10-09
US10304430B2 (en) 2019-05-28
JP6497404B2 (ja) 2019-04-10

Similar Documents

Publication Publication Date Title
CN108630186B (zh) 电子乐器、其控制方法以及记录介质
US7605322B2 (en) Apparatus for automatically starting add-on progression to run with inputted music, and computer program therefor
CN110310615B (zh) 唱歌练习装置、唱歌练习方法及存储介质
JPH09258729A (ja) 選曲装置
JP4448378B2 (ja) 電子管楽器
JP5040927B2 (ja) 演奏教習装置及びプログラム
JP2012068548A (ja) 調判定装置および調判定プログラム
JP4487632B2 (ja) 演奏練習装置および演奏練習用コンピュータプログラム
JP2018077380A (ja) 鍵盤楽器
JP5732982B2 (ja) 楽音生成装置および楽音生成プログラム
JP6944365B2 (ja) カラオケ装置
JP2008089975A (ja) 電子楽器
WO2019180830A1 (ja) 歌唱評価方法及び装置、プログラム
JP4070120B2 (ja) 自然楽器の楽音判定装置
WO2005081222A1 (ja) 演奏指示に従って演奏された自然楽器の楽音判定装置、楽音判定プログラムおよび該プログラムを記録した媒体
JP6149890B2 (ja) 楽音生成装置および楽音生成プログラム
JP5092311B2 (ja) 音声評価装置
JP5742592B2 (ja) 楽音生成装置、楽音生成プログラム及び電子楽器
JP6252517B2 (ja) 音声合成装置、及びプログラム
JP2005234304A (ja) 演奏音判定装置および演奏音判定プログラム
JP4967170B2 (ja) 伴奏作成システム及び伴奏作成方法,プログラム
JP2009198657A (ja) 演奏教習装置および演奏教習プログラム
JP4624879B2 (ja) 楽音情報発生プログラムおよび楽音情報発生装置
JP6102975B2 (ja) 楽音生成装置、楽音生成プログラム及び電子楽器
JP4492932B2 (ja) 演奏音判定装置および演奏音判定プログラムおよび該プログラムを記録した媒体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant