JP2023133602A - プログラム、方法、情報処理装置、および画像表示システム - Google Patents
プログラム、方法、情報処理装置、および画像表示システム Download PDFInfo
- Publication number
- JP2023133602A JP2023133602A JP2023127720A JP2023127720A JP2023133602A JP 2023133602 A JP2023133602 A JP 2023133602A JP 2023127720 A JP2023127720 A JP 2023127720A JP 2023127720 A JP2023127720 A JP 2023127720A JP 2023133602 A JP2023133602 A JP 2023133602A
- Authority
- JP
- Japan
- Prior art keywords
- performance
- determination period
- data
- determined
- note
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 21
- 238000000034 method Methods 0.000 title claims description 26
- 230000008859 change Effects 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 4
- 230000003111 delayed effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 14
- 238000004458 analytical method Methods 0.000 description 11
- 230000015654 memory Effects 0.000 description 8
- 239000011295 pitch Substances 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 241000255749 Coccinellidae Species 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/361—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
- G10H1/368—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems displaying animated or moving pictures synchronized with the music or audio part
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
- G10H1/0041—Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
- G10H1/0058—Transmission between separate instruments or between individual components of a musical system
- G10H1/0066—Transmission between separate instruments or between individual components of a musical system using a MIDI interface
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/38—Chord
- G10H1/383—Chord detection and/or recognition, e.g. for correction, or automatic bass generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/056—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction or identification of individual instrumental parts, e.g. melody, chords, bass; Identification or separation of instrumental parts by their characteristic voices or timbres
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/066—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/076—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/091—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/005—Non-interactive screen display of musical or status data
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Electrophonic Musical Instruments (AREA)
- Auxiliary Devices For Music (AREA)
Abstract
【課題】例えば、演奏の終了を的確に判定すること。【解決手段】本発明の一実施形態であるプログラムは、情報処理装置に、第1演奏操作と第2演奏操作との間隔に基づいて、演奏の終了後に出力するデータの出力タイミングを決定する処理を、少なくとも実行させる。【選択図】図4
Description
本発明は、プログラム、方法、情報処理装置、および画像表示システムに関する。
デジタルキーボードをはじめとする電子楽器は、プロセッサおよびメモリを備え、いわば鍵盤付きの組込みコンピュータといえる。USB(Universal Serial Bus)等のインタフェースでタブレット等の情報処理装置に接続し、多様な拡張機能を利用できる機種も知られている。例えば、電子楽器を演奏して発生するMIDI(Musical Instrument Digital Interface)データを解析し、演奏とともに変化する動画像や、演奏の内容を反映する静止画像(絵)を作成して表示する技術が開発されている(例えば、特許文献1を参照)。
楽器の練習は大変で、途中で飽きてしまって断念する人も多い。上級者だけでなく、楽器演奏の入り口に立っている人達に練習の意欲を高めてもらうためにも、音楽演奏を可視化して、視覚的な効果を創り出す技術に注目が集まっている。非特許文献1にアクセスすればわかるように、この種の技術によれば演奏に伴って動画像がダイナミックに生成/表示されるので、新しい観点から音楽を楽しむことができる。
"Music Tapestry",[online],[令和3年5月20日検索],インターネット,<URL:https://news.mynavi.jp/article/20190724-casio_music_tapestry/>
例えば、演奏を可視化する技術では、演奏中にリアルタイムで表示される動画像(第1画像)と、演奏が終わってから表示されるまとめの画像(第2画像:最終絵)がコンピュータにより生成される。このうち、最終絵を表示するタイミングをどのように決めるかが難しい。現状では、最後のノートオフから一定の時間(判定時間)が経過すると、演奏が終了したと判定して最終絵を表示するようにしていた。しかし、演奏が拙い子供などにとっては次の鍵を探すのに精いっぱいで、打鍵間隔が長くなってしまい、演奏が続いているのに最終絵が出てしまうことがある。
一生懸命演奏しているのに途中で終わってしまうと、がっかりする。これを避けるために判定時間を長くとると、演奏を終えてから最終絵が出るまでに待たされることになるので却ってユーザにストレスがかかってしまう。例えばストリートピアノのように不特定多数のユーザが演奏するには、演奏状況に応じて判定時間を適切に設定できることが望ましい。
そこで、本発明の目的は、演奏の終了を的確に判定できるようにし、これにより、演奏することをさらに楽しくできるプログラム、方法、情報処理装置、および画像表示システムを提供することにある。
上記目的を達成するために、本発明の一実施形態であるプログラムは、情報処理装置が、複数の演奏操作によってなされる演奏に係わる、前記複数の演奏操作の間隔のうち、直近のノートの間隔の最大値及び直近のノートの間隔の平均値のいずれかと、基準値としての判定期間との比較に基づいて前記判定期間を変更するかどうか決定し、最後のノートオフからの経過時間と決定された前記判定期間との比較に基づいて前記演奏が終了したかどうかを判定し、前記演奏が終了したと判定した場合、演奏終了後の画像データの出力タイミングを決定させる。
本発明によれば、例えば、演奏の終了を的確に判定できるようになり、これにより、演奏することをさらに楽しくできる。
以下、図面を参照して、本発明の実施の形態について説明する。
<構成>
図1は、実施形態に係わる画像表示システムの一例を示す模式図である。図1に示される画像表示システムは、ユーザ(演奏者)の演奏に合わせてリアルタイムに画像(絵)を描画する。この種の画像表示システムは、ユーザの演奏を演奏データ(例えばMIDIデータ)として出力できる電子楽器等から取得した演奏データを解析し、その結果をもとに画像を生成する。
<構成>
図1は、実施形態に係わる画像表示システムの一例を示す模式図である。図1に示される画像表示システムは、ユーザ(演奏者)の演奏に合わせてリアルタイムに画像(絵)を描画する。この種の画像表示システムは、ユーザの演奏を演奏データ(例えばMIDIデータ)として出力できる電子楽器等から取得した演奏データを解析し、その結果をもとに画像を生成する。
図1において、画像表示システムは、電子楽器と、情報処理装置と、ディスプレイ装置と、を含む。
電子楽器は、ユーザの演奏から演奏データ(例えばMIDIデータ)を生成し、演奏データを情報処理装置に出力する。情報処理装置は、受信した演奏データを解析し、画像データを生成する。情報処理装置は、例えば、タブレットやパーソナルコンピュータ(PC)である。ディスプレイ装置は、情報処理装置により生成された画像を表示する。
電子楽器は、ユーザの演奏から演奏データ(例えばMIDIデータ)を生成し、演奏データを情報処理装置に出力する。情報処理装置は、受信した演奏データを解析し、画像データを生成する。情報処理装置は、例えば、タブレットやパーソナルコンピュータ(PC)である。ディスプレイ装置は、情報処理装置により生成された画像を表示する。
図2は、鍵盤楽器にタブレットを組み合わせた画像表示システムの一例を示す図である。このシステムは、デジタルキーボード1と、このデジタルキーボード1に接続可能なタブレット3とを備える。デジタルキーボード1は、例えば、電子ピアノ、シンセサイザー、あるいは電子オルガン等の電子鍵盤楽器である。
デジタルキーボード1は、鍵盤に配列される複数の鍵10に加えて、表示部14と、操作部18と、譜面台MSとを備える。図2に示されるように、デジタルキーボード1に接続されたタブレット3を譜面台MSに載置して、楽譜を表示させたり、ユーザインタフェースとして使用したりできる。
鍵10は、演奏者が音高を指定するための操作子である。演奏者が鍵10を押鍵/離鍵することで、デジタルキーボード1は、指定された音高に対応する音の発音及び消音を行う。押鍵、および離鍵は演奏操作の一例である。それぞれを個別に演奏操作として捉えることもできるし、押鍵/離鍵のセットで一つの演奏操作としても良い。あるいは押鍵だけを捉えて個別の演奏操作としてカウントしても良いし、離鍵だけを演奏操作としても良い。例えば、演奏データの発生の契機となるイベントを、演奏操作として捉えることができる。演奏データを発生させる行為の全て演奏操作と捉えても良いし、或る特定種別の演奏データ(ノートオン、ノートオフなど)を生じさせる行為だけを演奏操作としても良い。
鍵10は、演奏者が音高を指定するための操作子である。演奏者が鍵10を押鍵/離鍵することで、デジタルキーボード1は、指定された音高に対応する音の発音及び消音を行う。押鍵、および離鍵は演奏操作の一例である。それぞれを個別に演奏操作として捉えることもできるし、押鍵/離鍵のセットで一つの演奏操作としても良い。あるいは押鍵だけを捉えて個別の演奏操作としてカウントしても良いし、離鍵だけを演奏操作としても良い。例えば、演奏データの発生の契機となるイベントを、演奏操作として捉えることができる。演奏データを発生させる行為の全て演奏操作と捉えても良いし、或る特定種別の演奏データ(ノートオン、ノートオフなど)を生じさせる行為だけを演奏操作としても良い。
表示部14は、例えば、タッチパネル付きの液晶モニタ(Liquid Crystal Display:LCD)を備え、演奏者の操作部18の操作に伴うメッセージの表示等を行う。表示部14がタッチパネル機能を有する場合には、表示部14は、操作部18の機能の一端を担うことが可能である。
操作部18は、演奏者が各種の設定等を行うための操作ボタンやダイヤルなどを有する。ユーザは、操作ボタンやダイヤルなどを操作して、音量調整等の各種の設定操作等を行うことができる。
操作部18は、演奏者が各種の設定等を行うための操作ボタンやダイヤルなどを有する。ユーザは、操作ボタンやダイヤルなどを操作して、音量調整等の各種の設定操作等を行うことができる。
図3は、実施形態に係るデジタルキーボード1の一例を示すブロック図である。デジタルキーボード1は、USBインタフェース(I/F)11、RAM(Random Access Memory)12、ROM(Read Only Memory)13、表示部14、表示コントローラ15、LED(Light Emitthing Diode)コントローラ16、鍵盤17、操作部18、キースキャナ19、MIDIインタフェース(I/F)20、システムバス21、CPU(Central Processing Unit)22、タイマ23、音源24、デジタル/アナログ(D/A)コンバータ25、ミキサ26、D/Aコンバータ27、音声合成LSI28、および、アンプ29を備える。ここで、音源24、および音声合成LSI28は、例えばDSP(Digital Signal Processor)として実現される。
CPU22、音源24、音声合成LSI28、USBインタフェース11、RAM12、ROM13、表示コントローラ15、LEDコントローラ16、キースキャナ19、およびMIDIインタフェース20は、システムバス21に接続される。
CPU22は、デジタルキーボード1を制御するプロセッサである。すなわちCPU22は、ROM13に記憶されたプログラムを、ワーキングメモリとしてのRAM12に読み出し、実行して、デジタルキーボード1の各種の機能を実現する。CPU22は、タイマ23から供給されるクロックに従って動作する。クロックは、例えば自動演奏、自動伴奏のシーケンスを制御するために用いられる。
ROM13は、プログラム、各種設定データ、自動伴奏データ等を記憶する。自動伴奏データは、予めプリセットされたリズムパターン、コード進行、ベースパターン、あるいはオブリガード等のメロディデータ等を含んでよい。メロディデータは、各音の音高情報、各音の発音タイミング情報等を含んでよい。
各音の発音タイミングは、各発音間の間隔時間でもよく、自動演奏曲の開始時からの経過時間であっても良い。時間の単位にはtickが用いられることが多い。tickは、一般的なシーケンサで用いられる、曲のテンポを基準とする単位である。例えば、シーケンサの分解能が480であれば、4分音符の時間の1/480が1tickとなる。
自動伴奏データは、ROM13に限らず、図示しない情報記憶装置や情報記憶媒体に記憶されていても良い。自動伴奏データのフォーマットは、MIDI用のファイルフォーマットに準拠してもよい。
表示コントローラ15は、表示部14の表示状態を制御するIC(Integated Circuit)である。LEDコントローラ16は、例えばICである。LEDコントローラ16は、CPU22からの指示により鍵盤17の鍵を光らせて、演奏者の演奏をナビゲートする。
キースキャナ19は、鍵盤17の押鍵/離鍵状態、操作部18のスイッチ操作状態を定常的に監視する。そして、キースキャナ19は、鍵盤17、操作部18の状態をCPU22に伝える。
MIDIインタフェース20は、MIDI装置4等の外部装置からのMIDIデータ(演奏データ等)を入力したり、MIDIデータを外部装置に出力したりする。デジタルキーボード1は、例えばUSB(Universal Serial Bus)等のインタフェースを用いて、外部装置とMIDIデータや楽曲ファイルを授受することが可能である。受信されたMIDIデータは、CPU22経由で音源24に渡される。音源24は、MIDIデータで指定された音色、音量(ベロシティ)、タイミング等に従って音を鳴らす。
なお、MIDIデータ(MIDIメッセージ)は、鍵10に対応する音高番号、音色番号などの情報に加え、ノートオン、ノートオフといったタイミングを表す情報、ベロシティと称する強度情報、あるいは各種の制御情報など、曲の演奏に関するあらゆる情報を表すことができる。
音源24は、例えばGM(General MIDI)規格に準拠する、いわゆるGM音源である。この種の音源は、MIDIデータに含まれるMIDIメッセージとしての、プログラムチェンジを与えることで音色を変更できる。また、コントロールチェンジを与えれば既定のエフェクトを制御することができる。
音源24は、例えば同時に最大で256ボイスを発音する能力を有する。音源24は、例えば波形ROM(図示せず)から楽音波形データを読み出し、デジタル楽音波形データとしてD/Aコンバータ211に出力される。D/Aコンバータ211は、デジタル楽音波形データをアナログ楽音波形信号に変換する。
音声合成LSI28は、CPU22から、歌詞のテキストデータと音高に関する情報を歌声データとして与えられると、それに対応する歌声の音声データを合成し、D/Aコンバータ25に出力する。D/Aコンバータ25は、音声データをアナログ音声波形信号に変換する。
ミキサ26は、アナログ楽音波形信号、およびアナログ音声波形信号をミックスし、出力信号を生成する。この出力信号はアンプ29で増幅され、スピーカ、あるいはヘッドフォンアウトなどの出力端子から出力される。
タブレット3が、USBインタフェース11経由でシステムバス21に接続される。タブレット3は、デジタルキーボード1が演奏されることで発生したMIDIデータ(演奏データ)を、USBインタフェース11経由で取得することができる。
さらに、図示しない記憶メディア等も、USBインタフェース11経由でシステムバス21に接続されても良い。記憶メディアとしては、例えば、USBメモリ、フレキシブルディスクドライブ(FDD)、ハードディスクドライブ(HDD)、CD-ROMドライブ及び光磁気ディスク(MO)ドライブ等が挙げられる。ROM106にプログラムが記憶されていない場合には、記憶メディアにプログラムを記憶させておき、それをRAM105に読み込むことにより、ROM106にプログラムを記憶している場合と同様の動作をCPU111に実行させることができる。
図4は、タブレット3の一例を示す機能ブロック図である。タブレット3は、可搬型の情報処理装置であり、デジタルキーボード1を用いた演奏を反映する画像を生成して出力するためのアプリケーションがインストールされている。また、タブレット3は、デジタルキーボード1からMIDIデータを受信して曲データを再生させるシーケンサ等を備えていてもよい。
タブレット3は、主に、操作部31と、表示部32と、通信部33と、音出力部34と、メモリ35と、制御部36(CPU)と、を備える。各部(操作部31、表示部32、通信部33、音出力部34、メモリ35、および制御部36)は、バス37で通信可能に接続され、各部間で必要なデータを授受することができる。
操作部31は、例えば、電源のON/OFFを行うための電源スイッチ等のスイッチ類を含む。表示部32は、タッチパネル付きの液晶モニタを備え、画像を表示する。表示部32はタッチパネル機能も有するので、操作部31の一端を担うことができる。
通信部33は、他の機器等との間で通信を行うための無線ユニットや有線ユニットを備える。実施形態では、例えばUSBケーブル等を介してデジタルキーボード1に有線接続され、これによりタブレット3は、デジタルキーボード1との間で各種のディジタルデータを授受することができる。
音出力部34は、スピーカーやイヤホンジャック等を備え、アナログの音声や楽音を再生出力したり、オーディオ信号を出力する。
音出力部34は、スピーカーやイヤホンジャック等を備え、アナログの音声や楽音を再生出力したり、オーディオ信号を出力する。
制御部36は、CPU等のプロセッサを備え、タブレット3の制御を司る。制御部36のCPUは、メモリ35に記憶されている制御プログラムやインストールされたアプリケーションに従って、各種の処理等を実行する。
メモリ35は、ROM40およびRAM50を備える。
ROM40は、例えば、制御部36が実行するプログラム41や各種データテーブル等を記憶している。特に、実施形態では、演奏の終了の判定に係わる判定期間TがROM40の記憶領域42に記憶される。
ROM40は、例えば、制御部36が実行するプログラム41や各種データテーブル等を記憶している。特に、実施形態では、演奏の終了の判定に係わる判定期間TがROM40の記憶領域42に記憶される。
RAM50は、プログラム41を動作させる上で必要なデータを記憶する。またRAM50は、制御部36が作成するデータ、デジタルキーボード1から送られたMIDIデータ、及び、アプリケーションを展開させるための一時記憶領域等としても機能する。実施形態において、RAM50は、MIDIデータを含む演奏データ50aに加えて、キャラクタデータ50b、第1画像データ50c、および、第2画像データ50dを記憶する。
ところで、実施形態において、プログラム41は、音楽解析ルーチン41a、第1画像作成ルーチン41b、第2画像作成ルーチン41c、および、出力制御ルーチン41dを備える。
音楽解析ルーチン41aは、デジタルキーボード1の演奏に応じて次々に生成される各演奏データを取得し、演奏データ50aとしてRAM50に記憶させる。また、音楽解析ルーチン41aは、演奏データ50aに含まれる、主に音高データに基づいて音楽解析を行い、曲の調性(Tonality)、コード種別、音名判定等を行う。
なお、音楽解析の手法、あるいは調性やコード種別等を判定するための手法は、特に限定されるものではないが、例えば、特許第3211839号明細書等に開示された手法を用いることができる。
第1画像作成ルーチン41bは、音楽解析の結果に基づいて、演奏中にリアルタイム表示される動画像データを作成する。作成された動画像データは、第1画像データ50cとしてRAM50に一時記憶されたのち、直ちに読み出されて表示部32に表示される。
第2画像作成ルーチン41cは、音楽解析の結果に基づいて、演奏の終了後にまとめとして表示される静止画像を作成する。作成された静止画像の動画像データは、第2画像データ50dとしてRAM50に一時記憶されたのち、適切なタイミングで出力されて(読み出されて)表示部32に表示される。
出力制御ルーチン41dは、デジタルキーボード1からの各演奏データが生成されたタイミング、または、演奏データが取得された各タイミングの間隔に基づいて、第2画像データを出力するタイミングを決定する。
<作用>
次に、上記構成における作用を説明する。以下では、タブレット3がデジタルキーボード1に、通信可能に接続されているとして説明する。また、画像をタブレット3の表示部32(図4)に表示させるためのアプリケーションがタブレット3で起動されているとする。
次に、上記構成における作用を説明する。以下では、タブレット3がデジタルキーボード1に、通信可能に接続されているとして説明する。また、画像をタブレット3の表示部32(図4)に表示させるためのアプリケーションがタブレット3で起動されているとする。
図5は、タブレット3の処理手順の一例を示すフローチャートである。図5において、タブレット3の制御部36(CPU)は、デジタルキーボード1からの演奏データの入力を待ち受ける(ステップS1)。ステップS1で演奏データの入力があれば(YES)、制御部36は、演奏判定処理を実行する(ステップS2)。ステップS2において、制御部36は、取得した演奏データに基づき、例えば、演奏されている曲の調(例えば、ハ長調~ロ短調の24種類)の判定、コード種別(例えば、Major、minor、sus4、aug、dim、7th等)の判定、拍などを判定する。ここで得られた判定結果は、第1画像に反映される。
図6は、一つの譜例を示す図である。例えば図6のような演奏が行われると、図7に示されるように、ドレミファ…の順に、花(1)、葉(2)、てんとう虫(3)、蝶々(4)、のキャラクターが次々に配置され、第1画像となる。演奏の終了が判定されると、図8に示されるように各キャラクターが例えばらせん状の軌道の上に配置され、第2画像になる。
図5に戻って説明を続ける。制御部36は、演奏判定処理の結果に基づいて第1画像を生成し、表示部32に出力する(ステップS3)。
図5に戻って説明を続ける。制御部36は、演奏判定処理の結果に基づいて第1画像を生成し、表示部32に出力する(ステップS3)。
次に、制御部36は、演奏判定処理の結果に基づいて、判定期間Tを更新する処理を行う(ステップS4)。
図9は、ステップS4における処理手順の一例を示すフローチャートである。ステップS4の判定期間更新処理が呼び出されると、ソフトウェア割り込みがかかる。そうすると制御部36は、先ず、判定期間Tに初期値T0をセットする(ステップS41)。初期値T0としては、例えば5秒が設定される。次に制御部36は、直近のノート間隔の最大値Tmaxを算出する(ステップS42)。つまりこのステップにおいて、制御部36は、最新のノートオン時刻から遡ってX個(例えば4個)の音のノートオン時刻を取得し、それぞれの時間間隔を算出してその最大値Tmaxを求める。
図9は、ステップS4における処理手順の一例を示すフローチャートである。ステップS4の判定期間更新処理が呼び出されると、ソフトウェア割り込みがかかる。そうすると制御部36は、先ず、判定期間Tに初期値T0をセットする(ステップS41)。初期値T0としては、例えば5秒が設定される。次に制御部36は、直近のノート間隔の最大値Tmaxを算出する(ステップS42)。つまりこのステップにおいて、制御部36は、最新のノートオン時刻から遡ってX個(例えば4個)の音のノートオン時刻を取得し、それぞれの時間間隔を算出してその最大値Tmaxを求める。
次に制御部36は、判定期間TとTmaxとを比較し(ステップS43)、TがTmaxより小さい(T<Tmax)がFALSEであれば(NO)、つまり直近のノート間隔で判定期間Tを超えるものが無ければ、T=T0のままで(ステップS44)処理手順は呼び出し元に戻る(リターン)。
一方、ステップS43で(T<Tmax)がTRUEであれば(YES)、つまり直近のノート間隔で判定期間Tを超えるものがあれば、Tmaxに判定期間更新係数αを乗算したものをTに代入し(ステップS45)、処理手順は呼び出し元に戻る(リターン)。ここで、係数αの値としては1.1を採用することができ、これはすなわち、判定期間Tをデフォルトよりも長くすることに相当する。また、係数αの値は、演奏の状況に応じて異なる値に更新される。
図5に戻って説明を続ける。ステップS1で演奏データの入力が無い場合(NO)、または、ステップS4が終了すると、制御部36は、終了判定を行う(ステップS5)。実施形態において、終了判定は、基準値としての判定期間Tと、最後のノートオフからの経過時間とを比較することにより行われる。すなわち、最後のノートオフからの経過時間が判定期間Tよりも長くなると、演奏が終了したことが判定されて(YES)となる。ステップS5でNOであれば、YES判定となるまで、処理手順は再びステップS1に戻る。
演奏中はステップS1~ステップS5の処理が繰り返され、やがて演奏が終了するとステップS5でYESになる。そうすると、制御部36は、蓄積された演奏データ50aの解析結果を反映する第2画像を作成し、表示部32に表示出力する(ステップS6)。
図10は、図9のステップS42におけるノート間隔の算出について説明するための図である。実施形態において、「ノート間隔」は、ひとつ前のノートオンから次のノートオンまでの期間を意味する。このとき、時間的に重なりのある音(ノート)は、ひとかたまりの音(ノート)として取り扱う。
例えば、コード弾きのように複数の鍵をまとめて押鍵する場合、厳密には各件のノートオン時刻は僅かにずれることが多い。図10のように、C,E,Gを構成音とするCコードのC音、E音、G音がわずかにずれていたとしても、ずれ量が既定値以内であれば、これらをひとかたまりにし、ノートオン、ノートオフの発生をそれぞれ1回とカウントする。例えば、ひとかたまりのうち最初のノートの押鍵時刻をノートオンとし、最後の音の離鍵時刻をノートオフとする。そして、次のノートのノートオンまでを、ノート間隔とする。一つの音のノートオンは、文字通りその音の押鍵時刻としてカウントできる。
図11は、第2画像データの出力タイミングを決定する基準値としての、判定期間更新係数αの更新に係わる処理手順の一例を示すフローチャートである。図11において、制御部36は、現在の時点から過去数秒間(例えば8秒間)のノート数Nをカウントし(ステップS7)、予め定められた閾値N1(例えば5個)と比較する(ステップS8)。Nが閾値N1よりも多ければ(YES)、αに1.1が代入される(ステップS10)。一方、Nが閾値N1以下であれば(NO)、1.1よりも大きな値、例えば1.5がαに代入される(ステップS9)。
ステップS8において、過去数秒間分の演奏で生じたノート数が少ないことが判定されると、このことは、演奏が不安定だったり、ゆっくり演奏している可能性が高いことを意味する。そこで、このような場合には判定期間Tが長くなるように、αを大きめの値にセットする。逆に、過去数秒間分のノート数が多ければ、αを小さい値にセットする。
すなわち、制御部36は、設定期間内に生成又は取得された演奏データの数が閾値に達しない場合に、演奏データの数が閾値に達した場合よりも、第2画像データの出力タイミングを遅らせる。なお、閾値のランクはN1だけでなく、N1,N2,N3...というように複数の値を設定し、何段階かに分けてαを徐々に変化させてもよい。
<効果>
以上述べたように、実施形態では、演奏データを音楽解析した結果に基づき、第2画像を出力するタイミングを演奏ごとに制御するようにした。例えばテンポの速い曲を演奏している場合は、テンポの遅い曲を演奏している場合よりも、演奏の停止から早いタイミングで第2画像が出力される。逆に、初心者がスローテンポでゆっくり弾いている場合には、演奏の停止から第2画像が表示されるまでの時間が長くなる。
以上述べたように、実施形態では、演奏データを音楽解析した結果に基づき、第2画像を出力するタイミングを演奏ごとに制御するようにした。例えばテンポの速い曲を演奏している場合は、テンポの遅い曲を演奏している場合よりも、演奏の停止から早いタイミングで第2画像が出力される。逆に、初心者がスローテンポでゆっくり弾いている場合には、演奏の停止から第2画像が表示されるまでの時間が長くなる。
このようにしたので、固定的なタイミングでなく、演奏の終了後の良好なタイミングに、第2画像を出力することが可能になる。つまり、演奏が終了していないのに最終絵が出てしまったり、逆に、演奏が終わっても最終絵がなかなか出てこないといった、興ざめするようなことが起こらないようにできる。
すなわち、実施形態によれば、演奏の終了を的確に判定することができるようになる。従って、音楽演奏を可視化する技術の体験価値を向上させ、ユーザの練習意欲が削がれることなく、楽器を演奏したり、練習したりすることがさらに楽しくなるプログラム、電子機器、方法、および画像表示システムを提供することが可能になる。
なお、この発明は上記実施形態に限定されるものではない。
<変形例1>
演奏の安定性をある程度見込める場合、図9のステップS42において直近のノート間隔の最大値ではなく、平均値を用いてもよい。
演奏の安定性をある程度見込める場合、図9のステップS42において直近のノート間隔の最大値ではなく、平均値を用いてもよい。
<変形例2>
ステップS42における所定時間の更新判定の条件として、直近のノート間隔の最大値(または平均値)に代えて、演奏の不安定さの指標を用いても良い。指標としては、非音楽的判定の結果、あるいはテンポの不安定さなどを用いてもよい。
ステップS42における所定時間の更新判定の条件として、直近のノート間隔の最大値(または平均値)に代えて、演奏の不安定さの指標を用いても良い。指標としては、非音楽的判定の結果、あるいはテンポの不安定さなどを用いてもよい。
例えば、音楽解析によりコードを判定できない場合(判定に失敗した場合)、コードを判定できない回数が規定数を超えた場合、あるいは、隣接する白鍵の5鍵以上の同時押しの検出など、ほぼ同時のタイミングに検出される音高データの組み合わせや、一定の時間長の間に何度も検出される音高データの組み合わせなどにより、演奏操作が非音楽的であることを判定することができる。
例えば、非音楽的判定を用いるならば、判定期間Tの更新について「直近の数拍(例えば8拍)以内に非音楽的判定が指定回数(例えば3回)以上生じた場合」という条件(条件A)を考えることができる。
この条件Aと、ステップS42の「直近のノート間隔の演算値による判定(条件B)」の論理積(AND)を取り、これが真値をとる場合に判定期間Tを更新すればよい。
この条件Aと、ステップS42の「直近のノート間隔の演算値による判定(条件B)」の論理積(AND)を取り、これが真値をとる場合に判定期間Tを更新すればよい。
<変形例3>
より直接的に、曲のテンポを演奏終了判定の条件とするならば、以下が考えられる。すなわち、制御部36により、デジタルキーボード1から取得された演奏データに基づいて、演奏のテンポを判定する。そして、判定されたテンポが第1テンポより遅い第2テンポの場合に、第1テンポの場合に決定される出力タイミングより、第2テンポの場合に決定される出力タイミングが遅くなるように、第2画像データの出力タイミングを決定する。
より直接的に、曲のテンポを演奏終了判定の条件とするならば、以下が考えられる。すなわち、制御部36により、デジタルキーボード1から取得された演奏データに基づいて、演奏のテンポを判定する。そして、判定されたテンポが第1テンポより遅い第2テンポの場合に、第1テンポの場合に決定される出力タイミングより、第2テンポの場合に決定される出力タイミングが遅くなるように、第2画像データの出力タイミングを決定する。
<変形例4>
さらに直接的に演奏終了を判定する形態として、演奏者の動作を確認する手法もある。つまり、演奏者の動作を検出可能なカメラ等を設置し、例えば椅子から立ち上がったことを判定することで、最後のノートオフから経過した時間に拠らず最終絵(第2画像)を表示するようにしてもよい。
さらに直接的に演奏終了を判定する形態として、演奏者の動作を確認する手法もある。つまり、演奏者の動作を検出可能なカメラ等を設置し、例えば椅子から立ち上がったことを判定することで、最後のノートオフから経過した時間に拠らず最終絵(第2画像)を表示するようにしてもよい。
すなわち本実施例では、情報処理装置(表示装置)3のプロセッサ36が、ユーザによる電子楽器1の鍵盤17への第1演奏操作と第2演奏操作との間隔に基づいて、演奏の終了後に出力するデータの出力タイミングを決定する。この間隔は、一実施例として、電子楽器1側での第1演奏操作に応じて情報処理装置3側で取得されるノートデータの取得タイミングと、電子楽器1側での第1演奏操作後の第2演奏操作に応じて情報処理装置3側で取得されるノートデータの取得タイミングと、に基づいて算出される。すなわち、第1演奏操作と第2演奏操作との間隔は、どのような手法で算出してもよい。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲のとおりである。
[付記]
<請求項1>
情報処理装置が、
第1演奏操作と第2演奏操作との間隔に基づいて、演奏の終了後に出力するデータの出力タイミングを決定する、
処理を実行するためのプログラム。
<請求項2>
前記演奏の終了後に出力するデータは、画像データを含む、
請求項1に記載のプログラム。
<請求項3>
前記出力タイミングを決定する基準値を有し、
前記間隔に基づいて、前記基準値を変更する、
請求項1または2のいずれかに記載のプログラム。
<請求項4>
少なくとも前記第1演奏操作に基づいて生成される第1演奏データと、前記第2演奏操作に基づいて生成される第2演奏データとに基づいて、テンポを判定し、
判定された前記テンポが第1テンポより遅い第2テンポの場合に、前記第1テンポの場合に決定される出力タイミングより前記第2テンポの場合に決定される出力タイミングが遅くなるように、前記出力タイミングを決定する、
請求項1乃至3のいずれかに記載のプログラム。
<請求項5>
前記演奏が音楽的に適切であるか否かを判定し、
音楽的に適切であるか否かの判定結果に基づいて、前記出力タイミングを決定する、請求項1乃至4のいずれかに記載のプログラム。
<請求項6>
設定期間内に生成又は取得された演奏データの数が閾値に達しない場合に、達した場合よりも前記出力タイミングを遅らせる、
請求項1乃至5のいずれかに記載のプログラム。
<請求項7>
情報処理装置が、
第1演奏操作と第2演奏操作との間隔に基づいて、演奏の終了後に出力するデータの出力タイミングを決定する、
処理を実行するための方法。
<請求項8>
第1演奏操作と第2演奏操作との間隔に基づいて、演奏の終了後に出力するデータの出力タイミングを決定する、
処理を実行する情報処理装置。
<請求項9>
電子楽器と表示装置を備え、
前記電子楽器が、
演奏に応じて次々に演奏データを生成し、
生成した前記演奏データを前記表示装置に送信し、
前記表示装置が、
前記各演奏データを取得し、
取得された前記演奏データに基づいて、演奏の終了後に出力する画像データの出力タイミングを決定し、
決定された前記出力タイミングに基づいて、前記画像データを表示する、
処理を実行する画像表示システム。
[付記]
<請求項1>
情報処理装置が、
第1演奏操作と第2演奏操作との間隔に基づいて、演奏の終了後に出力するデータの出力タイミングを決定する、
処理を実行するためのプログラム。
<請求項2>
前記演奏の終了後に出力するデータは、画像データを含む、
請求項1に記載のプログラム。
<請求項3>
前記出力タイミングを決定する基準値を有し、
前記間隔に基づいて、前記基準値を変更する、
請求項1または2のいずれかに記載のプログラム。
<請求項4>
少なくとも前記第1演奏操作に基づいて生成される第1演奏データと、前記第2演奏操作に基づいて生成される第2演奏データとに基づいて、テンポを判定し、
判定された前記テンポが第1テンポより遅い第2テンポの場合に、前記第1テンポの場合に決定される出力タイミングより前記第2テンポの場合に決定される出力タイミングが遅くなるように、前記出力タイミングを決定する、
請求項1乃至3のいずれかに記載のプログラム。
<請求項5>
前記演奏が音楽的に適切であるか否かを判定し、
音楽的に適切であるか否かの判定結果に基づいて、前記出力タイミングを決定する、請求項1乃至4のいずれかに記載のプログラム。
<請求項6>
設定期間内に生成又は取得された演奏データの数が閾値に達しない場合に、達した場合よりも前記出力タイミングを遅らせる、
請求項1乃至5のいずれかに記載のプログラム。
<請求項7>
情報処理装置が、
第1演奏操作と第2演奏操作との間隔に基づいて、演奏の終了後に出力するデータの出力タイミングを決定する、
処理を実行するための方法。
<請求項8>
第1演奏操作と第2演奏操作との間隔に基づいて、演奏の終了後に出力するデータの出力タイミングを決定する、
処理を実行する情報処理装置。
<請求項9>
電子楽器と表示装置を備え、
前記電子楽器が、
演奏に応じて次々に演奏データを生成し、
生成した前記演奏データを前記表示装置に送信し、
前記表示装置が、
前記各演奏データを取得し、
取得された前記演奏データに基づいて、演奏の終了後に出力する画像データの出力タイミングを決定し、
決定された前記出力タイミングに基づいて、前記画像データを表示する、
処理を実行する画像表示システム。
1…デジタルキーボード、3…タブレット、4…MIDI装置、10…鍵、11…USBインタフェース、12…RAM、13…ROM、14…表示部、15…表示コントローラ、16…LEDコントローラ、17…鍵盤、18…操作部、19…キースキャナ、20…MIDIインタフェース、21…システムバス、22…CPU、23…タイマ、24…音源、25,27…D/Aコンバータ、26…ミキサ、29…アンプ、31…操作部、32…表示部、33…通信部、34…音出力部、35…メモリ、36…制御部、37…バス、40…ROM、41…プログラム、41a…音楽解析ルーチン、41b…第1画像作成ルーチン、41c…第2画像作成ルーチン、41d…出力制御ルーチン、42…記憶領域、50…RAM、50a…演奏データ、50b…キャラクタデータ、50c…第1画像データ、50d…第2画像データ、105…RAM、106…ROM、111…CPU、211…D/Aコンバータ。
Claims (6)
- 情報処理装置が、
複数の演奏操作によってなされる演奏に係わる、前記複数の演奏操作の間隔のうち、直近のノートの間隔の最大値及び直近のノートの間隔の平均値のいずれかと、基準値としての判定期間との比較に基づいて前記判定期間を変更するかどうか決定し、
最後のノートオフからの経過時間と決定された前記判定期間との比較に基づいて前記演奏が終了したかどうかを判定し、
前記演奏が終了したと判定した場合、演奏終了後の画像データの出力タイミングを決定する、
処理を実行するためのプログラム。 - 前記演奏操作が、テンポの速い曲及びテンポの遅い曲のうちの前記テンポの速い曲の演奏操作であった場合、前記演奏が停止してからの前記演奏の終了後の画像データの出力タイミングが、前記テンポの遅い曲の演奏操作であった場合より早い、
請求項1に記載のプログラム。 - 設定期間内に生成又は取得された演奏データの数が閾値に達しない場合に、達した場合よりも前記出力タイミングを遅らせる、
請求項1または2に記載のプログラム。 - 情報処理装置が、
複数の演奏操作によってなされる演奏に係わる、前記複数の演奏操作の間隔のうち、直近のノートの間隔の最大値及び直近のノートの間隔の平均値のいずれかと、基準値としての判定期間との比較に基づいて前記判定期間を変更するかどうか決定し、
最後のノートオフからの経過時間と決定された前記判定期間との比較に基づいて前記演奏が終了したかどうかを判定し、
前記演奏が終了したと判定した場合、演奏終了後の画像データの出力タイミングを決定する、
処理を実行するための方法。 - 複数の演奏操作によってなされる演奏に係わる、前記複数の演奏操作の間隔のうち、直近のノートの間隔の最大値及び直近のノートの間隔の平均値のいずれかと、基準値としての判定期間との比較に基づいて前記判定期間を変更するかどうか決定し、
最後のノートオフからの経過時間と決定された前記判定期間との比較に基づいて前記演奏が終了したかどうかを判定し、
前記演奏が終了したと判定した場合、演奏終了後の画像データの出力タイミングを決定する、
処理を実行する情報処理装置。 - 電子楽器と表示装置を備え、
前記電子楽器が、
複数の演奏操作に応じて生成される演奏データを前記表示装置に送信し、
前記表示装置が、
前記複数の演奏操作によってなされる演奏に係わる、前記複数の演奏操作の間隔のうち、直近のノートの間隔の最大値及び直近のノートの間隔の平均値のいずれかと、基準値としての判定期間との比較に基づいて前記判定期間を変更するかどうか決定し、
最後のノートオフからの経過時間と決定された前記判定期間との比較に基づいて前記演奏が終了したかどうかを判定し、
前記演奏が終了したと判定した場合、演奏終了後の画像データの出力タイミングを決定し、
決定された前記出力タイミングに基づいて、前記画像データを表示する、
処理を実行する画像表示システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023127720A JP2023133602A (ja) | 2021-06-21 | 2023-08-04 | プログラム、方法、情報処理装置、および画像表示システム |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021102530A JP7331887B2 (ja) | 2021-06-21 | 2021-06-21 | プログラム、方法、情報処理装置、および画像表示システム |
JP2023127720A JP2023133602A (ja) | 2021-06-21 | 2023-08-04 | プログラム、方法、情報処理装置、および画像表示システム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021102530A Division JP7331887B2 (ja) | 2021-06-21 | 2021-06-21 | プログラム、方法、情報処理装置、および画像表示システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023133602A true JP2023133602A (ja) | 2023-09-22 |
JP2023133602A5 JP2023133602A5 (ja) | 2024-06-26 |
Family
ID=84489338
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021102530A Active JP7331887B2 (ja) | 2021-06-21 | 2021-06-21 | プログラム、方法、情報処理装置、および画像表示システム |
JP2023127720A Pending JP2023133602A (ja) | 2021-06-21 | 2023-08-04 | プログラム、方法、情報処理装置、および画像表示システム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021102530A Active JP7331887B2 (ja) | 2021-06-21 | 2021-06-21 | プログラム、方法、情報処理装置、および画像表示システム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220406279A1 (ja) |
JP (2) | JP7331887B2 (ja) |
CN (1) | CN115578994A (ja) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS575098A (en) * | 1980-06-11 | 1982-01-11 | Nippon Musical Instruments Mfg | Automatic performance device |
JPH09134173A (ja) * | 1995-11-10 | 1997-05-20 | Roland Corp | 自動演奏装置の表示制御方法および表示制御装置 |
JP5947438B1 (ja) * | 2015-09-24 | 2016-07-06 | 安優未 名越 | 演奏技術描画評価システム |
JP7035486B2 (ja) | 2017-11-30 | 2022-03-15 | カシオ計算機株式会社 | 情報処理装置、情報処理方法、情報処理プログラム、及び、電子楽器 |
-
2021
- 2021-06-21 JP JP2021102530A patent/JP7331887B2/ja active Active
-
2022
- 2022-05-26 US US17/826,073 patent/US20220406279A1/en active Pending
- 2022-06-17 CN CN202210691244.3A patent/CN115578994A/zh active Pending
-
2023
- 2023-08-04 JP JP2023127720A patent/JP2023133602A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2023001671A (ja) | 2023-01-06 |
US20220406279A1 (en) | 2022-12-22 |
JP7331887B2 (ja) | 2023-08-23 |
CN115578994A (zh) | 2023-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7288711B2 (en) | Chord presenting apparatus and storage device storing a chord presenting computer program | |
JP2000214848A (ja) | 演奏支援装置、演奏支援方法、および演奏支援プログラムを記録した記録媒体 | |
JP2008089975A (ja) | 電子楽器 | |
JP2023016956A (ja) | 電子楽器、伴奏音指示方法、プログラム、及び伴奏音自動生成装置 | |
JP2022164934A (ja) | プログラム、方法、電子機器、および演奏データ表示システム | |
JP2003288077A (ja) | 曲データ出力装置及びプログラム | |
JP7331887B2 (ja) | プログラム、方法、情報処理装置、および画像表示システム | |
JP7327434B2 (ja) | プログラム、方法、情報処理装置、および演奏データ表示システム | |
JP6582517B2 (ja) | 制御装置およびプログラム | |
JP7456149B2 (ja) | プログラム、電子機器、方法、および演奏データ表示システム | |
JP2002304176A (ja) | 電子音楽装置及びその制御方法並びにプログラム | |
JP3873914B2 (ja) | 演奏練習装置及びプログラム | |
JP7201048B1 (ja) | 電子楽器、およびプログラム | |
JP2002297139A (ja) | 演奏データ変更処理装置 | |
JP7404737B2 (ja) | 自動演奏装置、電子楽器、方法およびプログラム | |
US20230035440A1 (en) | Electronic device, electronic musical instrument, and method therefor | |
JP7409366B2 (ja) | 自動演奏装置、自動演奏方法、プログラム、及び電子楽器 | |
JP7425558B2 (ja) | コード検出装置及びコード検出プログラム | |
JP3873880B2 (ja) | 演奏補助装置および演奏補助用プログラム | |
JP7263998B2 (ja) | 電子楽器、制御方法およびプログラム | |
JP3674469B2 (ja) | 演奏ガイド方法と装置及び記録媒体 | |
JP2004170840A (ja) | 演奏制御装置および演奏制御用プログラム | |
JP2024015505A (ja) | 自動演奏装置、電子楽器、自動演奏方法、及びプログラム | |
JP2003122351A (ja) | 音波形信号のピッチを音高に変換する装置およびプログラム | |
JP2004045695A (ja) | 演奏データ処理装置および演奏データ処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240618 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240618 |