JP2017158126A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2017158126A
JP2017158126A JP2016041764A JP2016041764A JP2017158126A JP 2017158126 A JP2017158126 A JP 2017158126A JP 2016041764 A JP2016041764 A JP 2016041764A JP 2016041764 A JP2016041764 A JP 2016041764A JP 2017158126 A JP2017158126 A JP 2017158126A
Authority
JP
Japan
Prior art keywords
processing unit
score
image
parts
partial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016041764A
Other languages
Japanese (ja)
Other versions
JP6524941B2 (en
Inventor
里奈 新井
Rina Arai
里奈 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2016041764A priority Critical patent/JP6524941B2/en
Publication of JP2017158126A publication Critical patent/JP2017158126A/en
Application granted granted Critical
Publication of JP6524941B2 publication Critical patent/JP6524941B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus and an image processing method that can improve convenience of a score including a plurality of parts.SOLUTION: An image processing apparatus comprises: a first detection processing part that detects partial scores P1 to P5 corresponding respectively to a plurality of parts on the basis of image data D1 of a score including the partial scores P1 to P5; a specification processing part that specifies, from the partial scores P1 to P5 detected by the first detection processing part, partial scores corresponding to one or more target parts according to a predetermined selection operation; and an emphasis processing part that changes the color of the partial scores corresponding to the target parts specified by the specification processing part.SELECTED DRAWING: Figure 4

Description

本発明は、画像処理装置、及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method.

複写機のような画像処理装置では、様々な種類の原稿が印刷される。例えば、この種の画像処理装置では、楽譜の原稿が印刷されることがある。なお、楽譜の原稿から読み取られた画像データに基づいて、前記楽譜に補助記号を付加することが可能な画像処理装置が知られている(特許文献1参照)。   In an image processing apparatus such as a copying machine, various types of originals are printed. For example, in this type of image processing apparatus, a musical score document may be printed. An image processing apparatus is known that can add auxiliary symbols to the musical score based on image data read from a musical score manuscript (see Patent Document 1).

特開2010−220097号公報JP 2010-220097 A

ところで、画像処理装置では、合奏曲の楽譜のような複数のパートを含む楽譜の原稿が印刷されることがある。例えば、合奏に参加するユーザーが、担当パートの演奏に利用するために、画像処理装置を用いて合奏曲の楽譜の原稿を印刷することがある。ここで、印刷された楽譜に含まれる担当パート以外のパートは、担当パートと比較して、ユーザーにとって必要性が低いことが多い。担当パート以外のパートがユーザーにとって必要性が低い場合、ユーザーは、印刷された楽譜に含まれる複数のパートから担当パートを見つけ出す手間を不便に感じる。   By the way, in the image processing apparatus, a musical score document including a plurality of parts such as a musical score of an ensemble may be printed. For example, a user participating in an ensemble may print a musical score manuscript of the ensemble using an image processing device in order to use it for the performance of the part in charge. Here, parts other than the assigned part included in the printed score are often less necessary for the user than the assigned part. When a part other than the responsible part is less necessary for the user, the user feels inconvenient to find the responsible part from a plurality of parts included in the printed score.

本発明の目的は、複数のパートを含む楽譜の利便性を向上可能な画像処理装置、及び画像処理方法を提供することにある。   An object of the present invention is to provide an image processing apparatus and an image processing method capable of improving the convenience of a score including a plurality of parts.

本発明の一の局面に係る画像処理装置は、第1検出処理部と、特定処理部と、強調処理部と、を備える。前記第1検出処理部は、複数のパートを含む楽譜の画像データに基づいて前記パート各々に対応する部分楽譜を検出する。前記特定処理部は、予め定められた選択操作に応じて、前記第1検出処理部によって検出された複数の前記パート各々に対応する前記部分楽譜から一又は複数の対象パートに対応する前記部分楽譜を特定する。前記強調処理部は、前記特定処理部によって特定された前記対象パートに対応する前記部分楽譜を強調する。   An image processing apparatus according to one aspect of the present invention includes a first detection processing unit, a specific processing unit, and an enhancement processing unit. The first detection processing unit detects a partial score corresponding to each part based on image data of a score including a plurality of parts. The specific processing unit corresponds to the partial score corresponding to one or a plurality of target parts from the partial score corresponding to each of the plurality of parts detected by the first detection processing unit according to a predetermined selection operation. Is identified. The enhancement processing unit emphasizes the partial score corresponding to the target part identified by the identification processing unit.

本発明の他の局面に係る画像処理方法は、以下の第1ステップ、第2ステップ、及び第3ステップを含む。前記第1ステップでは、複数のパートを含む楽譜の画像データに基づいて前記パート各々に対応する部分楽譜が検出される。前記第2ステップでは、予め定められた選択操作に応じて、前記第1ステップによって検出された複数の前記パート各々に対応する前記部分楽譜から一又は複数の対象パートに対応する前記部分楽譜が特定される。前記第3ステップでは、前記第2ステップによって特定された前記対象パートに対応する前記部分楽譜が強調される。   An image processing method according to another aspect of the present invention includes the following first step, second step, and third step. In the first step, a partial score corresponding to each part is detected based on image data of a score including a plurality of parts. In the second step, the partial score corresponding to one or a plurality of target parts is identified from the partial scores corresponding to each of the plurality of parts detected in the first step according to a predetermined selection operation. Is done. In the third step, the partial score corresponding to the target part specified in the second step is emphasized.

本発明によれば、複数のパートを含む楽譜の利便性を向上させることが可能である。   According to the present invention, it is possible to improve the convenience of a score including a plurality of parts.

図1は、本発明の実施形態に係る画像処理装置の構成を示す図である。FIG. 1 is a diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention. 図2は、本発明の実施形態に係る画像処理装置のシステム構成を示すブロック図である。FIG. 2 is a block diagram showing a system configuration of the image processing apparatus according to the embodiment of the present invention. 図3は、本発明の実施形態に係る画像処理装置で実行されるパート強調処理の一例を示すフローチャートである。FIG. 3 is a flowchart illustrating an example of part enhancement processing executed by the image processing apparatus according to the embodiment of the present invention. 図4は、本発明の実施形態に係る画像処理装置で取得される楽譜の画像データの一例を示す図である。FIG. 4 is a diagram illustrating an example of image data of a score acquired by the image processing apparatus according to the embodiment of the present invention. 図5は、本発明の実施形態に係る画像処理装置の操作表示部に表示される選択画面の一例を示す図である。FIG. 5 is a diagram illustrating an example of a selection screen displayed on the operation display unit of the image processing apparatus according to the embodiment of the present invention.

以下、添付図面を参照しながら、本発明の実施形態について説明する。なお、以下の実施形態は、本発明を具体化した一例であって、本発明の技術的範囲を限定するものではない。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. The following embodiment is an example embodying the present invention, and does not limit the technical scope of the present invention.

[画像処理装置10の構成]
まず、図1及び図2を参照しつつ、本発明の実施形態に係る画像処理装置10の構成について説明する。ここで、図1は画像処理装置10の構成を示す断面模式図である。
[Configuration of Image Processing Device 10]
First, the configuration of the image processing apparatus 10 according to the embodiment of the present invention will be described with reference to FIGS. 1 and 2. Here, FIG. 1 is a schematic cross-sectional view showing the configuration of the image processing apparatus 10.

画像処理装置10は、原稿から画像データを読み取るスキャン機能、及び画像データに基づいて画像を形成するプリント機能と共に、ファクシミリ機能、及びコピー機能などの複数の機能を有する複合機である。また、本発明は、スキャナー装置、プリンター装置、ファクシミリ装置、コピー機、及びパーソナルコンピューターなどの画像処理装置に適用可能である。   The image processing apparatus 10 is a multifunction machine having a plurality of functions such as a facsimile function and a copy function, as well as a scan function for reading image data from a document and a print function for forming an image based on the image data. The present invention is also applicable to image processing apparatuses such as scanner apparatuses, printer apparatuses, facsimile apparatuses, copiers, and personal computers.

図1及び図2に示されるように、画像処理装置10は、ADF(自動原稿搬送装置)1、画像読取部2、画像形成部3、給紙部4、制御部5、操作表示部6、及び記憶部7を備える。   As shown in FIGS. 1 and 2, the image processing apparatus 10 includes an ADF (automatic document feeder) 1, an image reading unit 2, an image forming unit 3, a paper feeding unit 4, a control unit 5, an operation display unit 6, And a storage unit 7.

ADF1は、原稿セット部、複数の搬送ローラー、原稿押さえ、及び排紙部を備え、画像読取部2によって読み取られる原稿を搬送する。画像読取部2は、原稿台、光源、複数のミラー、光学レンズ、及びCCDを備え、原稿から画像データを読み取ることが可能である。   The ADF 1 includes a document setting unit, a plurality of conveyance rollers, a document pressing unit, and a paper discharge unit, and conveys a document read by the image reading unit 2. The image reading unit 2 includes a document table, a light source, a plurality of mirrors, an optical lens, and a CCD, and can read image data from the document.

画像形成部3は、画像読取部2で読み取られた画像データに基づいて、電子写真方式でカラー又はモノクロの画像を形成することが可能である。また、画像形成部3は、外部のパーソナルコンピューター等の情報処理装置から入力された画像データに基づいて、画像を形成することも可能である。具体的に、画像形成部3は、C(シアン)、M(マゼンタ)、Y(イエロー)、及びK(ブラック)に対応する複数の画像形成ユニット、光走査装置、中間転写ベルト、二次転写ローラー、定着装置、及び排紙トレイを備える。給紙部4は、画像形成部3にシートを供給する。画像形成部3では、給紙部4から供給されるシートにカラー又はモノクロの画像が形成されて、画像形成後のシートが前記排紙トレイに排出される。なお、画像形成部3は、インクジェット方式などの他の画像形成方式により画像を形成するものであってもよい。   The image forming unit 3 can form a color or monochrome image by electrophotography based on the image data read by the image reading unit 2. The image forming unit 3 can also form an image based on image data input from an information processing apparatus such as an external personal computer. Specifically, the image forming unit 3 includes a plurality of image forming units corresponding to C (cyan), M (magenta), Y (yellow), and K (black), an optical scanning device, an intermediate transfer belt, and a secondary transfer. A roller, a fixing device, and a paper discharge tray are provided. The sheet feeding unit 4 supplies sheets to the image forming unit 3. In the image forming unit 3, a color or monochrome image is formed on the sheet supplied from the paper feeding unit 4, and the sheet after image formation is discharged to the paper discharge tray. The image forming unit 3 may form an image by another image forming method such as an ink jet method.

制御部5は、不図示のCPU、ROM、RAM、及びEEPROM(登録商標)などの制御機器を備える。前記CPUは、各種の演算処理を実行するプロセッサーである。前記ROMは、前記CPUに各種の処理を実行させるための制御プログラムなどの情報が予め記憶される不揮発性の記憶媒体である。前記RAMは揮発性の記憶媒体であり、前記EEPROMは不揮発性の記憶媒体である。前記RAM及び前記EEPROMは、前記CPUが実行する各種の処理の一時記憶メモリー(作業領域)として使用される。制御部5では、前記CPUにより前記ROMに予め記憶された各種の制御プログラムが実行される。これにより、画像処理装置10が制御部5により統括的に制御される。なお、制御部5は、集積回路(ASIC)などの電子回路で構成されたものであってもよく、画像処理装置10を統括的に制御するメイン制御部とは別に設けられた制御部であってもよい。   The control unit 5 includes control devices such as a CPU, ROM, RAM, and EEPROM (registered trademark) (not shown). The CPU is a processor that executes various arithmetic processes. The ROM is a non-volatile storage medium in which information such as a control program for causing the CPU to execute various processes is stored in advance. The RAM is a volatile storage medium, and the EEPROM is a nonvolatile storage medium. The RAM and the EEPROM are used as a temporary storage memory (working area) for various processes executed by the CPU. In the control unit 5, various control programs stored in advance in the ROM are executed by the CPU. As a result, the image processing apparatus 10 is comprehensively controlled by the control unit 5. The control unit 5 may be an electronic circuit such as an integrated circuit (ASIC), and is a control unit provided separately from the main control unit that comprehensively controls the image processing apparatus 10. May be.

操作表示部6は、制御部5からの制御指示に応じて各種の情報を表示する液晶ディスプレーなどの表示部、及びユーザーの操作に応じて制御部5に各種の情報を入力する操作キー又はタッチパネルなどの操作部を有する。   The operation display unit 6 is a display unit such as a liquid crystal display that displays various types of information in response to control instructions from the control unit 5, and an operation key or touch panel that inputs various types of information to the control unit 5 in response to user operations. And so on.

記憶部7は、不揮発性の記憶媒体である。例えば、記憶部7は、フラッシュメモリー、SSD(ソリッドステートドライブ)、又はHDD(ハードディスクドライブ)などの記憶媒体である。   The storage unit 7 is a nonvolatile storage medium. For example, the storage unit 7 is a storage medium such as a flash memory, an SSD (solid state drive), or an HDD (hard disk drive).

画像処理装置10では、様々な種類の原稿が印刷される。例えば、画像処理装置10では、楽譜の原稿が印刷されることがある。なお、楽譜の原稿から読み取られた画像データに基づいて、前記楽譜に補助記号を付加することが可能な画像処理装置が知られている。   The image processing apparatus 10 prints various types of documents. For example, the image processing apparatus 10 may print a musical score document. An image processing apparatus is known that can add auxiliary symbols to a musical score based on image data read from a musical score manuscript.

ところで、画像処理装置10では、合奏曲の楽譜のような複数のパートを含む楽譜の原稿が印刷されることがある。例えば、合奏に参加するユーザーが、担当パートの演奏に利用するために、画像処理装置10を用いて合奏曲の楽譜の原稿を印刷することがある。ここで、印刷された楽譜に含まれる担当パート以外のパートは、担当パートと比較して、ユーザーにとって必要性が低いことが多い。担当パート以外のパートがユーザーにとって必要性が低い場合、ユーザーは、印刷された楽譜に含まれる複数のパートから担当パートを見つけ出す手間を不便に感じる。   By the way, the image processing apparatus 10 may print a musical score original including a plurality of parts such as a musical score of an ensemble. For example, a user participating in an ensemble may print a musical score manuscript of the ensemble using the image processing apparatus 10 in order to use it for the performance of the part in charge. Here, parts other than the assigned part included in the printed score are often less necessary for the user than the assigned part. When a part other than the responsible part is less necessary for the user, the user feels inconvenient to find the responsible part from a plurality of parts included in the printed score.

これに対し、本発明の実施形態に係る画像処理装置10は、以下に説明するように、複数のパートを含む楽譜の利便性を向上させることが可能である。   On the other hand, the image processing apparatus 10 according to the embodiment of the present invention can improve the convenience of a score including a plurality of parts, as will be described below.

具体的に、制御部5の前記ROMには、前記CPUに後述のパート強調処理(図3のフローチャート参照)を実行させるためのパート強調プログラムが予め記憶されている。なお、前記パート強調プログラムは、CD、DVD、フラッシュメモリーなどのコンピューター読み取り可能な記録媒体に記録されており、前記記録媒体から読み取られて記憶部7にインストールされるものであってもよい。   Specifically, the ROM of the control unit 5 stores in advance a part emphasis program for causing the CPU to execute a part emphasis process described later (see the flowchart of FIG. 3). The part emphasis program may be recorded on a computer-readable recording medium such as a CD, a DVD, or a flash memory, and read from the recording medium and installed in the storage unit 7.

そして、制御部5は、図2に示されるように、取得処理部51、第1検出処理部52、第2検出処理部53、特定処理部54、強調処理部55、及び出力処理部56を含む。具体的に、制御部5は、前記CPUを用いて前記ROMに記憶されている前記パート強調プログラムを実行する。これにより、制御部5は、取得処理部51、第1検出処理部52、第2検出処理部53、特定処理部54、強調処理部55、及び出力処理部56として機能する。   Then, as shown in FIG. 2, the control unit 5 includes an acquisition processing unit 51, a first detection processing unit 52, a second detection processing unit 53, a specific processing unit 54, an enhancement processing unit 55, and an output processing unit 56. Including. Specifically, the control unit 5 executes the part enhancement program stored in the ROM using the CPU. Thereby, the control unit 5 functions as an acquisition processing unit 51, a first detection processing unit 52, a second detection processing unit 53, a specific processing unit 54, an enhancement processing unit 55, and an output processing unit 56.

取得処理部51は、複数のパートを含む楽譜の画像データを取得する。   The acquisition processing unit 51 acquires image data of a score including a plurality of parts.

例えば、取得処理部51は、画像読取部2を用いて前記楽譜の原稿から前記楽譜の画像データを取得する。具体的に、取得処理部51は、ADF1の前記原稿セット部に原稿が載置されている場合には、ADF1及び画像読取部2を用いて、前記原稿セット部に載置された原稿から前記楽譜の画像データを読み取る。また、取得処理部51は、画像読取部2の前記原稿台に原稿が載置されている場合には、画像読取部2を用いて、前記原稿台に載置された原稿から前記楽譜の画像データを読み取る。   For example, the acquisition processing unit 51 uses the image reading unit 2 to acquire the score image data from the score document. Specifically, when a document is placed on the document setting unit of the ADF 1, the acquisition processing unit 51 uses the ADF 1 and the image reading unit 2 to read the document from the document placed on the document setting unit. Read the image data of the score. In addition, when a document is placed on the document table of the image reading unit 2, the acquisition processing unit 51 uses the image reading unit 2 to image the score from the document placed on the document table. Read data.

また、取得処理部51は、外部の情報処理装置から送信される前記楽譜の画像データを受信することで、前記楽譜の画像データを取得してもよい。また、取得処理部51は、画像読取部2によって読み取られて、又は外部の情報処理装置から送信されて記憶部7に格納された前記楽譜の画像データを読み出すことで、前記楽譜の画像データを取得してもよい。   The acquisition processing unit 51 may acquire the image data of the score by receiving the image data of the score transmitted from an external information processing apparatus. The acquisition processing unit 51 reads the image data of the score by reading the image data of the score that is read by the image reading unit 2 or transmitted from an external information processing apparatus and stored in the storage unit 7. You may get it.

第1検出処理部52は、取得処理部51によって取得された前記楽譜の画像データに基づいて、前記パート各々に対応する部分楽譜を検出する。   The first detection processing unit 52 detects a partial score corresponding to each of the parts based on the image data of the score acquired by the acquisition processing unit 51.

例えば、第1検出処理部52は、前記楽譜に含まれる五線及び前記パートの名称に基づいて、前記パート各々に対応する前記部分楽譜を検出する。具体的に、第1検出処理部52は、前記パートの名称が予め定められた特殊パートであるか否かに応じて前記パートの名称ごとに特定される一又は複数の前記五線を含む領域を、前記パートに対応する前記部分楽譜として検出する。   For example, the first detection processing unit 52 detects the partial score corresponding to each of the parts based on the staff and the name of the part included in the score. Specifically, the first detection processing unit 52 includes an area including one or more staffs that are specified for each part name depending on whether or not the part name is a predetermined special part. Is detected as the partial score corresponding to the part.

ここで、前記特殊パートは、旋律の表現に複数の前記五線が用いられる前記パートである。例えば、前記特殊パートに対応して特定される前記五線の数は、前記特殊パートごとに予め定められている。例えば、前記特殊パートは、ピアノを含む。また、前記特殊パートがピアノである場合に前記特殊パートに対応して特定される前記五線の数は二つである。   Here, the special part is the part in which a plurality of the staffs are used for expressing the melody. For example, the number of staffs specified corresponding to the special part is predetermined for each special part. For example, the special part includes a piano. Further, when the special part is a piano, the number of staffs specified corresponding to the special part is two.

例えば、第1検出処理部52は、前記パートの名称が前記特殊パートではない場合は、前記パートの名称から予め定められた特定方向に配置された一つの前記五線を、前記パートの名称に対応する前記五線として特定する。一方、第1検出処理部52は、前記パートの名称が前記特殊パートである場合は、前記パートの名称から前記特定方向に配置された複数の前記五線を、前記パートの名称に対応する前記五線として特定する。例えば、前記特定方向は、前記パートの名称の下方、又は右方である。   For example, if the name of the part is not the special part, the first detection processing unit 52 sets one of the staffs arranged in a specific direction predetermined from the name of the part as the name of the part. Identify as the corresponding staff. On the other hand, the first detection processing unit 52, when the name of the part is the special part, the plurality of staffs arranged in the specific direction from the name of the part, the corresponding to the name of the part Identify as a staff. For example, the specific direction is below or to the right of the name of the part.

そして、第1検出処理部52は、特定された前記パートの名称に対応する一又は複数の前記五線を含む領域を前記パートに対応する前記部分楽譜として検出する。   And the 1st detection process part 52 detects the area | region containing the one or some said staff corresponding to the name of the specified said part as the said partial score corresponding to the said part.

ここで、図4を参照しつつ、第1検出処理部52による前記パートに対応する前記部分楽譜の検出手順について説明する。図4には、取得処理部51によって取得された前記楽譜の画像データの一例である楽譜の画像データD1が示されている。   Here, the procedure for detecting the partial score corresponding to the part by the first detection processing unit 52 will be described with reference to FIG. FIG. 4 shows musical score image data D <b> 1 that is an example of the musical score image data acquired by the acquisition processing unit 51.

まず、第1検出処理部52は、取得処理部51によって取得された楽譜の画像データD1に基づいて、楽譜の画像データD1に含まれる五線G11〜G28を検出する。例えば、第1検出処理部52は、楽譜の画像データD1に対して、楽譜の画像データD1に含まれる画素各々を予め設定された閾値に基づいて二値化する二値化処理を実行する。そして、第1検出処理部52は、前記二値化処理の実行結果に基づいて、楽譜の画像データD1に含まれる五線G11〜G28を検出する。   First, the first detection processing unit 52 detects the staffs G11 to G28 included in the musical score image data D1 based on the musical score image data D1 acquired by the acquisition processing unit 51. For example, the first detection processing unit 52 executes binarization processing for binarizing each pixel included in the musical score image data D1 based on a preset threshold value with respect to the musical score image data D1. And the 1st detection process part 52 detects the staff G11-G28 contained in the image data D1 of a score based on the execution result of the said binarization process.

次に、第1検出処理部52は、取得処理部51によって取得された楽譜の画像データD1に基づいて、楽譜の画像データD1に含まれるパート名M1〜M5を検出する。例えば、第1検出処理部52は、楽譜の画像データD1に対して、楽譜の画像データD1に含まれる文字を認識するOCR(光学文字認識)処理を実行する。そして、第1検出処理部52は、前記OCR処理の実行結果に基づいて、楽譜の画像データD1に含まれるパート名M1〜M5を検出する。   Next, the first detection processing unit 52 detects part names M1 to M5 included in the musical score image data D1 based on the musical score image data D1 acquired by the acquisition processing unit 51. For example, the first detection processing unit 52 performs OCR (optical character recognition) processing for recognizing characters included in the score image data D1 on the score image data D1. Then, the first detection processing unit 52 detects part names M1 to M5 included in the musical score image data D1 based on the execution result of the OCR process.

次に、第1検出処理部52は、検出されたパート名M1〜M5が、前記特殊パートであるか否かを判断する。例えば、第1検出処理部52は、パート名M1〜M4は前記特殊パートではないと判断する。また、第1検出処理部52は、パート名M5は前記特殊パートであると判断する。   Next, the first detection processing unit 52 determines whether or not the detected part names M1 to M5 are the special parts. For example, the first detection processing unit 52 determines that the part names M1 to M4 are not the special parts. Further, the first detection processing unit 52 determines that the part name M5 is the special part.

次に、第1検出処理部52は、検出されたパート名M1〜M5に対応する前記五線を特定する。例えば、第1検出処理部52は、パート名M1の右方に配置された五線G11、五線G17、及び五線G23をパート名M1に対応する前記五線として特定する。また、第1検出処理部52は、パート名M2の右方に配置された五線G12、五線G18、及び五線G24をパート名M2に対応する前記五線として特定する。また、第1検出処理部52は、パート名M3の右方に配置された五線G13、五線G19、及び五線G25をパート名M3に対応する前記五線として特定する。また、第1検出処理部52は、パート名M4の右方に配置された五線G14、五線G20、及び五線G26をパート名M4に対応する前記五線として特定する。また、第1検出処理部52は、パート名M5の右方に配置された五線G15〜G16、五線G21〜G22、及び五線G27〜G28をパート名M5に対応する前記五線として特定する。   Next, the first detection processing unit 52 specifies the staff corresponding to the detected part names M1 to M5. For example, the first detection processing unit 52 specifies the staff G11, staff G17, and staff G23 arranged to the right of the part name M1 as the staff corresponding to the part name M1. The first detection processing unit 52 identifies the staff G12, staff G18, and staff G24 arranged on the right side of the part name M2 as the staff corresponding to the part name M2. Further, the first detection processing unit 52 specifies the staff G13, staff G19, and staff G25 arranged on the right side of the part name M3 as the staff corresponding to the part name M3. Moreover, the 1st detection process part 52 specifies the staff G14, the staff G20, and the staff G26 arrange | positioned on the right side of the part name M4 as the said staff corresponding to the part name M4. In addition, the first detection processing unit 52 identifies the staff G15 to G16, the staff G21 to G22, and the staff G27 to G28 arranged to the right of the part name M5 as the staff corresponding to the part name M5. To do.

そして、第1検出処理部52は、パート名M1〜M5各々に対応して特定された前記五線を含む領域を、前記パートに対応する前記部分楽譜として検出する。例えば、第1検出処理部52は、パート名M1及びパート名M1に対応して特定された五線G11、五線G17、及び五線G23を含む領域を部分楽譜P1として特定する。また、第1検出処理部52は、パート名M2及びパート名M2に対応して特定された五線G12、五線G18、及び五線G24を含む領域を部分楽譜P2として特定する。また、第1検出処理部52は、パート名M3及びパート名M3に対応して特定された五線G13、五線G19、及び五線G25を含む領域を部分楽譜P3として特定する。また、第1検出処理部52は、パート名M4及びパート名M4に対応して特定された五線G14、五線G20、及び五線G26を含む領域を部分楽譜P4として特定する。また、第1検出処理部52は、パート名M5及びパート名M5に対応して特定された五線G15〜G16、五線G21〜G22、及び五線G27〜G28を含む領域を部分楽譜P5として特定する。なお、図4では、部分楽譜P1〜P5が二点鎖線により示されている。   And the 1st detection process part 52 detects the area | region containing the said staff specified corresponding to each part name M1-M5 as the said partial score corresponding to the said part. For example, the first detection processing unit 52 specifies a region including the staff G11, staff G17, and staff G23 identified corresponding to the part name M1 and the part name M1 as the partial score P1. In addition, the first detection processing unit 52 specifies a region including the staff G12, staff G18, and staff G24 identified corresponding to the part name M2 and the part name M2 as the partial score P2. In addition, the first detection processing unit 52 specifies a region including the staff G13, staff G19, and staff G25 identified corresponding to the part name M3 and the part name M3 as the partial score P3. In addition, the first detection processing unit 52 specifies a region including the staff G14, staff G20, and staff G26 identified corresponding to the part name M4 and the part name M4 as the partial score P4. In addition, the first detection processing unit 52 uses, as a partial score P5, an area including the staff G15 to G16, staff G21 to G22, and staff G27 to G28 specified corresponding to the part name M5 and the part name M5. Identify. In FIG. 4, the partial scores P1 to P5 are indicated by two-dot chain lines.

なお、第1検出処理部52は、前記五線に基づくことなく、前記パートに対応する前記部分楽譜を検出してもよい。例えば、第1検出処理部52は、前記パートの名称が前記特殊パートであるか否かに応じて前記パートの名称ごとに特定される領域を、前記パートに対応する前記部分楽譜として検出してもよい。   Note that the first detection processing unit 52 may detect the partial score corresponding to the part without being based on the staff. For example, the first detection processing unit 52 detects an area specified for each part name according to whether the part name is the special part as the partial score corresponding to the part. Also good.

第2検出処理部53は、前記楽譜の画像データに基づいて、前記楽譜に含まれる演奏記号のうち予め定められた特定演奏記号を検出する。ここで、前記特定演奏記号は、前記楽譜に含まれる全ての前記パートの演奏に関わる前記演奏記号である。例えば、前記特定演奏記号は、速度記号及び発想記号を含む。   The second detection processing unit 53 detects a predetermined specific performance symbol among performance symbols included in the score based on the image data of the score. Here, the specific performance symbol is the performance symbol related to the performance of all the parts included in the score. For example, the specific performance symbol includes a speed symbol and an idea symbol.

例えば、第2検出処理部53は、第1検出処理部52によって実行された前記OCR処理の実行結果に基づいて、前記特定演奏記号を検出する。例えば、第2検出処理部53は、図4に示される楽譜の画像データD1から、特定演奏記号A1を検出する。   For example, the second detection processing unit 53 detects the specific performance symbol based on the execution result of the OCR process executed by the first detection processing unit 52. For example, the second detection processing unit 53 detects the specific performance symbol A1 from the musical score image data D1 shown in FIG.

特定処理部54は、予め定められた選択操作に応じて、第1検出処理部52によって検出された複数の前記パート各々に対応する前記部分楽譜から一又は複数の対象パートに対応する前記部分楽譜を特定する。   The specific processing unit 54 selects the partial score corresponding to one or a plurality of target parts from the partial score corresponding to each of the plurality of parts detected by the first detection processing unit 52 in accordance with a predetermined selection operation. Is identified.

例えば、特定処理部54は、第1検出処理部52によって検出された前記パートに対応する前記部分楽譜の選択に用いられる選択画面を操作表示部6に表示させる。そして、特定処理部54は、前記選択画面におけるユーザーの操作に応じて、第1検出処理部52によって検出された複数の前記パート各々に対応する前記部分楽譜から一又は複数の前記対象パートに対応する前記部分楽譜を特定する。ここに、前記選択画面におけるユーザーの操作が、本発明における予め定められた選択操作の一例である。   For example, the specific processing unit 54 causes the operation display unit 6 to display a selection screen used for selecting the partial score corresponding to the part detected by the first detection processing unit 52. Then, the specific processing unit 54 corresponds to one or a plurality of the target parts from the partial score corresponding to each of the plurality of parts detected by the first detection processing unit 52 according to a user operation on the selection screen. The partial score to be specified is specified. Here, the user operation on the selection screen is an example of a predetermined selection operation in the present invention.

図5に、特定処理部54によって操作表示部6に表示される前記選択画面の一例を示す。図5に示される選択画面X1は、表示領域R1、操作キーK1〜K2を含む。表示領域R1には、楽譜の画像データD1が表示される。ユーザーは、選択画面X1において、表示領域R1に表示された楽譜の画像データD1から、一又は複数の前記パートに対応する前記部分楽譜を選択することが可能である。例えば、ユーザーは、選択画面X1において所望の前記パートに対応する前記部分楽譜の表示領域に対してタッチ操作を行うことで、前記パートに対応する前記部分楽譜を選択することが可能である。例えば、ユーザーにより選択画面X1の部分楽譜P5の表示領域に対するタッチ操作が行われると、特定処理部54は、部分楽譜P5が選択状態であることを示すカーソルA2を表示領域R1に表示させる。カーソルA2が表示領域R1に表示されている状態で、ユーザーにより操作キーK1に対するタッチ操作が行われると、特定処理部54は、部分楽譜P5を前記対象パートに対応する前記部分楽譜に特定する。一方、ユーザーにより操作キーK2に対するタッチ操作が行われた場合には、特定処理部54は、前記対象パートに対応する前記部分楽譜の特定を行わない。なお、図5では、カーソルA2は二点鎖線により示されている。   FIG. 5 shows an example of the selection screen displayed on the operation display unit 6 by the specific processing unit 54. The selection screen X1 shown in FIG. 5 includes a display area R1 and operation keys K1 to K2. In the display area R1, musical score image data D1 is displayed. The user can select the partial score corresponding to one or a plurality of the parts from the score image data D1 displayed in the display area R1 on the selection screen X1. For example, the user can select the partial score corresponding to the part by performing a touch operation on the partial score display area corresponding to the desired part on the selection screen X1. For example, when the user performs a touch operation on the display area of the partial score P5 on the selection screen X1, the specific processing unit 54 displays a cursor A2 indicating that the partial score P5 is selected in the display area R1. When the user performs a touch operation on the operation key K1 while the cursor A2 is displayed in the display area R1, the specifying processing unit 54 specifies the partial score P5 as the partial score corresponding to the target part. On the other hand, when the user performs a touch operation on the operation key K2, the specification processing unit 54 does not specify the partial score corresponding to the target part. In FIG. 5, the cursor A2 is indicated by a two-dot chain line.

強調処理部55は、特定処理部54によって特定された前記対象パートに対応する前記部分楽譜を強調する。   The enhancement processing unit 55 emphasizes the partial score corresponding to the target part identified by the identification processing unit 54.

例えば、強調処理部55は、前記楽譜の画像データに含まれる前記対象パートに対応する前記部分楽譜の色を変化させる。例えば、強調処理部55は、前記対象パートに対応する前記部分楽譜の色を予め定められた色に変化させる。   For example, the enhancement processing unit 55 changes the color of the partial score corresponding to the target part included in the image data of the score. For example, the emphasis processing unit 55 changes the color of the partial score corresponding to the target part to a predetermined color.

また、強調処理部55は、特定処理部54によって複数の前記対象パート各々に対応する前記部分楽譜が特定された場合は、前記楽譜の画像データに含まれる複数の前記対象パート各々に対応する前記部分楽譜の色を互いに異なる色に変化させる。   In addition, when the partial score corresponding to each of the plurality of target parts is specified by the specification processing unit 54, the enhancement processing unit 55 corresponds to each of the plurality of target parts included in the image data of the score. Change the color of the partial score to a different color.

また、強調処理部55は、特定処理部54によって特定された前記対象パートに対応する前記部分楽譜と共に、第2検出処理部53によって検出された前記特定演奏記号を強調する。例えば、強調処理部55は、前記楽譜の画像データに含まれる前記特定演奏記号の色を前記対象パートに対応する前記部分楽譜と同じ色に変化させる。   The emphasis processing unit 55 emphasizes the specific performance symbol detected by the second detection processing unit 53 together with the partial score corresponding to the target part specified by the specific processing unit 54. For example, the enhancement processing unit 55 changes the color of the specific performance symbol included in the image data of the score to the same color as the partial score corresponding to the target part.

なお、強調処理部55は、前記楽譜の画像データに含まれる前記対象パート以外の前記パートに対応する前記部分楽譜の色を変化させてもよい。また、強調処理部55は、前記楽譜の画像データに含まれる前記対象パートに対応する前記部分楽譜、及び前記対象パート以外の前記パートに対応する前記部分楽譜の両方の色を変化させてもよい。   The enhancement processing unit 55 may change the color of the partial score corresponding to the part other than the target part included in the image data of the score. Further, the enhancement processing unit 55 may change the colors of both the partial score corresponding to the target part and the partial score corresponding to the part other than the target part included in the image data of the score. .

また、強調処理部55は、特定処理部54によって複数の前記対象パート各々に対応する前記部分楽譜が特定された場合に、前記楽譜の画像データに含まれる複数の前記対象パート各々に対応する前記部分楽譜の色を同じ色に変化させてもよい。   Further, when the partial score corresponding to each of the plurality of target parts is specified by the specification processing unit 54, the enhancement processing unit 55 corresponds to each of the plurality of target parts included in the image data of the score. The color of the partial score may be changed to the same color.

また、強調処理部55は、前記楽譜の画像データに含まれる前記対象パート以外の前記パートに対応する前記部分楽譜のサイズを縮小させて、前記対象パートに対応する前記部分楽譜を強調してもよい。また、強調処理部55は、前記楽譜の画像データに含まれる前記対象パート以外の前記パートに対応する前記部分楽譜の画像にぼかし処理を施すことで、前記対象パートに対応する前記部分楽譜を強調してもよい。   Further, the enhancement processing unit 55 reduces the size of the partial score corresponding to the part other than the target part included in the image data of the score, and emphasizes the partial score corresponding to the target part. Good. Further, the enhancement processing unit 55 emphasizes the partial score corresponding to the target part by performing blurring processing on the partial score image corresponding to the part other than the target part included in the image data of the score. May be.

出力処理部56は、強調処理部55によって強調された前記対象パートに対応する前記部分楽譜を含む前記楽譜の画像データを出力する。   The output processing unit 56 outputs image data of the score including the partial score corresponding to the target part emphasized by the enhancement processing unit 55.

例えば、出力処理部56は、画像形成部3を用いて強調処理部55によって強調された前記対象パートに対応する前記部分楽譜を含む前記楽譜の画像データを印刷する。   For example, the output processing unit 56 prints the image data of the score including the partial score corresponding to the target part emphasized by the enhancement processing unit 55 using the image forming unit 3.

また、出力処理部56は、強調処理部55によって強調された前記対象パートに対応する前記部分楽譜を含む前記楽譜の画像データを記憶部7に格納してもよい。また、出力処理部56は、強調処理部55によって強調された前記対象パートに対応する前記部分楽譜を含む前記楽譜の画像データを外部の情報処理装置に送信してもよい。   The output processing unit 56 may store the image data of the score including the partial score corresponding to the target part emphasized by the enhancement processing unit 55 in the storage unit 7. Further, the output processing unit 56 may transmit image data of the score including the partial score corresponding to the target part emphasized by the enhancement processing unit 55 to an external information processing apparatus.

[パート強調処理]
以下、図3を参照しつつ、画像処理装置10において制御部5により実行されるパート強調処理の手順の一例と共に、本発明における画像処理方法の手順について説明する。ここで、ステップS11、S12・・・は、制御部5により実行される処理手順(ステップ)の番号を表している。なお、制御部5は、操作表示部6に対して前記パート強調処理の実行を指示する旨のユーザーの操作が行われた場合に、前記パート強調処理を実行する。
[Part emphasis processing]
Hereinafter, the procedure of the image processing method according to the present invention will be described together with an example of the procedure of part emphasis processing executed by the control unit 5 in the image processing apparatus 10 with reference to FIG. Here, steps S11, S12,... Represent the numbers of processing procedures (steps) executed by the control unit 5. The control unit 5 executes the part emphasis process when a user operation is performed to instruct the operation display unit 6 to execute the part emphasis process.

<ステップS11>
まず、ステップS11において、制御部5は、前記楽譜の画像データを取得する。ここで、ステップS11の処理は、制御部5の取得処理部51により実行される。
<Step S11>
First, in step S11, the control unit 5 acquires image data of the score. Here, the process of step S <b> 11 is executed by the acquisition processing unit 51 of the control unit 5.

例えば、制御部5は、ADF1の前記原稿セット部に原稿が載置されている場合には、ADF1及び画像読取部2を用いて、前記原稿セット部に載置された原稿から前記楽譜の画像データを読み取る。また、制御部5は、画像読取部2の前記原稿台に原稿が載置されている場合には、画像読取部2を用いて、前記原稿台に載置された原稿から前記楽譜の画像データを読み取る。例えば、ステップS11では、制御部5によって図4に示される楽譜の画像データD1が取得される。   For example, when a document is placed on the document set unit of the ADF 1, the control unit 5 uses the ADF 1 and the image reading unit 2 to image the score from the document placed on the document set unit. Read data. In addition, when a document is placed on the document table of the image reading unit 2, the control unit 5 uses the image reading unit 2 to convert the image data of the score from the document placed on the document table. Read. For example, in step S11, the image data D1 of the musical score shown in FIG.

<ステップS12>
ステップS12において、制御部5は、ステップS11で取得された前記楽譜の画像データに基づいて、前記パート各々に対応する前記部分楽譜を検出する。ここに、ステップS12の処理が、本発明における第1ステップの一例であって、制御部5の第1検出処理部52により実行される。
<Step S12>
In step S12, the control unit 5 detects the partial score corresponding to each of the parts based on the image data of the score acquired in step S11. Here, the process of step S12 is an example of the first step in the present invention, and is executed by the first detection processing unit 52 of the control unit 5.

例えば、制御部5は、まず、ステップS11で取得された前記楽譜の画像データに基づいて、前記楽譜の画像データに含まれる前記五線を検出する。例えば、制御部5は、前記楽譜の画像データに対して、前記二値化処理を実行する。そして、制御部5は、前記二値化処理の実行結果に基づいて、前記楽譜の画像データに含まれる前記五線を検出する。   For example, the control unit 5 first detects the staff included in the musical score image data based on the musical score image data acquired in step S11. For example, the control unit 5 executes the binarization process on the musical score image data. And the control part 5 detects the said staff included in the image data of the said score based on the execution result of the said binarization process.

次に、制御部5は、ステップS11で取得された前記楽譜の画像データに基づいて、前記楽譜の画像データに含まれる前記パートの名称を検出する。例えば、制御部5は、前記楽譜の画像データに対して、前記OCR処理を実行する。そして、制御部5は、前記OCR処理の実行結果に基づいて、前記楽譜の画像データに含まれる前記パートの名称を検出する。   Next, the control unit 5 detects the name of the part included in the image data of the score based on the image data of the score acquired in step S11. For example, the control unit 5 performs the OCR process on the musical score image data. And the control part 5 detects the name of the said part contained in the image data of the said score based on the execution result of the said OCR process.

次に、制御部5は、検出された前記パートの名称が、前記特殊パートであるか否かを判断する。   Next, the control unit 5 determines whether or not the name of the detected part is the special part.

次に、制御部5は、検出された前記パートの名称に対応する前記五線を特定する。例えば、制御部5は、前記パートの名称が前記特殊パートではないと判断した場合は、前記パートの名称の右方に配置された一つの前記五線を、前記パートの名称に対応する前記五線として特定する。一方、制御部5は、前記パートの名称が前記特殊パートであると判断した場合は、前記パートの名称の右方に配置された複数の前記五線を、前記パートの名称に対応する前記五線として特定する。   Next, the control unit 5 identifies the staff corresponding to the detected name of the part. For example, when the control unit 5 determines that the name of the part is not the special part, the control unit 5 sets one of the staffs arranged to the right of the name of the part to the name of the part corresponding to the name of the part. Identifies as a line. On the other hand, when the control unit 5 determines that the name of the part is the special part, a plurality of staffs arranged on the right side of the name of the part are displayed as the five corresponding to the name of the part. Identifies as a line.

そして、制御部5は、前記パートの名称各々に対応して特定された前記五線を含む領域を、前記パートに対応する前記部分楽譜として特定する。例えば、ステップS12では、制御部5によって図4に示される部分楽譜P1〜P5が検出される。   And the control part 5 specifies the area | region containing the said staff specified corresponding to each name of the said part as the said partial score corresponding to the said part. For example, in step S12, the partial score P1 to P5 shown in FIG.

<ステップS13>
ステップS13において、制御部5は、ステップS11で取得された前記楽譜の画像データに基づいて、前記特定演奏記号を検出する。ここで、ステップS13の処理は、制御部5の第2検出処理部53により実行される。なお、ステップS13の処理は省略されてもよい。
<Step S13>
In step S13, the control unit 5 detects the specific performance symbol based on the image data of the musical score acquired in step S11. Here, the process of step S <b> 13 is executed by the second detection processing unit 53 of the control unit 5. Note that the process of step S13 may be omitted.

例えば、制御部5は、ステップS12で実行された前記OCR処理の実行結果に基づいて、前記楽譜の画像データから前記特定演奏記号を検出する。例えば、ステップS13では、制御部5によって図4に示される特定演奏記号A1が検出される。   For example, the control unit 5 detects the specific performance symbol from the image data of the score based on the execution result of the OCR process executed in step S12. For example, in step S13, the specific performance symbol A1 shown in FIG.

<ステップS14>
ステップS14において、制御部5は、操作表示部6に前記選択画面を表示させる。例えば、ステップS14では、制御部5によって図5に示される選択画面X1が操作表示部6に表示される。
<Step S14>
In step S <b> 14, the control unit 5 causes the operation display unit 6 to display the selection screen. For example, in step S <b> 14, the selection screen X <b> 1 shown in FIG. 5 is displayed on the operation display unit 6 by the control unit 5.

<ステップS15>
ステップS15において、制御部5は、ステップS14で操作表示部6に表示された前記選択画面において、ステップS12で検出された複数の前記パート各々に対応する前記部分楽譜から一又は複数の前記パートに対応する前記部分楽譜を選択するユーザーの操作が行われたか否かを判断する。例えば、ステップS15では、図5に示される選択画面X1において、カーソルA2が表示された状態で操作キーK1が操作されたか否かが判断される。
<Step S15>
In step S15, the control unit 5 changes the partial score corresponding to each of the plurality of parts detected in step S12 to one or a plurality of the parts on the selection screen displayed on the operation display unit 6 in step S14. It is determined whether or not a user operation for selecting the corresponding partial score has been performed. For example, in step S15, it is determined whether or not the operation key K1 has been operated with the cursor A2 displayed on the selection screen X1 shown in FIG.

ここで、制御部5は、前記選択画面において、ステップS12で検出された複数の前記パート各々に対応する前記部分楽譜から一又は複数の前記パートに対応する前記部分楽譜を選択するユーザーの操作が行われたと判断すると(S15のYes側)、処理をステップS16に移行させる。また、ステップS12で検出された複数の前記パート各々に対応する前記部分楽譜から一又は複数の前記パートに対応する前記部分楽譜を選択するユーザーの操作が行われていなければ(S15のNo側)、制御部5は、ステップS15で一又は複数の前記パートに対応する前記部分楽譜を選択するユーザーの操作を待ち受ける。   Here, the control unit 5 performs, on the selection screen, a user operation to select the partial score corresponding to one or a plurality of the parts from the partial score corresponding to each of the plurality of parts detected in step S12. If it is determined that the process has been performed (Yes in S15), the process proceeds to step S16. Further, if the user does not perform an operation to select the partial score corresponding to one or a plurality of the parts from the partial scores corresponding to the plurality of parts detected in step S12 (No side in S15). In step S15, the control unit 5 waits for a user operation to select the partial score corresponding to one or more of the parts.

<ステップS16>
ステップS16において、制御部5は、前記選択画面において行われたユーザーの操作に応じて、ステップS12で検出された複数の前記パート各々に対応する前記部分楽譜から一又は複数の前記対象パートに対応する前記部分楽譜を特定する。ここに、ステップS14〜ステップS16までの処理が、本発明における第2ステップの一例であって、制御部5の特定処理部54により実行される。例えば、ステップS16では、制御部5によって図5に示される部分楽譜P5が前記対象パートに対応する前記部分楽譜として特定される。
<Step S16>
In step S <b> 16, the control unit 5 responds to one or a plurality of the target parts from the partial score corresponding to each of the plurality of parts detected in step S <b> 12 according to a user operation performed on the selection screen. The partial score to be specified is specified. Here, the processing from step S14 to step S16 is an example of the second step in the present invention, and is executed by the specific processing unit 54 of the control unit 5. For example, in step S16, the partial score P5 shown in FIG. 5 is specified by the control unit 5 as the partial score corresponding to the target part.

<ステップS17>
ステップS17において、制御部5は、ステップS16で特定された前記対象パートに対応する前記部分楽譜を強調する。ここに、ステップS17の処理が、本発明における第3ステップの一例であって、制御部5の強調処理部55により実行される。
<Step S17>
In step S17, the control unit 5 emphasizes the partial score corresponding to the target part specified in step S16. Here, the process of step S <b> 17 is an example of a third step in the present invention, and is executed by the enhancement processing unit 55 of the control unit 5.

例えば、制御部5は、前記楽譜の画像データに含まれる前記対象パートに対応する前記部分楽譜の色を予め定められた色に変化させる。例えば、ステップS17では、制御部5によって図5に示される部分楽譜P5の色が、予め定められた色(例えば赤色)に変化される。   For example, the control unit 5 changes the color of the partial score corresponding to the target part included in the image data of the score to a predetermined color. For example, in step S17, the color of the partial score P5 shown in FIG. 5 is changed to a predetermined color (for example, red) by the control unit 5.

また、制御部5は、ステップS16で複数の前記対象パート各々に対応する前記部分楽譜が特定された場合は、前記楽譜の画像データに含まれる複数の前記対象パート各々に対応する前記部分楽譜の色を互いに異なる色に変化させる。これにより、ユーザーは、自分が担当する前記パートと合わせて参照したい他の前記パートを強調させることが可能である。   In addition, when the partial score corresponding to each of the plurality of target parts is identified in step S16, the control unit 5 sets the partial score corresponding to each of the plurality of target parts included in the image data of the score. Change colors to different colors. Thus, the user can highlight other parts that the user wants to refer to together with the parts he / she is responsible for.

また、制御部5は、ステップS16で特定された前記対象パートに対応する前記部分楽譜と共に、ステップS13で検出された前記特定演奏記号を強調する。例えば、制御部5は、前記楽譜の画像データに含まれる前記特定演奏記号の色を前記対象パートに対応する前記部分楽譜と同じ色に変化させる。例えば、ステップS17では、制御部5によって図5に示される特定演奏記号A1の色が、部分楽譜P5と同じ色(例えば赤色)に変化される。これにより、前記楽譜に含まれる全ての前記パートの演奏に関わる前記特定演奏記号が、前記対象パートに対応する前記部分楽譜と共に強調される。従って、ユーザーにおいて、前記楽譜における前記特定演奏記号の参照が容易となる。   Moreover, the control part 5 emphasizes the said specific performance symbol detected by step S13 with the said partial score corresponding to the said object part specified by step S16. For example, the control unit 5 changes the color of the specific performance symbol included in the image data of the score to the same color as the partial score corresponding to the target part. For example, in step S17, the color of the specific performance symbol A1 shown in FIG. 5 is changed to the same color (for example, red) as the partial score P5 by the control unit 5. Thereby, the specific performance symbols related to the performance of all the parts included in the score are emphasized together with the partial scores corresponding to the target part. Therefore, the user can easily refer to the specific performance symbol in the score.

<ステップS18>
ステップS18において、制御部5は、ステップS17で強調された前記対象パートに対応する前記部分楽譜を含む前記楽譜の画像データを出力する。ここで、ステップS18の処理は、制御部5の出力処理部56により実行される。
<Step S18>
In step S18, the control unit 5 outputs image data of the score including the partial score corresponding to the target part emphasized in step S17. Here, the process of step S <b> 18 is executed by the output processing unit 56 of the control unit 5.

例えば、制御部5は、画像形成部3を用いてステップS17で強調された前記対象パートに対応する前記部分楽譜を含む前記楽譜の画像データを印刷する。例えば、ステップS18では、制御部5によってステップS17で強調された部分楽譜P5及び特定演奏記号A1を含む楽譜の画像データD1が印刷される。   For example, the control unit 5 uses the image forming unit 3 to print the image data of the score including the partial score corresponding to the target part emphasized in step S17. For example, in step S18, image data D1 of a score including the partial score P5 and the specific performance symbol A1 emphasized in step S17 by the control unit 5 is printed.

なお、制御部5は、選択画面X1(図5参照)において操作キーK2が操作された場合は、楽譜の画像データD1をそのままの状態で印刷してよい。   When the operation key K2 is operated on the selection screen X1 (see FIG. 5), the control unit 5 may print the score image data D1 as it is.

このように、画像処理装置10では、複数の前記パートを含む前記楽譜の画像データに基づいて前記パート各々に対応する前記部分楽譜が検出されて、検出された複数の前記パート各々に対応する前記部分楽譜からユーザーの操作に応じて特定された一又は複数の前記対象パートに対応する前記部分楽譜が強調される。従って、複数の前記パートを含む前記楽譜の利便性を向上させることが可能である。   Thus, in the image processing apparatus 10, the partial score corresponding to each of the parts is detected based on the image data of the score including the plurality of parts, and the plurality of parts corresponding to the detected plurality of parts are detected. The partial score corresponding to one or a plurality of the target parts specified in accordance with a user operation from the partial score is emphasized. Therefore, it is possible to improve the convenience of the score including a plurality of parts.

1 ADF
2 画像読取部
3 画像形成部
4 給紙部
5 制御部
6 操作表示部
7 記憶部
10 画像処理装置
51 取得処理部
52 第1検出処理部
53 第2検出処理部
54 特定処理部
55 強調処理部
56 出力処理部
1 ADF
2 Image reading unit 3 Image forming unit 4 Paper feeding unit 5 Control unit 6 Operation display unit 7 Storage unit 10 Image processing device 51 Acquisition processing unit 52 First detection processing unit 53 Second detection processing unit 54 Specific processing unit 55 Enhancement processing unit 56 Output processor

Claims (8)

複数のパートを含む楽譜の画像データに基づいて前記パート各々に対応する部分楽譜を検出する第1検出処理部と、
予め定められた選択操作に応じて、前記第1検出処理部によって検出された複数の前記パート各々に対応する前記部分楽譜から一又は複数の対象パートに対応する前記部分楽譜を特定する特定処理部と、
前記特定処理部によって特定された前記対象パートに対応する前記部分楽譜を強調する強調処理部と、
を備える画像処理装置。
A first detection processing unit for detecting a partial score corresponding to each of the parts based on image data of a score including a plurality of parts;
A specific processing unit that identifies the partial score corresponding to one or a plurality of target parts from the partial score corresponding to each of the plurality of parts detected by the first detection processing unit in accordance with a predetermined selection operation. When,
An enhancement processing unit that emphasizes the partial score corresponding to the target part identified by the identification processing unit;
An image processing apparatus comprising:
前記第1検出処理部は、前記楽譜に含まれる五線及び前記パートの名称に基づいて前記パート各々に対応する前記部分楽譜を検出する請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the first detection processing unit detects the partial score corresponding to each of the parts based on a staff and a name of the part included in the score. 前記強調処理部は、前記対象パートに対応する前記部分楽譜及び前記対象パート以外の前記パートに対応する前記部分楽譜のいずれか一方又は両方の色を変化させる請求項1又は2に記載の画像処理装置。   The image processing according to claim 1, wherein the enhancement processing unit changes a color of one or both of the partial score corresponding to the target part and the partial score corresponding to the part other than the target part. apparatus. 前記強調処理部は、前記特定処理部によって複数の前記対象パート各々に対応する前記部分楽譜が特定された場合は、複数の前記対象パート各々に対応する前記部分楽譜の色を互いに異なる色に変化させる請求項3に記載の画像処理装置。   The enhancement processing unit changes the color of the partial score corresponding to each of the plurality of target parts to a different color when the partial score corresponding to each of the plurality of target parts is specified by the specifying processing unit. The image processing apparatus according to claim 3. 前記楽譜の画像データに基づいて前記楽譜に含まれる演奏記号のうち予め定められた特定演奏記号を検出する第2検出処理部を更に備え、
前記強調処理部は、前記特定処理部によって特定された前記対象パートに対応する前記部分楽譜及び前記第2検出処理部によって検出された前記特定演奏記号を強調する請求項1〜4のいずれかに記載の画像処理装置。
A second detection processing unit for detecting a predetermined specific performance symbol among performance symbols included in the score based on image data of the score;
The enhancement processing unit emphasizes the partial musical score corresponding to the target part identified by the identification processing unit and the specific performance symbol detected by the second detection processing unit. The image processing apparatus described.
原稿から画像データを読み取る画像読取部と、
前記画像読取部を用いて前記原稿から前記楽譜の画像データを取得する取得処理部と、
を更に備える請求項1〜5のいずれかに記載の画像処理装置。
An image reading unit for reading image data from a document;
An acquisition processing unit for acquiring image data of the musical score from the document using the image reading unit;
The image processing apparatus according to claim 1, further comprising:
画像データに基づいて画像を形成する画像形成部と、
前記画像形成部を用いて前記強調処理部によって強調された前記対象パートに対応する前記部分楽譜を含む前記楽譜を印刷する出力処理部と、
を更に備える請求項1〜6のいずれかに記載の画像処理装置。
An image forming unit that forms an image based on the image data;
An output processing unit that prints the score including the partial score corresponding to the target part emphasized by the enhancement processing unit using the image forming unit;
The image processing apparatus according to claim 1, further comprising:
複数のパートを含む楽譜の画像データに基づいて前記パート各々に対応する部分楽譜を検出する第1ステップと、
予め定められた選択操作に応じて、前記第1ステップによって検出された複数の前記パート各々に対応する前記部分楽譜から一又は複数の対象パートに対応する前記部分楽譜を特定する第2ステップと、
前記第2ステップによって特定された前記対象パートに対応する前記部分楽譜を強調する第3ステップと、
を含む画像処理方法。
A first step of detecting a partial score corresponding to each of the parts based on image data of a score including a plurality of parts;
A second step of identifying the partial score corresponding to one or a plurality of target parts from the partial score corresponding to each of the plurality of parts detected by the first step in accordance with a predetermined selection operation;
A third step of emphasizing the partial score corresponding to the target part identified by the second step;
An image processing method including:
JP2016041764A 2016-03-04 2016-03-04 Image processing apparatus, image processing method Expired - Fee Related JP6524941B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016041764A JP6524941B2 (en) 2016-03-04 2016-03-04 Image processing apparatus, image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016041764A JP6524941B2 (en) 2016-03-04 2016-03-04 Image processing apparatus, image processing method

Publications (2)

Publication Number Publication Date
JP2017158126A true JP2017158126A (en) 2017-09-07
JP6524941B2 JP6524941B2 (en) 2019-06-05

Family

ID=59810346

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016041764A Expired - Fee Related JP6524941B2 (en) 2016-03-04 2016-03-04 Image processing apparatus, image processing method

Country Status (1)

Country Link
JP (1) JP6524941B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0997061A (en) * 1995-09-29 1997-04-08 Kawai Musical Instr Mfg Co Ltd Musical score recognition device
JP2003288075A (en) * 2002-03-27 2003-10-10 Ricoh Co Ltd Music edition system
JP2014056232A (en) * 2012-08-14 2014-03-27 Yamaha Corp Music information display controller
JP2015121596A (en) * 2013-12-20 2015-07-02 ヤマハ株式会社 Music information display device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0997061A (en) * 1995-09-29 1997-04-08 Kawai Musical Instr Mfg Co Ltd Musical score recognition device
JP2003288075A (en) * 2002-03-27 2003-10-10 Ricoh Co Ltd Music edition system
JP2014056232A (en) * 2012-08-14 2014-03-27 Yamaha Corp Music information display controller
JP2015121596A (en) * 2013-12-20 2015-07-02 ヤマハ株式会社 Music information display device

Also Published As

Publication number Publication date
JP6524941B2 (en) 2019-06-05

Similar Documents

Publication Publication Date Title
EP2693732A1 (en) Image processing apparatus and image processing method
US20110239162A1 (en) Image display device and computer-readable storage medium storing a display control program
JP2018130889A (en) Image forming apparatus and image forming method
JP5942869B2 (en) Control device, electronic apparatus, image forming apparatus, and program
JP6524941B2 (en) Image processing apparatus, image processing method
JP6583164B2 (en) Image forming apparatus
JP5148312B2 (en) Image forming apparatus
JP6547658B2 (en) Image processing apparatus, image processing method
JP2018056797A (en) Image processing device
JP5746602B2 (en) Image processing apparatus and image processing method
JP2021093605A (en) Image processing apparatus, image processing method, and image processing program
JP7505236B2 (en) Image processing device and image processing method
JP7524611B2 (en) Image forming device
JP2019068128A (en) Image processing apparatus and image processing method
US20150146254A1 (en) Image Processing Apparatus and Image Processing Method That Ensures Effective Search
JP2018122532A (en) Image formation apparatus and image formation method
JP2010028631A (en) Image forming apparatus, method ,and program
JP3977834B2 (en) Image forming apparatus
JP2016218638A (en) Electronic apparatus
JP5802782B2 (en) Mark detection device
JP2022166660A (en) image forming device
JP2023021740A (en) Image forming apparatus
JP2021190919A (en) Image forming apparatus
JP2013199120A (en) Image forming apparatus
JP2019176443A (en) Image reading device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190422

R150 Certificate of patent or registration of utility model

Ref document number: 6524941

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees