JP2005266198A - 音響情報再生装置および音楽データのキーワード作成方法 - Google Patents
音響情報再生装置および音楽データのキーワード作成方法 Download PDFInfo
- Publication number
- JP2005266198A JP2005266198A JP2004077519A JP2004077519A JP2005266198A JP 2005266198 A JP2005266198 A JP 2005266198A JP 2004077519 A JP2004077519 A JP 2004077519A JP 2004077519 A JP2004077519 A JP 2004077519A JP 2005266198 A JP2005266198 A JP 2005266198A
- Authority
- JP
- Japan
- Prior art keywords
- music data
- keyword
- music
- information
- reproducing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims description 53
- 238000000605 extraction Methods 0.000 claims abstract description 26
- 239000000284 extract Substances 0.000 claims abstract description 11
- 238000013500 data storage Methods 0.000 claims 2
- 230000001755 vocal effect Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 9
- 230000001172 regenerating effect Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 244000025254 Cannabis sativa Species 0.000 description 2
- JEIPFZHSYJVQDO-UHFFFAOYSA-N iron(III) oxide Inorganic materials O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 101000969688 Homo sapiens Macrophage-expressed gene 1 protein Proteins 0.000 description 1
- 102100021285 Macrophage-expressed gene 1 protein Human genes 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/056—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction or identification of individual instrumental parts, e.g. melody, chords, bass; Identification or separation of instrumental parts by their characteristic voices or timbres
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/131—Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
- G10H2240/135—Library retrieval index, i.e. using an indexing scheme to efficiently retrieve a music piece
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Library & Information Science (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
Abstract
【課題】複数の曲が記憶される音響情報再生装置が複数の使用者によって使用される場合や、過去に自身で登録したキーワードを忘れてしまった場合でも、キーワードによる曲の検索を可能とする音響情報再生装置を提供すること。
【解決手段】複数の音楽データと、音楽データに付されたキーワードを音楽データに関連付けした音楽データベースとを格納する音楽データ情報格納部2と、音楽データを再生する再生部3と、再生部3による音楽データの再生中に音楽データの特徴を抽出する音楽データ特徴抽出部5と、音楽データ特徴抽出部5によって抽出された音楽データの特徴を用いてキーワードを作成し、音楽データに関連付けして音楽データ情報格納部2に格納するキーワード作成部6と、キーワードが入力されると音楽データベースに基づいて音楽データを検索するキーワード検索部7と、を備える。
【選択図】 図1
【解決手段】複数の音楽データと、音楽データに付されたキーワードを音楽データに関連付けした音楽データベースとを格納する音楽データ情報格納部2と、音楽データを再生する再生部3と、再生部3による音楽データの再生中に音楽データの特徴を抽出する音楽データ特徴抽出部5と、音楽データ特徴抽出部5によって抽出された音楽データの特徴を用いてキーワードを作成し、音楽データに関連付けして音楽データ情報格納部2に格納するキーワード作成部6と、キーワードが入力されると音楽データベースに基づいて音楽データを検索するキーワード検索部7と、を備える。
【選択図】 図1
Description
本発明は、複数の音楽データが記憶された記憶媒体から所望の音楽データを検索して再生する音響情報再生装置と、音楽データとキーワードとを対応付けて音楽データを検索する場合における音楽データのキーワード作成方法に関するものである。
近年、パーソナルコンピュータなどの情報機器の技術的進歩によって、情報機器に備えられる記憶媒体が小型化、大容量化するとともに、たとえばMP3(MPEG1 Audio Layer 3)などのデータ圧縮技術の技術的進歩によって、曲や音楽などの音楽データを音質劣化を抑えながら圧縮することが可能となっている。これにより、膨大な数の音楽データを記憶することが可能でありながらサイズの小さい音響情報再生装置が提供されるようになっている。このような小型の音響情報再生装置として、たとえば手のひらの大きさほどの外箱に内蔵されたハードディスクに記憶した音楽データを聴くことができる携帯型の音響情報再生装置や、ハードディスクなどの記憶媒体を内蔵したカーナビゲーションシステムなどがある。
ところで、記憶媒体に膨大な数の音楽データが記憶されると、その中から所望の音楽データを選択して再生する作業が煩雑となってしまう。そこで、このような作業の煩雑さを解消するために、音楽データにキーワードを付して両者を対応付ける方法が提案されている。つまり、音響情報装置の使用者が、まず、音楽データの再生中にキーワードを登録し、キーワードと再生中の音楽データとの対応付けを音響情報装置に記憶させておく。このとき、登録されるキーワードは音響情報装置内で1つの音楽データとしか対応付けることができないが、1つの音楽データには複数のキーワードを登録することができる。その後、使用者が音楽データの選択を行う際には、キーワードを入力することによって、音響情報装置がそのキーワードに対応する音楽データを抽出し、再生するというものである(たとえば、特許文献1参照)。
しかしながら、従来の音響情報装置では、キーワードとして登録される言葉は大抵の場合使用者によって異なるものであり、ある音楽データに対して付されるキーワードは使用者によって異なる場合がほとんどである。そのため、たとえば音響情報装置が車両内に備えられる場合のように1つの音響情報装置を複数の使用者で使用する場合に、使用者ごとにキーワードの登録を行なわなければならないという問題が生じる。また、登録されるキーワードは、音楽データとの関連性はあるというものの、登録時の使用者の気分や思いつきなどに左右されることが多いため、同じ使用者でも音楽データに付したキーワードを忘れてしまうという問題も生じる。さらに、キーワードの入力作業は、使用者によって行なわれるものであるために、手間もかかるという問題も生じる。
このようなことから、本発明が解決しようとする課題としては、従来技術の音響情報装置で生じる同一の音響情報装置を複数の使用者で使用する場合に、使用者ごとに音楽データに付するキーワードが必要になるという問題が一例として挙げられる。また、従来技術の音響情報装置で生じる音楽データに付したキーワードを使用者が忘れてしまう場合があるという問題も一例として挙げられる。さらに、従来技術の音響情報装置で生じるキーワードの入力作業に手間がかかるという問題も一例として挙げられる。
請求項1に記載の発明は、複数の音楽データと、前記音楽データに付されたキーワードを前記音楽データに関連付けした音楽データ関連付け情報とを格納する音楽データ情報格納手段と、前記音楽データを再生する再生手段と、キーワードが入力されると前記音楽データ関連付け情報に基づいて音楽データを検索するキーワード検索手段と、を備え、キーワードを用いて音楽データの検索を行ない、所望の音楽データを再生する音響情報再生装置であって、前記再生手段による音楽データの再生中に前記音楽データの特徴を抽出する音楽データ特徴抽出手段と、前記音楽データ特徴抽出手段によって抽出された前記音楽データの特徴を用いてキーワードを作成し、前記音楽データに関連付けして前記音楽データ情報格納手段に格納するキーワード作成手段と、を備えることを特徴とする。
また、請求項5に記載の発明は、複数の音楽データと、前記音楽データに付されたキーワードを前記音楽データに関連付けした音楽データ関連付け情報とを格納する音楽データ情報格納手段と、前記音楽データを再生する再生手段と、キーワードが入力されると前記音楽データ関連付け情報に基づいて音楽データを検索するキーワード検索手段と、を備え、キーワードを用いて音楽データの検索を行ない、所望の音楽データを再生する音響情報再生装置であって、前記再生手段によって再生される音楽データから音声を抽出する音声抽出手段と、抽出された音声を単語の連続として認識する音声認識手段と、認識された単語から所定の基準で選択される単語をキーワードとして抽出し、前記音楽データに関連付けして前記音楽データ情報格納手段に格納するキーワード抽出手段と、を備えることを特徴とする。
さらに、請求項8に記載の発明は、音楽データに関連付けされたキーワードを用いて複数格納された音楽データの中から所望の音楽データを検索する音響情報再生装置における音楽データのキーワード作成方法であって、音楽データの再生中に前記音楽データの特徴を抽出する特徴抽出工程と、前記特徴抽出工程によって抽出された前記音楽データの特徴を用いてキーワードを作成し、前記音楽データに関連付けするキーワード作成工程と、を含むことを特徴とする。
さらにまた、請求項11に記載の発明は、音楽データに関連付けされたキーワードを用いて複数格納された音楽データの中から所望の音楽データを検索する音響情報再生装置における音楽データのキーワード作成方法であって、音楽データの再生中に前記音楽データから音声を抽出する音声抽出工程と、音声抽出工程で抽出された音声を単語の連続として認識する音声認識工程と、音声認識工程で認識された単語から所定の基準で選択される単語をキーワードとして抽出し、前記音楽データに関連付けするキーワード抽出工程と、を含むことを特徴とする。
以下に添付図面を参照して、本発明にかかる音響情報再生装置および音楽データのキーワード作成方法の好適な実施の形態を詳細に説明する。なお、以下では、本発明の概略と特徴を実施の形態として説明し、その後に実施の形態にかかる実施例を説明する。また、本発明がこれらの実施の形態や実施例により限定されるものではない。
[実施の形態]
図1は、本発明にかかる音響情報再生装置の概略構成を示すブロック図である。この音響情報再生装置1は、音楽データ情報格納部2、再生部3、音声出力部4、音楽データ特徴抽出部5、キーワード作成部6、キーワード検索部7、入力部8、表示部9および制御部10を備えて構成される。
図1は、本発明にかかる音響情報再生装置の概略構成を示すブロック図である。この音響情報再生装置1は、音楽データ情報格納部2、再生部3、音声出力部4、音楽データ特徴抽出部5、キーワード作成部6、キーワード検索部7、入力部8、表示部9および制御部10を備えて構成される。
音楽データ情報格納部2は、再生される音楽である音楽データと、音楽データに付されるキーワードをその音楽データに対応付けて管理する音楽データベースとを格納する。以下では、音楽データ情報格納部2中の音楽データが格納される領域を音楽データ領域といい、音楽データベースが格納される領域を音楽データベース領域という。なお、この明細書で音楽データとは、曲や音楽などのように音を含むデータのことをいうものとする。また、特許請求の範囲における音楽データ関連付け情報は、この音楽データベースに対応している。
音楽データベースは、上述したように音楽データとその音楽データに付されたキーワードとを対応付けて格納する。キーワードとしては、音楽データから抽出される特徴を用いることができる。たとえば、音楽データを構成する歌詞に含まれる自立語または名詞をキーワードとしたり、音楽データのジャンルや曲調(ロックやフォークソング、ポップス、演歌など)をキーワードとしたりすることができる。そして、これらのキーワードを音楽データ情報格納部2に格納される音楽データと対応付けする。図2は、音楽データベースの構造の一例を示す図である。この例の音楽データベース21は、音楽データ情報格納部2に格納される音楽データに関する情報を格納する音楽データ情報テーブル22と、音楽データに付されるキーワードテーブル23とを含み、これらが関連付けされたデータベース構成となっている。音楽データ情報テーブル22は、音楽データベースに格納される音楽データを一意に識別するために付される「音楽データID」と、その音楽データのファイルに付された名称である「ファイル名」と、その音楽データが記憶される場所を示す「記憶場所」と、その音楽データの「曲名」と、その音楽データに対応付けされたキーワードを示す「キーワードID」の各項目を含んで構成される。このほかに、その音楽データの「歌手名」などを含むようにしてもよい。なお、「キーワードID」は、後述するキーワードテーブル23のキーワードと関連付けするための項目である。キーワードテーブル23は、該テーブルに格納されるキーワードである「キーワード」と、該キーワードを一意に識別するための「キーワードID」の各項目を含んで構成される。この「キーワードID」によって、音楽データ情報テーブル22中の音楽データとそのキーワードとが関連付けされる。
再生部3は、音楽データ情報格納部2に記憶される音楽データのうち使用者によって選択された音楽データを、デジタルデータからアナログデータに変換して再生する機能を有する。音声出力部4は、スピーカなどの音声出力装置からなり、再生部3によってアナログデータに変換された音楽データを音として出力する機能を有する。
音楽データ特徴抽出部5は、キーワード作成状態にあるときに、キーワード作成に関する所定の基準に基づいて再生される音楽データから特徴を抽出する機能を有する。たとえば、曲調がキーワード作成に関する基準であれば、再生される音楽データの曲調を抽出する。この場合には、音楽データ特徴抽出部5は、曲調を決定する際に必要な曲調情報を予め保持し、再生中の音楽データの曲調を曲調情報と比較して、合致する曲調を特徴として抽出する。また、たとえば歌詞に含まれる単語がキーワード作成に関する基準であれば、再生される音楽データから歌詞を認識して単語を抽出する。
キーワード作成部6は、音楽データ特徴抽出部5によって抽出された音楽データの特徴に基づいてキーワードを作成し、再生中の音楽データと関連付けして音楽データベースに格納する機能を有する。たとえば、曲調がキーワード作成に関する基準であれば、キーワード作成部6は、曲調とその曲調に対応付けられるキーワードを含む音楽データ特徴情報を保持し、音楽データ特徴抽出部5によって抽出された曲調について対応付けされているジャンルを、音楽データ特徴情報を用いて判定し、そのジャンルをキーワードとして再生中の音楽データと関連付けして音楽データベースに格納する。また、たとえば歌詞に含まれる単語がキーワード作成に関する基準であれば、抽出された単語またはこの抽出された単語のうち所定の基準にしたがって選択された単語を、再生中の音楽データと関連付けして音楽データベースに格納する。
キーワード検索部7は、入力部8から入力されるキーワードに対応付けられる音楽データを音楽データベース21から検索する機能を有する。検索結果は表示部9に出力される。
表示部9は、液晶ディスプレイなどの表示装置からなり、音響情報再生装置1の使用者に対して、再生している曲についての情報や、曲を検索する時の検索画面や検索結果画面などの種々の情報を提示する。また、入力部8は、キーボードやボタン、タッチパネルなどの入力装置からなり、使用者による音響情報再生装置1に対する操作や命令が入力される。制御部10は、これらの各処理部による処理を制御する機能を有する。
ここで、このような構成を有する音響情報再生装置1におけるキーワード作成処理と、キーワードによる音楽データ検索処理について説明する。図3は、音響情報再生装置におけるキーワード作成処理の手順を示すフローチャートである。このキーワード作成処理は、音楽データの再生中に音響情報再生装置1の使用者によるキーワード作成処理の開始指示によって開始される。つまり、音響情報再生装置1の再生部3によって音楽データ情報格納部2に記憶されるいずれかの音楽データの再生処理が行われている状態で(ステップS11)、音楽データ特徴抽出部5によって再生されている音楽データについての特徴が抽出される(ステップS12)。その後、キーワード作成部6によって、抽出された音楽データの特徴に基づいてキーワードが作成され(ステップS13)、そのキーワードが再生中の音楽データに関連付けして音楽データベース21に格納され(ステップS14)、キーワード作成処理が終了する。
なお、上述した説明では、音楽データの再生中にキーワードの作成処理を行っているが、この再生処理には、再生中の音楽データを他のCD(Compact Disc)やMD(Mini Disc)などの記憶媒体にダビングする際や、逆に、他のCDやMDなどの記憶媒体に記憶されている音楽データを自音響情報再生装置1の音楽データ情報格納部2にダビングする際の記録処理も含まれるものである。
図4は、音響情報再生装置における音楽データ検索処理の手順を示すフローチャートである。この音楽データ検索処理は、音響情報再生装置1が起動している間に、使用者によるキーワード検索処理の開始指示によって開始される。まず、使用者によって、検索したい音楽データに関連するキーワードが入力部8から入力される(ステップS21)。このキーワードの入力は、たとえばキーボードのような入力装置から単語を直接入力する形式や、音楽データベース21のキーワードテーブル23中に格納されているキーワードを表示部9に一覧で表示させ、その中のキーワードを入力部8で選択するような形式などの任意の形式でよい。
ついで、キーワード検索部7は、入力されたキーワードに対応付けられた音楽データを音楽データベース21の中から検索する(ステップS22)。そして、その検索結果を表示部9に表示して(ステップS23)、検索処理が終了する。この検索結果は、使用者によって再生処理に使用されたり、検索結果からさらに使用者の目的とする曲の再生のための選択処理に使用されたりする。
この実施の形態によれば、音楽データから抽出した特徴をキーワードとして、その音楽データに関連付けするようにしたので、その音楽データを知っている使用者であれば、その音楽データ自身の持つ普遍的な特徴に基づいて音楽データの検索を行うことができる。これにより、膨大な数の音楽データを記憶した音響情報再生装置1を複数の使用者で使用する場合でも、使用者によらずに所望の音楽データを抽出することができるという効果を有する。また、キーワードの作成に当たって使用者の行う作業がキーワードの作成処理を行う指示を与えるだけでよいので、使用者の手間がかからないという効果を有する。たとえば車両などの移動体に音響情報再生装置1が搭載され、使用者が運転者である場合でも、運転者の運転の安全性を確保することができる。
この実施例では、実施の形態で説明した音響情報再生装置において、音楽データに含まれる歌詞からキーワードを作成する音響情報再生装置を例に挙げて説明する。
図5は、本発明にかかる音響情報再生装置の概略構成を示すブロック図である。この音響情報再生装置1aは、再生される音楽の音楽データとその音楽データに付されるキーワードを管理する音楽データベースとを格納する音楽データ情報格納部2と、音楽データ情報格納部2に記憶される音楽データのうち使用者によって選択された音楽データをデジタルデータからアナログデータに変換して再生する再生部3と、再生部3によって変換されたアナログデータを音として出力する音声出力部4と、音楽データから歌の部分のみを抽出する音声抽出部51と、抽出された歌から音声を認識して単語列にする音声認識部54と、認識された音声の単語列からキーワードを抽出するキーワード抽出部61と、入力されたキーワードに対応する音楽データを検索するキーワード検索部7と、使用者に対して必要な情報の表示を行うとともに使用者からの入力を行うタッチパネル11と、タッチパネル11に表示させる画面情報を格納する表示画面情報格納部12と、これらの各処理部を制御する制御部10と、を備えて構成される。なお、実施の形態1の図1で説明した構成要素と同一の構成要素には同一の符号を付して、その詳細な説明を省略する。また、音楽データベース21の構成も実施の形態1の図2のものと同様であるとする。ただし、キーワードテーブル23に格納されるキーワードは、歌詞中に含まれる単語(名詞)であるとする。
音声抽出部51は、キーワード作成状態にあるときに、曲と歌(以下、ボーカルという)で構成される音楽データからボーカル成分のみを抽出する機能を有し、音声キャンセル部52と差動アンプ部53とから構成される。音声キャンセル部52は、ボーカルキャンセル回路などから構成され、音楽データからボーカル成分をキャンセルする機能を有する。音声キャンセル部52の仕組みは、市販されている音楽CDなどの音声データの作成時(録音時)において、大抵の場合には歌手がL(左)とR(右)のマイクロホンの中間に位置しているので、ボーカル成分に関してはL,R同レベルでかつ同位相で録音されたステレオソースとなっていることを利用し、2チャンネルの原信号(L,R)の差信号(L−R)を生成することで、歌手のボーカル成分のみを減衰させるものである。この音声キャンセル部52によってボーカル成分がキャンセルされた音楽データ(以下、曲成分という)は、差動アンプ部53に出力される。
また、差動アンプ部53は、再生部3から入力される音楽データと、音声キャンセル部52によって生成された曲成分とを入力とし、これらの差を取って、音楽データ中のボーカル成分のみを抽出する機能を有する。
音声認識部54は、差動アンプ部53によって生成された音楽データのボーカル成分の音声認識を行う機能を有する。音声認識部54は、人間の発声の小さな単位である音素の音響特徴が記述された単語辞書55と、単語がどのような音素のつながりで構成されているかを記録した認識辞書56と、入力される音楽データのボーカル成分を解析する解析部57とを備えている。解析部57は、入力された音楽データのボーカル成分を分析して音響特徴を算出し、認識辞書56に記述されている単語の中から、単語の音響特徴が入力された音楽データのボーカル成分の音響特徴に最も近い言葉を抽出して、音声認識結果として出力する。
キーワード抽出部61は、音声認識部54によって出力される音声認識結果からキーワードとなる単語を取り出して、現在再生中の音楽データと対応付けて音楽データ情報格納部2に格納する機能を有する。キーワードとなる単語とは、音声認識結果から助詞や助動詞を取り除いて得られる自立語でもよいし、音声認識結果中に含まれる名詞でもよい。この際、キーワード抽出部61は、図示しない自立語や名詞が含まれる用語辞書を参照してキーワードを音声認識結果から抽出する。また、音楽データベース21中のキーワードテーブル23を用語辞書として設定してもよい。この場合には、用語辞書の各用語には、予め一意に識別するキーワードIDが付されている必要がある。
タッチパネル11は、液晶表示装置などの表面に、使用者が表面を触れたことを圧力や光の遮断などで検出するタッチセンサを備える構成を有するものであり、図1における入力部8と表示部9とを兼ね備えるものである。表示画面情報格納部12は、タッチパネル11に表示する入力ボタン機能も含めた表示画面情報を格納する。たとえば、後述する音楽データを再生する際の再生画面、キーワード作成処理時におけるキーワード作成中画面やキーワード選択画面などの画面を表示するための表示画面情報を格納する。
ここで、このような構成を有する音響情報再生装置1aにおけるキーワード作成処理とキーワードによる音楽データ検索処理の具体例について説明する。最初に、音響情報再生装置1aにおけるキーワード作成処理について説明する。図6は、音響情報再生装置におけるキーワード作成処理の手順を示すフローチャートである。また、図7は、音楽データを再生中の再生画面の一例を示す図である。この再生画面70には、再生中の音楽データ(以下、曲ともいう)に関する曲情報71が表示されるとともに、キーワード作成処理を行う「キーワード作成」ボタン72と、キーワードによって曲の検索を行う「キーワードによる曲検索」ボタン73が設けられている。これらのボタン72,73が表示されている表示部9上の位置に触れることでタッチパネル11はその位置を検出し、それぞれのボタン72,73に対応する処理が実行されるようになっている。この図7の再生画面70でキーワード作成ボタン72が押されることによって、図6に示されるキーワード作成処理が開始される。
つまり、音響情報再生装置1aの再生部3によって音楽データ情報格納部2に記憶されるいずれかの音楽データの再生処理が行われている状態で(ステップS31)、音声認識処理が実行される(ステップS32)。図8は、音声認識処理の詳細を示すフローチャートである。まず、音声キャンセル部52によって、再生部3から入力される再生中の音楽データのボーカル成分をキャンセルした曲成分が生成される(ステップS51)。ついで、差動アンプ部53によって、再生部3から入力される再生中の音楽データと、音声キャンセル部52から入力される音楽データの曲成分の同期を取った状態で、両者の差からボーカル成分が抽出される(ステップS52)。ついで、音声認識部54によって、抽出された音楽データのボーカル成分について分析が行われ、その波形から音響特徴が算出される(ステップS53)。その後、音声認識部54は、認識辞書56中のことばの音響特徴が算出された音楽データのボーカル成分の音響特徴に近いことばを抽出し(ステップS54)、その結果を音声認識結果として出力し(ステップS55)、音声認識処理が終了する。
音声認識処理によって得られる音声認識結果から、キーワード抽出部61は、キーワードを抽出する(ステップS33)。たとえば、音声認識結果を自立語と付属語に分解し、キーワード抽出部61が有する用語辞書を参照して自立語のみを抽出したり、自立語の中の名詞のみを抽出したりして、キーワードを抽出する。ここでは、キーワードとして名詞を抽出するものとする。そして、抽出したキーワードをタッチパネル11に表示する(ステップS34)。図9は、キーワード作成中に表示されるキーワード作成中画面の一例を示す図である。このキーワード作成中画面90には、現在再生中の曲情報91とともに、キーワード抽出部61によって抽出されたキーワードがキーワード表示領域92に表示される。また、このキーワード作成中画面90には、抽出されたキーワードから使用者によるキーワードの選択を行うことが可能なキーワード選択画面へと移行する「キーワード選択」ボタン93が設けられている。
その後、音楽データの再生が終了したか否かを判定し(ステップS35)、音楽データの再生が終了していない場合(ステップS35でNoの場合)には、キーワード作成中画面90のキーワード選択ボタン93が押されたか否かを判定する(ステップS36)。キーワード選択ボタン93が押されない場合(ステップS36でNoの場合)には、再びステップS32に戻り、音楽データの再生が終了するまで上述した処理が繰り返し実行される。すなわち、キーワード作成中画面90のキーワード表示領域92に、音楽データの再生が終了するまで、キーワードが順次追加されていく。ここでは、「風」や「昴」、「砂」、「銀河」などの歌詞に含まれる名詞が順次追加されていく。
一方、ステップS36でキーワード選択ボタン93が押された場合(ステップS36でYesの場合)またはステップS35で再生処理が終了した場合(ステップS35でYesの場合)には、制御部10はタッチパネル11にキーワード選択画面を表示する(ステップS37)。図10−1〜図10−2は、キーワード選択画面の一例を示す図である。このキーワード選択画面100A,100Bには、再生中だった音楽データ101の名称とともに、抽出されたキーワードを表示する抽出キーワード候補領域102と、抽出キーワード候補領域102から選択されたキーワードを表示する選択済キーワード領域103とが画面中央部付近に配置されている。これらの領域102,103には、抽出されたキーワードがボタン表示されている。また、キーワード選択画面100A,100Bの下部には、抽出キーワード候補や選択済みキーワードが多数あり、現在の表示領域に収まらない場合にそれらの他の抽出キーワード候補や選択済みキーワードを閲覧するための「前頁」ボタン104と「次頁」ボタン105、選択済キーワード領域103で選択したキーワードを取り消すための「選択取り消し」ボタン106、選択が終了したことを通知する「設定終了」ボタン107が配置されている。
使用者によって、キーワード選択画面100A,100B上の抽出キーワード候補領域102のボタン表示されたキーワードが選択されたか否か判定する(ステップS38)。抽出キーワード候補領域102のボタン表示されたキーワードが選択された場合(ステップS38でYesの場合)には、選択されたボタン表示されたキーワードを選択済キーワード領域103に表示する(ステップS39)。その後、またはステップS38で抽出キーワード候補領域102のキーワードボタンが選択されていない場合(ステップS38でNoの場合)には、選択済キーワード領域103のキーワードボタンが選択されたか否か判定し(ステップS40)、選択されている場合(ステップS40でYesの場合)にはさらに選択取り消しボタン106が押されたか否かを判定する(ステップS41)。選択取り消しボタン106が押された場合(ステップS41でYesの場合)には、選択済キーワード領域103から選択されたキーワードボタンが削除される(ステップS42)。その後、またはステップS40で選択済キーワード領域103のキーワードボタンが選択されていない場合(ステップS40でNoの場合)、またはステップS41で選択取り消しボタン106が押されなかった場合(ステップS41でNoの場合)には、設定終了ボタン107が押されたか否かが判定される(ステップS43)。設定終了ボタン107が押されていない場合(ステップS43でNoの場合)にはステップS37へ戻り、設定終了ボタン107が押されるまでステップS37〜S42の処理が繰り返される。
たとえば、図10−1は、抽出キーワード候補領域102で斜線表示されている「草原」ボタン102Aが選択されたことを示しており、選択済キーワード領域103に「草原」103Aが表示されている状態を示している。また、図10−2は、図10−1の次頁ボタン105を押した状態であり、その抽出キーワード候補領域102で斜線表示されている「昴」ボタン102Bが選択されて、選択済キーワード領域103に「昴」103Bが表示されている状態を示している。
一方、ステップS43でキーワード選択画面100A,100B上の設定終了ボタン107が押された場合(ステップS43でYesの場合)には、選択済キーワード領域103に表示されたキーワードを、ステップS31で再生された音楽データに対応付けて音楽データベース21に格納し(ステップS44)、キーワード作成処理が終了する。
なお、上述した説明では、音楽データの再生中にキーワードの作成処理を行っているが、この再生処理には、再生中の音楽データをダビングする際の記録処理も含まれるものである。また、上述した説明では、音響情報再生装置1aに記憶された音楽データについてのキーワード作成処理について説明したが、他のCDやMDなどの記憶媒体に記憶されている音楽データを、音響情報再生装置1aの音楽データ情報格納部2に記録する場合に、上述した手順にしたがってキーワードを作成することも可能である。また、ダビング時には、N倍速(Nは0より大きい数)でダビングすることが可能な装置においても本実施例を適用することができる。ただし、その場合には音声認識部54は、N倍速に対応した認識辞書も備えている必要がある。
つぎに、音響情報再生装置1aにおける音楽データ検索処理について説明する。図11は、音響情報再生装置におけるキーワードを用いた音楽データ検索処理の手順を示すフローチャートである。この音楽データ検索処理は、音響情報再生装置1aが起動している間に、使用者によるキーワード検索処理の開始指示によって、たとえば図7の再生画面70中におけるキーワードによる曲検索ボタン73が押されることによって開始され、タッチパネル11に曲検索画面が表示される(ステップS61)。図12は曲検索画面の一例を示す図である。この曲検索画面120は、音楽データ情報格納部2に格納されるキーワードを表示するキーワード表示領域121と、キーワード表示領域121で選択されるキーワードに関連付けされた音楽データの曲名を表示する検索曲表示領域122とが画面中央部付近に配置されている。これらの領域121,122には、キーワードまたは曲名がボタン表示されている。また、曲検索画面120の下部には、キーワードや検索曲が多数あり、現在の表示領域に収まらない場合にその他のキーワードや検索曲を閲覧するための「前頁」ボタン123と「次頁」ボタン124、選択された検索曲を再生する「再生」ボタン125、キーワード検索処理を終了する「終了」ボタン126が配置されている。
ついで、キーワード検索部7はキーワード表示領域121のキーワードが選択されたか否かを判定する(ステップS62)。キーワードが選択された場合(ステップS62でYesの場合)には、キーワード検索部7は、選択されたキーワードに関連付けられた音楽データを音楽データベース21内から検索し(ステップS63)、その曲名を検索曲表示領域122に表示する(ステップS64)。たとえば、図12には、キーワード領域の「昴」ボタン121Aが選択され、検索曲表示領域122中に「地上の星」122Aと「昴」122Bという「昴」に関連付けされた曲が抽出された状態が示されている。
その後、またはステップS62でキーワード表示領域121のキーワードが選択されない場合(ステップS62でNoの場合)には、終了ボタン126が押されたか否か判定する(ステップS65)。終了ボタン126が押されない場合(ステップS65でNoの場合)には、再びステップS61に戻り、上述した処理が繰り返される。また、終了ボタン126が押された場合には、キーワードによる音楽データ検索処理が終了する。
なお、このキーワードによる音楽データ検索処理によって検索された曲は、たとえばそのまま再生されたり、その中からさらに使用者によって選択された曲が再生されたりする。また、音響情報再生装置1aに、プログラム再生機能がある場合には検索されまたはさらに選択された曲をプログラムに追加してプログラム再生を行ったり、さび再生機能がある場合には検索されまたはさらに選択された曲のさびの部分を再生したり、さらにイントロスキャン機能がある場合には検索されまたはさらに選択された曲のイントロダクション(出だし)の部分を再生したりすることができる。
なお、上述した例では、キーワードを歌詞の中の名詞として音楽データと関連付けるようにしているが、まず音楽データを曲調(ジャンル)によって分類し、さらにその後に歌詞中の名詞をキーワードとして音楽データに関連付けるようにしてもよい。このように分類することで、キーワードとしてジャンルと歌詞中の単語(名詞)を用いることができるので、より目的に近い音楽データを検索時に得ることが可能となる。
この実施例によれば、音楽データのボーカル成分中の単語を抽出してキーワードとして、その音楽データに関連付けを行うようにしたので、その音楽データを知っている使用者であれば、その歌詞の内容に基づいて音楽データの検索を行うことができる。これにより、膨大な数の音楽データを記憶した音響情報再生装置1aを複数の使用者で使用する場合でも、使用者によらずに所望の音楽データを抽出することができるという効果を有する。また、キーワードの選択は、再生された音楽データの歌詞から抽出された単語の中から、使用者がキーワードとしてふさわしいと思うものを選択するだけであるので、キーワードの入力を行う場合に比して、手間がかからないという効果も有する。
1,1a 音響情報再生装置
2 音楽データ情報格納部
3 再生部
4 音声出力部
5 音楽データ特徴抽出部
6 キーワード作成部
7 キーワード検索部
8 入力部
9 表示部
10 制御部
51 音声抽出部
52 音声キャンセル部
53 差動アンプ部
54 音声認識部
61 キーワード抽出部
2 音楽データ情報格納部
3 再生部
4 音声出力部
5 音楽データ特徴抽出部
6 キーワード作成部
7 キーワード検索部
8 入力部
9 表示部
10 制御部
51 音声抽出部
52 音声キャンセル部
53 差動アンプ部
54 音声認識部
61 キーワード抽出部
Claims (12)
- 複数の音楽データと、前記音楽データに付されたキーワードを前記音楽データに関連付けした音楽データ関連付け情報とを格納する音楽データ情報格納手段と、
前記音楽データを再生する再生手段と、
キーワードが入力されると前記音楽データ関連付け情報に基づいて音楽データを検索するキーワード検索手段と、
を備え、キーワードを用いて音楽データの検索を行ない、所望の音楽データを再生する音響情報再生装置であって、
前記再生手段による音楽データの再生中に前記音楽データの特徴を抽出する音楽データ特徴抽出手段と、
前記音楽データ特徴抽出手段によって抽出された前記音楽データの特徴を用いてキーワードを作成し、前記音楽データに関連付けして前記音楽データ情報格納手段に格納するキーワード作成手段と、
を備えることを特徴とする音響情報再生装置。 - 前記キーワード作成手段は、音楽データの特徴とキーワードとの対応関係を記述した音楽データ特徴情報を保持し、抽出された前記音楽データの特徴に対応するキーワードを前記音楽データ特徴情報から抽出することを特徴とする請求項1に記載の音響情報再生装置。
- 前記キーワード作成手段の保持する音楽データ特徴情報には、前記音楽データのジャンルまたは曲調とキーワードとの対応関係が記述され、
前記音楽データ特徴抽出手段は、前記音楽データのジャンルまたは曲調を抽出することを特徴とする請求項2に記載の音響情報再生装置。 - 表示手段と入力手段をさらに備え、
前記キーワード検索手段は、前記音楽データ情報格納手段に格納されるキーワードを前記表示手段に表示し、該キーワードの中から前記入力手段によって選択されたキーワードに対応付けられた音楽データを前記音楽データ情報格納手段から検索して前記表示手段に表示することを特徴とする請求項1〜3のいずれか1つに記載の音響情報再生装置。 - 複数の音楽データと、前記音楽データに付されたキーワードを前記音楽データに関連付けした音楽データ関連付け情報とを格納する音楽データ情報格納手段と、
前記音楽データを再生する再生手段と、
キーワードが入力されると前記音楽データ関連付け情報に基づいて音楽データを検索するキーワード検索手段と、
を備え、キーワードを用いて音楽データの検索を行ない、所望の音楽データを再生する音響情報再生装置であって、
前記再生手段によって再生される音楽データから音声を抽出する音声抽出手段と、
抽出された音声を単語の連続として認識する音声認識手段と、
認識された単語から所定の基準で選択される単語をキーワードとして抽出し、前記音楽データに関連付けして前記音楽データ情報格納手段に格納するキーワード抽出手段と、
を備えることを特徴とする音響情報再生装置。 - 表示手段と入力手段をさらに備え、
前記キーワード抽出手段は、前記音声認識手段によって認識された単語から所定の基準で選択される単語を前記表示手段に表示し、この表示された単語のうち前記入力手段によって選択された単語をキーワードとして前記音楽データに関連付けして前記音楽データ情報格納手段に格納することを特徴とする請求項5に記載の音響情報再生装置。 - 前記再生手段による再生は、前記音楽データ格納手段に格納されている音楽データの再生、他の記憶媒体への記録、または他の記憶媒体から前記音楽データ格納手段への記録を含むことを特徴とする請求項1〜6のいずれか1つに記載の音響情報再生装置。
- 音楽データに関連付けされたキーワードを用いて複数格納された音楽データの中から所望の音楽データを検索する音響情報再生装置における音楽データのキーワード作成方法であって、
音楽データの再生中に前記音楽データの特徴を抽出する特徴抽出工程と、
前記特徴抽出工程によって抽出された前記音楽データの特徴を用いてキーワードを作成し、前記音楽データに関連付けするキーワード作成工程と、
を含むことを特徴とする音楽データのキーワード作成方法。 - 前記キーワード作成工程では、音楽データの特徴とキーワードとの対応関係を記述した音楽データ特徴情報に基づいて、前記特徴抽出工程で抽出された前記音楽データの特徴に対応するキーワードを作成することを特徴とする請求項8に記載の音楽データのキーワード作成方法。
- 前記音楽データ特徴情報には、前記音楽データのジャンルまたは曲調とキーワードとの対応関係が記述され、
前記特徴抽出工程では、前記音楽データのジャンルまたは曲調が抽出されることを特徴とする請求項9に記載の音楽データのキーワード作成方法。 - 音楽データに関連付けされたキーワードを用いて複数格納された音楽データの中から所望の音楽データを検索する音響情報再生装置における音楽データのキーワード作成方法であって、
音楽データの再生中に前記音楽データから音声を抽出する音声抽出工程と、
音声抽出工程で抽出された音声を単語の連続として認識する音声認識工程と、
音声認識工程で認識された単語から所定の基準で選択される単語をキーワードとして抽出し、前記音楽データに関連付けするキーワード抽出工程と、
を含むことを特徴とする音楽データのキーワード作成方法。 - 前記キーワード抽出工程は、前記抽出された単語の中から選択される単語をキーワードとして前記音楽データに関連付けすることを特徴とする請求項11に記載の音楽データのキーワード作成方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004077519A JP2005266198A (ja) | 2004-03-18 | 2004-03-18 | 音響情報再生装置および音楽データのキーワード作成方法 |
US11/079,465 US20050216257A1 (en) | 2004-03-18 | 2005-03-15 | Sound information reproducing apparatus and method of preparing keywords of music data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004077519A JP2005266198A (ja) | 2004-03-18 | 2004-03-18 | 音響情報再生装置および音楽データのキーワード作成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005266198A true JP2005266198A (ja) | 2005-09-29 |
Family
ID=34991212
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004077519A Withdrawn JP2005266198A (ja) | 2004-03-18 | 2004-03-18 | 音響情報再生装置および音楽データのキーワード作成方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20050216257A1 (ja) |
JP (1) | JP2005266198A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007304933A (ja) * | 2006-05-12 | 2007-11-22 | Sony Corp | 情報処理システム、端末装置、情報処理方法、プログラム |
JP2008033017A (ja) * | 2006-07-28 | 2008-02-14 | Honda Motor Co Ltd | データ呼出制御装置、データ呼出システム、データ呼出制御装置の音声認識語彙登録方法および車両 |
JP2009069875A (ja) * | 2007-09-10 | 2009-04-02 | Sharp Corp | コンテンツ検索装置、コンテンツ検索方法、プログラム、および記録媒体 |
JP2011164855A (ja) * | 2010-02-08 | 2011-08-25 | Fujitsu Toshiba Mobile Communications Ltd | 情報処理装置 |
CN108182946A (zh) * | 2017-12-25 | 2018-06-19 | 广州势必可赢网络科技有限公司 | 一种基于声纹识别的声乐模式选择方法及装置 |
Families Citing this family (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9384619B2 (en) | 2006-07-31 | 2016-07-05 | Ricoh Co., Ltd. | Searching media content for objects specified using identifiers |
US8184155B2 (en) | 2007-07-11 | 2012-05-22 | Ricoh Co. Ltd. | Recognition and tracking using invisible junctions |
US7669148B2 (en) * | 2005-08-23 | 2010-02-23 | Ricoh Co., Ltd. | System and methods for portable device for mixed media system |
US10192279B1 (en) | 2007-07-11 | 2019-01-29 | Ricoh Co., Ltd. | Indexed document modification sharing with mixed media reality |
US9373029B2 (en) | 2007-07-11 | 2016-06-21 | Ricoh Co., Ltd. | Invisible junction feature recognition for document security or annotation |
US9171202B2 (en) | 2005-08-23 | 2015-10-27 | Ricoh Co., Ltd. | Data organization and access for mixed media document system |
US8156427B2 (en) * | 2005-08-23 | 2012-04-10 | Ricoh Co. Ltd. | User interface for mixed media reality |
US8005831B2 (en) * | 2005-08-23 | 2011-08-23 | Ricoh Co., Ltd. | System and methods for creation and use of a mixed media environment with geographic location information |
US8276088B2 (en) | 2007-07-11 | 2012-09-25 | Ricoh Co., Ltd. | User interface for three-dimensional navigation |
US7917554B2 (en) * | 2005-08-23 | 2011-03-29 | Ricoh Co. Ltd. | Visibly-perceptible hot spots in documents |
US8600989B2 (en) * | 2004-10-01 | 2013-12-03 | Ricoh Co., Ltd. | Method and system for image matching in a mixed media environment |
US7991778B2 (en) * | 2005-08-23 | 2011-08-02 | Ricoh Co., Ltd. | Triggering actions with captured input in a mixed media environment |
US8176054B2 (en) * | 2007-07-12 | 2012-05-08 | Ricoh Co. Ltd | Retrieving electronic documents by converting them to synthetic text |
US8521737B2 (en) * | 2004-10-01 | 2013-08-27 | Ricoh Co., Ltd. | Method and system for multi-tier image matching in a mixed media environment |
US9405751B2 (en) | 2005-08-23 | 2016-08-02 | Ricoh Co., Ltd. | Database for mixed media document system |
US8335789B2 (en) * | 2004-10-01 | 2012-12-18 | Ricoh Co., Ltd. | Method and system for document fingerprint matching in a mixed media environment |
US8949287B2 (en) | 2005-08-23 | 2015-02-03 | Ricoh Co., Ltd. | Embedding hot spots in imaged documents |
US8838591B2 (en) | 2005-08-23 | 2014-09-16 | Ricoh Co., Ltd. | Embedding hot spots in electronic documents |
US8825682B2 (en) | 2006-07-31 | 2014-09-02 | Ricoh Co., Ltd. | Architecture for mixed media reality retrieval of locations and registration of images |
US8510283B2 (en) | 2006-07-31 | 2013-08-13 | Ricoh Co., Ltd. | Automatic adaption of an image recognition system to image capture devices |
US8369655B2 (en) | 2006-07-31 | 2013-02-05 | Ricoh Co., Ltd. | Mixed media reality recognition using multiple specialized indexes |
US7812986B2 (en) * | 2005-08-23 | 2010-10-12 | Ricoh Co. Ltd. | System and methods for use of voice mail and email in a mixed media environment |
US8385589B2 (en) * | 2008-05-15 | 2013-02-26 | Berna Erol | Web-based content detection in images, extraction and recognition |
US8868555B2 (en) | 2006-07-31 | 2014-10-21 | Ricoh Co., Ltd. | Computation of a recongnizability score (quality predictor) for image retrieval |
US8144921B2 (en) | 2007-07-11 | 2012-03-27 | Ricoh Co., Ltd. | Information retrieval using invisible junctions and geometric constraints |
US7970171B2 (en) | 2007-01-18 | 2011-06-28 | Ricoh Co., Ltd. | Synthetic image and video generation from ground truth data |
US9530050B1 (en) | 2007-07-11 | 2016-12-27 | Ricoh Co., Ltd. | Document annotation sharing |
US7885955B2 (en) * | 2005-08-23 | 2011-02-08 | Ricoh Co. Ltd. | Shared document annotation |
US7920759B2 (en) | 2005-08-23 | 2011-04-05 | Ricoh Co. Ltd. | Triggering applications for distributed action execution and use of mixed media recognition as a control input |
US8332401B2 (en) * | 2004-10-01 | 2012-12-11 | Ricoh Co., Ltd | Method and system for position-based image matching in a mixed media environment |
US7702673B2 (en) * | 2004-10-01 | 2010-04-20 | Ricoh Co., Ltd. | System and methods for creation and use of a mixed media environment |
US8086038B2 (en) * | 2007-07-11 | 2011-12-27 | Ricoh Co., Ltd. | Invisible junction features for patch recognition |
US8856108B2 (en) | 2006-07-31 | 2014-10-07 | Ricoh Co., Ltd. | Combining results of image retrieval processes |
US8156116B2 (en) * | 2006-07-31 | 2012-04-10 | Ricoh Co., Ltd | Dynamic presentation of targeted information in a mixed media reality recognition system |
US8195659B2 (en) * | 2005-08-23 | 2012-06-05 | Ricoh Co. Ltd. | Integration and use of mixed media documents |
JP4524640B2 (ja) * | 2005-03-31 | 2010-08-18 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
US7769772B2 (en) * | 2005-08-23 | 2010-08-03 | Ricoh Co., Ltd. | Mixed media reality brokerage network with layout-independent recognition |
FR2891651B1 (fr) * | 2005-10-05 | 2007-11-09 | Sagem Comm | Systeme de karaoke pour l'affichage du texte correspondant a la partie vocale d'un flux audiovisuel sur un ecran d'un systeme audiovisuel |
US20090222270A2 (en) * | 2006-02-14 | 2009-09-03 | Ivc Inc. | Voice command interface device |
US9020966B2 (en) * | 2006-07-31 | 2015-04-28 | Ricoh Co., Ltd. | Client device for interacting with a mixed media reality recognition system |
US8201076B2 (en) | 2006-07-31 | 2012-06-12 | Ricoh Co., Ltd. | Capturing symbolic information from documents upon printing |
US9063952B2 (en) | 2006-07-31 | 2015-06-23 | Ricoh Co., Ltd. | Mixed media reality recognition with image tracking |
US8073263B2 (en) | 2006-07-31 | 2011-12-06 | Ricoh Co., Ltd. | Multi-classifier selection and monitoring for MMR-based image recognition |
US8489987B2 (en) | 2006-07-31 | 2013-07-16 | Ricoh Co., Ltd. | Monitoring and analyzing creation and usage of visual content using image and hotspot interaction |
US9176984B2 (en) | 2006-07-31 | 2015-11-03 | Ricoh Co., Ltd | Mixed media reality retrieval of differentially-weighted links |
US8676810B2 (en) | 2006-07-31 | 2014-03-18 | Ricoh Co., Ltd. | Multiple index mixed media reality recognition using unequal priority indexes |
US8385660B2 (en) * | 2009-06-24 | 2013-02-26 | Ricoh Co., Ltd. | Mixed media reality indexing and retrieval for repeated content |
US20110131040A1 (en) * | 2009-12-01 | 2011-06-02 | Honda Motor Co., Ltd | Multi-mode speech recognition |
US9058331B2 (en) | 2011-07-27 | 2015-06-16 | Ricoh Co., Ltd. | Generating a conversation in a social network based on visual search results |
WO2014006746A1 (ja) * | 2012-07-06 | 2014-01-09 | 株式会社メディアシーク | 音楽再生プログラム及び音楽再生システム |
CN103631802B (zh) * | 2012-08-24 | 2015-05-20 | 腾讯科技(深圳)有限公司 | 歌曲信息检索方法、装置及相应的服务器 |
JP6943158B2 (ja) * | 2017-11-28 | 2021-09-29 | トヨタ自動車株式会社 | 応答文生成装置、方法及びプログラム並びに音声対話システム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5434569Y2 (ja) * | 1973-08-30 | 1979-10-23 | ||
JPH09128408A (ja) * | 1995-08-25 | 1997-05-16 | Hitachi Ltd | インタラクティブ記録再生用メディア及び再生装置 |
US5864868A (en) * | 1996-02-13 | 1999-01-26 | Contois; David C. | Computer control system and user interface for media playing devices |
US6249765B1 (en) * | 1998-12-22 | 2001-06-19 | Xerox Corporation | System and method for extracting data from audio messages |
-
2004
- 2004-03-18 JP JP2004077519A patent/JP2005266198A/ja not_active Withdrawn
-
2005
- 2005-03-15 US US11/079,465 patent/US20050216257A1/en not_active Abandoned
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007304933A (ja) * | 2006-05-12 | 2007-11-22 | Sony Corp | 情報処理システム、端末装置、情報処理方法、プログラム |
JP2008033017A (ja) * | 2006-07-28 | 2008-02-14 | Honda Motor Co Ltd | データ呼出制御装置、データ呼出システム、データ呼出制御装置の音声認識語彙登録方法および車両 |
JP4722787B2 (ja) * | 2006-07-28 | 2011-07-13 | 本田技研工業株式会社 | データ呼出制御装置、データ呼出システム、データ呼出制御装置の音声認識語彙登録方法および車両 |
JP2009069875A (ja) * | 2007-09-10 | 2009-04-02 | Sharp Corp | コンテンツ検索装置、コンテンツ検索方法、プログラム、および記録媒体 |
JP2011164855A (ja) * | 2010-02-08 | 2011-08-25 | Fujitsu Toshiba Mobile Communications Ltd | 情報処理装置 |
CN108182946A (zh) * | 2017-12-25 | 2018-06-19 | 广州势必可赢网络科技有限公司 | 一种基于声纹识别的声乐模式选择方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
US20050216257A1 (en) | 2005-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2005266198A (ja) | 音響情報再生装置および音楽データのキーワード作成方法 | |
EP1693829B1 (en) | Voice-controlled data system | |
US7684991B2 (en) | Digital audio file search method and apparatus using text-to-speech processing | |
JP4616337B2 (ja) | 再生順変更支援ユニット、楽曲情報再生装置及び再生順変更支援方法 | |
JP4469891B2 (ja) | 情報処理装置及び情報処理プログラム | |
KR20080043358A (ko) | 재생 디바이스의 동작을 제어하는 방법 및 시스템 | |
EP1403852A1 (en) | Voice activated music playback system | |
JP2003532164A (ja) | コンテンツ情報の処理を制御する方法 | |
US20060084047A1 (en) | System and method of segmented language learning | |
JP4721765B2 (ja) | コンテンツ検索装置及びコンテンツ検索方法 | |
US20070260590A1 (en) | Method to Query Large Compressed Audio Databases | |
JP2009092977A (ja) | 車載装置および楽曲検索システム | |
JPH11242496A (ja) | 情報再生装置 | |
JP2009204872A (ja) | 音声認識用辞書生成システム | |
KR20010099450A (ko) | 음악파일 재생장치 | |
JP2007041823A (ja) | コンテンツ検索システムおよびその検索方法 | |
JP5431817B2 (ja) | 楽曲データベース更新装置及び楽曲データベース更新方法 | |
KR101576683B1 (ko) | 히스토리 저장모듈을 포함하는 오디오 재생장치 및 재생방법 | |
JP4252514B2 (ja) | オーディオシステム | |
JP2008052843A (ja) | カーオーディオにおける歌詞表示システム | |
KR20050106246A (ko) | 엠펙 플레이어에 있어서 데이터 검색 방법 | |
JP2003281861A (ja) | 圧縮オーディオ再生機器 | |
JP2003091540A (ja) | 音響情報機器 | |
JP2001312288A (ja) | 音楽データ処理装置 | |
JP2012112986A (ja) | 音楽データ再生装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070219 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20071130 |