JP4088131B2 - 同期コンテンツ情報生成プログラム、同期コンテンツ情報生成装置および同期コンテンツ情報生成方法 - Google Patents

同期コンテンツ情報生成プログラム、同期コンテンツ情報生成装置および同期コンテンツ情報生成方法 Download PDF

Info

Publication number
JP4088131B2
JP4088131B2 JP2002295438A JP2002295438A JP4088131B2 JP 4088131 B2 JP4088131 B2 JP 4088131B2 JP 2002295438 A JP2002295438 A JP 2002295438A JP 2002295438 A JP2002295438 A JP 2002295438A JP 4088131 B2 JP4088131 B2 JP 4088131B2
Authority
JP
Japan
Prior art keywords
information
document
content information
audio
keyword
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002295438A
Other languages
English (en)
Other versions
JP2004007358A (ja
Inventor
誠也 清水
誠生 増井
麻子 湯本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2002295438A priority Critical patent/JP4088131B2/ja
Priority to US10/331,504 priority patent/US7516415B2/en
Publication of JP2004007358A publication Critical patent/JP2004007358A/ja
Application granted granted Critical
Publication of JP4088131B2 publication Critical patent/JP4088131B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Television Signal Processing For Recording (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、企業内での情報共有、教育分野、エンターテイメント分野などにおいて、音声・映像情報と電子化された文書情報とを同期させた同期コンテンツ情報の生成に用いられる同期コンテンツ情報生成プログラム、同期コンテンツ情報生成装置および同期コンテンツ情報生成方法に関するものであり、特に、音声・映像情報と文書情報とを時間的に同期表示するための同期コンテンツ情報をプロジェクタ等の特別な機材を必要とすることなく生成することができる同期コンテンツ情報生成プログラム、同期コンテンツ情報生成装置および同期コンテンツ情報生成方法に関するものである。
【0002】
近年では、サーバ上のストレージコストの低減とネットワークの広帯域化により、デジタル化された音声・映像情報(ビデオ情報)の蓄積と配信が安価かつ簡便に行えるようになってきている。
【0003】
このことから、企業内の会議においては、配布資料や議事録などのテキスト主体の関連資料で会議進行を行うだけでなく、ビデオカメラ装置を併用して音声・映像情報を配信することが可能となっている。従って、企業においては、音声・映像情報と関連資料とを関連付けて表示することでリアルタイムに会議に参加できなかったメンバーにも詳細な内容を伝えることが可能となっている。
【0004】
【従来の技術】
図23は、従来の同期コンテンツ情報生成システムの構成を示すブロック図である。この同期コンテンツ情報生成システムは、例えば、会議で用いられ、出席者に配布された複数ページからなる文書(関連資料)と、該文書を用いたプレゼンテーションの様子が録画された音声・映像情報とを同期させた同期コンテンツ情報を生成するシステムである。
【0005】
ビデオカメラ装置10は、文書を用いたプレゼンテーションの様子を録画する装置であり、音声および映像を音声・映像情報11として同期コンテンツ情報生成装置30へ出力する。プロジェクタ20は、プレゼンタの操作に従って、電子化文書情報21をスクリーンにページ単位で拡大表示する装置である。電子化文書情報21は、会議出席者に配布された文書が電子化されたものである。
【0006】
また、プロジェクタ20は、プレゼンタの操作により、電子化文書情報21のページが次のページに遷移した時刻を同期情報22として、同期コンテンツ情報生成装置30へ出力する。つまり、プロジェクタ20からは、プロジェクタに表示されているページが次ページに遷移する毎に、ページの区切りを表す同期情報22が出力される。
【0007】
すなわち、同期情報22は、音声・映像情報11を再生した場合の時間軸上で、電子化文書情報21の各ページがどの時間帯に同期(対応)しているかを表す情報である。
【0008】
同期コンテンツ情報生成装置30は、音声・映像情報11、電子化文書情報21および同期情報22に基づいて、同期コンテンツ情報33を生成する装置である。データベース31には、音声・映像情報11、電子化文書情報21および同期情報22が格納されている。
【0009】
同期コンテンツ情報生成部32は、データベース31から音声・映像情報11、電子化文書情報21および同期情報22を取得し、同期コンテンツ情報33を生成する。
【0010】
この同期コンテンツ情報33は、SMIL(Synchronized Multimedia Integration Language)等のシナリオ言語や、Java(R)Scriptなどのスクリプト言語等によって記述されている。また、同期コンテンツ情報33は、電子化文書情報21の各ページと、音声・映像情報11の再生時間軸上での時間帯とを同期情報22によって対応付けた情報である。
【0011】
再生装置40は、SMIL再生ソフトなどのブラウザを備えており、同期コンテンツ情報33を再生するための装置である。同期コンテンツ情報33は、会議に出席できなかった視聴者により、視聴される。この再生装置40においては、音声・映像情報11の再生音声・映像と、これらに同期した電子化文書情報21のページとが表示される。
【0012】
【発明が解決しようとする課題】
ところで、前述したように、従来の同期コンテンツ情報生成システムにおいては、▲1▼プレゼンテーション時に電子化文書情報21がなければいけない(後日入手では不可)、▲2▼音声・映像情報11の再生時間軸と、電子化文書情報21の各ページとの対応関係を表す同期情報22を出力する特別なプロジェクタ20が必要、▲3▼プロジェクタ20を用いたプレゼンテーションにしか対応できない(プレゼンテーション開始時点で電子化されておらず紙媒体のみで作成された資料には対応できない)などの問題点があった。
【0013】
本発明は、上記に鑑みてなされたもので、音声・映像情報と文書情報とを時間的に同期表示するための同期コンテンツ情報をプロジェクタ等の特別な機材を必要とすることなく生成することができる同期コンテンツ情報生成プログラム、同期コンテンツ情報生成装置および同期コンテンツ情報生成方法を提供することを目的とする。
【0014】
【課題を解決するための手段】
上記目的を達成するために、本発明は、コンピュータを、文書が電子化された文書情報から特徴的なキーワードを抽出するキーワード抽出手段、前記文書を用いた発言機会の様子が録音・撮像された音声・映像情報に基づいて、抽出された前記キーワードが出現した時刻順の出現キーワード分布を計測する出現キーワード分布計測手段、前記出現キーワード分布に基づいて、前記音声・映像情報と時間的な同期がとられた状態で前記文書情報を表示させるための同期コンテンツ情報を生成する同期コンテンツ情報生成手段として機能させるための同期コンテンツ情報生成プログラムである。
【0015】
また、本発明は、文書が電子化された文書情報から特徴的なキーワードを抽出するキーワード抽出手段と、前記文書を用いた発言機会の様子が録音・撮像された音声・映像情報に基づいて、抽出された前記キーワードが出現した時刻順の出現キーワード分布を計測する出現キーワード分布計測手段と、前記出現キーワード分布に基づいて、前記音声・映像情報と時間的な同期がとられた状態で前記文書情報を表示させるための同期コンテンツ情報を生成する同期コンテンツ情報生成手段とを備えたことを特徴とする。
【0016】
また、本発明は、文書が電子化された文書情報から特徴的なキーワードを抽出するキーワード抽出工程と、前記文書を用いた発言機会の様子が録音・撮像された音声・映像情報に基づいて、抽出された前記キーワードが出現した時刻順の出現キーワード分布を計測する出現キーワード分布計測工程と、前記出現キーワード分布に基づいて、前記音声・映像情報と時間的な同期がとられた状態で前記文書情報を表示させるための同期コンテンツ情報を生成する同期コンテンツ情報生成工程とを含むことを特徴とする。
【0017】
かかる発明によれば、文書を用いた発言機会の様子が録音・撮像された音声・映像情報に基づいて、抽出されたキーワードが出現した時刻順の出現キーワード分布を計測し、音声・映像情報と時間的な同期がとられた状態で文書情報を表示させるための同期コンテンツ情報を生成することとしたので、プロジェクタ等の特別な機材を必要とすることなく同期コンテンツ情報を生成することができる。
【0018】
また、本発明は、コンピュータを、文書が電子化された文書情報を複数の文書ブロックに分割する文書ブロック分割手段、前記文書を用いた発言機会の様子が録音・撮像された音声・映像情報に基づいて、音声情報を複数の連続音声区間に分割する音声分割手段、前記複数の連続音声区間を前記複数の文書ブロックに分配する分配手段、前記分配の結果に基づいて、前記音声・映像情報と時間的な同期がとられた状態で前記文書情報を表示させるための同期コンテンツ情報を生成する同期コンテンツ情報生成手段、として機能させるための同期コンテンツ情報生成プログラムである。
【0019】
また、本発明は、文書が電子化された文書情報を複数の文書ブロックに分割する文書ブロック分割手段と、前記文書を用いた発言機会の様子が録音・撮像された音声・映像情報に基づいて、音声情報を複数の連続音声区間に分割する音声分割手段と、前記複数の連続音声区間を前記複数の文書ブロックに分配する分配手段と、前記分配の結果に基づいて、前記音声・映像情報と時間的な同期がとられた状態で前記文書情報を表示させるための同期コンテンツ情報を生成する同期コンテンツ情報生成手段と、を備えたことを特徴とする。
【0020】
かかる本発明によれば、文書が電子化された文書情報を複数の文書ブロックに分割するとともに、文書を用いた発言機会の様子が録音・撮像された音声・映像情報に基づいて、音声情報を複数の連続音声区間に分割した後、複数の連続音声区間を複数の文書ブロックに分配した結果に基づいて、音声・映像情報と時間的な同期がとられた状態で文書情報を表示させるための同期コンテンツ情報を生成することとしたので、プロジェクタ等の特別な機材を必要とすることなく同期コンテンツ情報を生成することができる。
【0021】
【発明の実施の形態】
以下、図面を参照して本発明にかかる同期コンテンツ情報生成プログラム、同期コンテンツ情報生成装置および同期コンテンツ情報生成方法の実施の形態1および2について詳細に説明する。
【0022】
(実施の形態1)
図1は、本発明にかかる実施の形態1の構成を示すブロック図である。この図には、ビデオカメラ装置100、ネットワーク200、文書作成装置300、再生装置400および同期コンテンツ情報生成装置500から構成された同期コンテンツ情報生成システムが図示されている。
【0023】
この同期コンテンツ情報生成システムは、従来のプロジェクタ20(図23参照)等の特別な機材を必要とすることなく、会議で用いられる複数ページからなる文書情報と、該文書を用いたプレゼンテーションの様子が録画された音声・映像情報とを同期させた同期コンテンツ情報を、プレゼンタの音声認識と文書に含まれるキーワードの解析とに基づいて生成するシステムである。
【0024】
ビデオカメラ装置100は、文書を用いたプレゼンテーションの様子を録画する装置である。このビデオカメラ装置100において、通信部101は、ネットワーク200に接続されており、所定の通信プロトコルに従って、同期コンテンツ情報生成装置500との間の通信を制御する。
【0025】
カメラ102は、プレゼンテーションの様子を撮像し、映像情報を出力する。マイクロフォン103は、プレゼンタの音声を音声情報に変換する。符号化部104は、カメラ102からの映像情報をMPEG(Motion Picture Experts Group)4等のビデオ圧縮形式に変換するとともに、マイクロフォン103からの音声情報をMP3(MPEG Audio Layer-3)等のオーディオ圧縮形式に変換し、音声・映像情報として同期コンテンツ情報生成装置500へ出力する。
【0026】
なお、ビデオカメラ装置100からは、リアルタイムで、または会議終了後に一括して、音声・映像情報が同期コンテンツ情報生成装置500へ出力される。
【0027】
文書作成装置300は、ワードプロセッサや作図装置として機能し、プレゼンテーション用の(電子化)文書を作成する装置であり、文書情報を同期コンテンツ情報生成装置500へ出力する。入力部301は、キーボード、マウス等である。表示部302は、文書の編集画面等を表示するディスプレイである。
【0028】
ここで、実施の形態1では、プレゼンテーションの当日までに文書作成装置300で文書情報を作成する場合と、手書きの文書を用いてプレゼンテーションを実施した後、この手書き文書を文書作成装置300で電子化し、文書情報を作成する場合という2つのケースのいずれにおいても同期コンテンツ情報の生成が可能とされている。
【0029】
再生装置400は、SMIL再生ソフトなどのブラウザを備えており、同期コンテンツ情報生成装置500で生成された同期コンテンツ情報(音声情報、映像情報および文書情報)を再生するための装置であり、入力部401および表示部402を備えている。
【0030】
同期コンテンツ情報は、会議に出席できなかった視聴者により、視聴される。この再生装置400の表示部402には、再生画面フォーマット600(図6参照)に従って、映像およびページ単位(ブロック単位でも可)の文書の双方が時間的に同期がとられた状態で表示される。
【0031】
同期コンテンツ情報生成装置500は、文書情報データベース520に格納された文書情報(図2参照)、音声・映像情報データベース530に格納された音声・映像情報(図3参照)に基づいて同期情報を生成した後、同期コンテンツ情報を生成する装置である。
【0032】
同期情報は、文書情報の各ページと、音声・映像情報の再生時間軸上での時間帯との対応関係を定義付ける情報である。同期コンテンツ情報は、文書情報の各ページと、音声・映像情報の再生時間軸上での時間帯とを同期情報によって対応付けた情報である。
【0033】
この同期コンテンツ情報生成装置500において、通信部501は、ネットワーク200に接続されており、所定の通信プロトコルに従って、ビデオカメラ装置100、文書作成装置300および再生装置400との間の通信を制御する。
【0034】
制御部502は、装置各部を制御する。例えば、制御部502は、データベース制御を行う。具体的には、制御部502は、ビデオカメラ装置100からの音声・映像情報を音声・映像情報データベース530に格納する。
【0035】
また、制御部502は、文書作成装置300からの文書情報を文書情報データベース520に格納する。また、制御部502は、後述する同期コンテンツ情報生成部510で生成された同期コンテンツ情報を同期コンテンツ情報データベース540に格納する。
【0036】
同期情報生成部503は、音声・映像情報データベース530から取得した音声・映像情報と、文書情報データベース520から取得した文書情報とを解析し、上述した同期情報を生成する。同期情報は、音声・映像情報を再生した場合の時間軸上で、文書情報の各ページ(または各ブロック)がどの時間帯に同期(対応)しているかを表す情報である。
【0037】
キーワード抽出部504は、形態素解析部505、統計量解析部506および重み算出部507から構成されており、文書情報データベース520から取得した文書情報の各ページのテキストについて形態素解析を実行し、ページ単位で固有名詞をキーワードとして抽出する。
【0038】
形態素解析部505は、文書情報に対して形態素解析を実行する。統計量解析部506は、キーワード毎に各ページ中の出現回数を計測し、ページ毎の出現回数平均等の統計量を解析する。重み算出部507は、統計量を元にして後述する重み係数配列を算出する。
【0039】
音声解析部508は、キーワード抽出部504で抽出された(文書)キーワードの配列をキーとして、音声・映像情報データベース530から取得した音声・映像情報に含まれる音声情報に関して音声解析した結果のうち、上記(文書)キーワードに対応する(音声)キーワードの出現時刻の配列を求める。
【0040】
同期情報解析部509は、上述したキーワードの配列、出現時刻の配列等から文書情報の各ページの表示時刻の配列を同期情報として求める。同期コンテンツ情報生成部510は、文書情報、音声・映像情報および同期情報から、SMIL等によって記述された同期コンテンツ情報(図5参照)を生成する。同期コンテンツ情報編集部511は、同期コンテンツ情報生成部510で生成された同期コンテンツ情報を編集する機能を備えている。
【0041】
図2は、図1に示した文書情報データベース520に格納される文書情報521の構造を示す図である。この文書情報521は、文書作成装置300から出力される情報である。文書情報521において、文書情報ID522は、当該文書を識別するための識別子である。この文書のページ数は、Mである。プロジェクトID523は、上記文書が用いられるプロジェクトを識別するための識別子である。
【0042】
文書情報本体524は、Mページ分の文書情報であり、1ページ情報5251〜Mページ情報525M から構成されている。1ページ情報5251 は、1ページ目の文書情報であり、レイアウト情報5261 、テキスト情報5271 および画像情報5281 から構成されている。
【0043】
レイアウト情報5261 は、当該ページにおけるテキスト、画像のレイアウトを指定するための情報である。テキスト情報5271 は、当該ページに掲載されたテキストの情報であり、前述したキーワード抽出の対象とされる。画像情報5281 は、当該ページに掲載された画像の情報である。
【0044】
図3は、図1に示した音声・映像情報データベース530に格納される音声・映像情報531の構造を示す図である。この音声・映像情報531は、ビデオカメラ装置100から出力される情報である。音声・映像情報531において、音声・映像情報ID532は、当該音声・映像情報を識別するための識別子である。
【0045】
プロジェクトID533は、プロジェクトID523(図2参照)と同義である。音声・映像情報本体534は、音声・映像情報の本体であり、再生時間情報535、音声情報536および映像情報537から構成されている。再生時間情報535は、音声・映像情報を再生する際の時間情報である。
【0046】
音声情報536は、マイクロフォン103からの音声情報に対応しており、プレゼンタの音声(当該文書を読み上げる音声や説明する音声等)の情報である。映像情報537は、カメラ102からの映像情報に対応しており、プレゼンテーションの様子の情報である。
【0047】
図4は、図1に示した同期コンテンツ情報データベース540に格納される同期コンテンツ情報541の構造を示す図である。この同期コンテンツ情報541は、同期コンテンツ情報生成部510で生成される情報である。同期コンテンツ情報541において、同期コンテンツ情報ID542は、当該同期コンテンツを識別するための識別情報である。プロジェクトID543は、プロジェクトID523(図2参照)およびプロジェクトID533(図3参照)に対応している。
【0048】
オーサリング情報544は、文書情報ID545、音声・映像情報ID546および同期情報547から構成されている。文書情報ID545は、文書情報ID522(図2参照)に対応している。音声・映像情報ID546は、音声・映像情報ID532(図3参照)に対応している。同期情報547は、同期情報解析部509より入力される情報である。
【0049】
同期コンテンツ情報本体548は、同期コンテンツ情報の本体であり、図5に示したように、SMILで記述されている。この同期コンテンツ情報本体548では、音声・映像情報の再生時間軸上での当該文書のページの同期表示に関する開始時刻、表示終了時刻や、図6に示した再生画面フォーマット600の画面サイズ、映像表示領域601、文書表示領域602等が設定される。
【0050】
この再生画面フォーマット600は、再生装置400の表示部402に表示される。また、映像表示領域601には、音声・映像情報のうち映像情報が表示される。なお、音声情報は、再生装置400(図1参照)のスピーカ(図示略)により再生される。文書表示領域602には、同期情報に対応する文書の当該ページが表示される。
【0051】
つぎに、実施の形態1の動作について、図7および図8に示したフローチャート、図9および図10を参照しつつ説明する。会議においては、例えば、紙媒体に印刷された紙文書が出席者に配布される。
【0052】
そして、会議が始まると、プレゼンタは、紙文書を参照しながら、プレゼンテーションを実施する。このとき、プレゼンタは、紙文書のページを順番にめくりつつ当該ページ記載された一部のテキストを読み上げることになる。特に、そのページの特徴を表すキーワードは頻繁に読み上げられる傾向にある。
【0053】
会議中においては、図1に示したビデオカメラ装置100からは、プレゼンタの音声およびプレゼンテーションの様子に対応する音声・映像情報がネットワーク200を介して同期コンテンツ情報生成装置500へ出力される。この音声・映像情報は、制御部502により音声・映像情報データベース530に格納される。
【0054】
ここで、文書作成装置300からは、会議前または会議終了後に上記紙文書に対応する文書情報が同期コンテンツ情報生成装置500へ出力される。この文書情報は、制御部502により文書情報データベース520に格納される。
【0055】
そして、会議が終了すると、同期コンテンツ情報生成装置500では、同期コンテンツ情報の生成処理が実行される。まず、キーワード抽出部504では、文書情報データベース520の文書情報からキーワードを抽出するキーワード抽出処理が実行される。
【0056】
具体的には、形態素解析部505は、文書情報データベース520から文書情報を取得した後、ページ単位で形態素解析を実行し、固有名詞を抽出してページ毎のキーワードとする。ここで、全ページ中に出現するキーワードk1 〜kN の集合は、キーワード配列Kとしての(1)式で表される。
【数1】
Figure 0004088131
【0057】
また、文書情報の各ページ(b1 〜bM )は、文書ページ配列Bとしての(2)式で表される。
【数2】
Figure 0004088131
【0058】
つぎに、統計量解析部506は、キーワード毎に各ページ中の出現回数を計測し、ページ毎の出現回数平均μ等の統計量を算出する。重み算出部507は、統計量を元にして、つぎの(3)式で表される重み係数配列Wを算出する。
【数3】
Figure 0004088131
【0059】
重み係数配列Wは、M(全ページ数)×N(全キーワード数)の配列となる。この重み係数配列Wの要素wm,n は、キーワードknの出現回数平均をμn 、ページbm 中の出現回数をxm とするとつぎの(4)式から算出される。
【数4】
Figure 0004088131
【0060】
要素wm,n は、mページ目でのキーワードkn の重み付け係数である。ここで、E(kn)は、キーワードkn がページbm 中のタイトル、段落や項目名、太字や下線などの修飾を施されていた場合に1、それ以外は0となる関数である。AおよびBは、重み係数のための定数である。キーワード抽出部504からは、キーワード配列Kおよび重み係数配列Wが出力される。
【0061】
つぎに、音声解析部508は、音声・映像情報データベース530から音声・映像情報を取得する。音声解析部508は、キーワード配列K中の各要素を用いて、音声・映像情報の音声情報に関して音声解析を行い、該当キーワードの出現時刻を計測する。
【0062】
具体的には、音声解析部508は、MP3等で圧縮された音声情報を復元してPCM(Pulse Code Modulation)で変換し、これを用いて周知のワードスポッティング方式によりキーワードの出現時刻を抽出する。ワードスポッティング方式は、音声入力に対して発音される言葉全てではなく、重要単語のみを認識する音声技術である。
【0063】
つぎに、音声解析部508は、認識したキーワードを時刻順でソートした出現キーワードr1 〜rp の配列を出現キーワード配列R((5)式参照)とし、出現キーワードr1 〜rp のそれぞれに対応する出現時刻t1〜tp の配列を出現時刻配列T((6)式参照)とする。
【数5】
Figure 0004088131
【数6】
Figure 0004088131
【0064】
すなわち、図9に示した音声・映像情報を再生した場合の時間軸上において、出現キーワード配列Rに含まれる出現キーワードr1 は、出現時刻配列Tに含まれる出現時刻t1 でプレゼンタにより発音されたことを意味している。
【0065】
出現キーワード配列Rの要素はキーワード配列Kの要素と同じ値であり、キーワードが音声情報中に複数回出現するときは複数個の同じ要素が存在することになる。音声解析部508は、つぎの(7)式によって各キーワードrp に対応する重み付け係数ωm,P の配列である出現キーワード重み係数配列Ωを求める。
【数7】
Figure 0004088131
【0066】
重み付け係数ωm,P は、mページ目に出現キーワードrP が出現する確からしさをあらわす係数である。ここで、出現キーワードrP の出現順番は、キーワード配列Kのインデックス順番とは限らず、複数回出現することもあるため、出現頻度順にインデックスを付け替えた出現キーワード配列Rが作成される。
【0067】
図9には、キーワード配列Kに関する重み係数配列Wと、出現キーワード配列Rに関する出現キーワード重み係数配列Ωとの対応関係が図示されている。ここで、音声情報の中でp1番目とp2番目にキーワードkn が出現したとする。このとき、出現キーワードrp1 と出現キーワードrp2 は、キーワードkn に等しい。
【0068】
従って、出現キーワード重み係数配列Ω中での出現キーワードrp1 と、出現キーワードrp2 と重み係数を表すp1列とp2列は、重み係数配列W中でキーワードkn の重み係数を表すn列をコピーしたものとなる。全ての出現キーワード配列Rの要素に対して、対応するキーワードkの重み係数をコピーすることで、出現キーワード重み係数配列Ωが作成される。
【0069】
つぎに、同期情報解析部509は、出現キーワード配列R、出現時刻配列Tおよび出現キーワード重み係数配列Ωから、文書情報の各ページ(1ページからMページ)の表示開始時刻s1 〜sM の配列である表示開始時刻配列S((8)式参照)を求める。
【数8】
Figure 0004088131
【0070】
図10には、音声・映像情報を再生した場合の時間軸と、上記表示開始時刻s1 〜sM との関係が図示されている。これらの表示開始時刻s1 〜sM は、同期情報である。例えば、表示開始時刻sm では、mページ目の文書情報が表示される。詳細には、ページbm は、表示開始時刻sm で表示を開始し、sm+1 で表示を終了する。
【0071】
ここで、最適な表示開始時刻の組み合わせは、つぎの(9)式で表される評価関数F(S)の値を最大にするものとして定義される。
【数9】
Figure 0004088131
【0072】
評価関数F(S)は、音声認識によるキーワードの出現時刻の分布が、文書情報からのキーワードの出現時間の分布と一致した場合に最大値をとる関数である。つぎに、同期情報解析部509は、表示開始時刻sm のとりうる値を出現時刻配列Tに限定して、後述する探索アルゴリズムにより評価関数F(S)を局所的に最大化する表示開始時刻配列Sを求める。
【0073】
具体的には、図7に示したステップSA1では、同期情報解析部509は、図8に示した初期化処理を実行する。この初期化処理では、図10に示した時間軸上に表示開始時刻s1 〜sM が等時間間隔で設定される。すなわち、初期化処理においては、各ページが等時間でめくられたと仮定されている。
【0074】
初期化処理において、図8に示したステップSB1では、同期情報解析部509は、mに2を代入する。ステップSB2では、同期情報解析部509は、表示開始時刻s1 を0として、つぎの(10)式に、m(=2)、音声・映像情報の総再生時間D、ページ数Mを代入し、表示開始時刻sm(この場合、s2)を求める。
【数10】
Figure 0004088131
【0075】
ステップSB3では、同期情報解析部509は、mがページ数Mと等しいか否かを判断し、この場合、判断結果を「No」とする。ステップSB4では、同期情報解析部509は、mを1インクリメントする。以後、ステップSB2以降が繰り返し実行される。そして、ステップSB3の判断結果が「Yes」になると、図10に示した表示開始時刻s1 〜sM が等時間間隔で設定される。
【0076】
図7に示したステップSA2〜ステップSA6では、図10に示したm=2〜Mについて、表示開始時刻sm をsm-1 〜sm+1 の区間で移動させて評価関数F(S)を計算する区間探索が行われ、最大の評価関数F(S)となるキーワードの出現時刻t((6)式参照)を新しい表示開始時刻sm とする。この表示開始時刻sm は、出現時刻配列T((6)式参照)の出現時刻t1 〜tP のうちいずれかの出現時刻である条件を満たすように上記区間で移動される。
【0077】
そして、全てのmについての区間探索が終了すると、区間探索が1ターン終了する。1ターン終了後、前回のターン終了時の前回評価関数F0 と現在の評価関数F(S)とを比較して、値の増加分が誤差Δの範囲内であったとき処理が終了する。それ以外は再度区間探索が実行される。
【0078】
具体的には、図7に示したステップSA2では、同期情報解析部509は、前回評価関数F0 に0を代入する。ステップSA3では、同期情報解析部509は、mに2を代入する。ステップSA4では、同期情報解析部509は、図10に示した表示開始時刻sm をsm-1 〜sm+1 の区間で移動(この場合、s2 をs1 〜s3 の区間で移動)させて最大の評価関数F(S)((9)式参照)となるキーワードの出現時刻t((6)式参照)を新しい表示開始時刻sm とする。
【0079】
ステップSA5では、同期情報解析部509は、mがページ数Mと等しいか否かを判断し、この場合、判断結果を「No」とする。ステップSA7では、同期情報解析部509は、mを1インクリメントする。以後、ステップSA4では、図10に示した時間軸上で表示開始時刻sm が1つずつ右シフトし、上記探索が繰り返される。
【0080】
そして、ステップSA5の判断結果が「Yes」になると、すなわち、1ターンの区間探索が終了すると、ステップSA6では、同期情報解析部509は、現在の評価関数F(S)が、前回評価関数F0 と誤差Δとの和を超えているか否かを判断する。この判断結果が「Yes」である場合、同期情報解析部509は、現在の評価関数F(S)を前回評価関数F0 に代入した後、ステップSA3以降の処理を繰り返す。
【0081】
そして、ステップSA6の判断結果が「No」になると、同期情報解析部509は、一連の処理を終了する。これにより、表示開始時刻配列S((8)式参照)の開始時刻s1 〜sM が確定する。
【0082】
つぎに、同期コンテンツ情報生成部510は、同期情報解析部509からの表示開始時刻配列S、文書情報および音声・映像情報から、例えば、図5に示した同期コンテンツ情報541を生成し、同期コンテンツ情報データベース540に格納する。
【0083】
この同期コンテンツ情報541において、「電子化文書の1ページ目データ begin=s1 」は、表示開始時刻配列Sに含まれる表示開始時刻s1 に対応している。従って、1ページ目の文書情報は、図10に示した音声・映像情報の時間軸上の表示開始時刻s1 で表示が開始され、end=s2 に表示が終了する。
【0084】
そして、再生装置400から再生要求があると、制御部502は、同期コンテンツ情報データベース540から同期コンテンツ情報541(図5参照)を読み出し、これを再生装置400へ送信する。
【0085】
これにより、再生装置400では、同期コンテンツ情報541に対応する再生画面フォーマット600に基づいて、音声・映像情報および文書情報が再生される。ここで、文書の各ページは、表示開始時刻配列Sに基づくタイミングで、映像に並行して順次表示される。
【0086】
以上説明したように、実施の形態1によれば、文書を用いた会議等の様子がビデオカメラ装置100により録音・撮像された音声・映像情報に基づいて、キーワード抽出部504で抽出されたキーワードが出現した時刻順の出現キーワード分布を計測し、音声・映像情報と時間的な同期がとられた状態で文書情報を表示部402に表示させるための同期コンテンツ情報を生成することとしたので、プロジェクタ等の特別な機材を必要とすることなく同期コンテンツ情報を生成することができる。
【0087】
なお、実施の形態1では、図8に示した初期化処理(図10参照)で、表示開始時刻s1 〜sM を等時間間隔で初期値として設定する方法について説明したが、図11に示したように、文書中のキーワードに関する下線、太字、フォントサイズなどの文字修飾や、タイトル、章名などの文書中のレイアウト情報を利用して表示開始時刻s1 〜sM を初期値として設定してもよい。
【0088】
以下では、実施の形態1の変形例1として説明する。この変形例1では、図1に示した形態素解析部505は、文書情報に含まれるページタイトルや下線、太字、前後に比べて著しくフォントサイズの大きい単語もキーワードとして抽出すると共に、キーワード種別a1 〜aN の集合をつぎの(11)式で表されるキーワード種別配列Aとする。
【数11】
Figure 0004088131
【0089】
キーワード種別an において、1は、キーワード種別がページタイトルの場合である。2は、キーワード種別が文字修飾単語の場合である。0は、上記ページタイトルおよび文字修飾単語以外のキーワードの場合である。
【0090】
また、変形例1では、音声解析部508は、前述と同様にして、出現キーワード配列R((5)式参照)および出現時刻配列T((6)式参照)を求める。また、音声解析部508は、図13に示したキーワード種別配列Aの要素を時刻順でソートした出現キーワード種別q1 〜qp の配列をつぎの(12)式で表される出現キーワード種別配列Qとする。
【数12】
Figure 0004088131
【0091】
つぎに、同期コンテンツ情報生成部510は、出現キーワード配列R、出現時刻配列Tおよび出現キーワード種別配列Qから、図14に示したルールによってmページ目(bm )の表示を開始する表示開始時刻sm を決定する。ここで、ルール1は、「出現キーワード種別qp が1または2の値である。」というものである。
【0092】
ルール2は、「出現キーワードrp は、mページ目だけに含まれる唯一のキーワードである。」というものである。ルール3は、「以下のルール3−1または3−2のいずれか一方を満たしている。」というものである。ルール3−1は、「出現キーワード配列Rに出現キーワードrp =ru となる出現キーワードru が存在しない。」というものである。ルール3−2は、「出現キーワード配列Rに出現キーワードrp=ruとなる出現キーワードru がある場合、p、uが0<tu−tp<Δtの関係満たす。」というものである。
【0093】
以上の条件を同時に満たすmとpがあるとき、時刻tp を表示開始時刻sm の初期値として設定される。なお、Δtは十分に小さな時間であり、例えば、1ページあたりの平均表示時間(D/M)の10%以下に設定する。また、本ルールでは、全ての表示開始時刻sm について値を確定できるわけではなく、確定できなかった表示開始時刻sm については未確定区間の均等分割により値が確定される。
【0094】
図11には、音声・映像情報の時間軸上で1点のみ表示開始時刻sm の値が確定できた場合が図示されている。なお、前後の未確定区間については、表示開始時刻の初期値が均等時間割りされる。
【0095】
具体的には、変形例1では、図8に示した初期化処理に代えて、図12に示した初期化処理が同期情報解析部509により実行される。図12に示したステップSC1では、mに1が代入される。ステップSC2では、pに1が代入される。ステップSC3では、m、pによりルール1〜3(図14参照)が満たされているか否かが判断され、この場合、判断結果が「No」とされる。なお、ステップSC3の判断結果が「Yes」である場合、ステップSC13では、表示開始時刻sm に出現時刻tp が代入される。
【0096】
ステップSC4では、pがPと等しいか否かが判断され、この場合、判断結果が「No」とされる。ステップSC14では、pが1インクリメントされ、ステップSC3以降が繰り返される。そして、ステップSC4の判断結果が「Yes」になると、ステップSC5では、mが全ページ数Mと等しいか否かが判断され、この場合、判断結果が「No」とされる。ステップSC15では、mが1インクリメントされ、ステップSC2以降が繰り返される。
【0097】
そして、ステップSC5の判断結果が「Yes」になると、ステップSC6では、m1に1が、mに2が代入される。ステップSC7では、表示開始時刻sm が確定済みであるか否かが判断され、この判断結果が「No」である場合、ステップSC12の判断が行われる。
【0098】
一方、ステップSC7の判断結果が「Yes」である場合、ステップSC8では、(m1+1)がjとされる。ステップSC9では、sj =tm1+j・(tm+tm1)/(m−m1)が計算される。ステップSC10では、jが(m−1)以上であるか否かが判断され、この場合、判断結果が「No」とされる。ステップSC16では、jが1インクリメントされ、ステップSC9以降が繰り返される。
【0099】
そして、ステップSC10の判断結果が「Yes」になると、ステップSC11では、m1にmが代入される。ステップSC12では、mが(M+1)と等しいか否かが判断され、この場合、判断結果を「No」とする。ステップSC17では、mが1インクリメントされる。以後、ステップSC7以降が繰り返される。そして、ステップSC12の判断結果が「Yes」になると、前述したステップSA2(図7参照)以降の処理が実行される。
【0100】
以上説明したように、実施の形態1の変形例によれば、文書情報に含まれるキーワード種別情報に基づいて、音声・映像情報と文書情報との同期をとることとしたので、キーワード種別(例えば、タイトル、強調文字等)に応じた同期をとることができる。
【0101】
(実施の形態2)
図15は、本発明にかかる実施の形態2の構成を示すブロック図である。この図において、図1の各部に対応する部分には同一の符号を付け、その説明を省略する。同図においては、図1に示した同期コンテンツ情報生成装置500に代えて、同期コンテンツ情報生成装置700が設けられている。
【0102】
この同期コンテンツ情報生成装置700においては、図1に示した同期情報生成部503、同期コンテンツ情報生成部510、同期コンテンツ情報編集部511および同期コンテンツ情報データベース540に代えて、同期情報生成部710、同期コンテンツ情報生成部714、同期コンテンツ情報編集部715、連続音声区間情報データベース720および同期コンテンツ情報データベース730が設けられている。
【0103】
同期情報生成部710は、音声・映像情報データベース530から取得した音声・映像情報と、文書情報データベース520から取得した文書情報とを解析し、同期情報を生成する。同期情報は、音声・映像情報を再生した場合の時間軸上で、文書情報における各文書ブロック(例えば、各ページ)がどの時間帯に同期(対応)しているかを表す情報である。
【0104】
同期情報生成部710において、キーワード抽出部711は、図20に示したように、文書情報データベース520から取得した文書情報をN個の文書ブロックbn(n=1、2、・・・、N)に分割する。
【0105】
また、キーワード抽出部711は、文書ブロックbn 毎に形態素解析を実行し、名詞を抽出しキーワードとする。キーワード抽出部711は、文書ブロックbn にキーワードを含む文が、文書ブロックbn に属する場合の確からしさを表す指標であるキーワード重み係数wn、θ を後述する計算式より算出する。
【0106】
音声解析部712は、図17に示したように、音声情報の音声レベルとしきい値THとを比較して、音声レベルがしきい値THを超える区間を連続音声区間(同図○印)とし、この連続音声区間に対応する連続音声区間情報721(図16参照)を生成する。
【0107】
また、音声解析部712は、連続音声区間情報に含まれる音声情報について、上述した文書ブロックbn におけるキーワードθの発話頻度βkn、θ を後述する方法により計測する。
【0108】
同期情報解析部713は、図20に示したように、後述する動的計画法により、K個の連続音声区間情報v1〜vK を、N個の文書ブロックb1〜bn に先頭からxn 個ずつ分配する。
【0109】
ここで、分配の確からしさは、つぎの(13)式で表される。
【数13】
Figure 0004088131
【0110】
(13)式において、最適の分配は、評価関数E(x1、x2、・・・、xN )を最大化する(x1、x2、・・・、xN )の組み合わせとなる。gn(kn-1、xn)は、kn-1 に続くxn個の連続音声区間を文書ブロックbn に分配したときに得られる利益(分配の確からしさ)を表す関数である。
【0111】
同期情報解析部713は、各文書ブロックの表示時刻の配列を同期情報として求める。同期コンテンツ情報生成部714は、文書情報、音声・映像情報および同期情報から、SMIL等によって記述された同期コンテンツ情報(図19参照)を生成する。
【0112】
図16は、図15に示した連続音声区間情報データベース720に格納される連続音声区間情報721の構造を示す図である。この連続音声区間情報721は、音声解析部712で生成される情報である。
【0113】
連続音声区間情報721は、情報数722、連続音声区間情報v1 、・・・、vk から構成されている。情報数722は、連続音声区間情報v1 〜vK の数Kを表す。これらの連続音声区間情報v1 〜vK は、図17に示したように、上述した音声・映像情報に含まれる音声情報の音声レベルがしきい値THを超える区間が連続音声区間(同図○印)に対応する情報である。この連続音声区間においては、プレゼンタの音声が連続的に発せられている。
【0114】
一方、音声レベルがしきい値TH以下の区間は、文と文との区切り部分等に相当し、プレゼンタの音声が無音となる無音区間(同図×印)である。
【0115】
図16へ戻り、連続音声区間情報vk は、開始時刻情報723k 、終了時刻情報724k および音声情報725k から構成されている。なお、他の連続音声区間情報v1 、vK 等も、連続音声区間情報vk と同様にして、開始時刻情報、終了時刻情報および音声情報から構成されている。
【0116】
図18は、図15に示した同期コンテンツ情報データベース730に格納される同期コンテンツ情報731の構造を示す図である。この同期コンテンツ情報731は、同期コンテンツ情報生成部714で生成される情報である。
【0117】
同期コンテンツ情報731は、同期コンテンツ情報ID732、プロジェクトID733、オーサリング情報734および同期コンテンツ情報本体738から構成されている。同期コンテンツ情報731において、同期コンテンツ情報ID732は、当該同期コンテンツを識別するための識別情報である。プロジェクトID733は、プロジェクトID523(図2参照)およびプロジェクトID533(図3参照)に対応している。
【0118】
オーサリング情報734は、文書情報ID735、音声・映像情報ID736および同期情報737から構成されている。文書情報ID735は、文書情報ID522(図2参照)に対応している。音声・映像情報ID736は、音声・映像情報ID532(図3参照)に対応している。同期情報737は、同期情報解析部713より入力される情報である。
【0119】
同期コンテンツ情報本体738は、同期コンテンツ情報の本体であり、図19に示したように、SMILで記述されている。この同期コンテンツ情報本体738では、音声・映像情報の再生時間軸上での当該文書のページの同期表示に関する開始時刻、表示終了時刻や、図6に示した再生画面フォーマット600の画面サイズ、映像表示領域601、文書表示領域602等が設定される。
【0120】
つぎに、実施の形態2の動作について、図21に示したフローチャートを参照しつつ説明する。会議においては、例えば、紙媒体に印刷された紙文書が出席者に配布される。
【0121】
ここで、文書作成装置300からは、会議前または会議終了後に上記紙文書に対応する文書情報が同期コンテンツ情報生成装置500へ出力される。この文書情報は、制御部502により文書情報データベース520に格納される。
【0122】
そして、会議が始まると、プレゼンタは、紙文書を参照しながら、プレゼンテーションを実施する。このとき、プレゼンタは、紙文書のページを順番にめくりつつ当該ページ記載された一部のテキストを読み上げることになる。特に、そのページの特徴を表すキーワードは頻繁に読み上げられる傾向にある。
【0123】
会議中においては、図15に示したビデオカメラ装置100からは、プレゼンタの音声およびプレゼンテーションの様子に対応する音声・映像情報がネットワーク200を介して同期コンテンツ情報生成装置700へ出力される。この音声・映像情報は、制御部502により音声・映像情報データベース530に格納される。
【0124】
そして、会議が終了すると、ステップSD1では、キーワード抽出部711は、文書情報データベース520から文書情報を読み込む。ステップSD2では、キーワード抽出部711は、図20に示したように、上記文書情報をN個の文書ブロックbn(n=1、2、・・・、N)に分割する。文書ブロックbn としては、1ページ、1段落など同期の文書単位となるものが用いられる。
【0125】
ステップSD3では、キーワード抽出部711は、文書ブロックbn 毎に形態素解析を実行し、名詞を抽出しキーワードとする。ここで文書ブロックbn から抽出されたキーワードの集合をキーワード集合Θn とする。
【0126】
ステップSD4では、キーワード抽出部711は、文書ブロックbn にキーワードθ(θ∈Θn)を含む文が、文書ブロックbn に属する場合の確からしさを表す指標であるキーワード重み係数wn、θ を算出する。具体的には、文書ブロックbn にキーワードθが出現する頻度をεn、θ とすると、キーワード重み係数wn、θ は、つぎの(14)式で表される。
【数14】
Figure 0004088131
【0127】
(14)式においては、キーワードθが文書ブロックbn に頻度εn、θ で出現した場合、文書ブロックbn の前後の文書ブロック(bn-1、bn+1)でも同程度の頻度でキーワードθが出現するならばキーワード重み係数wn、θ が小さくなることを意味している。
【0128】
逆に、前後の文書ブロック(bn-1、bn+1)で出現していないキーワードが文書ブロックbn のみに頻繁に出現する場合、キーワード重み係数wn、θ は、大きな値となる。つまり、(14)式では、キーワードθが文書ブロックbn に出現する確からしさを前後の文書ブロック(bn-1、bn+1)を含めて決定される。
【0129】
(14)式によれば、文書ブロックにキーワードが出現する頻度を求め、該頻度および前後の文書ブロックにおける頻度に基づいて、キーワード重み係数を求めることとしたので、文書ブロックに対する局所性が高いキーワードに高い重み付けがされたキーワード重み係数を得ることができる。
【0130】
ステップSD5では、音声解析部712は、音声・映像情報データベース530から、音声・映像情報に含まれる音声情報を読み込む。ステップSD6では、音声解析部712は、図17に示したように、音声情報の音声レベルとしきい値THとを比較して、音声レベルがしきい値THを超える区間を連続音声区間(同図○印)とする。
【0131】
つぎに、音声解析部712は、図16に示したように、連続音声区間について、開始時刻情報(例えば、t1)、終了時刻情報(例えば、t2)および音声情報を、K個の連続音声区間情報v1、・・・、vk、・・・vK とするとともに、情報数722をKとする。音声解析部712は、これらの情報を連続音声区間情報721として生成し、図15に示した連続音声区間情報データベース720に格納する。
【0132】
ステップSD7では、音声解析部712は、例えば、図16に示した連続音声区間情報vk に含まれる音声情報について、ステップSD3でキーワード抽出部711により抽出された文書ブロックbn におけるキーワードθ(θ∈Θ)の発話頻度βkn、θ を算出する。ここで、連続音声区間情報vk に含まれる音声情報について当該キーワードθが発話されたか否かは、音声認識処理により検知される。
【0133】
例えば、音声認識処理としての周知のWord Spottingにおいては、認識対象の単語辞書としてキーワード集合Θn を用い、音声情報に含まれる各キーワードの出現位置が検出される。
【0134】
ステップSD8では、同期情報解析部713は、図20に示したように、動的計画法により、K個の連続音声区間情報v1 〜vK を、N個の文書ブロックb1〜bn に先頭からxn 個ずつ分配する。
【0135】
具体的には、文書ブロックb1 〜bn までに分配される連続音声区間情報の個数をkn 個とする。ここで、文書ブロックbn にkn-1 個目以降のxn 個の連続音声区間情報を分配することによる利益(分配の確からしさ)をgn(kn-1、xn )とすると、gn(kn-1、xn )は、つぎの(15)式〜(17)式によって定義される。
【数15】
Figure 0004088131
【数16】
Figure 0004088131
【数17】
Figure 0004088131
【0136】
(17)式において、wn、θ は、前述したように、キーワードθ(θ∈Θ)が文書ブロックbn に属する場合の確からしさを表すキーワード重み係数である。βkn、θ は、前述したように、キーワードθが連続音声区間情報vk に対応する連続音声区間で実際に発話された回数を表す発話頻度である。
【0137】
ここで、連続音声区間情報vk が文書ブロックbn に対応するならば、(連続音声区間情報vk 中で発話されるキーワードθが文書ブロックbn に属する確からしさ)×(発話頻度)は、連続音声区間情報vk が文書ブロックbn に対応しない場合に比べて、大きな値をとると予想される。
【0138】
全てのキーワードについて、上記値を計算したものが(17)式であり、ekn は、連続音声区間情報vk を文書ブロックbn に割り振ることに関する確からしさを表している。
【0139】
また、ekn は、文書ブロックに多数のキーワードが出現していた場合、極端に大きな値をとることがある。例えば、プレゼンテーションにおいて、最初に概要説明のスライドを設けた場合、該スライドには、他のスライドに含まれるキーワードが多数出現する。
【0140】
このような場合には、正しい対応が得られなくなるため、gn(kn-1、xn )に用いる値として、ekn そのものではなく、文書ブロックbn に関係するekn の総和が1になるように正規化した値を用いる。(16)式は、正規化の式である。(16)式におけるNn(ekn)は、ekn を正規化した値を表している。
【0141】
(15)式は、文書ブロックbn にkn-1 個目以降のxn 個の連続音声区間情報を分配することによる利益(分配の確からしさ)を、Nn(ekn)の総和で表したものである。
【0142】
実施の形態2では、上記分配の問題を以下の(18)式を満たす(x1、x2、・・・、xN)の組み合わせを求める問題に定式化している。(18)式を満たす(x1、x2、・・・、xN)は、動的計画法により求められる。以下に、動的計画法による解法について説明する。
【数18】
Figure 0004088131
【0143】
同期情報解析部713は、(18)式を、以下の2つの関数再帰方程式((19)式および(20)式)に展開する。
【数19】
Figure 0004088131
【数20】
Figure 0004088131
【0144】
つぎに、同期情報解析部713は、これらの(19)式および(20)式を用いて最適な(x1、x2、・・・、xN)を求める。すなわち、まず、同期情報解析部713は、n=1において、k1が0からKまでのそれぞれの場合について(19)式よりf1(k1)を計算して、以下の表1の2列目に値を格納する。この場合、x1=k1の条件が成立しているため1列目と3列目の値が同じとなる。
【表1】
Figure 0004088131
【0145】
つぎに、同期情報解析部713は、(20)式とf1(k1)の値より、f2(k2)を計算する。すなわち、n=2のとき(20)式より、f2(k2)は、つぎの(21)式で表される。
【数21】
Figure 0004088131
【0146】
つぎに、同期情報解析部713は、k2 が0からKまでのそれぞれの場合について、x2 を0からk2 まで変化させて、g2(k2−x2、x2)+f1(k2−x2)の値を計算し、最大のものをf2(k2)の値として以下の表2の2列目に格納する。なお、表2の3列目には、最大のf2(k2)となったときにx2 の値が格納される。
【表2】
Figure 0004088131
【0147】
同様にして、同期情報解析部713は、(20)式とf1-1(k1-1)の値より、fn(kn)を計算して、以下の表3に値を格納する。
【表3】
Figure 0004088131
【0148】
(18)式のfN(K)の値は、kN=Kとなる表3の右下の網掛け部分のfN(kN)となる。このfN(K)を導出するにあたり必要なxN も表3に格納されているため、同期情報解析部713は、その数値(網掛け部分のxN)をxNの値として確定する。
【0149】
つぎに、同期情報解析部713は、kN=kN-1+xN の関係があるためkN-1=kN−xN となるkN-1のfN-1(kN-1)を表3から探し出し、xN-1 の値を確定する。同様に、xN-1 の値が表3とxn の確定値から特定されるため、n=1までxn の値が確定される。この確定値(x1、x2、・・・、xN)は、(18)式のfN(K)を満たす解とされる。
【0150】
図21に示したステップSD9では、同期情報解析部713は、連続音声区間情報vk に対応する連続音声区間の配分(x1、x2、・・・、xN)を元に、文書ブロックbn の表示開始時刻sn をつぎの(22)式および(23)式より求める。
【数22】
Figure 0004088131
【数23】
Figure 0004088131
【0151】
上記(23)式は、図20に示した先頭の文書ブロックb1 から文書ブロックbn までの間に含まれる連続音声区間情報の個数kn を表している。(22)式は、文書ブロックbn に対応する連続音声区間情報に含まれる開始時刻情報(図16参照)のうち、最も小さい(時間的に古い)開始時刻情報を当該文書ブロックbn の表示開始時刻sn として定義することを意味している。
【0152】
同期情報解析部713は、各文書ブロック(b1 〜bN )の表示開始時刻s1 〜sN の配列である表示開始時刻配列S(s1、s2、・・・、sN)を同期情報とする。
【0153】
ステップSD10では、同期コンテンツ情報生成部714は、同期情報解析部713からの表示開始時刻配列S(s1、s2、・・・、sN)、文書情報および音声・映像情報から、例えば、図18に示した同期コンテンツ情報731を生成し、同期コンテンツ情報データベース730に格納する。
【0154】
この同期コンテンツ情報731において、図19に示した「電子化文書の1ページ目データ begin=s1 」は、表示開始時刻配列Sに含まれる表示開始時刻s1 に対応している。従って、1ページ目(文書ブロックb1)の文書情報は、音声・映像情報の時間軸上の表示開始時刻s1 で表示が開始され、end=s2 に表示が終了する。
【0155】
そして、再生装置400から再生要求があると、制御部502は、同期コンテンツ情報データベース730から同期コンテンツ情報731(図18および図19参照)を読み出し、これを再生装置400へ送信する。
【0156】
これにより、再生装置400では、同期コンテンツ情報731に対応する再生画面フォーマット600に基づいて、音声・映像情報および文書情報が再生される。ここで、文書の各ページは、表示開始時刻配列Sに基づくタイミングで、映像に並行して順次表示される。
【0157】
以上説明したように、実施の形態2によれば、図20に示したように、文書が電子化された文書情報を複数の文書ブロック(b1 〜bN )に分割するとともに、文書を用いた発言機会の様子が録音・撮像された音声・映像情報に基づいて、音声情報を複数の連続音声区間(連続音声区間情報v1 〜vK )に分割した後、動的計画法により複数の連続音声区間を複数の文書ブロックに分配した結果に基づいて、音声・映像情報と時間的な同期がとられた状態で文書情報を表示させるための同期コンテンツ情報を生成することとしたので、プロジェクタ等の特別な機材を必要とすることなく同期コンテンツ情報を生成することができる。
【0158】
また、本発明によれば、各文書ブロックから抽出されたキーワードが文書ブロックに属する場合の確からしさを表すキーワード重み係数wn、θ を求め、連続音声区間毎にキーワードの発話頻度βkn、θ を求めた後、キーワード重み係数wn、θ および発話頻度βkn、θ から決定される評価関数E(x1、x2、・・・、xN )に基づいて、分配を行うこととしたので、プロジェクタ等の特別な機材を必要とすることなく同期コンテンツ情報を生成することができる。
【0159】
以上本発明にかかる実施の形態1および2について図面を参照して詳述してきたが、具体的な構成例はこれらの実施の形態1および2に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等があっても本発明に含まれる。
【0160】
例えば、前述した実施の形態1および2においては、同期コンテンツ情報生成装置500または700の機能を実現するためのプログラムを図22に示したコンピュータ読み取り可能な記録媒体1600に記録して、この記録媒体1600に記録されたプログラムを同図に示したコンピュータ1500に読み込ませ、実行することにより各機能を実現してもよい。以下、この場合を実施の形態1の変形例2および実施の形態2の変形例として説明する。
【0161】
同図に示したコンピュータ1500は、上記プログラムを実行するCPU(Central Processing Unit)1510と、キーボード、マウス等の入力装置1520と、各種データを記憶するROM(Read Only Memory)1530と、演算パラメータ等を記憶するRAM(Random Access Memory)1540と、記録媒体1600からプログラムを読み取る読取装置1550と、ディスプレイ、プリンタ等の出力装置1560と、装置各部を接続するバス1570とから構成されている。
【0162】
CPU1510は、読取装置1550を経由して記録媒体1600に記録されているプログラムを読み込んだ後、プログラムを実行することにより、前述した機能を実現する。なお、記録媒体1600としては、光ディスク、フレキシブルディスク、ハードディスク等が挙げられる。
【0163】
また、実施の形態1および2では、会議への適用を一例にとって説明したが、これに限られるものではなく、他分野においても適用可能である。例えば、教育分野の場合には、講師の授業内容を音声・映像情報として蓄積しておき、関連資料と同期させた同期コンテンツ情報を自動生成し、後日、オンライン接続された生徒用コンピュータ装置に、復習用教材として上記コンテンツ情報を用いることで、教育上の高い効果が期待される。
【0164】
(付記1)コンピュータを、
文書が電子化された文書情報から特徴的なキーワードを抽出するキーワード抽出手段、
前記文書を用いた発言機会の様子が録音・撮像された音声・映像情報に基づいて、抽出された前記キーワードが出現した時刻順の出現キーワード分布を計測する出現キーワード分布計測手段、
前記出現キーワード分布に基づいて、前記音声・映像情報と時間的な同期がとられた状態で前記文書情報を表示させるための同期コンテンツ情報を生成する同期コンテンツ情報生成手段、
として機能させるための同期コンテンツ情報生成プログラム。
【0165】
(付記2)前記同期コンテンツ情報生成手段は、前記音声・映像情報に対応するキーワードの出現分布と、前記出現キーワード分布とが一致した場合に最大値をとる評価関数に基づいて、前記音声・映像情報と前記文書情報との同期をとることを特徴とする付記1に記載の同期コンテンツ情報生成プログラム。
【0166】
この付記2に記載の発明によれば、音声・映像情報に対応するキーワードの出現分布と、出現キーワード分布とが一致した場合に最大値をとる評価関数に基づいて、音声・映像情報と文書情報との同期をとることとしたので、プロジェクタ等の特別な機材を必要とすることなく同期コンテンツ情報を生成することができるという効果を奏する。
【0167】
(付記3)前記同期コンテンツ情報生成手段は、前記文書情報に含まれるキーワード種別情報に基づいて、前記音声・映像情報と前記文書情報との同期をとることを特徴とする付記1に記載の同期コンテンツ情報生成プログラム。
【0168】
この付記3に記載の発明によれば、文書情報に含まれるキーワード種別情報に基づいて、音声・映像情報と文書情報との同期をとることとしたので、キーワード種別(例えば、タイトル、強調文字等)に応じた同期をとることができるという効果を奏する。
【0169】
(付記4)文書が電子化された文書情報から特徴的なキーワードを抽出するキーワード抽出手段と、
前記文書を用いた発言機会の様子が録音・撮像された音声・映像情報に基づいて、抽出された前記キーワードが出現した時刻順の出現キーワード分布を計測する出現キーワード分布計測手段と、
前記出現キーワード分布に基づいて、前記音声・映像情報と時間的な同期がとられた状態で前記文書情報を表示させるための同期コンテンツ情報を生成する同期コンテンツ情報生成手段と、
を備えたことを特徴とする同期コンテンツ情報生成装置。
【0170】
(付記5)前記同期コンテンツ情報生成手段は、前記音声・映像情報に対応するキーワードの出現分布と、前記出現キーワード分布とが一致した場合に最大値をとる評価関数に基づいて、前記音声・映像情報と前記文書情報との同期をとることを特徴とする付記4に記載の同期コンテンツ情報生成装置。
【0171】
(付記6)前記同期コンテンツ情報生成手段は、前記文書情報に含まれるキーワード種別情報に基づいて、前記音声・映像情報と前記文書情報との同期をとることを特徴とする付記4に記載の同期コンテンツ情報生成装置。
【0172】
(付記7)文書が電子化された文書情報から特徴的なキーワードを抽出するキーワード抽出工程と、
前記文書を用いた発言機会の様子が録音・撮像された音声・映像情報に基づいて、抽出された前記キーワードが出現した時刻順の出現キーワード分布を計測する出現キーワード分布計測工程と、
前記出現キーワード分布に基づいて、前記音声・映像情報と時間的な同期がとられた状態で前記文書情報を表示させるための同期コンテンツ情報を生成する同期コンテンツ情報生成工程と、
を含むことを特徴とする同期コンテンツ情報生成方法。
【0173】
(付記8)前記同期コンテンツ情報生成工程では、前記音声・映像情報に対応するキーワードの出現分布と、前記出現キーワード分布とが一致した場合に最大値をとる評価関数に基づいて、前記音声・映像情報と前記文書情報との同期をとることを特徴とする付記7に記載の同期コンテンツ情報生成方法。
【0174】
(付記9)前記同期コンテンツ情報生成工程では、前記文書情報に含まれるキーワード種別情報に基づいて、前記音声・映像情報と前記文書情報との同期をとることを特徴とする付記7に記載の同期コンテンツ情報生成方法。
【0175】
(付記10)コンピュータを、
文書が電子化された文書情報を複数の文書ブロックに分割する文書ブロック分割手段、
前記文書を用いた発言機会の様子が録音・撮像された音声・映像情報に基づいて、音声情報を複数の連続音声区間に分割する音声分割手段、
前記複数の連続音声区間を前記複数の文書ブロックに分配する分配手段、
前記分配の結果に基づいて、前記音声・映像情報と時間的な同期がとられた状態で前記文書情報を表示させるための同期コンテンツ情報を生成する同期コンテンツ情報生成手段、
として機能させるための同期コンテンツ情報生成プログラム。
【0176】
(付記11)前記文書ブロック分割手段は、各文書ブロックからキーワードを抽出し、キーワードが文書ブロックに属する場合の確からしさを表すキーワード重み係数を求め、前記音声分割手段は、前記連続音声区間毎に前記キーワードの発話頻度を求め、前記分配手段は、前記キーワード重み係数および前記発話頻度から決定される評価関数に基づいて、前記分配を行うことを特徴とする付記10に記載の同期コンテンツ情報生成プログラム。
【0177】
(付記12)前記文書ブロック分割手段は、前記文書ブロックにキーワードが出現する頻度を求め、該頻度および前後の文書ブロックにおける頻度に基づいて、前記キーワード重み係数を求めることを特徴とする付記11に記載の同期コンテンツ情報生成プログラム。
【0178】
(付記13)前記分配手段は、動的計画法を用いて前記分配を行うことを特徴とする付記10〜12のいずれか一つに記載の同期コンテンツ情報生成プログラム。
【0179】
(付記14)文書が電子化された文書情報を複数の文書ブロックに分割する文書ブロック分割手段と、
前記文書を用いた発言機会の様子が録音・撮像された音声・映像情報に基づいて、音声情報を複数の連続音声区間に分割する音声分割手段と、
前記複数の連続音声区間を前記複数の文書ブロックに分配する分配手段と、
前記分配の結果に基づいて、前記音声・映像情報と時間的な同期がとられた状態で前記文書情報を表示させるための同期コンテンツ情報を生成する同期コンテンツ情報生成手段と、
を備えたことを特徴とする同期コンテンツ情報生成装置。
【0180】
(付記15)前記文書ブロック分割手段は、各文書ブロックからキーワードを抽出し、キーワードが文書ブロックに属する場合の確からしさを表すキーワード重み係数を求め、前記音声分割手段は、前記連続音声区間毎に前記キーワードの発話頻度を求め、前記分配手段は、前記キーワード重み係数および前記発話頻度から決定される評価関数に基づいて、前記分配を行うことを特徴とする付記14に記載の同期コンテンツ情報生成装置。
【0181】
(付記16)前記文書ブロック分割手段は、前記文書ブロックにキーワードが出現する頻度を求め、該頻度および前後の文書ブロックにおける頻度に基づいて、前記キーワード重み係数を求めることを特徴とする付記15に記載の同期コンテンツ情報生成装置。
【0182】
(付記17)前記分配手段は、動的計画法を用いて前記分配を行うことを特徴とする付記14〜16のいずれか一つに記載の同期コンテンツ情報生成装置。
【0183】
(付記18)文書が電子化された文書情報を複数の文書ブロックに分割する文書ブロック分割工程と、
前記文書を用いた発言機会の様子が録音・撮像された音声・映像情報に基づいて、音声情報を複数の連続音声区間に分割する音声分割工程と、
前記複数の連続音声区間を前記複数の文書ブロックに分配する分配工程と、
前記分配の結果に基づいて、前記音声・映像情報と時間的な同期がとられた状態で前記文書情報を表示させるための同期コンテンツ情報を生成する同期コンテンツ情報生成工程と、
を含むことを特徴とする同期コンテンツ情報生成方法。
【0184】
(付記19)前記文書ブロック分割工程では、各文書ブロックからキーワードを抽出し、キーワードが文書ブロックに属する場合の確からしさを表すキーワード重み係数を求め、前記音声分割工程では、前記連続音声区間毎に前記キーワードの発話頻度を求め、前記分配工程では、前記キーワード重み係数および前記発話頻度から決定される評価関数に基づいて、前記分配を行うことを特徴とする付記18に記載の同期コンテンツ情報生成方法。
【0185】
(付記20)前記文書ブロック分割工程では、前記文書ブロックにキーワードが出現する頻度を求め、該頻度および前後の文書ブロックにおける頻度に基づいて、前記キーワード重み係数を求めることを特徴とする付記19に記載の同期コンテンツ情報生成方法。
【0186】
(付記21)前記分配工程では、動的計画法を用いて前記分配を行うことを特徴とする付記18〜20のいずれか一つに記載の同期コンテンツ情報生成方法。
【0187】
【発明の効果】
以上説明したように、本発明によれば、文書を用いた発言機会の様子が録音・撮像された音声・映像情報に基づいて、抽出されたキーワードが出現した時刻順の出現キーワード分布を計測し、音声・映像情報と時間的な同期がとられた状態で文書情報を表示させるための同期コンテンツ情報を生成することとしたので、プロジェクタ等の特別な機材を必要とすることなく同期コンテンツ情報を生成することができるという効果を奏する。
【0188】
また、本発明によれば、文書が電子化された文書情報を複数の文書ブロックに分割するとともに、文書を用いた発言機会の様子が録音・撮像された音声・映像情報に基づいて、音声情報を複数の連続音声区間に分割した後、複数の連続音声区間を複数の文書ブロックに分配した結果に基づいて、音声・映像情報と時間的な同期がとられた状態で文書情報を表示させるための同期コンテンツ情報を生成することとしたので、プロジェクタ等の特別な機材を必要とすることなく同期コンテンツ情報を生成することができるという効果を奏する。
【図面の簡単な説明】
【図1】本発明にかかる実施の形態1の構成を示すブロック図である。
【図2】図1に示した文書情報データベース520に格納される文書情報521の構造を示す図である。
【図3】図1に示した音声・映像情報データベース530に格納される音声・映像情報531の構造を示す図である。
【図4】図1に示した同期コンテンツ情報データベース540に格納される同期コンテンツ情報541の構造を示す図である。
【図5】図4に示した同期コンテンツ情報541の具体例を示す図である。
【図6】図4に示した同期コンテンツ情報541に対応する再生画面フォーマット600を示す図である。
【図7】同実施の形態1の動作を説明するフローチャートである。
【図8】図7に示した初期化処理を説明するフローチャートである。
【図9】同実施の形態1の動作を説明する図である。
【図10】同実施の形態1の動作を説明する図である。
【図11】同実施の形態1の変形例1の動作を説明する図である。
【図12】同実施の形態1の変形例1の動作を説明するフローチャートである。
【図13】同実施の形態1の変形例1の動作を説明する図である。
【図14】同実施の形態1の変形例1に適用されるルールを説明する図である。
【図15】本発明にかかる実施の形態2の構成を示すブロック図である。
【図16】図15に示した連続音声区間情報データベース720に格納される連続音声区間情報721の構造を示す図である。
【図17】図15に示した音声解析部712における連続音声区間情報の生成原理を説明する図である。
【図18】図15に示した同期コンテンツ情報データベース730に格納される同期コンテンツ情報731の構造を示す図である。
【図19】図18に示した同期コンテンツ情報731の具体例を示す図である。
【図20】同実施の形態2の動作を説明する図である。
【図21】同実施の形態2の動作を説明するフローチャートである。
【図22】同実施の形態1の変形例2および実施の形態2の変形例の構成を示すブロック図である。
【図23】従来の同期コンテンツ情報生成システムの構成を示すブロック図である。
【符号の説明】
100 ビデオカメラ装置
300 文書作成装置
400 再生装置
500 同期コンテンツ情報生成装置
502 制御部
503 同期情報生成部
504 キーワード抽出部
505 形態素解析部
506 統計量解析部
507 重み算出部
508 音声解析部
509 同期情報解析部
700 同期コンテンツ情報生成装置
710 同期情報生成部
711 キーワード抽出部
712 音声解析部
713 同期情報解析部
714 同期コンテンツ情報生成部
715 同期コンテンツ情報編集部

Claims (5)

  1. コンピュータを、
    文書が電子化された文書情報から特徴的なキーワードを抽出するキーワード抽出手段、
    前記文書を用いた発言機会の様子が録音・撮像された音声・映像情報に基づいて、抽出された前記キーワードが出現した時刻順の出現キーワード分布を計測する出現キーワード分布計測手段、
    前記出現キーワード分布に基づいて、前記音声・映像情報と時間的な同期がとられた状態で前記文書情報を表示させるための同期コンテンツ情報を生成する同期コンテンツ情報生成手段、
    として機能させるための同期コンテンツ情報生成プログラム。
  2. 文書が電子化された文書情報から特徴的なキーワードを抽出するキーワード抽出手段と、
    前記文書を用いた発言機会の様子が録音・撮像された音声・映像情報に基づいて、抽出された前記キーワードが出現した時刻順の出現キーワード分布を計測する出現キーワード分布計測手段と、
    前記出現キーワード分布に基づいて、前記音声・映像情報と時間的な同期がとられた状態で前記文書情報を表示させるための同期コンテンツ情報を生成する同期コンテンツ情報生成手段と、
    を備えたことを特徴とする同期コンテンツ情報生成装置。
  3. 文書が電子化された文書情報から特徴的なキーワードを抽出するキーワード抽出工程と、
    前記文書を用いた発言機会の様子が録音・撮像された音声・映像情報に基づいて、抽出された前記キーワードが出現した時刻順の出現キーワード分布を計測する出現キーワード分布計測工程と、
    前記出現キーワード分布に基づいて、前記音声・映像情報と時間的な同期がとられた状態で前記文書情報を表示させるための同期コンテンツ情報を生成する同期コンテンツ情報生成工程と、
    を含むことを特徴とする同期コンテンツ情報生成方法。
  4. コンピュータを、
    文書が電子化された文書情報を複数の文書ブロックに分割する文書ブロック分割手段、
    前記文書を用いた発言機会の様子が録音・撮像された音声・映像情報に基づいて、音声情報を複数の連続音声区間に分割する音声分割手段、
    前記複数の連続音声区間を前記複数の文書ブロックに分配する分配手段、
    前記分配の結果に基づいて、前記音声・映像情報と時間的な同期がとられた状態で前記文書情報を表示させるための同期コンテンツ情報を生成する同期コンテンツ情報生成手段、
    として機能させるための同期コンテンツ情報生成プログラム。
  5. 文書が電子化された文書情報を複数の文書ブロックに分割する文書ブロック分割手段と、
    前記文書を用いた発言機会の様子が録音・撮像された音声・映像情報に基づいて、音声情報を複数の連続音声区間に分割する音声分割手段と、
    前記複数の連続音声区間を前記複数の文書ブロックに分配する分配手段と、
    前記分配の結果に基づいて、前記音声・映像情報と時間的な同期がとられた状態で前記文書情報を表示させるための同期コンテンツ情報を生成する同期コンテンツ情報生成手段と、
    を備えたことを特徴とする同期コンテンツ情報生成装置。
JP2002295438A 2002-03-28 2002-10-08 同期コンテンツ情報生成プログラム、同期コンテンツ情報生成装置および同期コンテンツ情報生成方法 Expired - Fee Related JP4088131B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002295438A JP4088131B2 (ja) 2002-03-28 2002-10-08 同期コンテンツ情報生成プログラム、同期コンテンツ情報生成装置および同期コンテンツ情報生成方法
US10/331,504 US7516415B2 (en) 2002-03-28 2002-12-31 Apparatus for and method of generating synchronized contents information, and computer product

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002093166 2002-03-28
JP2002295438A JP4088131B2 (ja) 2002-03-28 2002-10-08 同期コンテンツ情報生成プログラム、同期コンテンツ情報生成装置および同期コンテンツ情報生成方法

Publications (2)

Publication Number Publication Date
JP2004007358A JP2004007358A (ja) 2004-01-08
JP4088131B2 true JP4088131B2 (ja) 2008-05-21

Family

ID=28456328

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002295438A Expired - Fee Related JP4088131B2 (ja) 2002-03-28 2002-10-08 同期コンテンツ情報生成プログラム、同期コンテンツ情報生成装置および同期コンテンツ情報生成方法

Country Status (2)

Country Link
US (1) US7516415B2 (ja)
JP (1) JP4088131B2 (ja)

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7966234B1 (en) 1999-05-17 2011-06-21 Jpmorgan Chase Bank. N.A. Structured finance performance analytics system
US7249095B2 (en) 2000-06-07 2007-07-24 The Chase Manhattan Bank, N.A. System and method for executing deposit transactions over the internet
US7313541B2 (en) 2000-11-03 2007-12-25 Jpmorgan Chase Bank, N.A. System and method for estimating conduit liquidity requirements in asset backed commercial paper
US8122466B2 (en) 2001-11-20 2012-02-21 Portulim Foundation Llc System and method for updating digital media content
US8909729B2 (en) 2001-11-20 2014-12-09 Portulim Foundation Llc System and method for sharing digital media content
US7503059B1 (en) 2001-12-28 2009-03-10 Rothschild Trust Holdings, Llc Method of enhancing media content and a media enhancement system
US8504652B2 (en) 2006-04-10 2013-08-06 Portulim Foundation Llc Method and system for selectively supplying media content to a user and media storage device for use therein
US7711774B1 (en) 2001-11-20 2010-05-04 Reagan Inventions Llc Interactive, multi-user media delivery system
US8224723B2 (en) 2002-05-31 2012-07-17 Jpmorgan Chase Bank, N.A. Account opening system, method and computer program product
US7770184B2 (en) 2003-06-06 2010-08-03 Jp Morgan Chase Bank Integrated trading platform architecture
US7970688B2 (en) 2003-07-29 2011-06-28 Jp Morgan Chase Bank Method for pricing a trade
JP4127668B2 (ja) * 2003-08-15 2008-07-30 株式会社東芝 情報処理装置、情報処理方法、およびプログラム
US8065616B2 (en) * 2003-10-27 2011-11-22 Nokia Corporation Multimedia presentation editor for a small-display communication terminal or computing device
WO2005069171A1 (ja) * 2004-01-14 2005-07-28 Nec Corporation 文書対応付け装置、および文書対応付け方法
JP2005227144A (ja) * 2004-02-13 2005-08-25 Shimadzu Corp 分析機器用コントローラ
US8423447B2 (en) 2004-03-31 2013-04-16 Jp Morgan Chase Bank System and method for allocating nominal and cash amounts to trades in a netted trade
US7693770B2 (en) 2004-08-06 2010-04-06 Jp Morgan Chase & Co. Method and system for creating and marketing employee stock option mirror image warrants
US8688569B1 (en) 2005-03-23 2014-04-01 Jpmorgan Chase Bank, N.A. System and method for post closing and custody services
JP2006311462A (ja) * 2005-05-02 2006-11-09 Toshiba Corp コンテンツ検索装置及びその方法
US7822682B2 (en) 2005-06-08 2010-10-26 Jpmorgan Chase Bank, N.A. System and method for enhancing supply chain transactions
US8977636B2 (en) * 2005-08-19 2015-03-10 International Business Machines Corporation Synthesizing aggregate data of disparate data types into data of a uniform data type
US7567928B1 (en) 2005-09-12 2009-07-28 Jpmorgan Chase Bank, N.A. Total fair value swap
US8266220B2 (en) * 2005-09-14 2012-09-11 International Business Machines Corporation Email management and rendering
US20070074116A1 (en) * 2005-09-29 2007-03-29 Teleios, Inc. Multi-pane navigation/synchronization in a multimedia presentation system
US7818238B1 (en) 2005-10-11 2010-10-19 Jpmorgan Chase Bank, N.A. Upside forward with early funding provision
US8694319B2 (en) 2005-11-03 2014-04-08 International Business Machines Corporation Dynamic prosody adjustment for voice-rendering synthesized data
JP4764148B2 (ja) * 2005-11-25 2011-08-31 富士通株式会社 同期電子コンテンツ管理プログラム、同期電子コンテンツ管理装置及び同期電子コンテンツ管理方法
US8271107B2 (en) 2006-01-13 2012-09-18 International Business Machines Corporation Controlling audio operation for data management and data rendering
US8280794B1 (en) 2006-02-03 2012-10-02 Jpmorgan Chase Bank, National Association Price earnings derivative financial product
US9135339B2 (en) 2006-02-13 2015-09-15 International Business Machines Corporation Invoking an audio hyperlink
US7505978B2 (en) 2006-02-13 2009-03-17 International Business Machines Corporation Aggregating content of disparate data types from disparate data sources for single point access
US7996754B2 (en) 2006-02-13 2011-08-09 International Business Machines Corporation Consolidated content management
US9361299B2 (en) 2006-03-09 2016-06-07 International Business Machines Corporation RSS content administration for rendering RSS content on a digital audio player
US8510277B2 (en) * 2006-03-09 2013-08-13 International Business Machines Corporation Informing a user of a content management directive associated with a rating
US8849895B2 (en) 2006-03-09 2014-09-30 International Business Machines Corporation Associating user selected content management directives with user selected ratings
US9092542B2 (en) * 2006-03-09 2015-07-28 International Business Machines Corporation Podcasting content associated with a user account
US7620578B1 (en) 2006-05-01 2009-11-17 Jpmorgan Chase Bank, N.A. Volatility derivative financial product
US7647268B1 (en) 2006-05-04 2010-01-12 Jpmorgan Chase Bank, N.A. System and method for implementing a recurrent bidding process
US8286229B2 (en) 2006-05-24 2012-10-09 International Business Machines Corporation Token-based content subscription
US20070277088A1 (en) * 2006-05-24 2007-11-29 Bodin William K Enhancing an existing web page
JP4724051B2 (ja) * 2006-06-12 2011-07-13 日本電信電話株式会社 キーワード生成方法、文書検索方法、話題範囲推定方法、話題境界推定方法、及びこれらの装置とそのプログラム、その記録媒体
US9811868B1 (en) 2006-08-29 2017-11-07 Jpmorgan Chase Bank, N.A. Systems and methods for integrating a deal process
JP4807189B2 (ja) * 2006-08-31 2011-11-02 富士ゼロックス株式会社 情報処理装置及びプログラム
US9196241B2 (en) 2006-09-29 2015-11-24 International Business Machines Corporation Asynchronous communications using messages recorded on handheld devices
US7827096B1 (en) 2006-11-03 2010-11-02 Jp Morgan Chase Bank, N.A. Special maturity ASR recalculated timing
US8219402B2 (en) 2007-01-03 2012-07-10 International Business Machines Corporation Asynchronous receipt of information from a user
US9318100B2 (en) * 2007-01-03 2016-04-19 International Business Machines Corporation Supplementing audio recorded in a media file
US8738514B2 (en) 2010-02-18 2014-05-27 Jpmorgan Chase Bank, N.A. System and method for providing borrow coverage services to short sell securities
US8352354B2 (en) 2010-02-23 2013-01-08 Jpmorgan Chase Bank, N.A. System and method for optimizing order execution
JP5910222B2 (ja) * 2012-03-23 2016-04-27 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
CN103544140A (zh) * 2012-07-12 2014-01-29 国际商业机器公司 一种数据处理方法、展示方法和相应的装置
US9363214B2 (en) * 2012-11-29 2016-06-07 Ricoh Company, Ltd. Network appliance architecture for unified communication services
JP6432405B2 (ja) 2015-03-18 2018-12-05 富士通株式会社 プレゼンテーション支援装置、プレゼンテーション支援方法及びプレゼンテーション支援プログラム
JP6524242B2 (ja) * 2015-08-31 2019-06-05 株式会社東芝 音声認識結果表示装置、音声認識結果表示方法、音声認識結果表示プログラム
WO2018078463A1 (en) * 2016-10-24 2018-05-03 Sony Mobile Communications Inc Methods, computer program products and devices for automatically synchronizing an audio track with a plurality of pages
US11201906B2 (en) * 2017-08-29 2021-12-14 International Business Machines Corporation Providing instructions during remote viewing of a user interface

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4729199A (en) * 1986-05-08 1988-03-08 Oller Frank G Snow slide kit
JPH05347666A (ja) * 1992-06-15 1993-12-27 Omron Corp 電子会議システム
JP2924717B2 (ja) * 1995-06-12 1999-07-26 日本電気株式会社 プレゼンテーション装置
JP3637937B2 (ja) * 1996-08-12 2005-04-13 富士ゼロックス株式会社 情報再生装置および情報再生方法
US6100881A (en) * 1997-10-22 2000-08-08 Gibbons; Hugh Apparatus and method for creating interactive multimedia presentation using a shoot lost to keep track of audio objects of a character
JPH11259269A (ja) * 1998-03-13 1999-09-24 Omron Corp 情報処理装置および方法、並びに記録媒体
JP3836261B2 (ja) * 1998-08-10 2006-10-25 株式会社リコー ファイルシステム
US6970602B1 (en) * 1998-10-06 2005-11-29 International Business Machines Corporation Method and apparatus for transcoding multimedia using content analysis
US6636238B1 (en) * 1999-04-20 2003-10-21 International Business Machines Corporation System and method for linking an audio stream with accompanying text material
US6597859B1 (en) * 1999-12-16 2003-07-22 Intel Corporation Method and apparatus for abstracting video data
US6516312B1 (en) * 2000-04-04 2003-02-04 International Business Machine Corporation System and method for dynamically associating keywords with domain-specific search engine queries
AU2001261506A1 (en) * 2000-05-11 2001-11-20 University Of Southern California Discourse parsing and summarization
US6829668B2 (en) * 2000-12-28 2004-12-07 Intel Corporation System for finding data related to an example datum on two electronic devices
US20020169872A1 (en) * 2001-05-14 2002-11-14 Hiroshi Nomiyama Method for arranging information, information processing apparatus, storage media and program tranmission apparatus

Also Published As

Publication number Publication date
US7516415B2 (en) 2009-04-07
US20030188255A1 (en) 2003-10-02
JP2004007358A (ja) 2004-01-08

Similar Documents

Publication Publication Date Title
JP4088131B2 (ja) 同期コンテンツ情報生成プログラム、同期コンテンツ情報生成装置および同期コンテンツ情報生成方法
US10614829B2 (en) Method and apparatus to determine and use audience affinity and aptitude
US7263659B2 (en) Paper-based interface for multimedia information
US7979786B1 (en) Techniques for retrieving multimedia information using a paper-based interface
US7263671B2 (en) Techniques for annotating multimedia information
US7747655B2 (en) Printable representations for time-based media
US7043433B2 (en) Method and apparatus to determine and use audience affinity and aptitude
US6816858B1 (en) System, method and apparatus providing collateral information for a video/audio stream
US8719029B2 (en) File format, server, viewer device for digital comic, digital comic generation device
US7266782B2 (en) Techniques for generating a coversheet for a paper-based interface for multimedia information
US8539344B2 (en) Paper-based interface for multimedia information stored by multiple multimedia documents
US7743347B2 (en) Paper-based interface for specifying ranges
JP2005293589A (ja) 複合的な電子表現物を作成する方法、コンピュータプログラム及びデータ処理システム
JPWO2005069171A1 (ja) 文書対応付け装置、および文書対応付け方法
CN110781328A (zh) 基于语音识别的视频生成方法、***、装置和存储介质
CN112382295A (zh) 语音识别方法、装置、设备及可读存储介质
JP2003085207A (ja) 映像情報レコメンドシステム、方法及び装置、並びに、映像情報レコメンドプログラム及びプログラムの記録媒体
JP6603929B1 (ja) 動画編集サーバおよびプログラム
KR20200072616A (ko) 동영상 실시간 텍스트 추적 및 번역을 위한 시스템 및 방법
US20140297678A1 (en) Method for searching and sorting digital data
JP3622711B2 (ja) 映像コンテンツ視聴者情報提供システム及び方法と、視聴者情報提供装置、プログラム及びプログラムの記録媒体
KR20210136609A (ko) 영상 뉴스 콘텐츠 생성 장치 및 방법
JP2007293602A (ja) 映像検索システム、映像検索方法およびプログラム
JP2006195900A (ja) マルチメディアコンテンツ生成装置及び方法
Eldhose et al. Alyce: An Artificial Intelligence Fine-Tuned Screenplay Writer

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080222

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110228

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees