JPH08123976A - アニメーション作成装置 - Google Patents

アニメーション作成装置

Info

Publication number
JPH08123976A
JPH08123976A JP26532394A JP26532394A JPH08123976A JP H08123976 A JPH08123976 A JP H08123976A JP 26532394 A JP26532394 A JP 26532394A JP 26532394 A JP26532394 A JP 26532394A JP H08123976 A JPH08123976 A JP H08123976A
Authority
JP
Japan
Prior art keywords
animation
information
foreground
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP26532394A
Other languages
English (en)
Inventor
Shusaku Okamoto
修作 岡本
Toshiyuki Maeda
利之 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP26532394A priority Critical patent/JPH08123976A/ja
Publication of JPH08123976A publication Critical patent/JPH08123976A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

(57)【要約】 【目的】 アニメーションの内容を記述したシナリオか
ら、アニメーションの編集に必要となる情報をある程度
自動で獲得することにより、アニメーションの編集の手
間を軽減させる。 【構成】 シナリオ解析辞書112 の知識を用いてシナリ
オ文の構造を解析するシナリオ解析部113 と、その解析
結果からアニメーション情報を抽出し、アニメーション
情報記憶部114 に記憶するアニメーション情報抽出部11
5 と、アニメーション情報記憶部114 に記憶されている
アニメーション情報に必要な編集、新情報の追加を行な
うアニメーション編集部120 と、記憶されているアニメ
ーション情報に基づき音声信号処理部110 を制御しつ
つ、音声情報を音声合成部109 へまた画像情報を画像表
示部108 へ送るアニメーション制御部121 とを具備す
る。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、コンピュータを用いて
アニメーションを作成する装置に関し、特にシナリオと
いう言葉で書かれた情報を入力とし、前記シナリオ情報
をもとに、アニメーションの作成作業の一部を自動化す
ることにより、効率良くアニメーションを作成できるア
ニメーション作成装置に関するものである。
【0002】
【従来の技術】アニメーションは、マルチメディアを駆
使したアプリケーションの一つとして古くから人々に親
しまれている。ところが、一コマ毎に少しずつ異なる絵
を描くという特殊な能力を必要とすること、大量のセル
画(1秒で16コマ程度)を描く必要があるため作成に
膨大な手間を要すること、のため、誰でも容易に作るこ
とができないことが問題であった。
【0003】しかしながら、近年、コンピュータの処理
能力の飛躍的な向上により、文字情報のみでなく、音
声、静止画、動画などのさまざまな情報メディアをコン
ピュータで扱うことが可能になってきた。これに伴い、
コンピュータを使ってアニメーションを作成する方法が
種々開発されており、代表的なものとしてセル画を単位
としたフィルムモデルに基づくアニメーション作成装置
がある。
【0004】フィルムモデルに基づくアニメーション作
成装置は、アニメーションを構成するフィルムの一コマ
毎に少しずつ異なる絵を描くという従来の机上で行なっ
ていたアニメーション作成の環境をコンピュータ上に実
現したものである。即ち、まずシナリオを書き、そのシ
ナリオを参照しながらアニメーションの内容を頭に思い
浮かべ、それを1コマずつコンピュータの画面に表示さ
れたセルに描き込んでゆくものである。
【0005】この方法は非常に単純であり、作成したセ
ル画をすぐにアニメーションとして再生しその内容を確
認できること、セル画の修正が描画ツールを用いること
で容易であること、特に連続するコマの間に新たにコマ
を挿入する場合、画像処理の技術を駆使することによ
り、挿入するコマの絵を半自動で生成することができる
ことなど、コンピュータの持つ能力を生かしてアニメー
ション作成を効率化することができる。かくのごとく、
従来開発されてきたフィルムモデルに基づいたアニメー
ション作成システムでは、アニメーションを構成する各
セルの描画の効率については、従来の手描きの場合と比
較すると向上した。
【0006】しかしながらアニメーション作成の手順
は、基本的に手描きの場合と同様にシナリオに基づいて
一コマずつ描いていくことに変わりはない。すなわち、
最初に言語で記述されたシナリオから、アニメーション
に必要となる登場人物の動画像や背景画像の描画、それ
らの画像のアニメーション上で登場させる順序の編集な
どをすべて人手によって行なわねばならない。またアニ
メーションに使用する、素材としての画像がデータベー
スに蓄えられている場合もあるが、その場合でも従来の
アニメーション作成システムは、前記画像を再利用する
際に、各々のデータに対応したファイル名によって元の
データを得る方法しか与えられておらず、データのファ
イル数が増加するに従って、所望のデータの検索にかか
る手間も増加するという問題が生じる。すなわち、従来
のシステムを用いて作成されたアニメーションの一部を
別のアニメーションの作成において再利用できるように
し、さらにアニメーション作成の効率化を図ることまで
は考慮されていない。
【0007】上記のフィルムモデルとは全く異なる観点
で開発された方法として、オブジェクトモデルに基づく
アニメーション作成装置がある。この方法は、アニメー
ションに登場する個々の登場物に知識を与え、この知識
を用いて登場物の振舞いを推論することで、アニメーシ
ョンを自動的に再生させようとするものである。具体的
には、登場物のそれぞれについて振舞い方を、それを決
めるいくつかのパラメータによって定義する。アニメー
ションの作成者は、登場物のそれぞれについてこれらの
パラメータに適当な初期値を設定する。パラメータが設
定されると、後は、各々の登場物が周囲の状況を認知
し、状況と自分自身に設定されたパラメータの値に応じ
て振舞い方を推論し、自動で振舞いを生成する。かくの
ごとく、この方法ではそれぞれの登場物の振舞い方を決
めるパラメータ設定だけでアニメーションが生成できる
という利点がある。
【0008】しかしながら、この方法でアニメーション
を作成する場合、前記パラメータをどのような値に設定
するかが問題となる。即ち、ある初期値を与えておい
て、あとは登場物が勝手に周りの状況を判断しつつ適当
に進行していくアニメーションを作るには、上記の方法
は適当であるが、すでにアニメーションのシナリオが確
定しており、それに基づいてアニメーションを作成する
場合、前記シナリオの内容に一致するように前記それぞ
れの登場物のパラメータの設定をすることが困難となる
ため、シナリオに基づいてアニメーションを作成する場
合には、本方法を適用することは適当でない。
【0009】尚、上記フィルムモデルに基づくアニメー
ション作成システムの従来の開発例として、マクロマイ
ンド(MacriMind)社の「マクロマインドディレクター
(MacriMind Director)」が、また、上記オブジェク
トモデルに基づくアニメーション作成方法として、例え
ば、文献[坂本、浜田、John Z.、''インタラクティブア
ニメーション記述言語とその処理系「AV-Script」''、
情報処理学会研究報告、92-IM-6, Vol.92、No.34、pp.2
5-32、1992年5月]に開示の方法がある。
【0010】
【発明が解決しようとする課題】シナリオの内容に沿っ
てアニメーションを作成する場合、前記作成作業のさら
なる効率化を図るためには、従来のシステムにおいて人
手で行なっていた作業の一部を自動化することが課題と
なる。具体的には、言語で記述されたシナリオからアニ
メーションのもとになる各セルの描画を、すべて人手に
よって行なうのではなく、自然言語で記述されたシナリ
オを自然言語処理技術を用いて解析し、前記解析結果を
参照して、アニメーションの背景などで用いられる静止
画及び登場人物などとして用いられる動画の検索、前記
検索された画像をアニメーション上で登場させる順番、
前記登場人物のセリフの抽出など自動化することで、ア
ニメーション作成作業の効率化を図ることが課題とな
る。
【0011】また、通常、アニメーションは登場人物の
動きを表す画像を背景画像に重ね合わせて作成するの
で、舞台背景としての背景画像、舞台の小道具として静
止した状態で使われる前景画像、動きを伴う登場人物画
像をデータ化し、ファイルとしてディスクに保存してお
き、前記ファイルを再利用することは有効である。従っ
て、データベースに前記ファイルを格納する際に格納ス
ペースの効率化を図ること、及びデータベースに格納さ
れた前記ファイルの検索を容易にすることが課題とな
る。
【0012】本発明は上記課題を解決するもので、アニ
メーションの内容を記述したシナリオから、アニメーシ
ョンの編集に必要となる情報をある程度自動で獲得する
ことにより、アニメーションの編集の手間を軽減させる
ようにするアニメーション作成装置を提供することを目
的とする。
【0013】
【課題を解決するための手段】本発明は上記目的を達成
するため、自然言語を解析するために必要な情報を記憶
する言語辞書と、前記言語辞書に記憶されている情報を
用いて自然言語を解析する自然言語処理部と、アニメー
ションに使用する画像を蓄積する画像データベースと、
アニメーションに使用する画像の画像データベースへの
登録及び画像データベースからの検索を行なう画像デー
タベース管理部と、前記画像データを表示する画像表示
部と、自然言語を入力し前記自然言語を音声信号に変換
する音声合成部と、音声信号に処理を施す音声信号処理
部と、シナリオ文を入力するシナリオ入力部と、シナリ
オ文の構造を解析するために必要な知識を記憶するシナ
リオ解析辞書と、前記シナリオ解析辞書に記憶されてい
る知識を用いてシナリオ文の構造を解析するシナリオ解
析部と、アニメーションの再生に必要な情報であるアニ
メーション情報を記憶するアニメーション情報記憶部
と、シナリオ文の構造の解析結果から前記アニメーショ
ン情報を抽出し、前記アニメーション情報記憶部に記憶
するアニメーション情報抽出部と、アニメーション情報
記憶部に記憶されているアニメーション情報に、必要で
あれば、編集を加えまた新たな情報の追加を行なうアニ
メーション編集部と、アニメーション情報記憶部に記憶
されているアニメーション情報に基づいて前記音声信号
処理部を制御しつつ、アニメーションの再生に必要な情
報として、音声情報を前記音声合成部へまた画像情報を
画像表示部へそれぞれ送るアニメーション制御部とから
なる構成を有する。
【0014】
【作用】アニメーションの作成者は、作成したいアニメ
ーションの内容を書いたシナリオをシナリオ入力部に入
力する。入力されたシナリオは、シナリオ解析部に送ら
れ、シナリオの構造が解析される。続いてアニメーショ
ン情報抽出部で、解析されたシナリオの構造からアニメ
ーションの再生に必要なアニメーション情報を抽出す
る。さらに、アニメーションの作成者は、前記抽出され
たアニメーション情報を参照しつつ、アニメーションの
再生に不足している情報を追加し、また、前記情報に変
更を加え、アニメーション情報を完成させる。
【0015】最後に、前記アニメーション情報をアニメ
ーション制御部に送り、アニメーション制御部で、アニ
メーション情報記憶部のアニメーション情報に基き、音
声信号処理部を制御しつつ、アニメーションを再生する
ために必要な情報として、音声情報を音声合成部へ、ま
た、画像情報を画像表示部へそれぞれ送る。音声合成部
では入力文字列を音声信号に変換し、さらに音声信号処
理部で前記音声信号に変換を施して音声出力部で前記変
換した音声を出力する。画像表示部では、再生速度に応
じて背景画像と前景画像を合成し出力する。
【0016】
【実施例】以下、本発明によるアニメーション作成装置
の一実施例を図面を用いて説明する。図1は、本発明の
一実施例におけるアニメーション作成装置の構成を示し
たブロック図である。
【0017】本実施例のアニメーション作成装置は、言
語辞書101、自然言語処理部102、画像データ記憶部10
3、アニメブラシデータ記憶部104、画像検索テーブル10
5 からなる画像データベース106、画像データベース管
理部107、画像表示部108 、音声合成部109、音声信号処
理部110、シナリオ入力部111と、シナリオ解析辞書11
2、シナリオ解析部113と、アニメーション情報記憶部11
4、アニメーション情報抽出部115、アニメーション編集
部120、アニメーション制御部121、画像入力部122、特
徴抽出部123、画像切り出し編集部124、音声出力部125
から構成される。
【0018】また図13に示してあるように、アニメー
ション編集部120 は、対象移動経路編集部116 、対象移
動距離演算部117 、対象移動速度編集部118 、対象移動
速度演算部119から構成される。
【0019】次に、アニメーション作成装置を構成する
上記各部での処理の内容について説明する。まず、アニ
メーション作成装置画像データベース106 は、画像デー
タ記憶部103、アニメブラシデータ記憶部104及び画像検
索テーブル105 から構成される。図2は画像データベー
ス106 の構成例を示したもので、図2(a)、図2(b)、図
2(d),(e)は、それぞれこの順序で、画像データ記憶部1
03に記憶されている画像データの内容を示した概念図、
アニメブラシデータ記憶部104 の記述例を示した図、画
像検索テーブル105 の記述例を示した図である。
【0020】以下、画像データベース106 の上記3つの
構成要素について説明する。画像データは、各画素の情
報を記述する画素データと、画像内容に関する情報とし
て対象属性とファイル名とを記述する属性情報とからな
るデータのことで、画像データ記憶部103 は画像データ
を記憶する。
【0021】例えば図2(a)の例では3つの画像データ
が示されているが、対象属性はいずれも「Parts」と、
また、ファイル名は左から順に「Kenchan-1.img, Kench
an-2.img, Kenchan-3.img」と記されている。前記の「P
arts」とは 該画像データが前景対象を表したものであ
ることを示しており、もし背景対象を表す画像データで
あれば、対象属性として「BackGround」などと記述して
前景対象と区別できるようにすればよい。前記前景対象
ならびに背景対象の意味については、後のアニメーショ
ン情報抽出部115 の説明において説明する。なお、前記
画像データの前記属性情報並びに画素データの記録方法
は公知の技術であるので、前記記録方法の説明について
は省略する。
【0022】ここでアニメブラシデータとは、アニメー
ションを構成する画像データの組を順序を付けて一つに
まとめたデータ、もしくは、アニメーションを構成する
画像データへのポインタの組を順序を付けて一つにまと
めたデータのことで、アニメブラシデータ記憶部104 で
は前記アニメブラシデータを記憶する。
【0023】例えば図2(b)の例では、図の第1番めの
カラムはアニメブラシデータの名前であり、第2番めの
カラムはアニメブラシデータを構成する一連の画像デー
タへのポインタである。これは、画像データ Kenchan-
1.img, Kenchan-2.img, Kenchan-3.img, Kenchan-2.img
をこの順序で表示することにより、対象「ネズミのけ
んちゃんが走る」様子をアニメ化することができる。図
2(c)にアニメブラシの内容を描写した概念図を示す。
【0024】なお、以下では、上記のアニメブラシデー
タと画像データとの両方を合わせて画像と呼ぶ。
【0025】画像検索テーブル105 は、検索用キーワー
ド、アニメブラシデータ名、画像データ名、のそれぞれ
の記述部からなる。例えば、図2(d)の例の1行目で
は、左のカラムから順に、「けんちゃん」「Kenchan-ru
n-1.mv,...」「Kenchan-1.img, Kenchan-2.img, Kencha
n-3.img, Kenchan-4.img,...」と記述されている。これ
は、検索用キーワード「けんちゃん」が付与されている
画像データとして、アニメブラシデータでは、Kenchan-
run-1.mvなどが、また、画像データでは、Kenchan-1.im
g, Kenchan-2.img, Kenchan-3.img, Kenchan-4.img な
どがあることを意味している。
【0026】また、画像検索テーブル105 では、「アニ
メブラシデータ記述部に記述されているアニメブラシデ
ータを構成する画像データについては、画像データ記述
部には記述しない」という規則に基づいて、図2(d)に
示した画像検索テーブル105に記述すべきデータの量を
減らすことが可能となる。
【0027】図2(e)に記述量を減らした画像検索テー
ブル105 の例を示す。図2(d)と図2(e)はいずれも画
像検索テーブル105 の例であるが、これらの相違点は画
像データ記憶部の記述内容である。即ち、両図の1行目
の画像データ記憶部を比較すると、図2(d)の場合「Ke
nchan-1.img, Kenchan-2.img, Kenchan-3.img, Kenchan
-4.img,...」、図2(e)の場合「Kenchan-4.img,... 」
と記述されており、図2(d)に比べて図2(e)は Kenc
han-1.img, Kenchan-2.img, Kenchan-3.img の3つの画
像データが省略されている。これは前記3つの画像デー
タが図2(e)のアニメブラシデータ Kenchan-run-1.mv
の画像データ記述部を参照することによって得られるか
らである。
【0028】画像データベース管理部107 は、アニメー
ション編集部120 からの画像の検索要求に応じてアニメ
ーション作成の際に必要な画像を検索し、検索結果をア
ニメーション編集部120 に送る処理を行なう。また、画
像切り出し編集部124 からデータ登録の依頼があった場
合には、前記データの登録処理を行なう。
【0029】以下で画像の検索及び登録の処理の流れ
を、それぞれ図3、図4を用いて説明する。
【0030】<1. 画像の検索>図3は、画像データベ
ース管理部107 で画像を検索する処理の流れを示すフロ
ーチャートである。
【0031】(301) 検索したい画像の内容を自然言語で
記述した問い合わせ文、前記画像の対象属性(すなわち
前景対象か背景対象か)、及び、前記画像の動作属性を
画像データベース管理部107 に入力する。但し、動作属
性とは、検索結果としてアニメブラシデータと画像デー
タのどちらを所望しているかを画像データベース管理部
107 に知らせるための属性値である。
【0032】(302) 前記入力問い合わせ文を自然言語処
理部102 に送り、前記入力文の形態素解析を行ない、前
記入力文を形態素に分割する。
【0033】(303) 前記分割された形態素のうち、画像
検索キーワードとなる形態素のみを抽出する。ある形態
素が画像検索キーワードとなるかどうかは、前記形態素
が、画像検索テーブル105 に検索用キーワードとして登
録されているかどうかを調べることによって判断でき
る。
【0034】(304) 前記キーワードに関連する画像を検
索する。キーワードを用いた画像検索方法に関しては、
例えば、文献 [柴田、井上、''画像データベース106 の
連想検索方式''、電子情報通信学会論文誌、Vol.J73-D-
II、No.4、pp.526-534、1990年4月]に開示の方法などを
利用すればよい。
【0035】(305,306) 検索の結果、前記入力問い合わ
せ文の内容を表した画像が画像データ記憶部103 に無い
場合は処理を終了する。検索画像がある場合は、前記検
索された画像のうち、前記入力された対象属性及び動作
属性と一致する画像のみを選択し、前記選択された画像
を本画像検索処理の結果とする。
【0036】<2. 画像の登録>図4は、画像データベ
ース管理部107 で画像を登録する処理の流れを示すフロ
ーチャートである。
【0037】(401) 登録画像、前記登録画像の内容を自
然言語で描写した文、前記画像の対象属性及び動作属性
を画像データベース管理部107 に入力する。
【0038】(402) 前記像の内容を自然言語で描写した
文を自然言語処理部102 に送り、前記文の形態素解析を
行ない、前記文を形態素に分割する。
【0039】(403) 前記分割された形態素のうち、画像
検索キーワードとなる形態素のみを抽出する。ある形態
素が画像検索キーワードとなるかどうかを調べる方法
は、前記画像の検索処理の流れの説明で述べた方法を使
えば良い。
【0040】(404) 入力動作属性がアニメブラシデータ
であるかどうかを調べる。そして、入力動作属性がアニ
メブラシデータなら、以下に示す(a)アニメブラシデ
ータ登録処理を行なう。また入力動作属性がアニメブラ
シデータでないなら、以下に示す(b)画像データ登録
処理を行なう。
【0041】(a) アニメブラシデータ登録処理 (405) アニメブラシを構成する一連の画像データについ
て、画像データ記憶部103 に登録されていない画像デー
タを、対象属性が前景対象の画像データとして登録す
る。
【0042】(406) 前記アニメブラシデータをアニメブ
ラシデータ記憶部104 に登録する。 (407) 前記403 の処理で抽出された各々のキーワードに
対して、前記キーワードと同一の検索キーワードを持つ
画像検索テーブル105 の画像検索データのアニメブラシ
データの記述部に前記アニメブラシデータを追加登録
し、アニメブラシデータ登録処理を終了する。
【0043】(b) 画像データ登録処理 (408) 入力対象属性が前景対象かどうかを調べる。
【0044】(409) もし入力対象属性が前景対象なら、
入力画像を前景対象として画像データ記憶部103 に登録
する。
【0045】(410) もし入力対象属性が背景対象なら、
入力画像を背景対象として画像データ記憶部103 に登録
する。
【0046】(411) 前記403 の処理で抽出された各々の
キーワードに対して、前記キーワードと同一の検索キー
ワードを持つ画像検索テーブル105 の画像検索データの
画像データの記述部に前記画像データを追加登録し、画
像データ登録処理を終了する。
【0047】以上、アニメブラシデータもしくは画像デ
ータの登録処理が完了すれば、画像データベース管理部
107 での画像の登録処理を終了する。
【0048】画像入力部122 は、アニメーションの各シ
ーンを構成する素材としての画像データが描かれた印刷
物(例えば漫画など)を読みとり、コンピュータで利用
可能なデータに変換するための前処理を行なうもので、
例えばスキャナー装置などが使用される。
【0049】画像切り出し編集部124は、画像画像入力
部122 で入力された画像からアニメーションの各シーン
を構成する素材としての画像データを切り出す処理を行
なう。また、切り出された画像データの複製を作成し、
前記複製画像データに修正を加え、アニメブラシデータ
を作成する作業も行なう。
【0050】特徴抽出部123は、画像切り出し編集部124
において切り出された各々の画像データ、アニメブラシ
データについて、例えば前記2種類のデータをそのまま
ではなく圧縮するなど、画像データベース106 に登録す
る際に前記2種類のデータについて特徴抽出の必要があ
れば、前記特徴抽出処理を実行する。
【0051】自然言語処理部102は、言語辞書101を用い
て自然言語文を解析する処理を行なう。特に本実施例で
は入力された自然言語文の解析結果として、アニメーシ
ョン情報抽出部115 において必要となる、入力自然言語
文において主体となる名詞、及び、入力自然言語文の発
声に要する時間、の2つの情報を抽出することを特徴と
しており、本実施例では前記の2つの情報の抽出の方法
を説明する。
【0052】<1. 入力自然言語文において主体となる
名詞の抽出>本実施例において入力自然言語文において
主体となる名詞とは、以下の2つの場合に当てはまる名
詞のことを指す。 ・入力自然言語文が名詞句である場合の、前記名詞句の
主辞 ・入力自然言語文が文である場合の、前記文の動作主体 主辞とは、名詞句において前記名詞句の意味の根幹をな
す名詞のことである。例えば「ネズミのけんちゃん」と
いう名詞句については、「ネズミの」という文節はあく
まで次の「けんちゃん」を特徴付けるための修飾語であ
るのに対し、名詞「けんちゃん」は前記名詞句の意味の
根幹をなすものであり、前記名詞「けんちゃん」が前記
名詞句の主辞となる。
【0053】また、動作主体とは、文における動作の主
体となる名詞のことである。例えば「ネズミのけんちゃ
んが踊っている」という文に対しては、「ネズミのけん
ちゃんが」が前記文の主部となり、前記主部の主体を表
す名詞句「ネズミのけんちゃん」の主辞「けんちゃん」
が動作主体となる。
【0054】図5は、前記主辞、動作主体の2つに対応
する名詞を抽出する処理の流れを示すフローチャートで
ある。
【0055】(501,502,503) 自然言語処理部102 に入力
された文は、まず形態素解析によって文を構成する最小
単位である形態素に分解し、続いて構文解析によって、
入力文字列の構文構造を解析する。これら前記の形態素
解析・構文解析及び前記解析において使用する言語辞書
の構成の技術については、文献[ 野村浩郷、''自然言語
処理の基礎技術''、電子情報通信学会、1988年 ]など
で、自然言語処理の分野における公知の技術として開示
されているため、説明を省略する。
【0056】(504,506) 入力文の構造の解析結果の構文
構造を言語辞書101 の文法規則と照らし合わせることに
より、前記構文構造が名詞句、主部と述部とからなる
文、もしくは前記以外のいずれであるかを判断する。
【0057】(505) 入力文が名詞句である場合、入力と
なる文を形態素に分解した時に、一番右端に位置する名
詞を前記名詞句の主辞として抽出する。
【0058】(507,508) 入力文が主部と述部とからなる
文である場合、まず前記主部を抽出する。続いて前記主
部を名詞句と前記名詞句に接続する格助詞とに分割し、
前記名詞句の主辞を前記文の動作主体として抽出する。
【0059】(509) 入力文が名詞句でも主部と述部とか
らなる文でもない場合、自然言語処理部102 を呼び出し
たモジュールに、入力文から主体となる名詞の抽出が出
来なかったことを知らせる。以上で自然言語処理部102
における、入力自然言語文において主体となる名詞の抽
出の処理を終了する。
【0060】なお、上記の名詞句からの主辞の抽出処理
の(505) において、「名詞句を形態素に分解した時に、
一番右端に位置する名詞を前記名詞句の主辞とする」と
あるが、この処理が正しく実行されるためには、最後の
単語が名詞で構成される句のみを名詞句として受理する
ように、言語辞書101 に記述しておけばよい。すなわ
ち、言語辞書101 に記述する構文解析用の文法規則を書
き換えることで、どのような名詞を主辞とみなすかとい
う要求に対応することが可能である。本例では日本語に
適用される規則であり、例えば英語の場合は、文法規則
の書換えのみでなく、上記の名詞句からの主辞の抽出処
理の(505) の内容も英語の文法に合わせて変更する必要
がある。
【0061】<2. 入力自然言語文の発声に要する時間
>入力自然言語文の発声に要する時間とは、入力自然言
語文を発声し始めてから発声し終るまでに要する時間の
ことを表す。図6は、入力自然言語文の発声に要する時
間を抽出する処理の流れを示すフローチャートである。
【0062】(601,602) 前記<1. > の処理と同様
に、自然言語処理部102 に入力された文は、まず形態素
解析によって入力文を構成する最小単位である形態素に
分解する。
【0063】(603) 入力文の発声に要する時間の総和 T
s を 0 にセットする。 (604) 分解された各形態素のそれぞれについて、前記形
態素の発声に要する時間を、言語辞書101 を調べること
により求め、上記 Ts に加える。
【0064】(605) Tsを入力文の発声に要する時間とし
て本処理を呼び出したモジュールに知らせ、自然言語処
理部102 における、入力自然言語文の発声に要する時間
の計算の処理を終了する。
【0065】なお、上記604 において、形態素の発声に
要する時間の抽出のための自然言語処理部102 及び言語
辞書101 の構成方法としては、例えば日本語を扱う場
合、言語辞書101 において、単語の見出しと前記単語の
発音を表す見出しの組として、図7(a) のごとく形態素
の見出しと前記形態素の仮名読みの見出しとの対応付け
を記述しておき、さらに、本発明による単語の発音を表
す見出しから前記単語の発音に要する時間を計算する手
段として、前記仮名読み見出しの文字列の長さを前記形
態素の発声に要する時間とする方法を用いれば良い。ま
た英語を扱う場合は、言語辞書101 において、単語の見
出しと前記単語の発音に要する時間との組として、図7
(b)のごとく、例えば単語の見出しと前記単語の発声に
要する時間との対応付けを記述しておけば良い。
【0066】シナリオ入力部111 は、所望のアニメーシ
ョンの内容を自然言語を用いて記述するものである。以
下では、アニメーションの内容を記述した文章をシナリ
オと呼ぶ。図8は、シナリオ入力部111 に入力するシナ
リオを日本語で記述した例を示した図である。以下では
このシナリオをシナリオ(1)と呼ぶ。シナリオ(1)の記述
内容については、シナリオ解析辞書112 、シナリオ解析
部113 の説明で詳しく述べる。
【0067】シナリオ解析辞書112 は、シナリオ入力部
111 で編集されたシナリオを解析するための知識を記述
するものである。図9は、前記知識をBNF記法に基づ
いて定義した例を示した図である。図9において _(ア
ンダーバー)と英文字からなる文字列を標識と呼び、特
に、$<>$で括られた標識を非終端記号、非終端記号以外
の標識を終端記号と呼ぶ。そして、各々の知識の表す意
味は 「『::=』の左側の標識は、『::=』の右側の標識
の列がその順に並んだものである」 ことを示してい
る。
【0068】例えば知識 G13の場合では、<speech>
は、<sentence>, [, <sentence>, ]が、この順に並んだ
部分である」ということを、また、知識G14の場合で
は、<speech> は、NARRATION_SPEECH, [, <sentence>,
]が、この順に並んだ部分である」ということを表して
いる。なお、知識G13における <sentence> は任意の
日本語文字列であることを、知識G13におけるNARRAT
ION_SPEECH はナレータのセリフを表す終端記号である
ことを、それぞれ表している。
【0069】シナリオ解析部113 では、シナリオ解析辞
書112を用いて、シナリオ入力部111で編集されたシナリ
オの構造を解析する。図9のシナリオ解析辞書112 を用
いると、例えば、シナリオ(1)の4行目の文 ネズミのけんちゃん [ネズミに効くのはネコいらずー] の解析には知識G13が適用され、この部分が <speech
> という非終端記号に対応する部分であることが解析さ
れる。続いて知識G8が適用され、 <speech> という非
終端記号が、 <scene_body> という非終端記号に対応す
る部分であることが解析される。
【0070】かくのごとくシナリオ解析辞書112を用い
て解析されたシナリオ(1)の解析結果は、次に説明する
アニメーション情報抽出部115 へ送られる。アニメーシ
ョン情報記憶部114 は、アニメーションを再生表示する
ための情報として背景情報及び前景情報を記憶する。
【0071】本実施例では、背景情報として背景対象
を、また前景情報として、前景対象、前記前景対象の主
体を表す前景主対象、前記前景対象のセリフ、前記セリ
フの発声時間、前記前景対象の登場時間、前記前景対象
の移動経路、前記前景対象の移動速度、前記前景対象の
声質の8組の情報を、アニメーションの再生に必要な情
報(以下では背景情報及び前景情報に含まれる個々の情
報をアニメーション情報と呼ぶ)として扱う。
【0072】以下に各々のアニメーション情報について
の意味を簡単に記す。 ・背景対象 シナリオ(1) の例での「縁側」のごとく、アニメーショ
ンにおいてシーンの舞台背景に用いられる対象のこと
を、本実施例では背景対象と呼ぶ。 ・前景対象 シナリオ(1) の例での「ネズミのけんちゃん」「女装し
たけんちゃん」のごとく、アニメーションにおいてシー
ンの舞台背景中に存在し、アニメーションのストーリー
の内容に応じて動きを伴ったりセリフを発声する対象の
ことを、本実施例では前景対象と呼ぶ。 ・前景主対象 前記前景対象における主辞もしくは動作主体のことを前
景主対象と呼ぶ。シナリオ(1) の例において、「ネズミ
のけんちゃん」「女装したけんちゃん」については、い
ずれも「けんちゃん」が前景主対象となる。 ・前景対象のセリフ、セリフの発声時間、前景対象の登
場時間 前記前景対象に対応する実体が、前記登場中に発声する
セリフの内容、前記セリフを発声する時間、及びアニメ
ーション中で登場する時間のことを表す。
【0073】なお、以下で対象という言葉を使用する場
合は、上記の背景対象と前景対象との両方を指すものと
する。
【0074】アニメーション情報抽出部115 では、シナ
リオ解析部113 によって解析された結果からアニメーシ
ョン情報を抽出し、前記抽出された情報をアニメーショ
ン情報記憶部114 に格納する。
【0075】アニメーション情報の抽出は、 ・シナリオ解析辞書112 で定義されている標識とアニメ
ーション情報との対応関係を利用する ・前記対応関係を用いて抽出されたアニメーション情報
を利用する の2つの場合のいずれかの方法で行なう。以下でそれぞ
れの方法を説明する。
【0076】<1. シナリオ解析辞書112 で定義されて
いる標識とアニメーション情報との対応関係を利用する
場合>この方法では、シナリオ解析辞書112 で定義され
ている標識とアニメーション情報との対応関係をあらか
じめ決めておき、前記対応関係を利用しアニメーション
情報を抽出する。以下、まず、前記対応関係について説
明し、続いて前記対応関係を用いたアニメーション情報
の抽出方法を説明する。
【0077】図10は、シナリオ解析辞書112 に記憶さ
れた、シナリオを解析するための知識における、終端記
号及び非終端記号と、アニメーション情報との対応関係
の一実施例を示した図である。本例において、知識G1
3では 『::=』の右側の1番目の標識 <sentence> がア
ニメーション情報の一つである「前景対象」と3番目の
標識 <sentence> がアニメーション情報の一つである
「前景対象のセリフ」と対応関係があることを示してい
る。即ち、シナリオ解析中で、知識G11に適合した文
がシナリオから抽出されると、前記知識G13の 『::
=』の右側の項の、1番目の標識 <sentence> に対応し
ている前記文中の文字列が、アニメーション情報 前景
対象 として3番目の標識 <sentence> に対応している
前記文中の文字列が、アニメーション情報 前景対象の
セリフ として抽出されることになる。
【0078】例えば、シナリオ(1)の4行目の文 ネズミのけんちゃん [ネズミに効くのはネコいらずー] の解析には、知識G13が適用され、続いて前記対応関
係に基づいて、1番目の標識 <sentence> に対応してい
る前記文中の文字列「ネズミのけんちゃん」が、アニメ
ーション情報 前景対象 として、3番目の標識 <senten
ce> に対応している前記文中の文字列「ネズミに効くの
はネコいらずー」が、アニメーション情報前景対象のセ
リフ として抽出される。
【0079】本実施例では、かくのごとく、シナリオ解
析辞書112 で定義されている標識とアニメーション情報
との対応関係を利用することにより、前記アニメーショ
ン情報のうち背景対象、前景対象前景対象のセリフ、が
抽出される。
【0080】<2. 前記対応関係を用いて抽出されたア
ニメーション情報を利用する場合>前記対応関係を用い
ては抽出されないアニメーション情報については、前記
対応関係を用いて抽出されたアニメーション情報から派
生的に抽出されるものであり、それぞれのアニメーショ
ン情報を抽出する方法が個別に必要となる。
【0081】以下に、本実施例におけるアニメーション
情報のうち、前景主対象、前景対象のセリフの発声時
間、前景対象の表示時間、の抽出方法を説明する。 ・前景主対象及び前景対象のセリフの発声時間 本実施例では、前景主対象と前景対象のセリフの発声に
要する時間とは、前記<1. >の処理で抽出済みの、前
景対象及び前景対象のセリフを自然言語処理部102 に入
力することで得られる。ただしセリフがない前景対象、
すなわちアニメーション中には登場するがセリフを全く
喋らない前景対象については、セリフの発声に要する時
間のデフォルトの値をあらかじめ決めておき、その値を
用いることで対処する。
【0082】本実施例による前景対象のセリフの発声時
間の計算は、以下のようにして行なう。セリフの発声時
間を計算したい前景対象を仮に前景対象1とする。前景
対象1の直前に登場する前景対象0のセリフ発声終了時
間を前景対象1のセリフ発声開始時間とし、前記セリフ
発声開始時間に前景対象1のセリフの発声に要する時間
を加えた時間を、前景対象1のセリフ発声終了時間と決
める。
【0083】シナリオ中で前景対象の登場する順に、前
景対象に対して上記の計算を行なうことで、アニメーシ
ョンに登場する全ての前景対象についてのセリフ発声時
間が計算できる。
【0084】この方法により、例えばシナリオ(1) にお
いて、「ネズミのけんちゃん」のセリフ「ネズミに効く
のはネコいらずー」、「女装したけんちゃん」のセリフ
「オラの母ちゃんブラジャーいらずー」のセリフの発声
に要する時間をそれぞれ、14、15とすると、「ネズ
ミのけんちゃん」のセリフ発声時間は0〜14、「女装
したけんちゃん」のセリフ発声時間は14〜29と計算
できる。 ・前景対象の表示時間の抽出 前景対象の表示時間は、前記抽出された前景対象のセリ
フの発声時間をそのまま複写して用いる。すなわち、前
景対象の表示時間とセリフの発声時間とは、アニメーシ
ョン情報抽出部115 での処理の終了の時点では全く同じ
となる。
【0085】以上、各々のアニメーション情報の説明と
前記アニメーション情報の抽出方法とを説明した。
【0086】次にアニメーション情報抽出部115 におけ
る処理の流れを図11(a)(b)に基づいて簡単に説明す
る。図11(a)は、アニメーション情報抽出部115におけ
る処理全体の大まかな流れを示すフローチャートであ
る。
【0087】(1101) シナリオ解析部113 で背景対象が
抽出されたかどうかを調べる。 (1102) 抽出されていれば、前記背景対象をアニメーシ
ョン情報記憶部114の背景情報に登録する。
【0088】(1103) シナリオ解析部113で前景対象及び
前景対象のセリフの組が抽出されたかどうかを調べる。
【0089】(1104) 抽出されていれば、抽出された全
ての組に対して、抽出された順に、前記前景対象と前記
前景対象のセリフとを入力として、次に示す前景情報登
録サブルーチンを実行する。
【0090】前景対象登録サブルーチンは、前景対象及
び前景対象のセリフからアニメーション情報を派生的に
抽出する処理を行なうもので、図11(b) は前記処理の
流れをフローチャートの形式で示したものである。以
下、前記サブルーチンの処理の流れを図11(b)に基づ
いて簡単に説明する。
【0091】(1105) 前記前景対象及び前記前景対象の
セリフを前景情報に登録する。 (1106) 入力された前景対象を表す文の構造を解析す
る。 この解析は前述の自然言語処理部102 によって処
理される。
【0092】(1107) 解析の結果、前記前景対象から主
体となる名詞が抽出できたかどうか判断する。
【0093】(1108) 前記前景対象から主体となる名詞
が抽出できなかった場合は、前記前景対象を前景主対象
とし前記前景情報に登録する。
【0094】(1109) 前記前景対象から主体となる名詞
が抽出できた場合には、前記名詞を前記前景対象の前景
主対象とし前記前景情報に登録する。
【0095】(1110) 前記前景対象にセリフが存在する
かどうかを調べる。 (1111) 前記前景対象にセリフが存在する場合、前記セ
リフを前記前景情報に登録する。
【0096】(1112) 前記セリフの発声に要する時間を
前述の自然言語処理部102 によって計算し、続いて、直
前に抽出された前景対象のセリフの発声時間を参照して
セリフの発声時間を計算し、前記前景情報に登録する。
【0097】(1113) 前記前景対象のセリフ発声時間を
前記前景対象の登場時間として前記前景情報に登録す
る。
【0098】以上の処理が、抽出された全ての前景対象
及び前景対象のセリフの組について終了すれば、本サブ
ルーチンでの処理を終了し、同時にアニメーション情報
抽出処理のメインルーチンも終了する。
【0099】アニメーション編集部120 は、以下の2つ
の処理を人手によって行なう。 ・アニメーション情報抽出部115 で抽出された情報の修
正 ・アニメーション情報抽出部115 では抽出不可能な情報
の補充 前述のように、アニメーション情報抽出部115 で抽出さ
れた情報には、背景対象、前景対象、前景主対象、前景
対象のセリフ、セリフの発声時間、前景対象の登場時
間、があるが、入力されたシナリオの内容をアニメーシ
ョンとして再生するには、前述のアニメーション情報抽
出部115 で抽出されたアニメーション情報のみでは十分
ではない。従ってアニメーションを完成するために、さ
らに手作業を加える必要があり、その作業項目として例
えば以下に示すようなものが挙げられる。 1. 1枚のフレームを表示する時間(以下ではこれを再
生速度と呼ぶ)を設定する 2. 前景対象の実体を描写した画像を検索し、検索画像
のうちから使用したい画像を選択する 3. アニメーション情報抽出部115 で抽出された、前景
対象のセリフの発声時間、表示時間等を変更する 4. 前景対象のセリフ発声時の声質を編集する 5. 前記前景対象の実体画像が時間に沿って背景上で動
く様子を編集する 本実施例では、アニメーション編集部120 で行なう上記
の項目の作業のうち、5の前景対象が時間に沿って背景
上で動く様子の編集方法について説明する。なお他の項
目については、それらを実施するための技術は公知であ
るので、ここでは説明を省略する。
【0100】さてアニメーション編集部120 では、特に
前記の項目の最後にある、前景対象の実体画像が時間に
沿って背景上で動く様子の編集がを、移動経路と移動速
度を独立して行う方法であるため、前記編集が容易とな
る。以下で、前記方法に基づいて前景対象の実体画像が
時間に沿って背景上で動く様子を編集する方法を説明す
る。
【0101】従来、アニメーションにおいて前景対象の
動く様子の編集は以下のようにして行なわれていた。図
12(a),(b) は、従来の方法によって前景対象の動く様
子を編集する手順を示す概念図である。
【0102】まず、各時間における前景対象の位置を入
力する。図12(a)では、P1、P2、P3、P4、P5 と示さ
れている点が、それぞれ時間t1、t2、t3、t4、t5 にお
いて何らかの前景対象が表示される位置である。従っ
て、隣接する点同士の間の距離が大きい場合、前記点同
士の間の移動は速くなる。例えば図12(a)の場合で
は、P3とP4、P4とP5の間の距離が他の隣接する点同士の
間の距離に比べて大きいために、前記2つの点同士の間
の移動は速くなる。
【0103】図12(a)の例において P3 と P4の間の移
動を遅くさせるためには、例えば、P3 と P4 の間に P
3.5 という前景の表示位置を新たに作るために、まず P
3.5に前景対象を表示するための新たなフレームを用意
して、P3.5の具体的な位置を指定する。続いて P3.5 に
前景対象を表示する時間をt4 とし、P4、P5 に前景対象
を表示する時間をそれぞれ t4、t5 にずらすことによっ
て可能である。修正した結果は例えば図12(b)のごと
くなる。
【0104】従来の編集方法では、以上の手順で前景対
象の移動速度の調整が可能となる。しかしながら、以上
のように前景対象の位置に基づいて移動速度を計算する
方法では、前記移動速度の調整のために、時刻と前記時
刻における前景画像の表示位置との関係を考慮しつつ、
前景対象の表示位置や、挿入または削除すべきフレーム
数及びその時間を調整しなければならず、移動速度の調
整作業が困難となることが問題となる。
【0105】本実施例では、前景画像の、移動の経路の
入力行なう手段と各時間における移動の速度の入力行な
う手段とを独立させることによって、上記問題を解決し
ている。
【0106】図13はアニメーション編集部120 の構成
を示したブロック図である。アニメーション編集部120
は、少なくとも、前景対象の移動経路を編集する対象移
動経路編集部116、対象移動距離演算部117、前景対象の
移動速度を編集する対象移動速度編集部118、対象移動
速度演算部119を含む構成を有する。本構成によって、
前景対象の移動経路の編集と前景対象の移動速度の編集
とを独立に行なうことが可能となるので、前記移動速度
の調整のために、時刻と前記時刻における前景画像の表
示位置との関係を考慮する必要がなくなり、前景対象の
移動速度や前景対象の表示位置の調整が容易となる。ま
た、対象移動速度編集部118 においては、各時間におけ
る速度を比率で表すと、実際にアニメーションとして表
示する際の速度を、対象の表示時間と対象の移動経路と
から自動で計算するので、アニメーション編集者は、各
時間における対象の実際の表示速度を考慮することな
く、対象の移動速度の編集が可能となる。
【0107】続いて、まずアニメーション編集部120 で
の処理の流れを説明し、その後、対象移動速度編集部11
8 の処理について詳述する。
【0108】図14は、前景対象の実体画像が時間に沿
って背景上で動く様子を編集する処理の流れの例を示す
フローチャートである。アニメーション編集部120 での
処理の流れを図14に沿って説明する。
【0109】(1401) 前景対象の表示する時間を入力す
る。前記入力は、例えば、前景対象の動きの編集を行な
う編集者が手作業で行なう、アニメーション編集部120
の呼び出し元のモジュールが呼び出し時に与える、など
によって行なわれる。
【0110】(1402) 対象移動経路編集部116 におい
て、前記編集者が、前景対象の移動経路を編集する。前
記移動経路の編集は、例えば、前記経路を自由曲線で描
く、経路を決める基準となるいくつかの点を指定し前記
基準点を結ぶスプライン曲線を実際の移動経路とする、
などによって行なわれる。
【0111】(1404) 対象移動距離演算部117 におい
て、前記経路から前記前景対象の移動距離、すなわち前
記経路の長さを計算する。
【0112】(1405) 前記1401及び1404の処理におい
て、それぞれ、前景対象の表示時間及び移動距離が確定
しているので、前景対象の実際の移動の平均速度を計算
する。
【0113】(1406) 前記経路及び速度で前景対象の移
動の様子を確認し、前景対象の編集を継続するかどうか
を判断し、継続しない場合、前景対象の動く様子の編集
を終了する。
【0114】(1407) もし前景対象の編集を続けるのな
らば、続いて前景対象の移動経路を編集するかどうかを
判断する。
【0115】(1408) 前景対象の移動経路を編集する場
合、すでに編集済みの経路に修正を施す。
【0116】(1409) 1404と同様に、前記修正済みの経
路から前記前景対象の移動距離を計算する。
【0117】(1410) 1407の処理の結果、前景対象の移
動経路を編集しない場合、前景対象の移動速度を編集す
るかどうかを判断し、前記編集をしない場合、前景対象
の動く様子の編集を終了する。
【0118】(1411) 前景対象の移動速度を編集する場
合、すでに編集済みの速度に修正を施す。
【0119】(1412) 前記修正された移動経路または前
記修正された移動速度に基づいて、対象移動速度編集部
118で各時間における前景対象の実際の移動速度を計算
する。
【0120】上記の 1405 から 1412 までの処理を編集
者が満足するまで繰り返し、満足を得た時点で、前景対
象の動く様子の編集を終了する。
【0121】続いて対象移動速度編集部118 での処理を
説明する。図15(a)〜(e)は対象移動速度編集部118 を
表した概念図で、例として、対象の各時間における速度
の比率をグラフ形式で入力した様子を示している。
【0122】アニメーション編集部120 での処理におい
て、上記1404の処理で計算された前景対象の平均速度に
基づいて、1405の処理において前景対象を表示する場
合、各時間における前景対象の速度をグラフ形式で表現
すると、例えば図15(a)のごとくなる。すなわち、こ
れは前景対象が経路上を一定速度で移動することを示し
ている(図15(b)は、前景対象が経路上を一定速度で
移動する際に、移動時間を10分割した場合の各時間に
おける前景対象の位置を示した概念図である)。
【0123】前記計算された移動速度に変化をつけたい
場合、上記1411の処理において前景対象の速度を編集す
る必要がある。
【0124】図15(c)は速度の比率の編集結果の例を
グラフ形式で表現したものである。前記グラフの表して
いる内容は前景対象が最初静止しており、一定の速さづ
つスピードを上げていき、表示時間のちょうど半分の時
間でスピードが最高に達し、その後一定の速さづつスピ
ードを落していき、表示時間の最後で再び静止するとい
うものである。この場合、各時間における前景対象の実
際の速度は、(数1)の式を用い、次のようにして計算
できる。
【0125】
【数1】
【0126】但し、(1)式のV(t)は時間tにおける前景
対象の速度を、Tは移動の終了する時間をそれぞれ表し
ている。
【0127】上記1409 の処理で計算された前景対象の
移動距離を S0 とする。1411 の処理で編集された仮の
速度で前景対象が移動した場合の仮の移動距離を(1)式
によって計算し、前記移動距離を S1 とする。ここで、
1411の処理で編集された速度に基づいて、(1)式で移動
距離を計算する際には、対象移動速度編集部118 におい
て、予め縦軸のスケール(すなわち速度のスケール)は
適当に決めておく。
【0128】次に、(2)式によってrを計算し、1411 の
処理で編集された各時間の速度に、上記rを乗じて前景
対象の実際の移動速度を計算する。例えば、図15(a)
(c)の速度グラフを用いてrを計算した結果、r = 0.5
となれば、前景対象の実際の移動速度は図15(d)のご
とくなるわけである(すなわち図15(d)の各時間にお
ける速度が図15(c)の0.5倍になっている。また、
図15(e)は、前景対象が図15(d) のグラフに示され
た速度で移動する際に、移動時間を10分割した場合の
各時間における前景対象の位置を示した概念図であ
る。)。このように本発明では、前記 S1 とS0 の比 r
を用いて 1411 の処理で編集された仮の速度を正規化す
る機構を導入することで、比率で編集された前景対象の
速度に対する、実際の速度値を算出することが可能とな
る。
【0129】以上説明したように、アニメーション編集
部120 では、対象移動速度編集部118で編集された、前
景対象の速度の比率を用いて、対象移動距離演算部117
で計算された仮の移動距離と、対象移動経路編集部116
で編集された実際の移動距離の比を用いて、対象移動速
度編集部118 で前記速度の実際の値を計算する機構を導
入しているため、アニメーション編集者は、各時間にお
ける対象の実際の移動速度を考慮することなく速度の編
集が可能となる。
【0130】通常アニメーションの作成において、前記
アニメーションに登場するある一つの前景対象の動きを
編集する際には、前記前景対象が登場する時間と、同じ
時間もしくはその前後の時間に登場する、すでに編集済
みの他の前景対象の動きとを同時に参照すると、アニメ
ーションのストーリーの全体の流れの理解が出来、所望
の前景対象の動きの編集がよりいっそう容易となる。従
って、図14の1405の処理で前景対象の移動の様子を確
認する際に、前記前景対象が登場する時間(図14の 1
401 の処理で入力される時間)のみでなく可能ならば前
記時間の前後の時間も含めて、すでに編集済みの他の前
景対象の動きとともに該前記対象の動きを確認するため
に、確認する時間の変更や、すでに編集済みの他の前景
対象の動きを同時表示させるかどうかの選択が行なえる
機能を、アニメーション編集部120 に備えることは有効
であると思われる。
【0131】以上、アニメーション編集部120 におい
て、ある決められた時間帯に対して、前景対象の実体画
像が時間に沿って背景上で動く様子を編集する処理の流
れを説明した。
【0132】アニメーション出力制御部は、アニメーシ
ョン情報記憶部114 の情報に基づいて、音声信号処理部
110 を制御しつつ、アニメーションを再生するために必
要な情報として、音声情報を音声合成部109 へ、また、
画像情報を画像表示部108 へそれぞれ送る。
【0133】本実施例では、アニメーション情報記憶部
114 に記憶されているアニメーション情報から、アニメ
ーションを再生するために必要となる音声情報と映像情
報とを抽出し、音声情報を音声合成部109 及び音声信号
処理部110 へ、映像情報を画像表示部108 へ、それぞれ
送ることでアニメーションを再生する手順を簡単に説明
する。例として、前出のシナリオ(1) において最初の
「ネズミのけんちゃん」の動きを再生する際の制御が、
以下のアニメーション情報の例に基づいて行なわれる様
子を用いる。 ・背景画像は「縁側」である。 ・「ネズミのけんちゃん」は、時間は0から14の間に
おいてセリフ「ネズミに効くのはネコいらずー」を発声
しながら編集された軌跡を動く。 ・前記セリフの声質は、音声合成部109の出力音に対し
て[ピッチを1オクターブシフトする(以下、この情報
を SE1 とする)]と設定されている。
【0134】画像表示部108 には、まず背景画像「縁
側」が送られる。続いて、フレームが進む毎に位置及び
マスク情報とともに「ネズミのけんちゃん」の前景画像
が送られ、画像表示部108 で背景画像に前記前景画像を
前記位置に重ね合わせて表示する。前景画像の表示の際
には、前記マスク情報を用い、対象の存在しない領域は
透過させて背景の画素が表示されるようにする。
【0135】一方、音声合成部109 には、「ネズミのけ
んちゃん」のセリフ「ネズミに効くのはネコいらずー」
が、また、前記セリフの声質情報 SE1 が音声信号処理
部110に同時にそれぞれに送られる。前記セリフは、音
声合成部109 によって音声信号に変換され、音声信号処
理部110 に入力される。そして、音声信号処理部110 に
おいて前記SE1 の情報に基づいて前記入力信号に変換が
施された後、音声出力部125 で音声として出力される。
【0136】次に、アニメーション作成装置を用いて、
アニメーションに用いる素材としてのデータ(以下では
これをアニメデータと呼ぶ)を作成する手順、及び前記
アニメデータを用いてアニメーションを作成する手順を
説明する。アニメーションの作成手順の説明において
は、ここでも入力シナリオは前出のシナリオ(1) を用い
る。
【0137】<1. アニメデータの作成>まず、画像入
力部122 において、アニメーションの各シーンを構成す
る素材としての画像データが描かれた印刷物(例えば漫
画など)を読み込み、前記読み込まれた画像は画像切り
出し編集部に送られる。
【0138】画像切り出し編集部では、前記画像中でア
ニメーションの各シーンを構成する素材としての画像デ
ータの部分のみを切り出す。切り出しにはすでに公知の
技術である輪郭抽出技術などが用いられる。
【0139】切り出された画像は、単体で使用する場合
はそのまま画像データベース管理部107 に送り、前記画
像を登録する。アニメブラシとして使用する場合は、前
記切り出された画像をもとに、対象の動きを表す連続し
た画像データを編集ツールなどを用いて作成し、順序付
きでひとまとめにしてアニメブラシデータとし、それを
画像データベース管理部107 に送り登録する。また背景
画像の登録の場合は、画像入力部122 で読み込んだ画像
データから、使用したい領域をそのまま画像データベー
ス管理部107 に送って登録する。なお前記編集ツール
は、モデルベース画像合成技術などの公知の技術によっ
て実現されているので、前記ツールの内容の説明につい
ては省略する。また、画像データベース管理部107 での
データ登録方法については、すでに画像データベース管
理部107 での処理の説明で述べたので省略する。
【0140】<2. アニメーションの作成>まず、シナ
リオ入力部111で得られたシナリオ(1)はシナリオ解析部
113に送られ、シナリオ(1) の構造が解析される。続い
てアニメーション情報抽出部115 で、解析されたシナリ
オ(1)の構造からアニメーション情報を抽出する。
【0141】図16は、シナリオ(1) から抽出された時
点でのアニメーション情報の一部を示した概念図であ
る。図16において、すでに確定しているアニメーショ
ン情報としては、背景対象として「縁側」前景主対象と
して「けんちゃん」「けんちゃんのママ」前記前景主対
象に対応した前景対象として、それぞれ、 「けんちゃん」:「ネズミのけんちゃん」「女装したけ
んちゃん」「驚くけんちゃん」 「けんちゃんのママ」:「洗濯物を抱えたけんちゃんの
ママ」 がある。また、前記前景対象のセリフ、前記セリフの発
声時間、及び前記前景対象の登場時間は図17のごとく
なる。
【0142】当然のことながら、この時点ではまだアニ
メーションを再生するには不十分である。従って、アニ
メーション編集部120 において、 ・アニメーション情報抽出部115 で抽出された情報の修
正 ・アニメーション情報抽出部115 では抽出不可能な情報
の補充 の2つの処理を人手によって行なう。その処理の内容は
先にも示した通り、 ・1枚のフレームを表示する時間を設定する ・前景対象の実体を描写した画像を検索し、検索画像の
うちから使用したい画像を選択する ・アニメーション情報抽出部115 で抽出された、前景対
象のセリフの発声時間、表示時間等の変更を行なう ・前景対象のセリフ発声時の声質を編集する ・前記前景対象の実体画像が時間に沿って背景上で動く
様子を編集するなどである。
【0143】図18(a)は、シナリオ(1)から抽出された
後、アニメーション編集部120 において編集されたアニ
メーション情報の一部を示した概念図である。また、前
記前景対象のセリフ、前記セリフの発声時間、及び前記
前景対象の登場時間は例えば図18(b)のごとくなる。
図18(b)では、アニメーション編集部120 によってア
ニメーション情報として、前景対象の画像、セリフの声
質が新たに追加されているほか、図18(b) では示され
ていないが、それぞれの前景対象の移動経路も編集済み
である。
【0144】アニメーションの再生に必要なアニメーシ
ョン情報がすべて揃えば、最後に、前記アニメーション
情報をアニメーション制御部121 に送り、アニメーショ
ン制御部121 で、アニメーション情報記憶部114 のアニ
メーション情報に基づいて、音声信号処理部110 を制御
しつつ、アニメーションを再生するために必要なメディ
アとして、音声情報を音声合成部109 へ、また、画像情
報を画像表示部108 へそれぞれ送る。音声合成部109 で
は入力文字列を音声信号に変換し、さらに音声信号処理
部110 で前記音声信号に変換を施して音声出力部125 で
前記変換した音声を出力する。画像表示部108 では、再
生速度に応じて背景画像と前景画像を合成し出力する。
【0145】以上で、本実施例のアニメーション作成装
置を用いて、アニメーションに用いる素材としてのデー
タを作成する手順、及び前記アニメデータを用いてアニ
メーションを作成する手順の説明を終了する。
【0146】
【発明の効果】以上のように本発明は、シナリオを解析
し、前記解析結果からアニメーションの舞台背景となる
背景対象、アニメーションに登場する前景画像や、前記
前景対象の登場時間、セリフの内容など、アニメーショ
ン再生に必要な情報を抽出する機能を備えているので、
本発明のアニメーション作成装置を使用すれば、アニメ
ーションの作成者は、アニメーションの編集を開始する
前にアニメーションの内容を記述したシナリオを前記装
置に入力するだけで、アニメーションを編集するための
情報がある程度自動で獲得できるため、アニメーション
の編集の手間を軽減させることが可能となる。
【0147】また、アニメーション編集部では、対象移
動速度編集部で編集された、前景対象の速度の比率を用
いて、対象移動距離演算部で計算された仮の移動距離
と、対象移動経路編集部で編集された実際の移動距離の
比を用いて、対象移動速度編集部で前記速度の実際の値
を計算する機構を導入しているため、アニメーション編
集者は、各時間における対象の実際の移動速度を考慮す
ることなく速度の編集が可能となる。
【図面の簡単な説明】
【図1】本発明の一実施例におけるアニメーション作成
装置の構成を示したブロック図
【図2】(a)は本実施例の画素データ記憶部の画像デー
タの内容を示した概念図 (b)は同アニメブラシデータ記憶部の記述例を示した図 (c)は同アニメブラシの内容を描写した概念図 (d),(e)は同画像検索テーブルの記述例を示した図
【図3】同画像データベース管理部で画像を検索する処
理の流れを示すフローチャート
【図4】同画像データベース管理部で画像を登録する処
理の流れを示すフローチャート
【図5】同自然言語処理部において、主辞、動作主体の
2つに対応する名詞を抽出する処理の流れを示すフロー
チャート
【図6】同自然言語処理部において、入力自然言語文の
発声に要する時間を抽出する処理の流れを示すフローチ
ャート
【図7】(a)は同言語辞書において、単語の見出しと前
記単語の発音を表す見出しの組の記述例を示した図 (b)は同言語辞書において、単語の見出しと前記単語の
発音に要する時間との組の記述例を示した図
【図8】同シナリオ入力部に入力するシナリオを日本語
で記述した例を示した図
【図9】同シナリオ解析辞書に記憶する、シナリオを解
析するための知識をBNF記法に基づいて定義した例を
示した図
【図10】同シナリオ解析辞書に記憶された、シナリオ
を解析するための知識における、終端記号及び非終端記
号とアニメーション情報との対応関係の一実施例を示し
た図
【図11】(a)は同アニメーション情報抽出部における
処理の概略を示すフローチャート (b)は同アニメーション情報抽出部において、前景対象
及び前景対象のセリフからアニメーション情報を派生的
に抽出する処理の流れを示すフローチャート
【図12】(a),(b)は同アニメーション作成において、
従来の方法によって前景対象の動く様子を編集する手順
を示す概念図
【図13】同アニメーション編集部の構成を示したブロ
ック図
【図14】同前景対象の実体画像が時間に沿って背景上
で動く様子を編集する処理の流れの例を示すフローチャ
ート
【図15】(a)〜(e)は同対象移動速度編集部を表した概
念図
【図16】同アニメーション情報の一部を示した概念図
【図17】同アニメーション情報の一部を示した図
【図18】(a)は同アニメーション情報の一部を示した
概念図 (b)は同アニメーション情報の一部を示した図
【符号の説明】
101 言語辞書 102 自然言語処理部 103 画像データ記憶部 104 アニメブラシデータ記憶部 105 画像検索テーブル 106 画像データベース 107 画像データベース管理部 108 画像表示部 109 音声合成部 110 音声信号処理部 111 シナリオ入力部 112 シナリオ解析辞書 113 シナリオ解析部 114 アニメーション情報記憶部 115 アニメーション情報抽出部 116 対象移動経路編集部 117 対象移動距離演算部 118 対象移動速度編集部 119 対象移動速度演算部 120 アニメーション編集部 121 アニメーション制御部 122 画像入力部 123 特徴抽出部 124 画像切り出し編集部 125 音声出力部

Claims (23)

    【特許請求の範囲】
  1. 【請求項1】自然言語を解析するために必要な情報を記
    憶する言語辞書と、前記言語辞書に記憶されている情報
    を用いて自然言語を解析する自然言語処理部と、アニメ
    ーションに使用する画像を蓄積する画像データベース
    と、アニメーションに使用する画像の前記画像データベ
    ースへの登録及び前記画像データベースからの検索を行
    なう画像データベース管理部と、前記画像データを表示
    する画像表示部と、自然言語を入力し前記自然言語を音
    声信号に変換する音声合成部と、音声信号に処理を施す
    音声信号処理部と、シナリオ文を入力するシナリオ入力
    部と、シナリオ文の構造を解析するために必要な知識を
    記憶するシナリオ解析辞書と、前記シナリオ解析辞書に
    記憶されている知識を用いてシナリオ文の構造を解析す
    るシナリオ解析部と、アニメーションの再生に必要な情
    報であるアニメーション情報を記憶するアニメーション
    情報記憶部と、シナリオ文の構造の解析結果から前記ア
    ニメーション情報を抽出し、前記アニメーション情報記
    憶部に記憶するアニメーション情報抽出部と、アニメー
    ション情報記憶部に記憶されているアニメーション情報
    に、必要であれば、編集を加えまた新たな情報の追加を
    行なうアニメーション編集部と、アニメーション情報記
    憶部に記憶されているアニメーション情報に基づいて前
    記音声信号処理部を制御しつつ、アニメーションの再生
    に必要な情報として、音声情報を前記音声合成部へまた
    画像情報を画像表示部へそれぞれ送るアニメーション制
    御部とを具備することを特徴とするアニメーション作成
    装置。
  2. 【請求項2】アニメーション作成に必要な画像を入力す
    る画像入力部と、前記画像入力部で入力された画像から
    画像データベースに蓄積するデータを作成する画像切り
    出し編集部とを具備することを特徴とする請求項1記載
    のアニメーション作成装置。
  3. 【請求項3】自然言語処理部は、言語辞書を用いて入力
    自然言語から前記自然言語の文法構造を解析し、前記文
    法構造の解析結果を参照して、前記入力自然言語におい
    て主体となる名詞を抽出することを特徴とする請求項1
    記載のアニメーション作成装置。
  4. 【請求項4】言語辞書は、少なくとも単語の見出しと前
    記単語の発音に要する時間との組を記憶する手段を持
    ち、自然言語処理部は、言語辞書の前記組の情報を用い
    て、自然言語を発声するために必要な時間を計算する手
    段を有することを特徴とする請求項1記載のアニメーシ
    ョン作成装置。
  5. 【請求項5】言語辞書は、少なくとも単語の見出しと前
    記単語の発音を表す見出しとの組を記憶する手段を持
    ち、自然言語処理部は、単語の発音を表す見出しから前
    記単語の発音に要する時間を計算する手段を備え、前記
    言語辞書の前記組の情報及び前記手段を用いて、自然言
    語を発声するために必要な時間を計算する手段を有する
    ことを特徴とする請求項1記載のアニメーション作成装
    置。
  6. 【請求項6】画像データベースは、各画素の情報を記述
    する画素データ及び画像内容に関する情報として、少な
    くとも対象属性とファイル名とを含む属性情報からなる
    画像データを記憶する画像データ記憶部と、アニメーシ
    ョンを構成する画像データの組を順序を付けて一つにま
    とめたアニメブラシデータを記憶するアニメブラシデー
    タ記憶部と、少なくとも検索用キーワード、アニメブラ
    シデータ名、画像データ名の3つの記述部からなる画像
    検索データを記憶する画像検索テーブルからなる構成を
    有することを特徴とする請求項1記載のアニメーション
    作成装置。
  7. 【請求項7】画像データベースは、各画素の情報を記述
    する画素データ及び画像内容に関する情報として少なく
    とも対象属性とファイル名とを含む属性情報からなる画
    像データを記憶する画像データ記憶部、アニメーション
    を構成する画像データへのポインタの組を順序を付けて
    一つにまとめたアニメブラシデータを記憶するアニメブ
    ラシデータ記憶部、少なくとも検索用キーワード、アニ
    メブラシデータ名、画像データ名の3つの記述部からな
    る画像検索データを記憶する画像検索テーブルからなる
    構成を有することを特徴とする請求項1記載のアニメー
    ション作成装置。
  8. 【請求項8】画像データの属性情報の対象属性は、値と
    して少なくとも前景対象、背景対象の2つの値を持つこ
    とを特徴とする請求項6または7記載のアニメーション
    作成装置。
  9. 【請求項9】画像データベース管理部は、自然言語を入
    力し、前記入力自然言語を前記自然言語処理部で解析し
    た結果を参照して前記入力自然言語に関連のあるアニメ
    ブラシデータもしくは画像データを画像データベースか
    ら検索することを特徴とする請求項6または7記載のア
    ニメーション作成装置。
  10. 【請求項10】画像データベース管理部は、アニメブラ
    シデータを画像データベースの画像検索データに登録す
    る際に、前記アニメブラシデータを構成する画像データ
    と同一の画像データが該画像検索データの画像データ名
    の記述部にすでに記述されている場合、前記、画像デー
    タ名の記述部に記述されている画像データを消去する処
    理を行なうことを特徴とする請求項9記載のアニメーシ
    ョン作成装置。
  11. 【請求項11】画像データベース管理部は、画像データ
    を画像データベースから検索する際に、画像検索テーブ
    ルの画像データ名の記述部に記述されている画像デー
    タ、及び、該画像検索テーブルのアニメブラシデータ名
    の記述部に記述されているアニメブラシデータを構成す
    る画像データへのポインタで指し示された画像データ
    を、検索結果とすることを特徴とする請求項10記載の
    アニメーション作成装置。
  12. 【請求項12】アニメーション情報記憶部は、少なくと
    も、アニメーションの舞台背景となる背景対象を記述す
    る背景情報、少なくともアニメーションに登場する前景
    対象、前記前景対象の主体を表す前景主対象、前記前景
    対象のセリフ、前記セリフの発声時間、前記前景対象の
    登場時間、前記前景対象の移動経路、前記前景対象の移
    動速度、前記前景対象の声質の8つの情報を組にした前
    景情報とを含むことを特徴とする請求項1記載のアニメ
    ーション作成装置。
  13. 【請求項13】前景情報の前記前景対象の声質の情報
    は、音声信号処理部を制御する信号であることを特徴と
    する請求項12記載のアニメーション作成装置。
  14. 【請求項14】アニメーション情報抽出部は、シナリオ
    解析部の解析結果からアニメーションの舞台背景となる
    背景対象を表す自然言語を抽出し、前記自然言語をアニ
    メーション情報記憶部の背景情報として記録することを
    特徴とする請求項12または13記載のアニメーション
    作成装置。
  15. 【請求項15】アニメーション情報抽出部は、シナリオ
    解析部の解析結果から少なくとも、アニメーションに登
    場する前景対象を表す自然言語と前記前景対象のセリフ
    を表す自然言語との組を抽出し、前景対象を表す自然言
    語アニメーション情報記憶部の前景情報の前景対象とし
    て、また、前記前景対象のセリフを表す自然言語を前記
    前景情報の前景対象のセリフとしてそれぞれ記録するこ
    とを特徴とする請求項12または13記載のアニメーシ
    ョン作成装置。
  16. 【請求項16】アニメーション情報抽出部は、前景対象
    が記録されている前景情報について前記前景対象の主体
    となる名詞を自然言語処理部を用いて抽出し、前記名詞
    を前記前景情報の前景主対象として記録することを特徴
    とする請求項15記載のアニメーション作成装置。
  17. 【請求項17】アニメーション情報抽出部は、前景対象
    のセリフが記録されている前景情報について、前記セリ
    フを表す自然言語から、前記セリフの発声に要する時間
    を自然言語処理部を用いて計算し、すでに計算済みの前
    景対象のセリフ発声時間を参照して、該前景対象のセリ
    フ発声時間を計算し、前記計算結果を前記前景情報のセ
    リフの発声時間として登録することを特徴とする請求項
    15記載のアニメーション作成装置。
  18. 【請求項18】アニメーション情報抽出部は、前景対象
    のセリフがない前景情報について、前記セリフの発声に
    要する時間を適当な一定値で与えることを特徴とする請
    求項17記載のアニメーション作成装置。
  19. 【請求項19】アニメーション情報抽出部は、セリフの
    発声時間が登録されており、かつ、前景対象の登場時間
    が登録されていない前景情報について、前記前景対象の
    セリフの発声の時間を、前記前景情報の前景対象の登場
    時間として記録することを特徴とする請求項15に記載
    のアニメーション作成装置。
  20. 【請求項20】アニメーション編集部は、少なくとも、
    前景対象の移動経路を編集する対象移動経路編集部、前
    記移動経路の距離を計算する対象移動距離演算部、前景
    対象の移動速度を編集する対象移動速度編集部、前記移
    動速度の実際の値を計算する対象移動速度演算部とを具
    備し、編集済みの移動経路及び移動速度を、前記前景対
    象が記録されている前景情報の前景対象の移動経路、前
    景対象の移動速度として記録することを特徴とする請求
    項15記載のアニメーション作成装置。
  21. 【請求項21】アニメーション編集部の対象移動速度編
    集部は、前景対象の移動速度を速度の比率で編集するこ
    とを特徴とする請求項20記載のアニメーション作成装
    置。
  22. 【請求項22】アニメーション編集部は、アニメーショ
    ン情報記憶部に記憶されている、ある前景情報の前景対
    象の声質の情報が変更された場合に、アニメーション情
    報記憶部に記憶されている前記前景情報以外で、かつ、
    前記前景情報の前景主対象と同一の前景主対象を持つ前
    景情報について、前記前景情報の前景対象の声質を、前
    記変更された前景対象の声質に変更することを特徴とす
    る請求項12または13記載のアニメーション作成装
    置。
  23. 【請求項23】アニメーション制御部は、前景情報の前
    景対象のセリフ内容を音声合成部に送る際に、同時に、
    前記前景情報の前景対象の声質の情報を音声信号処理部
    に送ることを特徴とする請求項13記載のアニメーショ
    ン作成装置。
JP26532394A 1994-10-28 1994-10-28 アニメーション作成装置 Pending JPH08123976A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26532394A JPH08123976A (ja) 1994-10-28 1994-10-28 アニメーション作成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26532394A JPH08123976A (ja) 1994-10-28 1994-10-28 アニメーション作成装置

Publications (1)

Publication Number Publication Date
JPH08123976A true JPH08123976A (ja) 1996-05-17

Family

ID=17415599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26532394A Pending JPH08123976A (ja) 1994-10-28 1994-10-28 アニメーション作成装置

Country Status (1)

Country Link
JP (1) JPH08123976A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007034829A1 (ja) * 2005-09-21 2007-03-29 Matsushita Electric Industrial Co., Ltd. 映像作成装置および映像作成方法
WO2007138911A1 (ja) * 2006-05-30 2007-12-06 Panasonic Corporation キャラクタ服飾決定装置、キャラクタ服飾決定方法、およびキャラクタ服飾決定プログラム
JP2009301055A (ja) * 2009-09-17 2009-12-24 Sharp Corp 電子漫画製造装置及び電子漫画製造方法
US7973793B2 (en) 2005-06-10 2011-07-05 Panasonic Corporation Scenario generation device, scenario generation method, and scenario generation program
JP2013187595A (ja) * 2012-03-06 2013-09-19 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2015193260A (ja) * 2008-07-04 2015-11-05 ブックトラック ホールディングス リミテッド サウンドトラックを作成してプレイする方法及びシステム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012053902A (ja) * 2005-06-10 2012-03-15 Panasonic Corp シナリオ生成装置、シナリオ生成方法、およびシナリオ生成プログラム
US7973793B2 (en) 2005-06-10 2011-07-05 Panasonic Corporation Scenario generation device, scenario generation method, and scenario generation program
WO2007034829A1 (ja) * 2005-09-21 2007-03-29 Matsushita Electric Industrial Co., Ltd. 映像作成装置および映像作成方法
JP4833216B2 (ja) * 2005-09-21 2011-12-07 パナソニック株式会社 映像作成装置および映像作成方法
JP4869340B2 (ja) * 2006-05-30 2012-02-08 パナソニック株式会社 キャラクタ服飾決定装置、キャラクタ服飾決定方法、およびキャラクタ服飾決定プログラム
WO2007138911A1 (ja) * 2006-05-30 2007-12-06 Panasonic Corporation キャラクタ服飾決定装置、キャラクタ服飾決定方法、およびキャラクタ服飾決定プログラム
US8140460B2 (en) 2006-05-30 2012-03-20 Panasonic Corporation Character outfit autoconfiguration device, character outfit autoconfiguration method, and character outfit autoconfiguration program
US10095465B2 (en) 2008-07-04 2018-10-09 Booktrack Holdings Limited Method and system for making and playing soundtracks
JP2015193260A (ja) * 2008-07-04 2015-11-05 ブックトラック ホールディングス リミテッド サウンドトラックを作成してプレイする方法及びシステム
US10095466B2 (en) 2008-07-04 2018-10-09 Booktrack Holdings Limited Method and system for making and playing soundtracks
US10140082B2 (en) 2008-07-04 2018-11-27 Booktrack Holdings Limited Method and system for making and playing soundtracks
US10255028B2 (en) 2008-07-04 2019-04-09 Booktrack Holdings Limited Method and system for making and playing soundtracks
JP2009301055A (ja) * 2009-09-17 2009-12-24 Sharp Corp 電子漫画製造装置及び電子漫画製造方法
JP2013187595A (ja) * 2012-03-06 2013-09-19 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム

Similar Documents

Publication Publication Date Title
US6181351B1 (en) Synchronizing the moveable mouths of animated characters with recorded speech
US7076732B2 (en) Document processing apparatus having an authoring capability for describing a document structure
US6172675B1 (en) Indirect manipulation of data using temporally related data, with particular application to manipulation of audio or audiovisual data
US7117231B2 (en) Method and system for the automatic generation of multi-lingual synchronized sub-titles for audiovisual data
US20090202226A1 (en) System and method for converting electronic text to a digital multimedia electronic book
JPH03224055A (ja) 同時通訳向き音声認識システムおよびその音声認識方法
JP2005150841A (ja) 情報処理方法及び情報処理装置
CN110781328A (zh) 基于语音识别的视频生成方法、***、装置和存储介质
US8892435B2 (en) Text data processing apparatus, text data processing method, and recording medium storing text data processing program
CN111930289B (zh) 一种处理图片和文本的方法和***
JP3085631B2 (ja) 音声合成方法及びシステム
US11947924B2 (en) Providing translated subtitle for video content
JP3938096B2 (ja) インデックス作成装置、インデックス作成方法、および、インデックス作成プログラム
CN116092472A (zh) 一种语音合成方法和合成***
CN116582726B (zh) 视频生成方法、装置、电子设备及存储介质
JPH08123976A (ja) アニメーション作成装置
JP3444831B2 (ja) 編集処理装置、及び編集処理プログラムが記憶された記憶媒体
JP2006236037A (ja) 音声対話コンテンツ作成方法、装置、プログラム、記録媒体
JPH08248980A (ja) 音声認識装置
CN116129868A (zh) 一种结构化画本的生成方法和生成***
JPH0877196A (ja) 文書情報抽出装置
JPH0981590A (ja) マルチメディア情報検索装置
Serralheiro et al. Towards a repository of digital talking books.
JP2974698B2 (ja) 機械翻訳装置における単語間関係編集/学習装置
KR20010004400A (ko) 오디오/영상물의 음향적 장면분할방법