JP5432617B2 - アニメーション製作方法及び装置 - Google Patents

アニメーション製作方法及び装置 Download PDF

Info

Publication number
JP5432617B2
JP5432617B2 JP2009166011A JP2009166011A JP5432617B2 JP 5432617 B2 JP5432617 B2 JP 5432617B2 JP 2009166011 A JP2009166011 A JP 2009166011A JP 2009166011 A JP2009166011 A JP 2009166011A JP 5432617 B2 JP5432617 B2 JP 5432617B2
Authority
JP
Japan
Prior art keywords
animation
production
user
level content
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009166011A
Other languages
English (en)
Other versions
JP2010020781A (ja
JP2010020781A5 (ja
Inventor
甫 ▲ぎょん▼ 姜
賢 柱 沈
升 銀 宋
庚 洙 郭
永 穆 兪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2010020781A publication Critical patent/JP2010020781A/ja
Publication of JP2010020781A5 publication Critical patent/JP2010020781A5/ja
Application granted granted Critical
Publication of JP5432617B2 publication Critical patent/JP5432617B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明の少なくとも一つの実施形態は、アニメーション製作方法及び装置に係り、特に、ユーザーの入力と選択された演出スタイルによってアニメーションスクリプト言語でアニメーションを自動で製作する方法及び装置に関する。
現在、映像を製作するための色々な映像製作ツールが発売されている。例えば、フラッシュ(flash)、アドーブプレミア(adobe premiere)などを挙げることができる。このような映像編集ツールは、製作しようとする映像の内容をテキストで表現したコンテンツの意味を映像製作者が理解し、これに対応するメディアコンテンツを製作し、これを編集してビデオ映像を生成する過程を経る。一方、映像スクリプトを基盤とした映像製作ツールも発売された。代表的な例には、NHKのTVML(TV program Making Language)を挙げることができる。これは、映像製作者が一種のコンピュータプログラム言語である映像スクリプトを理解して作成して初めて映像が製作できる。
日本特許公開第2000−036057号公報 日本特許公開第2002−109566号公報 日本特許公開第2002−170128号公報 韓国特許公開第2000−0050029号公報 韓国特許公開第2001−0038639号公報 韓国特許公開第2002−0057447号公報 韓国特許公開第2008−0028732号公報
本発明の少なくとも一つの実施形態が解決しようとする技術的課題は、ユーザーがアニメーション演出の専門的知識や映像スクリプトの言語が分からない場合でも、専門家レベルのアニメーションを容易に製作可能にする装置及び方法を提供するところにある。また、前記方法をコンピュータで行わせるためのプログラムを記録したコンピュータで読み取り可能な記録媒体を提供するところにある。本実施形態が解決しようとする技術的課題は、前記のような技術的課題に限定されず、さらに他の技術的課題が存在しうる。
前記技術的課題を解決するための本実施形態によるアニメーションをインタラクティブに製作する方法は、ユーザーレベルのコンテンツを分析するステップと、前記分析された結果にアニメーション演出知識を規則化した情報を適用することによって、前記アニメーションを表す映像スクリプトを生成するステップと、前記生成された映像スクリプトを保存するステップと、を含む方法を含む。
前記他の技術的課題を解決するために、本発明は、前記アニメーション製作方法をコンピュータで行わせるためのプログラムを記録したコンピュータで読み取り可能な記録媒体を提供する。
前記さらに他の技術的課題を解決するための本実施形態によるアニメーションをインタラクティブに製作する装置は、ユーザーレベルのコンテンツを分析し、前記分析された結果にアニメーション演出知識を規則化した情報を適用することによって、前記アニメーションを表す映像スクリプトを生成して保存する自動演出エンジンを備える。
本発明によれば、ユーザーがアニメーション演出の専門的知識や映像スクリプトの言語が分からない場合であっても専門家レベルのアニメーションを容易に製作できる。
本発明の一実施形態によるアニメーション自動製作装置の構成図である。 図1に示したユーザーインターフェース100のテンプレートの多様な例を示した図である。 図1に示した自動演出エンジン200の構成図である。 図1に示した自動演出エンジン200内でのデータフローを示す図である。 図3及び図4に示した仮想演出部212内に搭載された演出要素の分類体系の一例を示す図である。 図3及び図4に示したカメラ演出部231により決定されるコンディションの一例を示す図である。 図3及び図4に示したカメラ演出部231により決定されるカメラワーク規則のリストを示す図である。 本発明の一実施形態によるアニメーション自動製作方法のフローチャートである。 図8に示した803ステップの詳細フローチャートである。
以下、図面を参照して本発明の実施形態を詳細に説明する。
図1は、本発明の一実施形態によるアニメーション自動製作装置の構成図である。図1を参照すれば、本実施形態によるアニメーション自動製作装置は、ユーザーインターフェース100、自動演出エンジン200、及びスクリプト再生器300で構成される。本実施形態の当業者ならば、本実施形態でのアニメーションが実写映像を含むこともできるということを理解できるであろう。
ユーザーインターフェース100には、ユーザーからアニメーションの製作のためのユーザーレベルのコンテンツが入力される。ここで、ユーザーレベルのコンテンツとは、アニメーション製作に関する専門家的な演出知識が要求されないコンテンツをいい、文字を読んで書くことができるほどの一般的な知識程度が要求されるコンテンツをいう。このように、ユーザーインターフェース100は、いずれかの情報を要請、獲得、選択するためにユーザーとインタラクトできる。本実施形態で、ユーザーレベルのコンテンツは、ユーザーインターフェース100内の任意のアニメーションを定義するための複数のメディア要素のうち、ユーザーが製作しようとするアニメーションを定義するためのメディア要素を選択するための情報を含む。例えば、ユーザーはウェブページ形態で具現されるユーザーインターフェース100内で、メディア要素それぞれに該当するアイコンのうち、自分が製作しようとするアニメーションを定義するためのアイコンをクリックすればよい。
図1を参照すれば、ユーザーインターフェース100には、ユーザーからテンプレートタイプ、ダイアローグ、メディアスタイル、スクリーンショットに該当するコンテンツが入力される。ただし、本実施形態の当業者ならば、ユーザーインターフェース100は前記メディア要素以外に他のタイプのメディア要素に該当するコンテンツを入力されることもできるということが分かる。
ユーザーインターフェース100には、ユーザーからユーザーインターフェース内の入力フォーマットを規定するいろいろなタイプのテンプレートのうち、いずれか一つを選択するための情報が入力される。ここで、テンプレートは、ユーザーの立場で一種の書き込みタイプ(writing type)であるともいえる。
図2は、図1に示したユーザーインターフェース100のテンプレートの多様な例を示した図である。図2を参照すれば、ユーザーインターフェース100のテンプレートの例には、随筆、旅行記、日記、電子メール、手紙、詩、案内書、レシピ、マニュアル、レビュー、記事、発表資料、広告、教育資料、シナリオなどを挙げることができる。
例えば、ユーザーによりユーザーインターフェース100のテンプレートが日記と選択されたならば、ユーザーインターフェース100の入力フォーマットは、日付、天気、本文の構造になる。また、ユーザーによりユーザーインターフェース100のテンプレートがシナリオと選択されたならば、ユーザーインターフェース100の入力形態は、シーン(scene)ナンバー、シーンタイトル、シーン説明、ナレーション、話者、台詞、描写の構造になる。ここで、本文のような項目は数回入力されうる。また、描写のような項目は話者、台詞に従属される項目である。
ユーザーインターフェース100には、ユーザー入力情報によって決定されたテンプレートを通じてユーザーからアニメーションのダイアローグ(dialog)、メディアスタイル(media style)、スクリーンショット(screen shot)などに関するユーザーレベルのコンテンツが入力される。例えば、ユーザーはユーザーインターフェース100のテンプレートに設けられたテキスト入力インターフェースにダイアローグを入力するか、GUI(Graphical User Interface)形態のメニューバー(menu bar)のアイコンをクリックすることによって、メディアスタイルを選択できる。
ダイアローグに関するユーザーレベルのコンテンツは、自動演出エンジン200により決定されたテンプレートが支援するアニメーションのキャラクターのうち、ユーザーが製作しようとするアニメーションに登場するキャラクターを選択するための情報、ユーザーにより作成されたキャラクターの台詞、キャラクターのアクション、感情を表すコマンド、ユーザーから入力されたメディアクリップ(例えば、動画、音楽、写真など)などを含む。
メディアスタイルに関するユーザーレベルのコンテンツは、自動演出エンジン200により決定されたテンプレートが支援する多様なメディアスタイルのうち、ユーザーが製作しようとするアニメーションのスタイルを選択するための情報として、アニメーションのジャンル、場面、雰囲気、時間帯などを選択するための情報、アニメーションに登場するキャラクターの性格を選択するための情報などを含む。
スクリーンショットに関するユーザーレベルのコンテンツは、自動演出エンジン200により決定されたテンプレートが支援する多様な背景のうち、ユーザーが製作しようとするアニメーションの背景を選択するための情報、この背景内でのキャラクターの位置を選択するための情報などを含む。
一方、ダイアローグ、メディアスタイル、スクリーンショットに関するコンテンツは、前記のユーザーレベルのコンテンツ以外に、自動演出エンジン200が保有しているコンテンツも含むことができる。特に、本実施形態でのメディアスタイルに関するコンテンツは、アニメーションのメディアスタイルを表す多様なメディアリソース(例えば、動画、音楽、写真など)を含む。これらのメディアリソースには、ユーザーから入力されたメディアクリップも含まれうる。
現在広く使われているフラッシュ、アドーブプレミアなどの映像製作ツールの場合、ユーザーは該当プログラムの使用法を学ばねばならず、ユーザーが製作しようとする映像を生成するまでカメラ、照明、キャラクター、音響など多くの演出知識が要求される。しかし、本実施形態では映像製作に前記のようなユーザーレベルのコンテンツのみ要求されるため、ユーザーは映像製作ツールの使用法を学ぶ必要がなく、専門家的な演出知識も不要になる。
自動演出エンジン200は、アニメーション演出知識(direction knowledge)を規則化した情報に基づいて、ユーザーインターフェース100に入力されたユーザーレベルのコンテンツからアニメーションを表す映像スクリプトを生成する。ここで、アニメーション演出知識の代表的な例には、アニメーションのシーンそれぞれに対して、アニメーション演出専門家により一般的に決定されるカメラワーク(camera work)、照明(light)、アドリブ(ad−lib)、音響効果(sound effect)、スローイング効果(drawing effect)などを挙げることができる。すなわち、アニメーション演出知識を規則化した情報とは、前記のような例のアニメーション演出知識を複数の規則(rule)で画一化した後、これらをコンピュータで読み取り可能なデータで作った情報を意味する。これらの情報は、XML(Extensible Markup Language)文書の形態で作成されてもよく、データベース形態で作成されてもよい。特に、これらの情報はユーザーにより修正ないし追加が容易になるように設計されうる。
さらに詳細に説明すれば、自動演出エンジン200は、ユーザーインターフェース100に入力されたユーザーレベルのコンテンツを分析し、このように分析された結果にアニメーション演出知識を規則化した情報を適用することによって、映像スクリプトを生成する。
図3は、図1に示した自動演出エンジン200の構成図である。図3を参照すれば、図1に示した自動演出エンジン200は、プランコーディネーター210、規則管理部220、演出部230、及び仮想ライター240で構成される。図4は、図1に示した自動演出エンジン200内でのデータフローを示す図である。
プランコーディネーター210は、アニメーションのメディアスタイル及びスクリーンショットに関するユーザーレベルのコンテンツに基づいて、アニメーションのダイアローグに関するユーザーレベルのコンテンツを分析することによって、アニメーション演出知識を規則化した情報に対応できる演出要素のコンディション(condition)を決定する。プランコーディネーター210は、環境管理部211及び仮想演出部212で構成される。
環境管理部211は、ユーザーインターフェース100を通じて入力されたメディアスタイル及びスクリーンショットに関するユーザーレベルのコンテンツによってアニメーションの環境を設定し、このように設定された環境内でアニメーションの演出の制限事項とこの環境に適したメディアリソースとを決定し、これらを、演出部230を構成する各演出部に出力する。例えば、ユーザーレベルのコンテンツに含まれたアニメーションの時間帯が夕方時間帯ならば、環境管理部211は、アニメーションの環境を照明の暗い環境に設定し、この環境に適していない陽光などをアニメーションの演出の制限事項に決定し、この環境に適したメディアリソース(例えば、夕焼けイメージ)を決定する。
仮想演出部212は、ユーザーインターフェース100を通じて入力されたダイアローグに関するユーザーレベルのコンテンツを、ユーザーが製作しようとするアニメーションの演出の動機ないし情報として作用する最小単位である演出ユニットに分類し、このように分類された演出ユニットそれぞれを、アニメーション演出知識を構成する演出要素の分類体系に対応させることによって各演出ユニットに対応する演出要素のコンディションを決定し、その結果を、ユーザーインターフェース100を通じて入力されたダイアローグに関するユーザーレベルのコンテンツと共に演出部230を構成する各演出部に出力する。
また、仮想演出部212は、ユーザーインターフェース100を通じて入力されたダイアローグに関するユーザーレベルのコンテンツを分析することによって、各演出ユニットに対応する演出要素のアドリブを生成する。例えば、ユーザーインターフェース100を通じて入力されたダイアローグに関するユーザーレベルのコンテンツの一つの演出ユニットが、いずれかのキャラクターに対する承諾に該当する場合、このキャラクターの首が上下にうなずかれるアドリブが生成される。
図5は、図3及び図4に示した仮想演出部212内に搭載された演出要素の分類体系の一例を示す図である。図5を参照すれば、演出要素は、場面カテゴリー、キャラクターカテゴリー、モーションカテゴリーに大別される。本実施形態の当業者ならば、前記のカテゴリー以外に他のカテゴリーが追加されうるということを理解できるであろう。
場面カテゴリーは再び、物理的場所(例えば、海浜、広場など)、ジャンル(例えば、映画、トークショーなど)、場面(例えば、対話、追撃など)、雰囲気(例えば、ホラー、ロマンチックなど)、時間帯(例えば、朝、夕方など)などのクラスに分類される。キャラクターカテゴリーは再び、物理的形態(例えば、男性、女性など)、性格(例えば、内向的、外向的など)、役割(例えば、主演、助演など)、職業(例えば、会社員、医者、警察など)などのクラスに分類される。モーションカテゴリーは再び、物理的形態(例えば、頭、上半身、下半身、全身など)、動作範囲(例えば、一人でする動作、キャラクターとキャラクターとが関連した動作、キャラクターと小品とが関連した動作など)などのクラスに分類される。
例えば、ユーザーインターフェース100を通じて入力されたダイアローグに関するユーザーレベルのコンテンツの一つの演出ユニットが、海浜での男女間の恋の対話である場合、場面カテゴリーに対しては海浜、映画、対話、ロマンチック、夕方、キャラクターカテゴリーに対しては男性、女性の2人のキャラクター、内向的、モーションカテゴリーに対しては全身、全身動作を表す演出要素のコンディションが決定される。
演出部230は、アニメーション演出知識を規則化した情報に含まれた演出規則のうち、プランコーディネーター210により決定されたコンディションに基づいて少なくとも一つの演出規則を決定し、このように決定された演出規則によってユーザーが製作しようとするアニメーションの演出結果物を生成する。ただし、アニメーション演出知識を規則化した情報に含まれた演出規則のうち、少なくとも一つの演出規則を決定する機能は、演出部230により行われてもよく、規則管理部220により行われてもよい。もし、アニメーション演出知識を規則化した情報に含まれた演出規則のうち、少なくとも一つの演出規則を決定する機能が規則管理部220により行われる場合、演出部230は規則管理部220に、アニメーション演出知識を規則化した情報に含まれた演出規則のうち、少なくとも一つの演出規則を決定することを要請し、規則管理部220からこの要請に対する応答に該当する演出規則を獲得し、このように獲得された演出規則によってユーザーが製作しようとするアニメーションの演出結果物を生成する。ここで、演出結果物とは、演出規則をXML文書などの形態でデータ化したものを意味する。
さらに詳細に説明すれば、演出部230は、仮想演出部212から出力された各演出ユニットに対応する演出要素のコンディションに対して、アニメーションの多様な演出分野の特性を考慮して、仮想演出部212から出力されたダイアローグに関するユーザーレベルのコンテンツを分析することによって、さらに細部的な演出要素のコンディションを決定し、アニメーション演出知識を規則化した情報に含まれた演出規則のうち、このような決定されたコンディションに該当する少なくとも一つの演出規則を決定する。また、演出部230は、このように決定された演出規則のうち、環境管理部211から入力された演出制限事項を除いて、環境管理部211により決定されたメディアリソースに適した演出規則を選択する。もし、環境管理部211により決定されたメディアリソースに適した演出規則が複数である場合、演出部230は、あらかじめ定められた演出規則間の優先順位によっていずれか一つを選択する。
演出部230は、カメラ演出部231、キャラクター演出部232、編集演出部233、照明演出部234、アート演出部235、及びサウンド演出部236で構成される。ただし、本実施形態の当業者ならば、自動演出エンジン200は、前記の演出部以外に他の機能を演出する演出部をさらに備えることができるということが分かる。カメラ演出部231は、仮想演出部212から出力された各演出ユニットに対応する演出要素のコンディションに対して、カメラ演出分野の特性を考慮して仮想演出部212から出力されたダイアローグに関するユーザーレベルのコンテンツを分析することによって、さらに細部的な演出要素のコンディションを決定する。
図6は、図3及び図4に示したカメラ演出部231により決定されるコンディションの一例を示す図である。図6を参照すれば、カメラ演出部231は、仮想演出部212から出力されたいずれかの演出ユニットに対応する演出要素のコンディション(すなわち、ジャンルのタイプ、場面のタイプ、雰囲気のタイプ、時間帯のタイプ、物理的場所のタイプ)で、この演出ユニットがカメラに対する演出規則が転換(trigger)されうるシーケンス(sequence)であるかどうかを確認して、図7のカメラワーク規則を適用する。
例えば、仮想演出部212から出力されたいずれかの演出ユニットに対応する演出要素のコンディションが、ドラマ、三者ダイアローグ、ロマンチック、室外、スローである環境で抱擁、キス、感動のモーションシーケンスに該当するならば、カメラ演出部231は、この演出ユニットのコンディションを“1”に決定する。カメラ演出部231は、この演出ユニットに連続する次の演出ユニットが、前記の“1”ではない他のコンディションであるかを確認し、その結果、他のコンディションならば、コンディションを転換する。
図7は、図3及び図4に示したカメラ演出部231により決定されるカメラワーク規則のリストを示す図である。図7を参照すれば、カメラ演出部231は、前記のように決定された演出ユニットのコンディション、すなわち、“1”に該当する演出規則を決定する。図7では演出ユニットのコンディション、すなわち、“1”に該当する演出規則は円形トラッキング(round tracking)になる。カメラ演出部231は、このような円形トラッキングという演出規則をXML文書などの形態でデータ化することによって、ユーザーが製作しようとするアニメーションのカメラ演出結果物を生成する。特に、“1”に該当する演出規則には、円形トラッキングというカメラ演出効果を表すためのカメラのショットアングル、ショットサイズ、ショットルームなどについての情報が含まれている。
キャラクター演出部232は、仮想演出部212から出力された各演出ユニットに対応する演出要素のコンディションに対して、キャラクター演出分野の特性を考慮して仮想演出部212から出力されたダイアローグに関するユーザーレベルのコンテンツを分析することによって、さらに細部的な演出要素のコンディションを決定する。編集演出部233は、仮想演出部212から出力された各演出ユニットに対応する演出要素のコンディションに対して、編集演出分野の特性を考慮して仮想演出部212から出力されたダイアローグに関するユーザーレベルのコンテンツを分析することによって、さらに細部的な演出要素のコンディションを決定する。照明演出部234は、仮想演出部212から出力された各演出ユニットに対応する演出要素のコンディションに対して、照明演出分野の特性を考慮して仮想演出部212から出力されたダイアローグに関するユーザーレベルのコンテンツを分析することによって、さらに細部的な演出要素のコンディションを決定する。
アート演出部235は、仮想演出部212から出力された各演出ユニットに対応する演出要素のコンディションに対して、アート演出分野の特性を考慮して仮想演出部212から出力されたダイアローグに関するユーザーレベルのコンテンツを分析することによって、さらに細部的な演出要素のコンディションを決定する。一般的に、アートとは、3D(3 Dimensional)空間またはアニメーションが再生される画面全体または一部分にグラフィックテキスト、イメージ、そしてこれらの動作形態などを意味する。アート演出部235は、例えば、字幕の挿入時点、挿入部分、フォント、サイズなどを決定する。サウンド演出部236は、仮想演出部212から出力された各演出ユニットに対応する演出要素のコンディションに対して、サウンド演出分野の特性を考慮して仮想演出部212から出力されたダイアローグに関するユーザーレベルのコンテンツを分析することによって、さらに細部的な演出要素のコンディションを決定する。
規則管理部220は、演出部230の要請に応じてアニメーション演出知識を規則化した情報に含まれた演出規則のうち、プランコーディネーター210により決定された演出要素のコンディションに基づいて少なくとも一つの演出規則を決定し、その決定結果を演出部230に出力する。さらに詳細に説明すれば、規則管理部220は、演出部230を構成する各演出部の要請に応じて、アニメーション演出知識を規則化した情報に含まれた演出規則のうち、各演出部により決定されたさらに細部的な演出要素のコンディションによって少なくとも一つの演出規則を決定し、その決定結果を演出部230に出力する。
本実施形態によれば、アニメーション演出知識を規則化した情報は、一般規則(general rule)、スタイル規則(stylish rule)、ケース規則(case−based rule)で構成される。一般規則は、最も自然なアニメーション映像を表現するために一般的に使われてきた演出技法(例えば、180°法則、画面構図設定法など)を意味する。スタイル規則は、ユーザーが所望する特定演出効果を表すために典型的に使われてきた演出技法を称する言葉であるクリシェ(cliche)をデータベースとして構築したものであって、例えば、ロマンチックな雰囲気で二人間の感情状態を描写するための円形トラックを利用したカメラワークがある。
規則管理部220は、アニメーション演出知識を規則化した情報に含まれた複数の演出規則のうち、各演出部により決定された演出要素のコンディションに対応するスタイル規則が存在するかどうかを確認し、その結果、存在すれば、このスタイル規則を各演出部に出力する。もし、演出要素のコンディションに対応するスタイル規則が存在していなければ、規則管理部220は、アニメーション演出知識を規則化した情報に含まれた複数の演出規則のうち、各演出部により決定された演出要素のコンディションに対応するケース規則を各演出部に出力する。特に、規則管理部220は、前記のように決定されたスタイル規則、ケース規則が各演出部により決定された演出要素のコンディションに対応する一般規則に違反するかどうかを確認し、その結果、違反していない場合にのみスタイル規則、ケース規則を各演出部に出力し、違反した場合にはこの一般規則を各演出部に出力する。
前記のような一般規則、スタイル規則、ケース規則のうち一部に関する情報は、各演出部が保有してもよい。特に、一般規則の場合には、その修正ないし変更が一般的に行われないため、各演出部内にプログラムコードの形態で保存されうる。このようにすることで、規則管理部220と各演出部間の通信過程が低減して、全体システムの処理効率が向上できる。また、規則管理部220は、アニメーション演出知識を規則化した情報以外にアニメーション演出要素の分類体系も保有できる。この場合には、プランコーディネーター210が規則管理部220に、各演出ユニットに対応する演出要素のコンディションを決定することを要請すれば、規則管理部220は、演出ユニットそれぞれをアニメーション演出知識を構成する演出要素の分類体系に対応させることによって、各演出ユニットに対応する演出要素のコンディションを決定し、その結果をプランコーディネーター210に出力する。
仮想ライター240は、演出部230により生成された演出結果物、仮想演出部212により生成されたアドリブをXML文法によって作成することによって、ユーザーが製作しようとするアニメーションを表す映像スクリプトを生成する。さらに詳細に説明すれば、仮想ライター240は、演出部230を構成する各演出部により生成された演出結果物を、この演出結果物の時間的動機が一致するように結合した後、でXML文法によって作成することによって、ユーザーが製作しようとするアニメーションを表す映像スクリプトを生成する。ただし、仮想ライター240の一部機能はプランコーディネーター210で具現されることもある。
スクリプト再生器300は、自動演出エンジン200により生成された映像スクリプトを再生することによってアニメーションの映像を出力する。前記のように、自動演出エンジン200により映像スクリプトが自動で生成されるため、ユーザーには映像スクリプトを作成するための知識が要求されず、文字を読んで書くほどの知識を持つ者ならば誰でも容易に本実施形態を利用してアニメーションを製作できる。特に、アニメーションスクリプトはその容量が小さくて修正が容易なため、他ユーザーとの共有に大きい長所があり、多様な人間との協力製作などの応用に容易に適用できる。
図8は、本発明の一実施形態によるアニメーション自動製作方法のフローチャートである。図8を参照すれば、本実施形態によるアニメーション自動製作方法は、図1に示したアニメーション自動製作装置で時系列的に処理されるステップで構成される。したがって、以下省略された内容であっても、図1に示したアニメーション自動製作装置に関して以上で記述された内容は、本実施形態によるアニメーション自動製作方法にも適用される。
801ステップで、ユーザーインターフェース100には、ユーザーからユーザーインターフェース内の入力フォーマットを規定するいろいろなタイプのテンプレートのうち、いずれか一つを選択するための情報が入力される。
802ステップで、ユーザーインターフェース100には、ユーザー入力情報によって決定されたテンプレートを通じて、ユーザーからアニメーションのダイアローグ、メディアスタイル、スクリーンショットに関するユーザーレベルのコンテンツが入力される。
803ステップで、自動演出エンジン200は、アニメーション演出知識を規則化した情報に基づいて、802ステップで入力されたユーザーレベルのコンテンツからアニメーションを表す映像スクリプトを生成する。
804ステップで、スクリプト再生器300は、803ステップで生成された映像スクリプトを再生することによってアニメーションの映像を出力する。また、804ステップで映像スクリプトは、例えば、不揮発性メモリまたは揮発性メモリに保存されうる。
図9は、図8に示した803ステップの詳細フローチャートである。図9を参照すれば、図8に示した803ステップは、図3及び図4に示した自動演出エンジン200で時系列的に処理されるステップで構成される。したがって、以下省略された内容であっても、図3及び図4に示した自動演出エンジン200に関して以上で記述された内容は、次の各ステップにも適用される。
901ステップで、プランコーディネーター210は、ユーザーインターフェース100を通じて入力されたメディアスタイル及びスクリーンショットに関するユーザーレベルのコンテンツによってアニメーションの環境を設定する。
902ステップで、プランコーディネーター210は、901ステップで設定された環境内で、アニメーションの演出の制限事項とこの環境に適したメディアリソースとを決定する。
903ステップで、プランコーディネーター210は、ユーザーインターフェース100を通じて入力されたダイアローグに関するユーザーレベルのコンテンツを、ユーザーが製作しようとするアニメーションの演出の動機ないし情報として作用する最小単位である演出ユニットに分類する。
904ステップで、プランコーディネーター210は、903ステップで分類された演出ユニットそれぞれを、アニメーション演出知識を構成する演出要素の分類体系に対応させることによって、各演出ユニットに対応する演出要素のコンディションを決定する。このステップは、規則管理部220により行われてもよい。
905ステップで、プランコーディネーター210は、ユーザーインターフェース100を通じて入力されたダイアローグに関するユーザーレベルのコンテンツを分析することによって、各演出ユニットに対応する演出要素のアドリブを生成する。
906ステップで、演出部230は、904ステップで決定されたコンディションに対してアニメーションの多様な演出分野の特性を考慮して、ダイアローグに関するユーザーレベルのコンテンツを分析することによって、さらに細部的な演出要素のコンディションを決定する。
907ステップで、規則管理部220は、アニメーション演出知識を規則化した情報に含まれた演出規則のうち、906ステップで決定されたコンディションに該当する少なくとも一つの演出規則を決定する。さらに詳細に説明すれば、907ステップで規則管理部220は、アニメーション演出知識を規則化した情報に含まれた複数の演出規則のうち、906ステップで決定されたコンディションに対応するスタイル規則が存在するかどうかを確認し、その結果、存在すれば、このスタイル規則と決定し、そうでなければ、906ステップで決定されたコンディションに対応するケース規則と決定する。次いで、規則管理部220は、前記のように決定されたスタイル規則、ケース規則が各演出部により決定された演出要素のコンディションに対応する一般規則に違反するかどうかを確認し、その結果、違反していない場合にのみスタイル規則、ケース規則と決定し、違反した場合には一般規則と決定する。907ステップの全体過程ないし一部過程は、演出部230により行われてもよい。
908ステップで、演出部230は、907ステップで決定された演出規則のうち、902ステップで決定された演出制限事項を除いて、902ステップで決定されたメディアリソースに適した演出規則を選択し、選択された演出規則が複数である場合、あらかじめ定められた演出規則間の優先順位によっていずれか一つを選択する。
909ステップで、演出部230は、907及び908ステップで決定ないし選択された演出規則によって、ユーザーが製作しようとするアニメーションの演出結果物を生成する。
910ステップで、演出部230は、909ステップで生成された演出結果物、905ステップで生成されたアドリブをXML文法によって作成することによって、ユーザーが製作しようとするアニメーションを表す映像スクリプトを生成する。
前記のような実施形態によれば、アニメーション演出知識を規則化した情報に基づいて、ユーザーレベルのコンテンツからアニメーションを表す映像スクリプトを自動で生成することによって、ユーザーがアニメーション演出の専門的知識や映像スクリプトの言語が分からない場合であっても、カメラ、音響、キャラクター、照明、スローイング効果などがリアルタイムで演出された専門家レベルのアニメーションを容易に製作できる。特に、映像製作者は、前記のように生成された映像スクリプトを、スクリプト再生器を通じて再生することによって、リアルタイムで自分が製作したアニメーションを確認することができる。
一方、前述した本発明の実施形態は、コンピュータで実行できるプログラムで作成可能であり、コンピュータで読み取り可能な記録媒体を利用して前記プログラムを動作させる汎用ディジタルコンピュータで具現できる。また、前述した本発明の実施形態で使われたデータの構造は、コンピュータで読み取り可能な記録媒体にいろいろな手段を通じて記録できる。前記コンピュータで読み取り可能な記録媒体は、マグネチック記録媒体(例えば、ROM、フロッピー(登録商標)ディスク、ハードディスクなど)、光学的判読媒体(例えば、CD−ROM、DVDなど)のような記録媒体を含む。
これまで本発明についてその望ましい実施形態を中心に説明した。当業者ならば、本発明が本発明の本質的な特性から逸脱しない範囲で変形された形態で具現できるということを理解できるであろう。したがって、開示された実施形態は、限定的な観点ではなく説明的な観点で考慮されねばならない。本発明の範囲は、前述した説明ではなく特許請求の範囲に表れており、これと同等な範囲内にあるあらゆる差異点は本発明に含まれていると解釈されねばならない。
本発明は、映像制作ツールに好適に用いられる。
200 自動演出エンジン
210 プランコーディネーター
211 環境管理部
212 仮想演出部
220 規則管理部
230 演出部
231 カメラ演出部
232 キャラクター演出部
233 編集演出部
234 照明演出部
235 アート演出部
236 サウンド演出部
240 仮想ライター

Claims (15)

  1. コンピュータを使用して、アニメーションをインタラクティブに製作する方法において、
    ユーザーレベルのコンテンツを分析するステップと、
    アニメーション演出知識を規則化した情報のDBから該当する演出規則を取り出し、前記分析された結果に適用することによって、前記アニメーションを表す映像スクリプトを生成するステップと、
    前記生成された映像スクリプトを不揮発性メモリまたは揮発性メモリに保存するステップと、
    を含み、
    前記ユーザーレベルのコンテンツは、ユーザーインターフェース内の任意のアニメーションを定義するための複数のメディア要素のうち、前記アニメーションを定義するためのメディア要素を選択するための情報を含み、
    前記ユーザーレベルのコンテンツは、さらに、ユーザーインターフェースの入力フォーマットを規定するいろいろなタイプのテンプレートのうち、いずれか一つを選択するための情報を含み、
    前記ユーザーレベルのコンテンツを入力されるステップは、前記ユーザーレベルのコンテンツによって決定されたテンプレートを通じて、前記アニメーションのダイアローグ、メディアスタイル、スクリーンショットのうち少なくとも一つに関するユーザーレベルのコンテンツを入力され、
    前記ダイアローグに関するユーザーレベルのコンテンツは、キャラクターを選択するための情報、キャラクターの台詞、キャラクターのアクション、感情をあらわすコマンド、入力されたメディアクリップ、のうち少なくとも一つを含み、
    前記メディアスタイルに関するユーザーレベルのコンテンツは、アニメーションのジャンル、場所、雰囲気、時間帯を選択するための情報、アニメーションに登場するキャラクターの性格を選択するための情報、のうち少なくとも一つを含み、
    前記スクリーンショットに関するユーザーレベルのコンテンツは、アニメーションの背景を選択するための情報、背景内でのキャラクターの位置を選択するための情報、のうち少なくとも一つを含む、
    ことを特徴とする方法。
  2. 前記映像スクリプトを生成するステップは、
    前記ユーザーレベルのコンテンツを分析することによって、前記情報に対応できる演出要素のコンディションを決定するステップと、
    前記情報に含まれた演出規則のうち、前記決定されたコンディションに基づいて少なくとも一つの演出規則を決定するステップと、
    前記決定された演出規則によって前記アニメーションの演出結果物を生成するステップと、を含む請求項1に記載の方法。
  3. 前記ユーザーレベルのコンテンツを、ユーザーが製作しようとするアニメーションの演出の動機ないし情報として作用する最小単位である演出ユニットに分類するステップをさらに含み、
    前記コンディションを決定するステップは、前記分類された演出ユニットそれぞれをアニメーション演出知識を構成する演出要素の分類体系に対応させることによって、各演出ユニットに対応する演出要素のコンディションを決定することを特徴とする請求項2に記載の方法。
  4. 前記ユーザーレベルのコンテンツを分析することによって各演出ユニットに対応する演出要素のアドリブを生成するステップをさらに含むことを特徴とする請求項3に記載の方法。
  5. 前記決定されたコンディションに対して、アニメーションの多様な演出分野の特性を考慮してダイアローグに関するユーザーレベルのコンテンツを分析することによって、さらに細部的な演出要素のコンディションを決定するステップをさらに含み、
    前記演出規則を決定するステップは、前記細部的なコンディションに該当する少なくとも一つの演出規則を決定することを特徴とする請求項2に記載の方法。
  6. 前記ユーザーレベルのコンテンツによって設定されたアニメーションの環境内でアニメーションの演出の制限事項を決定するステップをさらに含み、
    前記演出規則を決定するステップは、前記決定された演出規則から前記決定された演出制限事項を除いた後で演出規則を選択することを特徴とする請求項2に記載の方法。
  7. 前記決定された演出規則が複数である場合、あらかじめ定められた演出規則間の優先順位によっていずれか一つを選択するステップをさらに含み、
    前記演出結果物を生成するステップは、前記優先順位によって選択された演出規則によって前記アニメーションの演出結果物を生成することを特徴とする請求項2に記載の方法。
  8. 前記演出規則を決定するステップは、アニメーション演出知識を規則化した情報に含まれたスタイル規則、ケース規則、一般規則のうち、いずれか一つを演出規則として決定することを特徴とする請求項2に記載の方法。
  9. 前記映像スクリプトを再生することによって前記アニメーションの映像を出力するステップを含む請求項1に記載の方法。
  10. 請求項1ないしのうち、いずれか1項に記載の方法をコンピュータで行わせるためのプログラムを記録したコンピュータで読み取り可能な記録媒体。
  11. コンピュータを使用して、アニメーションをインタラクティブに製作する装置において、
    ユーザーレベルのコンテンツを分析しアニメーション演出知識を規則化した情報のDBから該当する演出規則を取り出し、前記分析された結果に適用することによって、前記アニメーションを表す映像スクリプトを生成して不揮発性メモリまたは揮発性メモリに保存する自動演出エンジンと、
    ユーザーから前記アニメーションの製作のためのユーザーレベルのコンテンツを入力されるユーザーインターフェースと、を備え、
    前記ユーザーレベルのコンテンツは、ユーザーインターフェース内の任意のアニメーションを定義するための複数のメディア要素のうち、前記アニメーションを定義するためのメディア要素を選択するための情報を含み、
    前記ユーザーレベルのコンテンツは、さらに、ユーザーインターフェースの入力フォーマットを規定するいろいろなタイプのテンプレートのうち、いずれか一つを選択するための情報を含み、
    前記ユーザーレベルのコンテンツの入力は、前記ユーザーレベルのコンテンツによって決定されたテンプレートを通じて、前記アニメーションのダイアローグ、メディアスタイル、スクリーンショットのうち少なくとも一つに関するユーザーレベルのコンテンツであり、
    前記ダイアローグに関するユーザーレベルのコンテンツは、キャラクターを選択するための情報、キャラクターの台詞、キャラクターのアクション、感情をあらわすコマンド、入力されたメディアクリップ、のうち少なくとも一つを含み、
    前記メディアスタイルに関するユーザーレベルのコンテンツは、アニメーションのジャンル、場所、雰囲気、時間帯を選択するための情報、アニメーションに登場するキャラクターの性格、のうち少なくとも一つを含み、
    前記スクリーンショットに関するユーザーレベルのコンテンツは、ユーザーが製作しようとするアニメーションの背景を選択するための情報、背景内でのキャラクターの位置を選択するための情報、のうち少なくとも一つを含む、
    ことを特徴とする装置。
  12. 前記自動演出エンジンは、前記ユーザーレベルのコンテンツを分析することによって前記情報に対応できる演出要素のコンディションを決定し、前記情報に含まれた演出規則のうち、前記決定されたコンディションに基づいて少なくとも一つの演出規則を決定し、前記決定された演出規則によって前記アニメーションの演出結果物を生成することを特徴とする請求項11に記載の装置。
  13. 前記ユーザーレベルのコンテンツは、ユーザーインターフェース内の任意のアニメーションを定義するための複数のメディア要素のうち、前記アニメーションを定義するためのメディア要素を選択するための情報を含むことを特徴とする請求項11に記載の装置。
  14. 前記ユーザーレベルのコンテンツは、ユーザーインターフェースの入力フォーマットを規定するいろいろなタイプのテンプレートのうち、いずれか一つを選択するための情報をさらに含み、
    前記ユーザーレベルのコンテンツを入力されるステップは、前記ユーザーレベルのコンテンツによって決定されたテンプレートを通じて、ユーザーから前記アニメーションのダイアローグ、メディアスタイル、スクリーンショットのうち少なくとも一つに関するユーザーレベルのコンテンツを入力されることを特徴とする請求項13に記載の装置。
  15. 前記映像スクリプトを再生することによって前記アニメーションの映像を出力する再生器をさらに備える請求項11に記載の装置。
JP2009166011A 2008-07-14 2009-07-14 アニメーション製作方法及び装置 Expired - Fee Related JP5432617B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20080068361 2008-07-14
KR10-2008-0068361 2008-07-14
KR1020090033635A KR20100007702A (ko) 2008-07-14 2009-04-17 애니메이션 제작 방법 및 장치
KR10-2009-0033635 2009-04-17

Publications (3)

Publication Number Publication Date
JP2010020781A JP2010020781A (ja) 2010-01-28
JP2010020781A5 JP2010020781A5 (ja) 2010-10-21
JP5432617B2 true JP5432617B2 (ja) 2014-03-05

Family

ID=40929500

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009166011A Expired - Fee Related JP5432617B2 (ja) 2008-07-14 2009-07-14 アニメーション製作方法及び装置

Country Status (5)

Country Link
US (1) US20100013836A1 (ja)
EP (1) EP2146322A1 (ja)
JP (1) JP5432617B2 (ja)
KR (1) KR20100007702A (ja)
CN (1) CN101639943B (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010006063A1 (en) 2008-07-08 2010-01-14 Sceneplay, Inc. Media generating system and method
KR101458139B1 (ko) * 2008-09-18 2014-11-05 삼성전자 주식회사 연출규칙을 이용한 카메라웍 제어장치 및 그 제어방법
EP2532871B1 (en) 2010-02-01 2016-03-16 Bando Kiko Co., Ltd Reciprocating engine
CN102136154B (zh) * 2010-11-18 2012-12-12 彭浩明 一种动漫制作方法及装置
CN102509328A (zh) * 2011-09-30 2012-06-20 中兴通讯股份有限公司 日记文件生成方法和装置
CN102522016B (zh) * 2011-12-23 2014-07-16 刘焯琛 一种智能交互的远程教育***
CN103854300B (zh) * 2012-12-07 2016-12-21 江苏省电力公司 多客户端联网控制下三维场景协作搬运的实现方法
US20160071302A1 (en) * 2014-09-09 2016-03-10 Mark Stephen Meadows Systems and methods for cinematic direction and dynamic character control via natural language output
KR101651928B1 (ko) 2015-02-05 2016-08-29 주식회사 윌드림 스타일시트 애니메이션을 이용한 이펍 애니메이션의 실시간 생성 및 재생방법과 이를 이용한 이펍 애니메이션 생성 및 재생 시스템
CN104793745B (zh) * 2015-04-17 2018-06-05 范剑斌 一种在移动终端上的人机交互方法
KR102403512B1 (ko) 2015-04-30 2022-05-31 삼성전자주식회사 공기 조화기의 실외기, 이에 적용되는 컨트롤 장치
US20170124448A1 (en) * 2015-10-30 2017-05-04 Northrop Grumman Systems Corporation Concurrent uncertainty management system
CN109684487A (zh) * 2018-11-06 2019-04-26 北京小小牛创意科技有限公司 媒体文件及其生成方法和播放方法
US11068284B2 (en) * 2019-07-25 2021-07-20 Huuuge Global Ltd. System for managing user experience and method therefor
CN111638845B (zh) * 2020-05-26 2022-02-11 维沃移动通信有限公司 动画元素获取方法、装置和电子设备
US20230310995A1 (en) * 2022-03-31 2023-10-05 Advanced Micro Devices, Inc. Detecting personal-space violations in artificial intelligence based non-player characters
KR102508765B1 (ko) * 2022-05-06 2023-03-14 (주) 스튜디오 애니 인공 신경망 기반의 사용자 맞춤 메타 콘텐츠 제공 시스템 및 그 방법

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08263681A (ja) * 1995-03-22 1996-10-11 Matsushita Electric Ind Co Ltd アニメーション作成装置およびその方法
JPH09167251A (ja) * 1995-12-14 1997-06-24 Canon Inc アニメーション生成装置及びその方法
US6636219B2 (en) * 1998-02-26 2003-10-21 Learn.Com, Inc. System and method for automatic animation generation
JP2000036057A (ja) * 1998-07-21 2000-02-02 Hitachi Ltd キャラクタの動作生成方法
JP2006196017A (ja) * 1999-02-26 2006-07-27 Toshiba Corp アニメーション作成装置および方法、記憶媒体
JP2002109566A (ja) * 2000-09-22 2002-04-12 Taiwan Mukojo Kagi Kofun Yugenkoshi 3dアニメ製作加速方法
JP3744792B2 (ja) * 2000-12-04 2006-02-15 株式会社ハドソン 絵本作成システム、絵本作成用サーバおよび記録媒体
BR0213202A (pt) * 2001-10-11 2004-08-31 Yappa Corp Sistema de exibição de imagem 3d baseado na rede
JP4245433B2 (ja) * 2003-07-23 2009-03-25 パナソニック株式会社 動画作成装置および動画作成方法
US7555717B2 (en) * 2004-04-30 2009-06-30 Samsung Electronics Co., Ltd. Method for displaying screen image on mobile terminal
TW200540732A (en) * 2004-06-04 2005-12-16 Bextech Inc System and method for automatically generating animation
KR100678120B1 (ko) * 2004-11-01 2007-02-02 삼성전자주식회사 이동통신 단말기에서 3d 애니메이션 파일을 제공하기 위한 장치 및 방법
US7412389B2 (en) * 2005-03-02 2008-08-12 Yang George L Document animation system
CN1326093C (zh) * 2005-09-09 2007-07-11 湖南互动传媒有限公司 交互式动画节目的制作及播放方法
US20110126106A1 (en) * 2008-04-07 2011-05-26 Nitzan Ben Shaul System for generating an interactive or non-interactive branching movie segment by segment and methods useful in conjunction therewith

Also Published As

Publication number Publication date
JP2010020781A (ja) 2010-01-28
CN101639943B (zh) 2013-10-30
CN101639943A (zh) 2010-02-03
KR20100007702A (ko) 2010-01-22
US20100013836A1 (en) 2010-01-21
EP2146322A1 (en) 2010-01-20

Similar Documents

Publication Publication Date Title
JP5432617B2 (ja) アニメーション製作方法及び装置
Manovich AI aesthetics
US10679063B2 (en) Recognizing salient video events through learning-based multimodal analysis of visual features and audio-based analytics
US11263397B1 (en) Management of presentation content including interjecting live feeds into presentation content
US6072479A (en) Multimedia scenario editor calculating estimated size and cost
CN101300567B (zh) 在Web上的媒体共享和创作的方法
US10319409B2 (en) System and method for generating videos
KR102294134B1 (ko) 하이브리드 슬라이드-캔버스 프리젠테이션을 합성하기 위한 저작 도구
DE102019003698A1 (de) Animationserzeugungssystem
US20130346843A1 (en) Displaying documents based on author preferences
CN104735468A (zh) 一种基于语义分析将图像合成新视频的方法及***
US11676382B2 (en) Systems and methods for generating composite media using distributed networks
US10943371B1 (en) Customizing soundtracks and hairstyles in modifiable videos of multimedia messaging application
JP2019185738A (ja) コンテンツメディアにテキスト要約を関連付けるためのシステム及び方法、プログラム、及びコンピュータ装置
KR102313203B1 (ko) 인공지능 콘텐츠 창작 시스템 및 방법
Jahanlou et al. Katika: An end-to-end system for authoring amateur explainer motion graphics videos
KR101804679B1 (ko) 스토리에 기초하는 멀티미디어 콘텐츠 개발 장치 및 방법
He et al. Revamping interior design workflow through generative artificial intelligence
CN115917647A (zh) 自动非线性编辑风格转移
KR102678148B1 (ko) 인공지능을 이용한 영상 제작용 스토리보드 생성 방법 및 장치
US20240249457A1 (en) System and method to generating video by text
Jahanlou End-to-end, example-based motion graphics video authoring for casual motion designers
Kato et al. Griffith: A Storyboarding Tool Designed with Japanese Animation Professionals
van den Nieuwenhuijzen From Support to Disruption: Highlighting the discrepancy between user needs, current AI offerings and research focus for professional video creators, a situated user study.
Warner Enhancing Visual Media Through Reflection and Recomposition

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100907

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120330

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130730

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131206

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees