JP5676610B2 - 画像シーケンスの関心領域に基づくアーティファクト低減のためのシステム及び方法 - Google Patents

画像シーケンスの関心領域に基づくアーティファクト低減のためのシステム及び方法 Download PDF

Info

Publication number
JP5676610B2
JP5676610B2 JP2012524680A JP2012524680A JP5676610B2 JP 5676610 B2 JP5676610 B2 JP 5676610B2 JP 2012524680 A JP2012524680 A JP 2012524680A JP 2012524680 A JP2012524680 A JP 2012524680A JP 5676610 B2 JP5676610 B2 JP 5676610B2
Authority
JP
Japan
Prior art keywords
region
frame
algorithm
interest
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012524680A
Other languages
English (en)
Other versions
JP2013502147A (ja
Inventor
グオ,ジュ
ルオ,イン
ルラッチ,ジョーン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2013502147A publication Critical patent/JP2013502147A/ja
Application granted granted Critical
Publication of JP5676610B2 publication Critical patent/JP5676610B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Picture Signal Circuits (AREA)

Description

本発明は、概してデジタル画像処理及びディスプレイ・システムに関し、より詳細には、特にユーザ・フィードバックを効率的に組み込み、ユーザの努力を最小化し及び適応して画像を処理する、画像内のアーティファクトを低減するシステム及び方法に関する。
画像アーティファクトは、デジタル画像又はフィルム内の画像シーケンスのような画像の処理中に気付かれる。一般的なアーティファクト現象はバンディング(誤った輪郭としても知られる)であり、強度及び色レベルの変化する筋(band)が画像の元の円滑な線形遷移領域で表示されるものである。色補正、スケーリング、色空間変換及び圧縮のような処理は、バンディング効果を導入しうる。バンディングは、画像が人間により作り出され高周波数成分及び最小雑音を有するアニメーション素材で最も高頻度に見られる。限られた帯域幅のどんな処理も、エイリアス、「リンギング」又はバンディングをやむを得ず生じてしまう。
既存の画像処理システムは、標準的に低レベル特徴に基づき画像を処理する。このようなシステムでは、大部分の人間の相互作用は、処理パラメータの初期設定を含む。処理の後、結果はユーザ/オペレータにより評価される。所望の結果が達成されない場合、新しいパラメータが用いられ画像を再処理してもよい。ビデオ処理では、膨大な数のフレームを処理する必要があるため、この手法は甚大な努力を必要とする。既存のビデオ処理システムでは、同じ初期設定が、通常全てのビデオ・フレームに適用される。しかしながら、処理中にエラーが生じた場合、処理は取り消され、ユーザは新しいパラメータを再入力することにより処理を再開しうる。これらの種類の既存のシステムは、最適ではなく、ユーザにとって非常に不便でありうる。さらに、これらのシステムは、ユーザ・フィードバック情報を処理の実行中に適切に取り入れることができない。
したがって、画像内のアーティファクトを低減する、前述の問題を解決するシステム及び方法が必要である。本願明細書に記載される本発明は、上述の及び/又は他の問題を解決し、画像内のアーティファクトを低減する、特にユーザ・フィードバックを効率的に組み込み、ユーザの努力を最小化し、画像を適応して処理するシステム及び方法を提供する。
本発明の一態様によると、複数のフレームを有する動画を処理する方法が開示される。例示的な実施形態によると、この方法は、アルゴリズムを実行して第1のフレームの第1の領域内のアーティファクトを除去するステップであって、該第1の領域の外側の領域は影響を受けない、前記ステップと、前記第1のフレームに続く第2のフレームの第2の領域を識別するステップであって、該第2のフレームの第2の領域は前記第1のフレームの第1の領域に対応する、前記ステップと、前記第2の領域を示した第2のフレームを表示するステップと、前記第2の領域内の第3の領域を定める第1のユーザ入力を受信するステップと、前記アルゴリズムを実行して前記第2の領域内であって前記第3の領域以外のアーティファクトを除去するステップと、を含む。
本発明の別の態様によると、複数のフレームを有する動画を処理する別の方法が開示される。例示的な実施形態によると、方法は、アルゴリズムを実行して第1のフレームの第1の領域内のアーティファクトを除去するステップであって、該第1の領域の外側の領域は影響を受けない、前記ステップと、前記第1のフレームに続く第2のフレームの第2の領域を識別するステップであって、該第2のフレームの第2の領域は前記第1のフレームの第1の領域に対応する、前記ステップと、前記第2の領域を示した第2のフレームを表示するステップと、第3の領域を定める第1のユーザ入力を受信するステップと、前記アルゴリズムを実行して前記第2の領域及び前記第3の領域により形成される結合領域内のアーティファクトを除去するステップと、を含む。
本発明の更に別の態様によると、複数のフレームを有する動画を処理するシステムが開示される。例示的な実施形態によると、システムは、第1の手段であって、アルゴリズムを有するデータを格納するメモリ等、第2の手段であって、前記アルゴリズムを実行し第1のフレームの第1の領域内のアーティファクトを除去し、該第1の領域の外側の領域は影響を受けない、プロセッサ等、を備える。前記第2の手段は、前記第1のフレームに続く第2のフレームの第2の領域を識別し、該第2のフレームの第2の領域は前記第1のフレームの第1の領域に対応する。前記第2の手段は、前記第2の領域を示した第2のフレームを表示させる。前記第2の手段は、前記第2の領域の内側の第3の領域を定める第1のユーザ入力を受信し、前記アルゴリズムを実行して前記第2の領域内であって前記第3の領域以外のアーティファクトを除去する。
本発明の更に別の態様によると、複数のフレームを有する動画を処理する別のシステムが開示される。例示的な実施形態によると、システムは、第1の手段であって、アルゴリズムを有するデータを格納するメモリ等、第2の手段であって、前記アルゴリズムを実行し第1のフレームの第1の領域内のアーティファクトを除去し、該第1の領域の外側の領域は影響を受けない、プロセッサ等、を備える。前記第2の手段は、前記第1のフレームに続く第2のフレームの第2の領域を識別し、該第2のフレームの第2の領域は前記第1のフレームの第1の領域に対応する。前記第2の手段は、前記第2の領域を示した第2のフレームを表示させる。前記第2の手段は、前記第2の領域の内側の第3の領域を定める第1のユーザ入力を受信し、前記アルゴリズムを実行して前記第2の領域及び前記第3の領域により形成される結合領域内のアーティファクトを除去する。
本発明の更に別の態様によると、複数のフレームを有する動画を処理する別の方法が開示される。例示的な実施形態によると、方法は、第1の領域を示したフレームを表示するステップであって、該第1の領域は前のフレームからトラッキングされる、前記ステップと、前記第1の領域内の第2の領域を定めるユーザ入力を受信するステップと、アルゴリズムを実行して前記第1の領域内であって前記第2の領域以外のアーティファクトを除去するステップと、を含む。
本発明の更に別の態様によると、複数のフレームを有する動画を処理する別の方法が開示される。例示的な実施形態によると、方法は、第1の領域を示したフレームを表示するステップであって、該第1の領域は前のフレームからトラッキングされる、前記ステップと、前記第1の領域内の第2の領域を定めるユーザ入力を受信するステップと、アルゴリズムを実行して前記第1の領域及び前記第2の領域により形成される結合領域内のアーティファクトを除去するステップと、を含む。
本発明の更に別の態様によると、複数のフレームを有する動画を処理する別の方法が開示される。例示的な実施形態によると、方法は、第1のアルゴリズムを実行して第1のフレームの第1の領域内のアーティファクトを除去するステップであって、該第1の領域の外側の領域は影響を受けない、前記ステップと、前記第1のフレームに続く第2のフレームの第2の領域を識別するステップであって、該第2のフレームの第2の領域は前記第1のフレームの第1の領域に対応する、前記ステップと、前記第2の領域を示した第2のフレームを表示するステップと、前記第2の領域の内側の第3の領域を定めるユーザ入力を受信するステップと、前記第1のアルゴリズムと異なる第2のアルゴリズムを実行して前記第2の領域内であって前記第3の領域以外のアーティファクトを除去するステップと、を含む。
本発明の更に別の態様によると、複数のフレームを有する動画を処理する別の方法が開示される。例示的な実施形態によると、方法は、第1のアルゴリズムを実行して第1のフレームの第1の領域内のアーティファクトを除去するステップであって、該第1の領域の外側の領域は影響を受けない、前記ステップと、前記第1のフレームに続く第2のフレームの第2の領域を識別するステップであって、該第2のフレームの第2の領域は前記第1のフレームの第1の領域に対応する、前記ステップと、前記第2の領域を示した第2のフレームを表示するステップと、前記第2の領域の内側の第3の領域を定めるユーザ入力を受信するステップと、前記第1のアルゴリズムと異なる第2のアルゴリズムを実行して前記第2の領域及び前記第3の領域により形成される結合領域内のアーティファクトを除去するステップと、を含む。
本発明の更に別の態様によると、複数のフレームを有する動画を処理する別の方法が開示される。例示的な実施形態によると、方法は、第1のパラメータを用いてアルゴリズムを実行して第1のフレームの第1の領域内のアーティファクトを除去するステップであって、該第1の領域の外側の領域は影響を受けない、前記ステップと、前記第1のフレームに続く第2のフレームの第2の領域を識別するステップであって、該第2のフレームの第2の領域は前記第1のフレームの第1の領域に対応する、前記ステップと、前記第2の領域を示した第2のフレームを表示するステップと、前記第2の領域の内側の第3の領域を定める第1のユーザ入力を受信するステップと、前記第1のパラメータと異なる第2のパラメータを用いて前記アルゴリズムを実行して前記第2の領域内であって前記第3の領域以外のアーティファクトを除去するステップと、を含む。
本発明の更に別の態様によると、複数のフレームを有する動画を処理する別の方法が開示される。例示的な実施形態によると、方法は、第1のパラメータを用いてアルゴリズムを実行して第1のフレームの第1の領域内のアーティファクトを除去するステップであって、該第1の領域の外側の領域は影響を受けない、前記ステップと、前記第1のフレームに続く第2のフレームの第2の領域を識別するステップであって、該第2のフレームの第2の領域は前記第1のフレームの第1の領域に対応する、前記ステップと、前記第2の領域を示した第2のフレームを表示するステップと、第3の領域を定める第1のユーザ入力を受信するステップと、前記第1のパラメータと異なる第2のパラメータを用いて前記アルゴリズムを実行して前記第2の領域及び前記第3の領域により形成される結合領域内のアーティファクトを除去するステップと、を含む。
本発明の実施形態の以下の記載を添付の図面とともに参照することにより、本発明の上述の及び他の特徴及び利点並びにそれらを達成する方法は一層明らかになり、本発明は良好に理解されるだろう。
本発明の例示的な実施形態による画像内のアーティファクトを低減するシステムのブロック図である。 本発明の例示的な実施形態による図1のスマート・カーネルの更なる詳細を提供するブロック図である。 本発明の例示的な実施形態による画像内のアーティファクトを低減するステップを示すフローチャートである。 本発明の例示的な実施形態による最初に選択された関心領域を示す図である。 本発明の例示的な実施形態によりどのようにユーザが関心領域を修正するかを示す図である。 本発明の別の例示的な実施形態によりどのようにユーザが関心領域を修正するかを示す図である。
本願明細書に説明される適例は本発明の好適な実施形態を示し、これらの適例は本発明の範囲をいかなる方法によっても限定すると見なされない。
図中の要素は種々の形式のハードウェア、ソフトウェア又はそれらの組み合わせで実施されてもよいことが理解される。望ましくは、これらの要素は、ハードウェア及びソフトウェアの組み合わせで、1又は複数の適切にプログラムされた汎用装置に実施される。該汎用装置は、プロセッサ、メモリ及び入力/出力インタフェースを含みうる。
本願明細書の記載は、本発明の原理を説明する。したがって、当業者は種々のアレンジを考案できることが理解される。これらのアレンジは、本願明細書に明示的に記載又は示されないが本発明の原理を具現化し本発明の精神と範囲に包含される。
本願明細書に記載された全ての例及び条件文は、教育上の目的で、読者が本発明の原理及び発明者により考案された概念を理解するのを助け、技術を促進させるためであり、これらの特に記載された例及び条件に限定されないものと考えられるべきである。
さらに、本発明の原理、態様及び実施形態、並びにそれらの特定の例を引用する本願明細書の全ての記載は、それらの構造的及び機能的等価物の両方を包含すると考えられる。さらに、このような等価物は、現在知られている等価物及び将来に開発される等価物、つまり任意の開発される要素であって同一の機能を実行するものを構造に関係なく包含すると考えられる。
したがって、例えば、当業者により、本願明細書で提示されるブロック図は本発明の原理を具現化する説明のための回路の概念図を提示するものであることが理解される。同様に、どんなフローチャート、フロー図、状態遷移図、擬似コード等も種々の処理を表し、コンピュータ可読媒体に実質的に表現されてもよく、したがってコンピュータ又はプロセッサにより実行されてもよく、該コンピュータ又はプロセッサが明示されているか否かを問題としないことが理解される。
図中に示された種々の要素の機能は、専用ハードウェア及び適切なソフトウェアと関連してソフトウェアを実行可能なハードウェアの使用を通じて提供されうる。プロセッサにより提供される場合、機能は、単一の専用プロセッサにより、単一の共有プロセッサにより又は複数の個別のプロセッサであって一部が共有されうるものにより提供されてもよい。さらに、用語「プロセッサ」又は「制御部」の明示的な使用は、ソフトウェアを実行可能なハードウェアを排他的に表すと考えられるべきではなく、デジタル信号プロセッサ(「DSP」)ハードウェア、ソフトウェアを格納する読み出し専用メモリ(「ROM」)、ランダム・アクセス・メモリ(「RAM」)及び不揮発性記憶装置を黙示的に包含するがこれらに限定されない。
他のハードウェア、つまり従来及び/又はカスタムのものも含まれてもよい。同様に、図中に示されるどんなスイッチも単に概念的なものである。それらの機能は、プログラム・ロジックの動作を通じて、専用ロジックを通じて、プログラム制御及び専用ロジックの相互作用を通じて、又は手動でも実行されてもよく、特定の技術は文脈から更に詳細に理解されるように実施者により選択可能である。
本願の特許請求の範囲では、特定の機能を実行する手段として表現された任意の要素は該機能を実行するどんな方法も包含すると考えられ、例えば(a)回路要素の組み合わせであって該機能を実行するもの、(b)任意の形式のソフトウェアであって、したがってファームウェア、マイクロコード等であって該ソフトウェアを実行して該機能を実行する適切な回路と組み合わされたものを含む。特許請求の範囲により定められる本発明は、種々の記載された手段により提供される機能が請求項の請求する方法で組み合わされ一緒にされるという事実にある。したがって、これらの機能を提供しうるどんな手段も本願明細書に示された手段と等価であると考えられる。
大部分の既存の画像処理技術は画像ピクセルのレベルで動作し、低レベルの特徴、例えば明度及び色情報等を用いる。これらの技術の殆どは、空間的相関に基づく統計的モデルを用いて良好な結果を達成する。画像の複数のフレームが利用可能な場合、画像処理結果を向上させるためにフレーム相関を用いることもできる。しかしながら、画像処理は低レベルの画像特徴に基づくので、画像処理は多くの場合、存在するアーティファクトを除去することができないばかりか、更なるアーティファクトを画像に導入してしまう。意味内容(セマンティック・コンテンツ)に基づく画像処理は依然として今日も課題である。
関心領域(Region of interest:ROI)に基づく画像処理は、アーティファクト又は変更の必要な望ましくない特徴を有する画像の特定領域に画像処理を適用する。画像の一部を選択的に処理することにより、ROIは伝統的な画像処理技術よりも良好な結果を達成できる。しかしながら、どのように関心領域をロバスト且つ効率的な方法で識別するかという未解決の問題が依然として存在する。自動的な手法は、色、輝度情報を用い、特定の特徴又は該特徴の変化を分割又は検出する。一式の特徴に基づき画像が領域に分類され、大部分の特徴を有する領域は関心領域として分類される。デジタルの中間物又はデジタル・ビデオ処理では、領域検出は、アーティファクト、例えばちらつき及びぼけ等を回避するためにフレームに渡って一貫している必要がある。領域は、多くの場合、方形又は多角形として定められる。幾つかのアプリケーション、例えば領域に基づく色補正及び2D画像からの奥行きマップ回復(recovery)等では、領域の境界はピクセル的な精度で正確に定められる必要がある。
セマンティック・オブジェクトは領域のセットであり、セマンティックの意味(semantic meaning)を人間に提示する。標準的に、領域のセットは一般的な低レベルの特徴を共有する。例えば、空の領域は飽和した青い色を有するだろう。車の領域は同様の動きを有するだろう。しかしながら、時には、セマンティック・オブジェクトは低レベルの特徴において明らかな類似性を有しない領域を含む。したがって、セマンティック・オブジェクトを生成するために領域のセットをグループ化することは、多くの場合、所望の目的を達成できない。これは、人間の脳の処理とコンピュータに基づく画像処理との間の根本的な相違から生じる。人間はセマンティック・オブジェクトを識別するために知識を用いるが、コンピュータに基づく画像処理は低レベルの特徴に基づく。セマンティック・オブジェクトの使用は、ROIに基づく画像処理を多くの点で有意に向上する。しかしながら、セマンティック・オブジェクトを効率的に識別する方法は困難である。
本発明の原理によると、人間の知識とコンピュータに基づく画像処理を統合して良好な結果を達成する解決策(例えば、半自動又はユーザ支援型手法)が提供される。この方法では、人間の相互作用はコンピュータに基づく画像処理に知的指針を提供でき、それにより良好な結果を達成する。人間とコンピュータは異なる分野で活動するので、どのように人間の知識をコンピュータにマッピングし、人間の相互作用の効率を最大化するかという課題がある。人的資源のコストは増大しており、一方でコンピュータの処理能力のコストは減少している。したがって、人間の相互作用とコンピュータに基づく画像処理を統合する効率的なツールは、良好な画像品質を生成し低コストの利益を有することが必要などんなビジネスにとっても非常に貴重なツールである。
現在、殆どのソフトウェア・ツールは、グラフィック・ユーザ・インタフェースを処理パラメータの初期設定のために提供し、最終処理が開始される前に結果をプレビューする。ユーザは、結果が満足のいくものではなく同一の処理を再び繰り返すときは、常に停止できる。しかしながら、これら現在のシステムでは、ユーザ・フィードバックを分析し及びそれにシステムを適応することにより処理を向上させるフィードバック機構が存在しない。したがって、ユーザがしきりに新しいパラメータ・セットで処理を再開する場合には、ユーザ相互作用は非常に非効率になる。
図、特に図1を参照すると、本発明の例示的な実施形態による画像内のアーティファクトを低減するシステム100のブロック図が示される。図1では、走査装置103は、フィルム・プリント104、例えばカメラのオリジナル・ネガフィルムを走査してデジタル・フォーマット、例えばCineonフォーマット又はSMPTE DPXファイルにするために設けられてもよい。走査装置103は、例えばテレシネ又はフィルム、例えばビデオ出力を有するArriLocPro(登録商標)等からビデオ出力を生成する任意の装置を有してもよい。代替として、撮影後の編集作業又はデジタル・シネマ(例えば、既にコンピュータ可読形式のファイル)からのデジタル・フィルム画像106を表すファイルを直接用いることもできる。コンピュータ可読ファイルの可能性のあるソースは、AVID(登録商標)エディタ、DPXファイル、D5テープ等である。
走査されたフィルム・プリントは、ポストプロセス装置102、例えばコンピュータに入力される。ポストプロセス装置102は種々の知られたいかなるコンピュータ・プラットフォームにも実装され、1又は複数の中央処理装置(CPU)のようなハードウェア、ランダム・アクセス・メモリ(RAM)及び/又は読み出し専用メモリ(ROM)のようなメモリ110、並びにキーボード、カーソル制御装置(例えば、マウス、ジョイスティック等)及びディスプレイ装置のような入力/出力(I/O)ユーザ・インタフェース112を有する。コンピュータ・プラットフォームは、オペレーティング・システム及びマイクロ命令コードも有する。本願明細書に記載される種々の処理及び機能は、マイクロ命令コードの一部又はソフトウェア・アプリケーション・プログラムの一部(又はそれらの組み合わせ)のいずれかであってもよく、それらはオペレーティング・システムを介して実行される。さらに、種々の他の周辺装置は、コンピュータ・プラットフォームに、種々のインタフェース及びバス構造、例えばパラレル・ポート、シリアル・ポート又はユニバーサル・シリアル・バス(USB)等により接続されてもよい。他の周辺装置は、1又は複数の追加の記憶装置124及びフィルム・プリンタ128を有してもよい。フィルム・プリンタ128は、フィルム126の改訂又はマークアップ版、例えばフィルムの立体像版を印刷するために用いられてもよい。ポストプロセス装置102は、圧縮フィルム130も生成してもよい。
代替として、既にコンピュータ可読形式のファイル/フィルム・プリント106(例えばデジタル・シネマ、これは例えば外付けハードディスク・ドライブ124に格納されてもよい)は、ポストプロセス装置102に直接入力されてもよい。本願明細書で用いられる用語「フィルム」は、フィルム・プリント又はデジタル・シネマのどちらも表すことができることに留意する。
ソフトウェア・プログラムは、メモリ110内に格納された誤差拡散モジュール114を有し、画像内のアーティファクトを低減する。誤差拡散モジュール114は雑音又は信号生成器116を有し、信号を生成して画像内のアーティファクトをマスクする。雑音信号は、白色雑音、ガウス雑音、異なるカットオフ周波数フィルタで変調された白色雑音等でありうる。トランケーション・モジュール118が設けられ、画像のブロックの量子化誤差を特定する。誤差拡散モジュール114は、誤差分布モジュール120も有する。誤差分布モジュール120は、量子化誤差を近隣のブロックに分布するよう構成される。
トラッキング・モジュール132が設けられ、シーンの数フレームを通じて1つのROIをトラッキングする。トラッキング・モジュール132は、マスク生成器134を有する。マスク生成器134は、所与のビデオ・シーケンスの各画像又はフレームのためにバイナリ・マスクを生成する。バイナリ・マスクは、画像内の定められたROIから、例えばROIを囲むように線が引かれたユーザの入力した多角形により又は自動検出アルゴリズム若しくは機能により生成される。バイナリ・マスクは、ピクセル値1又は0を有する画像である。ROI内の全てのピクセルは値1を有し、他のピクセルは値0を有する。トラッキング・モジュール132は、トラッキング・モデル136を有する。トラッキング・モデル136は、ROIのトラッキング情報をある画像から別の画像へと、例えば所与のビデオ・シーケンスのフレーム間で推定する。
トラッキング・モジュール132は、スマート・カーネル138を更に有する。スマート・カーネル138は、ユーザ・フィードバックを解釈して実際の画像内容に適応するよう動作する。例示的な実施形態によると、スマート・カーネル138は、画像処理アルゴリズム及びそれに対応するパラメータをユーザの入力及び画像内に内在する領域の分析に基づき自動的に修正し、それにより良好な画像処理結果を提供する。この方法で、本発明は、ユーザの操作を簡略化し、システム100が満足のいく結果を生成できなかったときに処理を再開しなければならないユーザの負荷を軽減できる。画像の処理を該画像の実際の内容及びユーザ・フィードバックに適応させることにより、本発明は一層効率的な画像処理を強靱且つ優れた画像品質とともに提供する。スマート・カーネル138に関する更なる詳細は、本願明細書に後述される。図1には、エンコーダ122も設けられる。エンコーダ122は、出力画像を任意の知られた圧縮規格、例えばMPEG1、MPEG2、MPEG4、H.264等にエンコードする。
図2を参照すると、ブロック図は、本発明の例示的な実施形態による図1のスマート・カーネル138の更なる詳細を提供する。本発明の原理によると、ユーザ・インタフェース112によって、ユーザがスマート・カーネル138に入力できるようにする。また、ユーザ・インタフェース112は、直感的に理解できるユーザ・インタフェースであり、画像処理の詳細な知識を有しないユーザが効率的に操作することができる。特に、ユーザ・インタフェース112は、ユーザに、画像処理が満足のいく結果を生成できなかった問題のある領域(つまり、関心領域)を識別させる。
図2に示されるように、スマート・カーネル138は画像分析モジュール140、修正アルゴリズム・モジュール142及び修正パラメータ・モジュール144を有する。例示的な実施形態によると、ユーザが画像処理後に満足のいかない関心領域(ROI)を識別すると、スマート・カーネル138は、ユーザ・フィードバック情報を受信し、内部パラメータ及び処理ステップをそれに応答して修正できる。スマート・カーネル138の機能は次の通りである。
先ず、画像分析モジュール140は、前述のユーザ・フィードバック情報に基づき画像内容を分析し、不満足な処理結果を有する1又は複数の関心領域を特徴付ける(つまり、定める)。1又は複数の関心領域が分析されると、スマート・カーネル138は、アルゴリズム及び/又はパラメータをモジュール142及び144をそれぞれ介して修正できる。例えば、幾つかの領域トラッキング・アルゴリズムは、システム100により用いられ、関心領域を定める1又は複数の領域のセットをトラッキングしうる(例えば、輪郭に基づくトラッカー、特徴点に基づくトラッカー、テクスチャに基づくトラッカー、色に基づくトラッカー等)。トラッキングされる領域の特徴(つまり、画像分析モジュール140の出力結果)に依存して、修正アルゴリズム・モジュール142は、最も適切なトラッキング方法を設計選択に従い選択する。例えば、初期の関心領域が人の顔であるが、後にユーザが関心領域(ROI)の修正を人の髪を追加することにより決めた場合、スマート・カーネル138の修正アルゴリズム・モジュール142は、色に基づくトラッカーから輪郭に基づくトラッカーに切り替えることができる(つまり、顔と髪とがもはや同種の色ではない場合)。
さらに、修正アルゴリズム・モジュール142がトラッキング・アルゴリズムを変更しない場合でも、上述のように、スマート・カーネル138の修正パラメータ・モジュール144は、トラッキング・パラメータを変更すると決定してもよい。例えば、初期の関心領域が青い空であり、ユーザが後に関心領域(ROI)を白い雲を青い空に追加することにより修正すると決定した場合、修正アルゴリズム・モジュール142は、色に基づくトラッカーを使い続けてもよいが、修正パラメータ・モジュール144はトラッキング・パラメータを変更して青と白の両方を(つまり青のみに代えて)トラッキングしてもよい。図2に示されるように、スマート・カーネル138からの出力は画像処理(つまり、トラッキング処理)のためにブロック146で提供される。
図3を参照すると、フローチャート300は、本発明の例示的な実施形態による画像内のアーティファクトを低減するステップを説明する。例及び説明を目的として、図3のステップは、図1のシステム100の特定の要素に関連して記載される。しかしながら、図3のステップは、スマート・カーネル138により上述のように進められることが直感的に理解される。図3のステップは、単なる例であり、本発明の用途をいかなる方法によっても限定することを意図しない。
ステップ310で、ユーザは初期の関心領域(ROI)をビデオ・シーケンスの所与のフレーム内で選択する。例示的な実施形態によると、ユーザは、トラッキング・エラーが存在する初期のROIの外形を描くために、ステップ310でマウス及び/又はユーザ・インタフェース112の他の要素を用いることができる。図4は、ステップ310で選択されうる例示的なROI(つまり、R)を示す。図4に表された簡易なユーザ・インタフェースは、ステップ310でユーザにROIを直感的に識別させる。本発明の原理によると、ステップ310で選択された(及び後続のフレームのために修正されうる)ROIは、除去される必要のある(例えば、トラッキング・アルゴリズムを介してマスキング信号を用いて)アーティファクトが存在する領域を表す。
ステップ320で、ROI(このROIのどんな修正も含む)は、所与のビデオ・シーケンスの次のフレームまでトラッキングされる。例示的な実施形態によると、ROIをトラッキングするために、2Dアフィン運動モデルがステップ320で用いられうる。トラッキングのモデル化は次のように表現できる。
x’=ax+by+c
y’=ax+by+c (1)
ここで、(x,y)は前のフレーム内のトラッキング領域R内のピクセル位置であり、(x’,y’)は現在のフレーム内のトラッキング領域R’内の対応するピクセル位置であり、(a,b,c,a,b,c)は一定係数である。前のフレーム内の領域Rが与えられると、現在のフレーム内の領域R’の最良の一致は、強度差の二乗平均誤差を最小化することにより見つけることができる。
例示的な実施形態によると、ステップ320のトラッキング処理は、ROIからアーティファクトを除去し(例えばマスキング信号を介して)、同時にフレームの残りの領域に影響を与えないように設計されたアルゴリズムの一部である。特に、システム100は、フレームの所与のビデオ・シーケンス内のアーティファクトをトラッキング及び除去するよう設計される。効率的にアーティファクトを除去するために、ROIが識別され、マスキング信号がその特定領域に追加されてアーティファクトをマスクする。システム100は多数のフレームにわたりROIをトラッキングするために動き情報を用いる。
ステップ330で、ステップ320のトラッキング結果はユーザによる評価のために表示される。ステップ340で、ユーザは現在のROIを修正する選択肢を提供される。例示的な実施形態によると、ユーザは、ステップ340で、1又は複数の領域を現在のROIに追加及び/又はそれから除去することを、彼/彼女がステップ330で表示されたトラッキング結果の中にトラッキング・エラーを検出したか否かに基づいて決定する。
ステップ340での決定が肯定的である場合、処理フローはステップ350へ進む。ステップ350で、1又は複数の領域は、ユーザ・インタフェース112を介したユーザ入力に応答して現在のROIに追加及び/又はそれから除去される。図5に示す例では、ユーザが領域R’をトラッキング領域R’から除去することを選択している。図6に示す例では、ユーザが領域R’をトラッキング領域R’に追加することを選択している。
ステップ350から又はステップ340での決定が否定的である場合、処理フローはステップ360へ進む。ステップ360で、トラッキング処理が停止されるべきか否かに関する決定が行われる。例示的な実施形態によると、ステップ360で、ユーザは、彼/彼女の判断で、1又は複数の所定の入力をユーザ・インタフェース112を介して提供することにより、トラッキング処理を手動で停止できる。代替として、トラッキング処理は、所与のビデオ・シーケンスの終わりに達したときにステップ360で停止してもよい。
ステップ360での決定が否定的である場合、処理フローはステップ370へ進む。ステップ370で、処理は所与のビデオ・シーケンス内の次のフレームに進む。ステップ370から、処理フローは上述したようなステップ320へループ・バックする。ステップ340及び350でユーザがROIを修正することを選択したとすると、ステップ320で、修正されたROIは所与のビデオ・シーケンス内の次のフレームまでトラッキングされる。例えば、図5で、領域R’がユーザにより識別された場合、領域は、ステップ320で上述されたのと同一の処理により次のフレームのR’の領域内でトラッキングされるだろう。したがって、フレームに対する最終的なトラッキング領域は、次のように表現される。
Figure 0005676610
ここで、最終的なトラッキング領域Rは、領域R’から領域R’内のピクセルを除去したものである。
同様に、図6の例では、領域Rがユーザにより追加され、領域は、ステップ320で上述されたのと同一の処理により次のフレームのR’領域内でトラッキングされるだろう。したがって、フレームに対する最終的なトラッキング領域は、次のように表現される。
Figure 0005676610
ここで、最終的なトラッキング領域Rは、領域R’に領域R’内のピクセルが追加されたものである。図3のステップは、ステップ360で肯定的な決定が行われるまで繰り返されてもよい。この場合には、ステップ380で、最終的なROIは所与のビデオ・シーケンス内のトラッキングされたフレームのそれぞれに対して生成(及び格納)される。ステップ390で処理は終了する。特に本発明の前述の原理がどのように実施されうるかについて検討された例は、本願の種々の従属請求項に表現される。また、これらの従属請求項の主題は、参照されることによりそれらの全体が本願明細書の本文に組み込まれる。
ユーザがROIを識別するのを助けるために、現在のROIは明確にマーク付けされる。例えば、ROIは赤のような特定の所定の色で表示され、ユーザ入力に応答してユーザにより選択可能であってもよい。ユーザ入力はユーザ・インタフェースのキーを押下することにより生成されてもよい。特定の所定の色は、同一の又は異なるユーザ入力に応答して除去されうる。ROIが特定の所定の色で表示されるとき、ROI内に含まれる領域は、ユーザによりROIから除外されるべきであると識別され、特定の所定の色と異なるユーザの選択した色で表示されるべきである。ユーザにより指定された領域がROIの外側にあるとき又はROIと重なり合っている場合、ROIの外側の部分は、ROIと結合され新たなROIを形成するものと考えられ、特定の所定の色で表示されるべきである。特定の所定の色が除去されるとき、削除された領域を示すために選択された色も除去される。
上述のように、本発明は、ユーザ・フィードバックを効率的に取り入れ、ユーザの努力を最小化し及び適応して画像を処理する、画像内のアーティファクトを低減するシステム及び方法を提供する。特に、システム100は、トラッキング領域及び誤りのある領域を自動的に更新し、ユーザ・フィードバック情報を効果的に用いて、強靱な領域トラッキングを達成する。ユーザは、トラッキング・エラーを有する領域を定めるだけでよく、システム100は自動的に該情報をトラッキング処理に取り入れる。
本発明は好適な設計を有するとして記載されたが、本発明は本開示の精神及び範囲の中で更に修正することができる。したがって、本願は、本発明の一般的な原理を用いた本発明のどんな変形、使用又は適応も包含することを意図する。さらに、本願は、本開示からのそのような逸脱も、本発明の属する分野の知られている又は慣行に包含されるとして、及び添付の特許請求の範囲の制限の範囲内に包含されるとして、包含することを意図する。

Claims (9)

  1. 複数のフレームを含む動画を処理する方法であって、
    前の第1のフレームからトラッキングされた第1の領域を示した第2のフレームを表示するステップと、
    前記第1の領域の内部にあるか、又は前記第1の領域の外の部分を有する第2の領域を定義するユーザ入力を受信するステップと、
    第1のアルゴリズムを実行して第1の関心領域におけるアーティファクトを除去するステップとを含み、
    前記第1の関心領域、前記第2の領域の一部が前記第1の領域の外部にある場合における、前記第1の領域と前記第2の領域とにより形成される結合領域、及び前記第2の領域が前記第1の領域の内部にある場合における、前記第1の領域から前記第2の領域を引いたものにより形成される領域、のうちの1つである、
    方法。
  2. 第2のアルゴリズムを実行して、前記第1のフレームの第3の領域におけるアーティファクトを除去するステップを更に含み、前記第3の領域の外部にある領域は影響を受けず、前記第3の領域は前記第2のフレームにおける前記第1の領域に対応し、前記第2のアルゴリズムは、前記第1のアルゴリズムと同じであるか、又は前記第1のアルゴリズムとは異なる、
    請求項1記載の方法。
  3. 前記第2のフレームに続く第3のフレームの、前記第1の関心領域に対応する第4の領域を識別するステップ
    前記第1のアルゴリズムを実行し、前記第3のフレームの前記第4の領域におけるアーティファクトを除去するステップと、
    を更に含む請求項2記載の方法。
  4. 前記第2の領域を、前記第1の関心領域とは別に表示し、どの部分が前記第1のアルゴリズムを実行するために含まれるかをユーザが識別するのを可能にするステップを更に含む、
    請求項2記載の方法。
  5. 前記第1のアルゴリズムを実行するために含まれるべき前記第2の領域を識別する第2のユーザ入力を受信するステップと、
    前記第2の領域が前記第1の領域の内部にある場合に、前記第2の領域の表示を除くステップと、
    を更に含む請求項4記載の方法。
  6. 複数のフレームを含む動画を処理するシステムであって、
    第1のアルゴリズムを有するデータを格納する第1の手段と、
    前記第1のアルゴリズムを実行して第1のフレームの第1の領域におけるアーティファクトを除去する第2の手段とを備え、前記第1の領域の外部の領域は影響を受けず、
    前記第2の手段は、前記第1のフレームに続く第2のフレームの第2の領域を識別し、前記第2のフレームの前記第2の領域は、前記第1のフレームの第1の領域に対応し、
    前記第2の手段は、前記第2の領域を示した前記第2のフレームの表示を可能にし、
    前記第2の手段は、第3の領域を定義する第1のユーザ入力を受信し、前記第3の領域は、前記第2の領域の内部にあるか、又は前記第2の領域の外の部分を有し、
    前記第2の手段は、第2のアルゴリズムを実行して第1の関心領域におけるアーティファクトを除去し、前記第1の関心領域、前記第3の領域が前記第2の領域の内部ある場合における、前記第3の領域を除く前記第2の領域、及び前記第3の領域の一部が前記第2の領域の外部にある場合における、前記第2の領域と前記第3の領域とにより形成される結合領域、のうちの1つであり、
    前記第2のアルゴリズムは、前記第1のアルゴリズムと同じであるか、又は第1のアルゴリズムとは異なる、
    システム。
  7. 前記第2の手段は、前記第2のフレームに続く第3のフレームの第4の領域を識別し、前記第4の領域は、前記第1の関心領域に対応し、
    前記第2の手段は、前記第2のアルゴリズムを実行して前記第3のフレームの前記第4の領域におけるアーティファクトを除去する、
    請求項6記載のシステム。
  8. 前記第2の手段は、前記第3の領域を、前記第1の関心領域とは別に表示し、どの部分が前記第1のアルゴリズムを実行するために含まれるかをユーザが識別するのを可能にする、
    請求項6記載のシステム。
  9. 前記第2の手段は、前記第1のアルゴリズムを実行するために含まれるべき前記第3の領域を識別する第2のユーザ入力を受信し、
    前記第2の手段は、前記第3の領域が前記第2の領域の内部にある場合、前記第3の領域の表示を除去する、
    請求項8記載のシステム。
JP2012524680A 2009-08-12 2009-08-12 画像シーケンスの関心領域に基づくアーティファクト低減のためのシステム及び方法 Expired - Fee Related JP5676610B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2009/004612 WO2011019330A1 (en) 2009-08-12 2009-08-12 System and method for region-of-interest-based artifact reduction in image sequences

Publications (2)

Publication Number Publication Date
JP2013502147A JP2013502147A (ja) 2013-01-17
JP5676610B2 true JP5676610B2 (ja) 2015-02-25

Family

ID=42145167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012524680A Expired - Fee Related JP5676610B2 (ja) 2009-08-12 2009-08-12 画像シーケンスの関心領域に基づくアーティファクト低減のためのシステム及び方法

Country Status (6)

Country Link
US (1) US20120144304A1 (ja)
EP (1) EP2465095A1 (ja)
JP (1) JP5676610B2 (ja)
KR (1) KR101437626B1 (ja)
CN (1) CN102483849A (ja)
WO (1) WO2011019330A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103577794A (zh) * 2012-07-30 2014-02-12 联想(北京)有限公司 一种识别方法及电子设备
US9632679B2 (en) * 2013-10-23 2017-04-25 Adobe Systems Incorporated User interface for managing blur kernels
US9336126B1 (en) 2014-06-24 2016-05-10 Amazon Technologies, Inc. Client-side event logging for heterogeneous client environments
US10097565B1 (en) * 2014-06-24 2018-10-09 Amazon Technologies, Inc. Managing browser security in a testing context
US10565463B2 (en) * 2016-05-24 2020-02-18 Qualcomm Incorporated Advanced signaling of a most-interested region in an image
US11210732B1 (en) 2020-11-04 2021-12-28 Wayfair Llc Systems and methods for visualizing wall coverings in an image of a scene
US11770496B2 (en) * 2020-11-04 2023-09-26 Wayfair Llc Systems and methods for visualizing surface coverings in an image of a scene

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8396328B2 (en) * 2001-05-04 2013-03-12 Legend3D, Inc. Minimal artifact image sequence depth enhancement system and method
US5819004A (en) * 1995-05-08 1998-10-06 Kabushiki Kaisha Toshiba Method and system for a user to manually alter the quality of previously encoded video frames
JP3625910B2 (ja) * 1995-09-11 2005-03-02 松下電器産業株式会社 移動物体抽出装置
US6097853A (en) * 1996-09-11 2000-08-01 Da Vinci Systems, Inc. User definable windows for selecting image processing regions
US6850249B1 (en) * 1998-04-03 2005-02-01 Da Vinci Systems, Inc. Automatic region of interest tracking for a color correction system
JP4156084B2 (ja) * 1998-07-31 2008-09-24 松下電器産業株式会社 移動物体追跡装置
US7039229B2 (en) * 2000-08-14 2006-05-02 National Instruments Corporation Locating regions in a target image using color match, luminance pattern match and hill-climbing techniques
MXPA03010039A (es) * 2001-05-04 2004-12-06 Legend Films Llc Sistema y metodo para mejorar la secuencia de imagen.
US8401336B2 (en) * 2001-05-04 2013-03-19 Legend3D, Inc. System and method for rapid image sequence depth enhancement with augmented computer-generated elements
US9031383B2 (en) * 2001-05-04 2015-05-12 Legend3D, Inc. Motion picture project management system
US8897596B1 (en) * 2001-05-04 2014-11-25 Legend3D, Inc. System and method for rapid image sequence depth enhancement with translucent elements
KR100480780B1 (ko) * 2002-03-07 2005-04-06 삼성전자주식회사 영상신호로부터 대상물체를 추적하는 방법 및 그 장치
US6987520B2 (en) * 2003-02-24 2006-01-17 Microsoft Corporation Image region filling by exemplar-based inpainting
US7593603B1 (en) * 2004-11-30 2009-09-22 Adobe Systems Incorporated Multi-behavior image correction tool
JP4723870B2 (ja) * 2005-02-04 2011-07-13 三菱重工印刷紙工機械株式会社 印刷の色調制御用注目画素領域設定方法及び装置並びに印刷機の絵柄色調制御方法及び装置
US9667980B2 (en) * 2005-03-01 2017-05-30 Qualcomm Incorporated Content-adaptive background skipping for region-of-interest video coding
US8014034B2 (en) * 2005-04-13 2011-09-06 Acd Systems International Inc. Image contrast enhancement
US7596598B2 (en) * 2005-10-21 2009-09-29 Birthday Alarm, Llc Multi-media tool for creating and transmitting artistic works
US7912337B2 (en) * 2005-11-02 2011-03-22 Apple Inc. Spatial and temporal alignment of video sequences
US20080129844A1 (en) * 2006-10-27 2008-06-05 Cusack Francis J Apparatus for image capture with automatic and manual field of interest processing with a multi-resolution camera
US8315466B2 (en) * 2006-12-22 2012-11-20 Qualcomm Incorporated Decoder-side region of interest video processing
JP5490544B2 (ja) * 2007-01-16 2014-05-14 トムソン ライセンシング 画像におけるアーティファクトを低減するシステム及び方法
EP2129284A4 (en) * 2007-03-08 2012-11-28 Sync Rx Ltd IMAGING AND TOOLS FOR USE WITH MOBILE ORGANS
US8295683B2 (en) * 2007-04-23 2012-10-23 Hewlett-Packard Development Company, L.P. Temporal occlusion costing applied to video editing
JP2010532628A (ja) * 2007-06-29 2010-10-07 トムソン ライセンシング 画像中のアーチファクトを低減させる装置および方法
US20100031149A1 (en) * 2008-07-01 2010-02-04 Yoostar Entertainment Group, Inc. Content preparation systems and methods for interactive video systems
US9355469B2 (en) * 2009-01-09 2016-05-31 Adobe Systems Incorporated Mode-based graphical editing
US8885977B2 (en) * 2009-04-30 2014-11-11 Apple Inc. Automatically extending a boundary for an image to fully divide the image
US20100281371A1 (en) * 2009-04-30 2010-11-04 Peter Warner Navigation Tool for Video Presentations
US20130121565A1 (en) * 2009-05-28 2013-05-16 Jue Wang Method and Apparatus for Local Region Selection
US8400473B2 (en) * 2009-06-24 2013-03-19 Ariel Shamir Multi-operator media retargeting
US8345749B2 (en) * 2009-08-31 2013-01-01 IAD Gesellschaft für Informatik, Automatisierung und Datenverarbeitung mbH Method and system for transcoding regions of interests in video surveillance
US8373802B1 (en) * 2009-09-01 2013-02-12 Disney Enterprises, Inc. Art-directable retargeting for streaming video
US8717390B2 (en) * 2009-09-01 2014-05-06 Disney Enterprises, Inc. Art-directable retargeting for streaming video
JP4862930B2 (ja) * 2009-09-04 2012-01-25 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
US8922718B2 (en) * 2009-10-21 2014-12-30 Disney Enterprises, Inc. Key generation through spatial detection of dynamic objects
US8743139B2 (en) * 2010-07-20 2014-06-03 Apple Inc. Automatically keying an image
US8386964B2 (en) * 2010-07-21 2013-02-26 Microsoft Corporation Interactive image matting
US9113130B2 (en) * 2012-02-06 2015-08-18 Legend3D, Inc. Multi-stage production pipeline system
EP3675029B8 (en) * 2011-04-08 2022-05-04 Dolby Laboratories Licensing Corporation Local definition of global image transformations

Also Published As

Publication number Publication date
EP2465095A1 (en) 2012-06-20
KR20120061873A (ko) 2012-06-13
JP2013502147A (ja) 2013-01-17
WO2011019330A1 (en) 2011-02-17
US20120144304A1 (en) 2012-06-07
KR101437626B1 (ko) 2014-09-03
CN102483849A (zh) 2012-05-30

Similar Documents

Publication Publication Date Title
CN109325954B (zh) 图像分割方法、装置及电子设备
Gharbi et al. Deep bilateral learning for real-time image enhancement
KR101350853B1 (ko) 이미지들에서 아티팩트들을 감소시키기 위한 장치 및 방법
JP5676610B2 (ja) 画像シーケンスの関心領域に基づくアーティファクト低減のためのシステム及び方法
US9082198B2 (en) Method for creating automatic cinemagraphs on an imagine device
US9311901B2 (en) Variable blend width compositing
CN106462955B (zh) 具有时间平滑和用户超驰的自动视频质量增强
US9418473B2 (en) Relightable texture for use in rendering an image
JP2010525486A (ja) 画像分割及び画像強調
CN108924427A (zh) 一种摄像机聚焦方法、装置以及摄像机
KR20150031241A (ko) 이미지의 색 조화를 위한 장치 및 방법
CN108428215A (zh) 一种图像处理方法、装置和设备
KR20140019884A (ko) 이미지에서 아티팩트를 감소시키는 시스템 및 방법
JP4241774B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6771134B2 (ja) 画像補正方法及び画像補正装置
US7181080B2 (en) Image processing apparatus and method, and image pickup apparatus
US10643096B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US20220180597A1 (en) Image processing apparatus, image processing method, and program
JP2013182330A (ja) 画像処理装置および画像処理方法
US20190122345A1 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US20220398704A1 (en) Intelligent Portrait Photography Enhancement System
JP2006004124A (ja) 画像補正装置および方法,ならびに画像補正プログラム
KR101881795B1 (ko) 퍼지 이론에 기초한 컬러 이미지의 에지 검출 방법
JP6155349B2 (ja) デコンボリューション画像において色収差を減じる方法、装置及びコンピュータプログラム製品
JP2014230283A (ja) ピクチャーを処理する方法および装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130905

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140204

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141225

R150 Certificate of patent or registration of utility model

Ref document number: 5676610

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees