JP6302540B2 - 支援3dディスプレイアダプテーション - Google Patents

支援3dディスプレイアダプテーション Download PDF

Info

Publication number
JP6302540B2
JP6302540B2 JP2016506318A JP2016506318A JP6302540B2 JP 6302540 B2 JP6302540 B2 JP 6302540B2 JP 2016506318 A JP2016506318 A JP 2016506318A JP 2016506318 A JP2016506318 A JP 2016506318A JP 6302540 B2 JP6302540 B2 JP 6302540B2
Authority
JP
Japan
Prior art keywords
qve
display
value
depth
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016506318A
Other languages
English (en)
Other versions
JP2016521041A (ja
Inventor
ラクシミィナラヤナン,ゴーピ
ヒュルヤルカール,サミール
チェン,タオ
ガナパシ,ハリハラン
チルクンダ,サントス
Original Assignee
ドルビー ラボラトリーズ ライセンシング コーポレイション
ドルビー ラボラトリーズ ライセンシング コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ドルビー ラボラトリーズ ライセンシング コーポレイション, ドルビー ラボラトリーズ ライセンシング コーポレイション filed Critical ドルビー ラボラトリーズ ライセンシング コーポレイション
Publication of JP2016521041A publication Critical patent/JP2016521041A/ja
Application granted granted Critical
Publication of JP6302540B2 publication Critical patent/JP6302540B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

関連出願
本願は、2013年4月2日出願の米国仮出願第61/807,672号に基づく優先権を主張し、その全文が本明細書に援用される。
本発明は、広義には、立体視の画像およびディスプレイに関する。より具体的には、本発明のある実施形態は、立体ディスプレイまたは裸眼立体ディスプレイ上に立体画像を支援描画することに関する。
映画館または家庭内における消費者体験を向上させるべく、3D映像システムは大きな関心を集めている。これらのシステムは、以下のものを含む、立体視的または裸眼立体視的な提示方法を利用する。
(i)アナグリフ:2枚のカラーフィルタ(通常は、片眼が赤、もう片眼がシアン)を通して光をフィルタリングすることによって左眼/右眼の分離を行う。
(ii)直線偏光:(通常)垂直方向の直線偏光子を通して左眼をフィルタリングするとともに、水平方向の直線偏光子を通して右眼用画像をフィルタリングすることによって、プロジェクタで分離を行う。
(iii)円偏光:(通常)左回り円偏光板を通して左眼用画像をフィルタリングするとともに、右回り円偏光板を通して右眼用画像をフィルタリングすることによって、プロジェクタで分離を行う。
(iv)シャッターメガネ:左画像および右画像を時間的に多重化することによって分離を行う。
(v)スペクトル分離:左眼および右眼が、それぞれ、赤、緑および青のスペクトルの相補的な部分を受け取るように、左眼および右眼をスペクトル的にフィルタリングすることによって、プロジェクタで分離を行う。
現在市場で入手可能な3Dディスプレイのほとんどは、3D効果を体験するためにはユーザが特別な3Dメガネをかける必要がある立体テレビである。これらのディスプレイに3Dコンテンツを届けるには、2つの別々の視点(左視点および右視点)を提供すればよいだけである。裸眼立体視(メガネ不要)または多視点ディスプレイの実用化が迫っている。すなわち、これらのディスプレイは、ある程度の運動視差(motion parallax)をもたらす。視聴者は、動き回って異なる角度からオブジェクトを視るかのように、頭を動かし回すことができる。
従来の立体視ディスプレイは単一の3D視点を提供するが、裸眼立体視ディスプレイは、そのディスプレイの設計に基づいて、5視点、9視点、28視点などの多視点を提供する必要がある。通常の立体コンテンツが裸眼立体視ディスプレイに提供されると、ディスプレイは深度マップを抽出し、これらの深度マップに基づいて多視点を生成または描画する。本明細書中において、用語「深度マップ」は、ある視点からのシーンオブジェクトたちの表面の距離に関する情報を含む、画像その他のビットストリームを指す。深度マップは視差マップに(あるいはその逆に)容易に変換可能であり、本明細書中の文脈において、用語「深度マップ」と「視差マップ」は同じであり相互に置き換え可能である。
特定のターゲットディスプレイ(例えば、映画館のスクリーン)に合わせて最適化された3Dコンテンツは、家庭の立体視HDTVまたは多視点HDTV上では異なって見える可能性がある。3D視聴体験は、ディスプレイのスクリーンサイズ、多視点技術、その他のパラメータによっても異なり得る。本願発明者らが理解しているように、元々のクリエーターの(例えば、ディレクターの)表現意図(artistic intent)を損なうこと無く、3Dディスプレイ上に立体コンテンツを描画するための改良技術を開発することが望まれている。
本節に記載の手法は、探求し得る手法ではあるが、必ずしもこれまでに既に想到または探求された手法であるとは限らない。従って、特筆しない限り、本節に記載の手法は、本節に記載されているからといって、従来技術たり得ると解釈されるべきではない。同様に、特筆しない限り、1つ以上の手法に関して上述された問題点が、本節に基づいて、従来技術において認識されていたと解釈されるべきではない。
実施形態による3つの裸眼立体視ディスプレイについての視聴体験クオリティー(QVE)マッピングの例を示している。 実施形態による3つの裸眼立体視ディスプレイについての視聴体験クオリティー(QVE)マッピングの例を示している。 実施形態によるターゲットディスプレイのQVEマッピングを決定する処理例を示している。 実施形態によるターゲットディスプレイのQVEマッピングを決定するためのターゲットテスト画像例を示している。 実施形態による支援3Dディスプレイアダプテーションの処理例を示している。 実施形態による支援3Dディスプレイアダプテーションの処理例を示している。 実施形態による3Dディスプレイエミュレーションの処理例を示している。
添付図面の各図において、本発明による実施形態を例示するが、本発明はそれらによって限定されない。図中において、同様の構成要素には同様の参照符号を付している。
立体ディスプレイおよび多視点ディスプレイ上に立体画像を表示するための、支援3Dディスプレイアダプテーション技術を本明細書に記載する。ディスプレイは、視聴体験クオリティー(QVE)マッピング(例えば、マッピング関数または入出力曲線)を用いて特徴付けされる。視聴体験クオリティー(QVE)マッピングは、入力視差または深度データの関数として、その特定の3Dディスプレイ上における視聴体験メトリックを表す。基準3Dディスプレイから任意の3Dディスプレイへの深度データのマッピングは、深度範囲変換関数と、基準ディスプレイのQVEマッピングおよびディレクターの元々の表現意図に応じて作成されたメタデータとを用いて表すことができる。以下の説明においては、便宜上、本発明を完全に理解できるように、多数の詳細事項を説明する。ただし、これらの詳細事項が無くても本発明を実施可能であることは明白であろう。他方、本発明の説明を不必要に不明瞭にしないように、周知の構造およびデバイスの細かな詳細までは説明しない。
(概要)
本明細書に記載の実施形態例は、立体ディスプレイおよび多視点ディスプレイ上に立体画像を表示するための支援3Dディスプレイアダプテーション技術に関する。3Dディスプレイは、その特定の3Dディスプレイ上における視聴体験メトリックを入力視差または深度データの関数として表す、視聴体験クオリティー(QVE)マッピングによって特徴付けられる。「視覚ボケ」のメトリックに基づくQVEマッピング関数の例を示す。基準ディスプレイ用の入力深度データから生成される基準深度データおよび、入力深度データと基準ディスプレイQVEマッピングを用いて生成されるQVEデータとの間の入出力関係を表すアーティストマッピング関数(artist's mapping function)の表現が与えられると、復号化器は基準深度データを再構築して、ターゲットディスプレイについての逆QVEマッピングを適用し、それにより、元々のアーティストの意図を損なうこと無く、そのターゲットディスプレイ用の出力深度データを生成し得る。
別の実施形態においては、既知の深度または視差で立体画像を表示し、表示された画像を2Dカメラで撮影し、撮影された2D画像を分析して対応QVE値を生成することによって、3DディスプレイQVEマッピング関数を生成する。ある実施形態においては、対応QVE値は、入力としてテスト画像が与えられた時に、撮影された2D画像に対し所与の基準において最も近い出力を生成するガウスボケフィルタの、標準偏差の関数である。
別の実施形態においては、立体画像に対するオリジナル入力深度データを受信する。オリジナル入力深度データに応じて、基準ディスプレイを用いて、基準深度マップデータが生成される。深度範囲変換関数が、入力深度データと基準出力深度データとの間の入出力関係を表し得る。基準深度マップデータおよび基準ディスプレイQVEマッピングに応じて、視聴体験クオリティー(QVE)データが生成される。入力深度データとQVEデータとの間の入出力関係を表すアーティストマッピング関数が生成され、基準深度マップデータまたはオリジナル入力深度データのいずれかと共に、受信器にメタデータとして送信される。
別の実施形態においては、3Dディスプレイエミュレーションシステムは、立体画像に対するオリジナル入力深度データにアクセスする。オリジナル入力深度データに応じて、基準ディスプレイを用いて、基準深度マップデータが生成される。基準深度マップデータおよび基準ディスプレイQVEマッピングに応じて、視聴体験クオリティー(QVE)データが生成される。エミュレートすべきターゲットディスプレイが、異なるモデルのターゲットディスプレイ群の中から選択され、エミュレートするターゲットディスプレイについての逆QVEマッピングにQVEデータを適用することにより、エミュレートするターゲットディスプレイ用のターゲット深度データを生成する。ここで、エミュレートするターゲットディスプレイについての逆QVEマッピングは、エミュレートするターゲットディスプレイに対して決定された、入力QVE値と出力深度値との間の入出力関係を表す。
(視聴体験クオリティーマッピング例)
立体コンテンツを制作および表示する場合、オリジナル版は、典型的に、特定のターゲットディスプレイサイズおよび視聴距離に合わせて最適化され、そして画像データおよび深度または視差データを含むビットストリームを用いて送信される。例えば、スポーツ生中継は、家庭用3DHDTVに送信するために最適化されたり、劇場版は、3D映画館プロジェクタ用に最適化されたりし得る。本明細書中において、用語「視差(disparity)」は、立体画像の左視点におけるオブジェクトの位置と、右視点におけるそれとの距離差を指す。立体映像処理において、視差は、典型的には、一方の視点(例えば、左画像)におけるある画像部分を他方の視点(例えば、右画像)で視聴した時の水平方向のズレ(例えば、左方向または右方向)を表す。例えば、左画像において水平位置hLおよび右画像において水平位置hRに位置する点は、hL−hR画素分の視差を有するものとして示され得る。
視差データは、典型的には8ビットの場合[0,255]の範囲のグレースケールデータとして表される、深度または「入力Z」データとして表されてもよいが、他の表現を用いてもよい。ある実施形態においては、入力視差Dおよび以下に定義される視差限界値dminおよびdmaxが与えられると、範囲[0,255]内の視差−深度変換(Z)は、以下のように定義され得る。
Figure 0006302540
式(1)において、dminは復号化深度値Z=0に対応するテクスチャの、輝度画素値における入力視差値を示す。負のdmin値は、画面平面の手前にある仮想位置に関する。同様に、dmaxは復号化深度値Z=255に対応するテクスチャ視点の、輝度画素値における入力視差値を示す。dmaxの値は、dminよりも大きいべきである。dminおよびdmaxを合わせて入力視差範囲が定義され、この入力視差範囲に対して復号化深度値が均一にマッピングされる。Z、dminおよびdmaxの値が与えられると、式(1)から逆のZ−Dマッピングも以下のように得ることができる。
Figure 0006302540
ただし、dminおよびdmaxの値は、フレーム毎、注目領域毎、シーン毎、あるいは他の適当な基準で変化し得る。例えば、第1のシーンにおいて、視差範囲が[−10,30]であり、第2のシーンにおいて視差が範囲[−50,200]内であってもよい。これらのdminおよびdmaxの値は、メタデータまたは補助的ビットストリームデータを用いて、下流のプロセッサまたはターゲット受信器(セットトップボックスなど)に通信され得る。
フル解像度映像および良質な深度/視差マップデータを送信することは、立体ディスプレイにおいても裸眼立体ディスプレイにおいても重要である。良質な視差マップは、3Dコンテンツの作成プロセス中において、手作業でまたは自動的に作成できる。これらの視差マップは、典型的には、特定のディスプレイタイプ(例えば、3D映写機)用に作成されており、他の3Dディスプレイ(例えば、3Dディスプレイ付き携帯型ゲーム機またはタブレット、あるいは家庭用3DHDTV)には適しておらず、よって修正が必要な場合がある。例えば、メガネを使う映写機またはメガネを使う立体TV用に視差マップが作成されている場合、その視差範囲は、典型的なメガネ不要の裸眼立体(AS3D)ディスプレイが扱える範囲を超えている可能性がある。例えば、これらの視差マップでは、AS3Dディスプレイの限られた性能を最適に利用できないかもしれない。さらに、AS3Dディスプレイは、異なる複数のメーカーが製造しており、個々に特性が異なる。よって、ある基準立体画像が与えられた時に、元々のディレクターの意図を損なうこと無く、異なる種類の3Dディスプレイに対して普遍的に使える視差マップを生成する必要がある。
ある実施形態においては、この問題の解決に向けた第1ステップは、特定のディスプレイ上における視聴体験クオリティー(QVE)を、入力データの視差または深度の関数として一義的に特徴付けるマッピングまたは関数を定義することである。ある実施形態においては、これに限定される訳ではないが、視聴体験クオリティーを表すための主要パラメータと考えられるのは「視覚ボケ」である。ただし、画像ゴーストまたはクロストーク、あるいは、多視点AS3Dディスプレイの円錐境界における画像フリッピング(すなわち、ワイピング効果)などの他の視覚ファクターを含めるようにこれを拡張してもよい。
図1Aにおいて、100は、ある実施形態例による、3つの異なる裸眼立体視ディスプレイについてのQVEマッピング(110、120、130)の例を示している。100は、対角寸法で、11インチディスプレイ(110)、23インチディスプレイ(120)および56インチディスプレイ(130)についてのQVEマッピングを示している。本実施形態においては、後ほど詳述するように、100のy軸は、0から255の範囲の深度値を有する入力画像に対して算出した出力ボケの大きさを示している。
図2は、ある実施形態において、特定のディスプレイのQVEマッピング(例えば、110、120または130)を求める処理例を示している。図2に示すように、ステップ205において、検討対象のディスプレイおよびカメラをセッティングし、ディスプレイ上に表示されたテスト画像を撮影することによって処理を開始する。セッティングでは、ディスプレイをキャリブレーションし、ターゲットディスプレイにとって典型的な視聴距離(例えば、11インチディスプレイの場合1.5フィート)にカメラを設置する。裸眼立体視ディスプレイの場合、ディスプレイのビューイングコーンの中心にもカメラを設置する。あるターゲット深度範囲(例えば、0〜255)が与えられると、テスト対象の各深度値に対して1組のテスト画像(225)が用意される。ただし、視差関連パラメータ(例えば、dminおよびdmax)は、ディスプレイ毎に変化し得る。ある実施形態においては、各テスト画像225は、様々な幅を有する一連の縦線を含み得る。例えば、縦線は、様々な周波数でプロットされた空間的2−D正弦波を表していてもよい。このようなテストパターンの例を図3に示す。
処理ループ250は、検討対象の各深度値について繰り返され、以下のステップを含む。(a)ステップ210において、ターゲットテスト画像を表示する。(b)ステップ215において、表示画像を2D画像としてカメラで撮影する。テスト画像に内在する視差によって、カメラによる撮影画像は、オリジナルテスト画像よりも画質が劣る(例えば、より顕著なボケ)ことが予想される。最後に、(c)ステップ220において、撮影画像を分析して、QVEメトリックを割り当てる。QVEメトリックは主観的であっても客観的であってもよく、あらかじめ決められた何らかの基準によって数値が割り当てられる。ある実施形態(100)においては、0〜4の客観的QVEメトリックは、入力視差と同等のボケの出力を生成するガウスボケフィルタの標準偏差σを表している。そのようなメトリックの算出の一例を次に説明する。
「視覚的ボケ」が視覚的体験ファクターの主パラメータであるとすると、各テスト画像(225)を、1組のガウスボケフィルタまたはその他のローパスやボケフィルタなどの、多様な複数のボケフィルタ(230)を用いてボケさせればよい。ある実施形態においては、これらのガウスボケフィルタのそれぞれは、カーネルサイズが同じであるが、標準偏差σパラメータ(例えば、σ=0.3〜4)が異なっていてもよい。そして、ステップ220において、一般的に使用されるSNR(信号雑音比)およびピークSNR基準のような誤差基準に従って、各撮影画像(215)をボケた画像全て(230)の組と比較する。そして、所与の深度について、出力QVEメトリック(例えば、QVE=3.0)を、その出力が撮影されたテスト画像に対し所与の基準において最もマッチするボケフィルタの、標準偏差として定義すればよい。
後に詳述するが、あるQVEマッピング(例えば、fTQ(Z)110)が与えられると、いくつかの実施形態においては、その逆関数f-1 TQ(Z)を適用して、所与のQVE値(例えば、Q)に対して、対応する深度Z=fZ(Q)を決定し得るようにすることが望ましい場合がある。しかし、図1Aに示すようなQVEマッピングの表現は、1つのQVE値が2つの異なる深度値にマッピングされ得るので、逆関数を定義するには不向きである。図1Aに示すようにあるQVEマッピングfTQ(Z)が与えられると、いくつかの実施形態においては、可逆fQ(Z)マッピング関数を以下のように得ることができる。
Figure 0006302540
ここで、所与の深度Z、dminおよびdmaxについて、視差Dは、式(2)を用いて算出できる。図1Aに示すfTQ(Z)マッピングのファミリーに対して、図1Bは、対応するfQ(Z)マッピングの例を示している。
(支援ディスプレイアダプテーションへの適用)
図4Aは、ある実施形態における3Dディスプレイ用の支援ディスプレイアダプテーション処理の一例を示している。オリジナルコンテンツ405は、オリジナルターゲットディスプレイ(例えば、映写機)をターゲットにした、オリジナル版用に作成された画像および深度または視差データを含む。対象となる多くの場合においては、異なる種類のディスプレイをターゲットとする別の版(release)を生成するために、このコンテンツを処理し直す必要がある。
ステップ410は、入力深度データ407(例えば、ZI(n)で示される)を、ポストプロダクション処理において使用される基準ディスプレイ用の、基準深度データ414(例えば、ZR(n)で示される)へと変換する、典型的なポストプロダクション段階を示している。この処理は典型的には半自動であり、ディレクターの意図を損なわないように、オリジナルアーティスト(ディレクター、撮影監督など)からの何らかの入力406を利用している。この処理は、カラーグレーディング、あるいは、エンハンスドまたは高ダイナミックレンジからより低いダイナミックレンジへのカラーマッピングのような追加的な処理ステップ(図示せず)を含んでいてもよい。3Dコンテンツのポストプロダクションおよび配信の一実施形態(400A)において、ステップ410の出力は、深度範囲変換関数(例えば、fCR(Z)で示され、出力414ZR(n)=fCR(ZI(n))である)を用いて生成される出力基準深度データ414(例えば、ZR(n))を含み得る。ある実施形態においては、処理410の出力は、基準深度マップデータ414を生成するために用いられる基準ディスプレイ用のディスプレイQVEマッピング412の表現(例えば、fQR(Z)として示される)も含んでいてもよい。基準ディスプレイQVEマッピング412は、深度データ414とあわせてメタデータとして、他のメタデータと同様に送信され得る。基準ディスプレイQVEマッピング412は、ルックアップテーブル、パラメトリック線形、区分線形または非線形関数などのパラメータとして等、当該分野では既知の様々な方法で送信されることにより、深度変換器420のような下流側処理ステップで再構築され得る。
基準ディスプレイQVEマッピング412(例えば、fQR(Z))および基準深度データ414(例えば、ZR(n))が与えられると、深度変換器420は、QVEマッピング412(例えば、QR(n)=fQR(ZR(n)))に従って、深度データ414をQVE値424(例えば、QR(n)で示される)に変換することができる。いくつかの実施形態においては、ステップ420は、QVE値424をセットトップボックス受信器または3DTVなどのような適切な受信器へと放送する、符号化器または送信器の一部であり得る。そのようなシナリオにおいては、ビットストリーム424は、基準ディスプレイQVEマッピングに関する情報を既に含んでおり、それ以外の情報を送信する必要はない。他のいくつかの実施形態においては、ステップ420は、セットトップボックス受信器または3DTVのような復号化器の一部であり得る。そのようなシナリオにおいては、符号化器は、基準深度データ414および基準ディスプレイQVEマッピング412の両方を送信する必要がある。旧型の受信器は、基準ディスプレイマッピング412を無視し、深度データを単純に処理しようと最大限努力する。しかし、次に説明するように、支援QVEマッピングメタデータを正しく解釈できる能力が与えられている新型の復号化器は、それらを用いて、ターゲットディスプレイ(440)上への画像データ412の表示をより向上させる。
QT(Z)は、ターゲットディスプレイ440用のQVEマッピング関数428を示すものとする。先述のように、fQT(Z)(例えば、110B)が与えられると、ディスプレイプロセッサは容易にその逆関数f-1 QT(Z)(ある入力VQE値に対して、それに対応するZ値を出力する)を構築し得る。ステップ430において、受信器では、1組の入力QVE値424(例えば、QR(n))が与えられると、最終ターゲットディスプレイ深度データ432(例えば、ZT(n)で示される)は以下のようにして生成され得る。
Figure 0006302540
図4Bは、支援ディスプレイアダプテーションの別の実施形態を示している。処理400A同様、400Bにおけるステップ410は、あるクラスのディスプレイをターゲットにした深度データを生成する。ただし、出力深度データ自身(例えば、ZR(n)414)および基準ディスプレイQVEマッピング412を出力するのではなく、ステップ410は、オリジナル深度データ407(例えば、ZI(n))および深度範囲変換関数(fCR(Z))の表現(ZR(n)=fCR(ZI(n)))を出力する。
I(n)407、fCR(Z)および基準ディスプレイQVEマッピング412(fQR(Z))が与えられると、ステップ420は、QR(n)424がQR(n)=fQR_A(ZI(n))として表され得るような、アーティストの意図を表すマッピング関数422fQR_A(Z)を生成し得る。ある実施形態においては、マッピング関数422fQR_A(Z)の表現は、深度データ407とともにメタデータを用いて送信器または符号化器から下流側の復号化器へと送信され得る。マッピング関数422は、ルックアップテーブル、パラメトリック線形、区分線形または非線形関数などのパラメータとして等、当該分野では既知の様々な方法で送信され、QVEデータ−深度変換器430のような下流側処理ステップで再構築され得る。
I(n)407、fQR_A(Z)422およびターゲットディスプレイQVEマッピング428(fQT(Z))が与えられると、先述のように、処理430において、以下のように最終的なZT(n)深度データ432を生成し得る。
Figure 0006302540
いくつかの実施形態においては、fQR_A(Z)関数422に加えて、ステップ410において生成された深度データ変換関数416(fCR(Z))をも受信器に送信し得る。これにより、QVEマッピングという概念を持たない旧型の復号化器が、ZT(n)をZT(n)=fCR(ZI(n))として再構築できるようになる。
いくつかの実施形態においては、帯域幅を守り、送信データレートを最小限に抑えるために、送信器は、アーティストマッピング関数fQR_A(Z)関数の部分表現のみを送信してもよい。その後、復号化器は、fQR_A(Z)の近似値を再構築し得る。本明細書中の文脈において、厳密なfQR_A(Z)の使用とその近似値の使用は同じであり、相互に置き換え可能である。
(ディスプレイエミュレーション)
いくつかの実施形態においては、コンテンツ作成段階410において、単一の基準ディスプレイ540を用いて異なるターゲットディスプレイ上の視聴条件をエミュレートするために、QVEマッピング関数408のファミリーが用いられ得る。ある実施形態において、図5は、3Dディスプレイエミュレーションの処理例を示す。処理ステップ420および430がここではディスプレイエミュレーション520の単一ステップに統合し得ることを除いて、処理500は処理400Aと同様である。
ポストプロダクション500において、アーティスト406は、ディスプレイ540を基準ディスプレイとして用いて基準深度データ414を生成し得る。この処理段階において、ディスプレイエミュレーション処理520をバイパスし、ディスプレイ540は、カラーグレーディングされた画像コンテンツ512を基準深度データ414に直接基づいて表示してもよい。アーティストがもし別のディスプレイ(既存の、あるいはまたは未来のディスプレイにおける未来の、QVEマッピング関数を有している)において出力414がどのように見えるのかをエミュレートしたい場合は、処理400Aの一部として先述したステップ420および430の単純な組み合わせであるディスプレイエミュレーション520により生成された深度データを、ディスプレイ540に供給すればよい。ディスプレイエミュレーションモードにおいては、QVEマッピング関数428は、エミュレートするターゲットディスプレイ用のQVEマッピングを表す。
表1は、本明細書中で使用される主な記号および用語をまとめたものである。
Figure 0006302540
(コンピュータシステム実施例)
本発明の実施形態は、コンピュータシステム、電子回路および構成要素で構成されたシステム、マイクロコントローラ、フィールドプログラマブルゲートアレイ(FPGA)または他のコンフィギュラブルまたはプログラマブルロジックデバイス(PLD)、離散時間またはデジタル信号プロセッサ(DSP)、特定用途向けIC(ASIC)などの集積回路(IC)デバイス、および/または、このようなシステム、デバイスまたは構成要素を1つ以上含む装置を用いて実施され得る。このコンピュータおよび/またはICは、本明細書に記載のような支援3Dディスプレイアダプテーションに関する命令を行い、制御し、または実行し得る。このコンピュータおよび/またはICは、本明細書に記載の支援3Dディスプレイアダプテーションに関する様々なパラメータまたは値のいずれをも演算し得る。支援3Dディスプレイアダプテーションの実施形態は、ハードウェア、ソフトウェア、ファームウェアおよびそれらの様々な組み合わせで実施され得る。
本発明の特定の実装は、本発明の方法をプロセッサに行わせるためのソフトウェア命令を実行するコンピュータプロセッサを含む。例えば、ディスプレイ、符号化器、セットトップボックス、トランスコーダなどの中の1つ以上のプロセッサは、そのプロセッサがアクセス可能なプログラムメモリ内にあるソフトウェア命令を実行することによって、上記のような支援3Dディスプレイアダプテーションの方法を実施し得る。本発明は、プログラム製品形態で提供されてもよい。このプログラム製品は、データプロセッサによって実行された時に本発明の方法をデータプロセッサに実行させるための命令を含むコンピュータ可読信号のセットを格納する任意の媒体を含み得る。本発明によるプログラム製品は、様々な形態のいずれをとっていてもよい。例えば、このプログラム製品は、フロッピーディスク(登録商標)、ハードディスクドライブを含む磁気データ記憶媒体、CD−ROM、DVDを含む光学データ記憶媒体、ROM、フラッシュRAMなどを含む電子データ記憶媒体、などの物理的媒体を含み得る。このプログラム製品上のコンピュータ可読信号は、任意に、圧縮または暗号化されていてもよい。
上記においてある構成要素(例えば、ソフトウェアモジュール、プロセッサ、アセンブリ、デバイス、回路など)に言及している場合、その構成要素への言及(「手段」への言及を含む)は、そうでないと明記されている場合を除いて、当該構成要素の機能を果たす(例えば、機能的に均等である)あらゆる構成要素(上記した本発明の実施形態例に出てくる機能を果たす開示構造に対して構造的に均等ではない構成要素も含む)を、当該構成要素の均等物として含むものと解釈されるべきである。
(均等物、拡張物、代替物、その他)
支援3Dディスプレイアダプテーションに関する実施形態例を上述した。本明細書中において、各実装毎に異なり得る多数の詳細事項に言及しながら本発明の実施形態を説明した。従って、本発明が何たるか、また、本出願人が本発明であると意図するものを示す唯一且つ排他的な指標は、本願が特許になった際の請求の範囲(今後出されるあらゆる訂正を含む、特許となった特定の請求項)である。当該請求項に含まれる用語に対して本明細書中に明示したあらゆる定義が、請求項内で使用される当該用語の意味を決定するものとする。よって、請求項において明示されていない限定事項、要素、性質、特徴、利点または属性は、その請求項の範囲をいかなる意味においても限定すべきではない。従って、本明細書および図面は、限定するものではなく、例示的であるとみなされるものである。

Claims (18)

  1. 視聴体験クオリティー(QVE)マッピングを用いて3Dディスプレイを特徴付ける方法であって、
    前記3Dディスプレイ上に表示する立体画像についての、ある深度範囲の入力深度値の各値またはある視差範囲の入力視差値の各値に対して、前記3Dディスプレイ用の出力QVE値を生成する工程と、
    前記出力QVE値に応じて前記3Dディスプレイ用の深度データを生成する工程と、
    前記入力深度値または入力視差値と前記生成される出力QVE値との間の視聴体験クオリティー(QVE)マッピングを生成する工程と、を包含し、
    前記視聴体験クオリティーは視覚的ボケの度合いを含む、方法。
  2. 基準3Dディスプレイ上に表示する立体画像についての、ある深度範囲の入力深度値の各値またはある視差範囲の入力視差値の各値に対して、前記基準3Dディスプレイ用の出力基準QVE値を生成する工程と、
    前記入力深度値または入力視差値と前記生成される出力基準QVE値との間の基準QVEマッピングを生成する工程とを包含する、請求項に記載の方法。
  3. 前記出力QVE値を生成する工程は、
    前記3Dディスプレイ上に表示する立体画像についての前記入力深度または視差を有するテスト立体画像を前記3Dディスプレイ上に表示する工程(210)と、
    前記表示された画像をカメラで撮影して、2D撮影画像を生成する工程(215)と、
    前記2D撮影画像を分析して、前記入力深度または視差に対応する前記出力QVE値を生成する工程(220)とを包含する、請求項1または2に記載の方法。
  4. 前記テスト立体画像は、正弦波関数の1つ以上の2D表現を含む、請求項に記載の方法。
  5. 前記2D撮影画像を分析する工程は、
    前記テスト立体画像の視点に応じてボケフィルタを用いてボケた画像の組を生成する工程であって、前記ボケた画像の組の各ボケた画像は異なるボケパラメータを用いて生成される工程と、
    画像比較基準に従って、前記2D撮影画像を前記ボケた画像の組のうちの1つ以上のボケた画像と比較して、1つ以上の差分メトリックを決定する工程と、
    前記決定された1つ以上の差分メトリックに応じて、前記出力QVE値を生成する工程とを包含する、請求項に記載の方法。
  6. 前記ボケフィルタはガウスフィルタを含み、前記ボケパラメータは前記ガウスフィルタの標準偏差を含み、前記出力QVE値は、その出力および前記2D撮影画像間の差分メトリックが最小となる前記ガウスフィルタの標準偏差の関数である、請求項に記載の方法。
  7. 支援3Dディスプレイアダプテーションの方法であって、
    立体画像のオリジナル入力深度データ(407)を受信する工程と、
    基準深度マップデータ(414)を生成する工程であって、前記基準深度マップデータは、前記オリジナル入力深度データ(407)および深度範囲変換関数(416)に応じて生成される工程と、
    前記基準深度マップデータ(414)および基準ディスプレイQVEマッピング(412)に応じて視聴体験クオリティー(QVE)データ(424)を生成する工程であって、前記基準ディスプレイQVEマッピングは、基準ディスプレイについて決定された、入力深度または視差値と出力QVE値との間の入出力関係を表している工程と、
    前記QVEデータ(424)に応じてターゲットディスプレイ深度データ(432)を生成する工程と、を包含する方法。
  8. 前記QVEデータ(424)を受信器に送信する工程をさらに包含する、請求項に記載の方法。
  9. 前記基準深度データ(414)および前記基準ディスプレイQVEマッピング(412)の表現を受信器に送信する工程をさらに包含する、請求項に記載の方法。
  10. 前記オリジナル入力深度データ(407)、前記基準ディスプレイQVEマッピング(412)の表現、および、前記深度範囲変換関数(416)の表現を受信器に送信する工程をさらに包含する、請求項に記載の方法。
  11. 復号化器における支援3Dディスプレイアダプテーションの方法であって、
    オリジナル入力深度データ(407)およびアーティストマッピング関数(422)の表現を前記復号化器において受信する工程であって、前記アーティストマッピング関数は、前記オリジナル入力深度データと基準ディスプレイに対して符号化器によって生成されるQVEデータ(424)との間の入出力関係を表している工程と、
    前記アーティストマッピング関数を前記オリジナル入力深度データに適用して、復号化されたQVEデータを生成する工程と、
    ターゲットディスプレイについての逆QVEマッピング(428)を前記復号化されたQVEデータに適用して、前記ターゲットディスプレイ用のターゲット深度データ(432)を生成する工程であって、前記ターゲットディスプレイについての前記逆QVEマッピングは、前記ターゲットディスプレイに対して決定された、入力QVE値と出力深度値との間の入出力関係を表している工程と、を包含する方法。
  12. 復号化器における支援3Dディスプレイアダプテーションの方法であって、
    請求項に記載の方法に従って符号化器によって生成されたQVEデータ(424)を前記復号化器で受信する工程と、
    ターゲットディスプレイについての逆QVEマッピング(428)を前記QVEデータに適用して、前記ターゲットディスプレイ用のターゲット深度データを生成する工程であって、前記ターゲットディスプレイについての前記逆QVEマッピングは、前記ターゲットディスプレイに対して決定された、入力QVE値と出力深度値との間の入出力関係を表している工程と、を包含する方法。
  13. 復号化器における支援3Dディスプレイアダプテーションの方法であって、
    基準深度データ(414)および基準ディスプレイQVEマッピング(412)の表現を前記復号化器で受信する工程であって、前記基準ディスプレイQVEマッピングは、基準ディスプレイに対して決定された、入力深度または視差データと出力QVE値との間の入出力関係を表している工程と、
    前記基準ディスプレイQVEマッピングを前記基準深度データ(414)に適用して、復号化されたQVEデータを生成する工程と、
    ターゲットディスプレイについての逆QVEマッピング(428)を前記復号化されたQVEデータに適用して、前記ターゲットディスプレイ用のターゲット深度データを生成する工程であって、前記ターゲットディスプレイについての前記逆QVEマッピングは、前記ターゲットディスプレイに対して決定された、入力QVE値と出力深度値との間の入出力関係を表している工程と、を包含する方法。
  14. 復号化器における支援3Dディスプレイアダプテーションの方法であって、
    オリジナル入力深度データ(407)、深度範囲変換関数および基準ディスプレイQVEマッピング(412)の表現を前記復号化器で受信する工程であって、前記基準ディスプレイQVEマッピングは、基準ディスプレイに対して決定された、入力深度または視差データと出力QVE値との間の入出力関係を表している工程と、
    前記深度範囲変換関数を前記オリジナル入力深度データに適用して、基準深度データ(414)を生成する工程と、
    前記基準ディスプレイQVEマッピングを前記基準深度データ(414)に適用して、復号化されたQVEデータを生成する工程と、
    ターゲットディスプレイについての逆QVEマッピング(428)を前記復号化されたQVEデータに適用して、前記ターゲットディスプレイ用のターゲット深度データを生成する工程であって、前記ターゲットディスプレイについての前記逆QVEマッピングは、前記ターゲットディスプレイに対して決定された、入力QVE値と出力深度値との間の入出力関係を表している工程と、を包含する方法。
  15. 3Dディスプレイエミュレーションの方法であって、
    立体画像のオリジナル入力深度データ(407)を受信する工程と、
    基準深度マップデータ(414)を生成する工程であって、前記基準深度マップデータは、前記オリジナル入力深度データ(407)および深度範囲変換関数(416)に応じて生成される工程と、
    前記基準深度マップデータ(414)および基準ディスプレイQVEマッピング(412)に応じて視聴体験クオリティー(QVE)データ(424)を生成する工程であって、前記基準ディスプレイQVEマッピングは、基準ディスプレイについて決定された、入力深度または視差データと出力QVE値との間の入出力関係を表している工程と、
    エミュレートするターゲットディスプレイを選択する工程と、
    前記エミュレートするターゲットディスプレイについての逆QVEマッピング(428)を前記QVEデータ(424)に適用して、前記エミュレートするターゲットディスプレイ用のターゲット深度データを生成する工程であって、前記エミュレートするターゲットディスプレイについての前記逆QVEマッピングは、前記エミュレートするターゲットディスプレイに対して決定された、入力QVE値と出力深度値との間の入出力関係を表している工程と、を包含する方法。
  16. プロセッサを備え、請求項1から15のいずれかに記載の方法を行うように構成された装置。
  17. 請求項1から15のいずれかに記載の方法を実行するためのコンピュータ実行可能命令を格納した非一時的なコンピュータ可読記憶媒体。
  18. 視聴体験クオリティー(QVE)マッピングを用いて3Dディスプレイを特徴付ける方法であって、
    前記3Dディスプレイ上に表示する立体画像についての、ある深度範囲の入力深度値の各値またはある視差範囲の入力視差値の各値に対して、前記3Dディスプレイ用の出力QVE値を生成する工程と、
    前記出力QVE値に応じて前記3Dディスプレイ用の深度データを生成する工程とを包含し、
    前記視聴体験クオリティー(QVE)マッピングは、前記入力深度値または前記入力視差値と前記出力QVE値との間の入出力関係を表しており、
    前記出力QVE値を生成する工程は、
    前記入力深度または視差を有するテスト立体画像を前記3Dディスプレイ上に表示する工程(210)と、
    前記表示された画像をカメラで撮影して、2D撮影画像を生成する工程(215)と、
    前記2D撮影画像を分析して、前記入力深度または視差に対応する前記出力QVE値を生成する工程(220)とを包含し、
    前記2D撮影画像を分析する工程は、
    前記テスト立体画像の視点に応じてボケフィルタを用いてボケた画像の組を生成する工程であって、前記ボケた画像の組の各ボケた画像は異なるボケパラメータを用いて生成される工程と、
    画像比較基準に従って、前記2D撮影画像を前記ボケた画像の組のうちの1つ以上のボケた画像と比較して、1つ以上の差分メトリックを決定する工程と、
    前記決定された1つ以上の差分メトリックに応じて、前記出力QVE値を生成する工程とを包含する、方法。
JP2016506318A 2013-04-02 2014-03-17 支援3dディスプレイアダプテーション Active JP6302540B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361807672P 2013-04-02 2013-04-02
US61/807,672 2013-04-02
PCT/US2014/030588 WO2014165316A1 (en) 2013-04-02 2014-03-17 Guided 3d display adaptation

Publications (2)

Publication Number Publication Date
JP2016521041A JP2016521041A (ja) 2016-07-14
JP6302540B2 true JP6302540B2 (ja) 2018-03-28

Family

ID=50729789

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016506318A Active JP6302540B2 (ja) 2013-04-02 2014-03-17 支援3dディスプレイアダプテーション

Country Status (8)

Country Link
US (1) US10063845B2 (ja)
EP (1) EP2982106B1 (ja)
JP (1) JP6302540B2 (ja)
KR (1) KR101724309B1 (ja)
CN (1) CN105103544B (ja)
HK (1) HK1216694A1 (ja)
TW (1) TWI547142B (ja)
WO (1) WO2014165316A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150103162A1 (en) * 2013-10-14 2015-04-16 Etron Technology, Inc. System of quickly generating a relationship table of distance to disparity of a camera and related method thereof
KR20200004840A (ko) * 2017-05-15 2020-01-14 아우스터, 인크. 파노라마 lidar 결과의 컬러 보강

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2857133A1 (fr) 2003-07-03 2005-01-07 Thomson Licensing Sa Procede de generation de flou
EP2332340B1 (en) 2008-10-10 2015-12-23 Koninklijke Philips N.V. A method of processing parallax information comprised in a signal
JP4737573B2 (ja) 2009-02-05 2011-08-03 富士フイルム株式会社 3次元画像出力装置及び方法
US8629899B2 (en) 2009-08-06 2014-01-14 Qualcomm Incorporated Transforming video data in accordance with human visual system feedback metrics
JP5444955B2 (ja) 2009-08-31 2014-03-19 ソニー株式会社 立体画像表示システム、視差変換装置、視差変換方法およびプログラム
WO2011081646A1 (en) 2009-12-15 2011-07-07 Thomson Licensing Stereo-image quality and disparity/depth indications
US20110169818A1 (en) 2010-01-13 2011-07-14 Sharp Laboratories Of America, Inc. Reducing viewing discomfort
WO2011133496A2 (en) * 2010-04-21 2011-10-27 Samir Hulyalkar System, method and apparatus for generation, transmission and display of 3d content
JP4875762B2 (ja) 2010-05-26 2012-02-15 シャープ株式会社 画像処理装置、画像表示装置および画像撮像装置
US9406132B2 (en) 2010-07-16 2016-08-02 Qualcomm Incorporated Vision-based quality metric for three dimensional video
WO2012050089A1 (ja) * 2010-10-12 2012-04-19 株式会社Jvcケンウッド 奥行き信号生成装置、擬似立体画像信号生成装置、奥行き信号生成方法、擬似立体画像信号生成方法、奥行き信号生成プログラム、擬似立体画像信号生成プログラム
US9292973B2 (en) 2010-11-08 2016-03-22 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays
US8836796B2 (en) * 2010-11-23 2014-09-16 Dolby Laboratories Licensing Corporation Method and system for display characterization or calibration using a camera device
KR101727899B1 (ko) 2010-11-26 2017-04-18 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US8274552B2 (en) * 2010-12-27 2012-09-25 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US9407904B2 (en) * 2013-05-01 2016-08-02 Legend3D, Inc. Method for creating 3D virtual reality from 2D images
US8654181B2 (en) 2011-03-28 2014-02-18 Avid Technology, Inc. Methods for detecting, visualizing, and correcting the perceived depth of a multicamera image sequence
WO2012156518A2 (en) 2011-05-17 2012-11-22 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Methods and device for processing digital stereo image content
CN103597839B (zh) * 2011-05-31 2017-10-20 杜比实验室特许公司 视频压缩方法、视频重构方法和***、及编码器
US20140111627A1 (en) * 2011-06-20 2014-04-24 Panasonic Corporation Multi-viewpoint image generation device and multi-viewpoint image generation method
US8855472B2 (en) 2011-07-26 2014-10-07 Panasonic Corporation Video editing apparatus, video editing method, program, and integrated circuit
US9560334B2 (en) * 2011-09-08 2017-01-31 Qualcomm Incorporated Methods and apparatus for improved cropping of a stereoscopic image pair
US20130258044A1 (en) * 2012-03-30 2013-10-03 Zetta Research And Development Llc - Forc Series Multi-lens camera
US9600888B2 (en) * 2012-09-14 2017-03-21 Sony Corporation Image processing device, image processing method, and program
US9547937B2 (en) * 2012-11-30 2017-01-17 Legend3D, Inc. Three-dimensional annotation system and method
US9436358B2 (en) * 2013-03-07 2016-09-06 Cyberlink Corp. Systems and methods for editing three-dimensional video
US9438878B2 (en) * 2013-05-01 2016-09-06 Legend3D, Inc. Method of converting 2D video to 3D video using 3D object models
TWI530156B (zh) * 2014-01-10 2016-04-11 友達光電股份有限公司 立體顯示方法

Also Published As

Publication number Publication date
TW201448565A (zh) 2014-12-16
US20160065949A1 (en) 2016-03-03
HK1216694A1 (zh) 2016-11-25
TWI547142B (zh) 2016-08-21
KR101724309B1 (ko) 2017-04-07
EP2982106A1 (en) 2016-02-10
EP2982106B1 (en) 2019-06-19
WO2014165316A1 (en) 2014-10-09
KR20150126640A (ko) 2015-11-12
CN105103544B (zh) 2017-05-10
US10063845B2 (en) 2018-08-28
CN105103544A (zh) 2015-11-25
JP2016521041A (ja) 2016-07-14

Similar Documents

Publication Publication Date Title
KR101863767B1 (ko) 의사-3d 인위적 원근법 및 장치
US9445072B2 (en) Synthesizing views based on image domain warping
US8711204B2 (en) Stereoscopic editing for video production, post-production and display adaptation
US10095953B2 (en) Depth modification for display applications
JP5905610B2 (ja) 3d視覚的ダイナミックレンジ符号化
US20120188334A1 (en) Generating 3D stereoscopic content from monoscopic video content
US20120120192A1 (en) Hierarchical hole-filling for depth-based view synthesis in ftv and 3d video
Daly et al. Perceptual issues in stereoscopic signal processing
US9654759B2 (en) Metadata for depth filtering
Winkler et al. Stereo/multiview picture quality: Overview and recent advances
EP2569950A1 (en) Comfort noise and film grain processing for 3 dimensional video
JP6148154B2 (ja) 画像処理装置及び画像処理プログラム
JP6302540B2 (ja) 支援3dディスプレイアダプテーション
JP2014042238A (ja) 3dビジュアルコンテントのデプスベースイメージスケーリング用の装置及び方法
JPWO2013069171A1 (ja) 画像処理装置、及び画像処理方法
CN107767412A (zh) 一种图像处理方法及装置
RU2632404C2 (ru) Данные сигнализации глубины
KR20130026370A (ko) 깊이 추정 데이터 생성 장치, 깊이 추정 데이터 생성 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체 및, 의사 입체 화상 표시 장치
Xu Capturing and post-processing of stereoscopic 3D content for improved quality of experience
JP2021514138A (ja) 3dディスプレイのためのオーバースキャン
Ohm et al. Signal Composition, Rendering and Presentation

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180302

R150 Certificate of patent or registration of utility model

Ref document number: 6302540

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250