JP6649010B2 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP6649010B2
JP6649010B2 JP2015165084A JP2015165084A JP6649010B2 JP 6649010 B2 JP6649010 B2 JP 6649010B2 JP 2015165084 A JP2015165084 A JP 2015165084A JP 2015165084 A JP2015165084 A JP 2015165084A JP 6649010 B2 JP6649010 B2 JP 6649010B2
Authority
JP
Japan
Prior art keywords
display
image
display image
virtual screen
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015165084A
Other languages
English (en)
Other versions
JP2017046065A (ja
Inventor
友博 大戸
友博 大戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2015165084A priority Critical patent/JP6649010B2/ja
Publication of JP2017046065A publication Critical patent/JP2017046065A/ja
Application granted granted Critical
Publication of JP6649010B2 publication Critical patent/JP6649010B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、映像表示装置に立体映像を表示させる情報処理装置、映像表示システム、映像表示装置の制御方法、及びプログラムに関する。
ユーザーの左目に左目用画像、右目には左目用画像とは異なる右目用画像を閲覧させることで、視差を利用した立体映像の表示を実現する映像表示装置が知られている。
上述した映像表示装置が、立体視のために用意される画像を傾けた状態で表示した場合、左目用画像と右目用画像とで画像内に写っている同じ物体の高さ方向の位置がずれてしまう。そうすると、垂直視差が生じるため、ユーザーがその物体の奥行きを正しく認識できなくなり、違和感を感じるおそれがある。
本発明は上記実情を考慮してなされたものであって、その目的の一つは、映像表示装置に傾けた状態の画像が表示される場合に、ユーザーが感じる違和感を軽減することのできる情報処理装置、映像表示システム、映像表示装置の制御方法、及びプログラムを提供することにある。
本発明に係る情報処理装置は、立体映像を表示する映像表示装置と接続される情報処理装置であって、撮影空間内を二つの撮影位置から見た景色を表す二つの撮影画像を取得する取得部と、前記取得した二つの撮影画像に基づいて二つの表示画像を描画して、立体映像として前記映像表示装置に表示させる表示画像描画部と、前記表示画像内におけるユーザーの注視点を特定する注視点特定部と、を含み、前記表示画像描画部は、前記二つの撮影画像が表す景色を傾けた状態を表す前記二つの表示画像を描画する場合に、前記特定された注視点の位置において、前記二つの撮影画像内で互いに対応する対応点の高さ方向のずれを低減させるように、前記二つの表示画像を描画することを特徴とする。
また、本発明に係る映像表示システムは、立体映像を表示する映像表示装置と、当該映像表示装置に接続される情報処理装置と、を含む映像表示システムであって、前記情報処理装置は、撮影空間内を二つの撮影位置から見た景色を表す二つの撮影画像を取得する取得部と、前記取得した二つの撮影画像に基づいて二つの表示画像を描画する表示画像描画部と、前記表示画像内におけるユーザーの注視点を特定する注視点特定部と、を含み、前記映像表示装置は、前記表示画像描画部が描画した二つの表示画像を立体映像として表示し、前記表示画像描画部は、前記二つの撮影画像が表す景色を傾けた状態を表す前記二つの表示画像を描画する場合に、前記特定された注視点の位置において、前記二つの撮影画像内で互いに対応する対応点の高さ方向のずれを低減させるように、前記二つの表示画像を描画することを特徴とする。
また、本発明に係る映像表示装置の制御方法は、立体映像を表示する映像表示装置の制御方法であって、撮影空間内を二つの撮影位置から見た景色を表す二つの撮影画像を取得する取得ステップと、前記取得した二つの撮影画像に基づいて二つの表示画像を描画して、立体映像として前記映像表示装置に表示させる表示画像描画ステップと、前記表示画像内におけるユーザーの注視点を特定する注視点特定ステップと、を含み、前記表示画像描画ステップでは、前記二つの撮影画像が表す景色を傾けた状態を表す前記二つの表示画像を描画する場合に、前記特定された注視点の位置において、前記二つの撮影画像内で互いに対応する対応点の高さ方向のずれを低減させるように、前記二つの表示画像を描画することを特徴とする。
また、本発明に係るプログラムは、立体映像を表示する映像表示装置と接続されるコンピュータを、撮影空間内を二つの撮影位置から見た景色を表す二つの撮影画像を取得する取得手段、前記取得した二つの撮影画像に基づいて二つの表示画像を描画して、立体映像として前記映像表示装置に表示させる表示画像描画手段、及び、前記表示画像内におけるユーザーの注視点を特定する注視点特定手段、として機能させるためのプログラムであって、前記表示画像描画手段は、前記二つの撮影画像が表す景色を傾けた状態を表す前記二つの表示画像を描画する場合に、前記特定された注視点の位置において、前記二つの撮影画像内で互いに対応する対応点の高さ方向のずれを低減させるように、前記二つの表示画像を描画することを特徴とする。このプログラムは、コンピュータ読み取り可能で非一時的な情報記憶媒体に格納されて提供されてよい。
本発明の実施の形態に係る情報処理装置を含んだ映像表示システムの構成を示す構成ブロック図である。 本実施形態に係る情報処理装置の機能を示す機能ブロック図である。 撮影画像を撮影する際の撮影位置の位置関係を示す図である。 視点カメラと仮想スクリーンの位置関係を示す図である。 仮想スクリーン上の貼り付け対象領域を示す図である。 視点カメラが傾けられた状態における視野範囲を示す図である。 視点カメラが傾けられた状態において表示画像内で生じる被写体の高さ方向のずれを説明する図である。 本実施形態に係る情報処理装置が実行する処理の流れの一例を示す図である。 全天周の景色を含んだ撮影画像に基づいて表示画像を描画する場合の視点カメラと仮想スクリーンの位置関係を示す図である。
以下、本発明の実施形態について、図面に基づき詳細に説明する。
図1は、本発明の一実施形態に係る情報処理装置10を含む映像表示システム1の構成を示す構成ブロック図である。同図に示されるように、映像表示システム1は、情報処理装置10と、操作デバイス20と、カメラ25と、中継装置30と、映像表示装置40と、を含んで構成されている。
情報処理装置10は、映像表示装置40が表示すべき映像を供給する装置であって、例えば家庭用ゲーム機、携帯型ゲーム機、パーソナルコンピューター、スマートフォン、タブレット等であってよい。図1に示されるように、情報処理装置10は、制御部11と、記憶部12と、インタフェース部13と、を含んで構成される。
制御部11は、CPU等のプロセッサーを少なくとも一つ含み、記憶部12に記憶されているプログラムを実行して各種の情報処理を実行する。なお、本実施形態において制御部11が実行する処理の具体例については、後述する。記憶部12は、RAM等のメモリデバイスを少なくとも一つ含み、制御部11が実行するプログラム、及び当該プログラムによって処理されるデータを格納する。
インタフェース部13は、操作デバイス20、カメラ25、及び中継装置30との間のデータ通信のためのインタフェースである。情報処理装置10は、インタフェース部13を介して有線又は無線のいずれかで操作デバイス20、カメラ25及び中継装置30のそれぞれと接続される。具体例として、インタフェース部13は、情報処理装置10が供給する映像や音声を中継装置30に送信するために、HDMI(High-Definition Multimedia Interface:登録商標)などのマルチメディアインタフェースを含んでよい。また、中継装置30経由で映像表示装置40から各種の情報を受信したり、制御信号等を送信したりするために、USB等のデータ通信インタフェースを含んでよい。また、インタフェース部13は、操作デバイス20に対するユーザーの操作入力の内容を示す信号を受信するために、Bluetooth(登録商標)やUSB等のデータ通信インタフェースを含んでいる。さらにインタフェース部13は、カメラ25によって撮像された画像のデータを受信するために、USB等のデータ通信インタフェースを含んでいる。
操作デバイス20は、家庭用ゲーム機のコントローラ等であって、ユーザーが情報処理装置10に対して各種の指示操作を行うために使用される。操作デバイス20に対するユーザーの操作入力の内容は、有線又は無線のいずれかにより情報処理装置10に送信される。なお、操作デバイス20は情報処理装置10の筐体表面に配置された操作ボタンやタッチパネル等を含んでもよい。カメラ25は、本映像表示システム1を利用するユーザーの前方に設置され、ユーザーが装着する映像表示装置40を含んだ映像を撮像する。
中継装置30は、有線又は無線のいずれかにより映像表示装置40と接続されており、情報処理装置10から供給される映像のデータを受け付けて、受け付けたデータに応じた映像信号を映像表示装置40に対して出力する。このとき中継装置30は、必要に応じて、供給された映像データに対して、映像表示装置40の光学系によって生じる歪みを補正する処理などを実行し、補正された映像信号を出力してもよい。なお、中継装置30から映像表示装置40に供給される映像信号は、左目用映像、及び右目用映像の二つの映像を含んでいる。また、中継装置30は、映像データ以外にも、音声データや制御信号など、情報処理装置10と映像表示装置40との間で送受信される各種の情報を中継する。
映像表示装置40は、中継装置30から入力される映像信号に応じた映像を表示し、ユーザーに閲覧させる。本実施形態では、映像表示装置40はユーザーが頭部に装着して使用する映像表示装置であって、両目での映像の閲覧に対応しているものとする。すなわち映像表示装置40は、ユーザーの右目及び左目それぞれの目の前に映像を表示する。また、映像表示装置40は両眼視差を利用した立体映像の表示を行うものとする。図2に示すように、映像表示装置40は、映像表示素子41、光学素子42、発光素子43、モーションセンサー44、及び通信インタフェース45を含んで構成される。
映像表示素子41は、有機EL表示パネルや液晶表示パネルなどであって、中継装置30から供給される映像信号に応じた映像を表示する。本実施形態において映像表示素子41は、左目用映像、及び右目用映像の2つの映像を表示する。なお、映像表示素子41は、左目用映像及び右目用映像を並べて表示する1つの表示素子であってもよいし、それぞれの映像を独立に表示する2つの表示素子によって構成されてもよい。また、公知のスマートフォン等を映像表示素子41として用いてもよい。なお、映像表示素子41は、立体視を実現するために、左目用映像及び右目用映像として互いに異なる映像を表示するものとする。
光学素子42は、ホログラムやプリズム、ハーフミラーなどであって、ユーザーの目の前に配置され、映像表示素子41が表示する映像の光を透過又は屈折させて、ユーザーの左右それぞれの目に入射させる。具体的に、映像表示素子41が表示する左目用映像は、光学素子42を経由してユーザーの左目に入射し、右目用映像は光学素子42を経由してユーザーの右目に入射する。これによりユーザーは、映像表示装置40を頭部に装着した状態で、左目用映像を左目で、右目用映像を右目で、それぞれ閲覧することができる。なお、本実施形態において映像表示装置40は、ユーザーが外界の様子を視認することができない非透過型の映像表示装置であるものとする。
発光素子43は、LED等であって、映像表示装置40の前面に配置され、情報処理装置10からの指示に応じて発光する。この発光素子43の光をカメラ25で撮影することによって、情報処理装置10はカメラ25の視野内における映像表示装置40の位置を特定することができる。すなわち、情報処理装置10は発光素子43の光を利用して映像表示装置40の位置や傾きの変化をトラッキングすることができる。なお、発光素子43は複数配置されてもよい。
モーションセンサー44は、映像表示装置40の位置や向き、動きに関する各種の情報を測定する。例えばモーションセンサー44は、加速度センサー、ジャイロスコープ、又は地磁気センサーなどを含んでよい。モーションセンサー44の測定結果は、中継装置30を経由して情報処理装置10に送信される。情報処理装置10は、映像表示装置40の動きや向きの変化を特定するために、このモーションセンサー44の測定結果を用いることができる。具体的に情報処理装置10は、加速度センサーの測定結果を用いることで、映像表示装置40の鉛直方向に対する傾きや平行移動を検出できる。また、ジャイロスコープや地磁気センサーの測定結果を用いることで、映像表示装置40の回転運動を検出できる。
通信インタフェース45は、中継装置30との間でデータ通信を行うためのインタフェースである。例えば映像表示装置40が中継装置30との間で無線LANやBluetoothなどの無線通信によりデータの送受信を行う場合、通信インタフェース45は通信用のアンテナ、及び通信モジュールを含む。また、通信インタフェース45は、中継装置30との間で有線によるデータ通信を行うためのHDMIやUSB等の通信インタフェースを含んでもよい。
次に、情報処理装置10が実現する機能について図2を用いて説明する。図2に示すように、情報処理装置10は、機能的に、撮影画像取得部51と、表示画像描画部52と、視点制御部53と、注視点特定部54と、を含む。これらの機能は、制御部11が記憶部12に記憶されたプログラムを実行することにより実現される。このプログラムは、インターネット等の通信ネットワークを介して情報処理装置10に提供されてもよいし、光ディスク等のコンピュータ読み取り可能な情報記憶媒体に格納されて提供されてもよい。
撮影画像取得部51は、撮影空間内を二つの撮影位置から見た景色を表す二つの撮影画像を取得する。ここでは具体的に、撮影空間は実空間であるものとし、撮影画像は実際の景色をカメラによって撮影したものとする。また、二つの撮影位置は、実空間において水平方向に沿って左右に並んだ位置である。この二つの撮影位置のそれぞれに設置したカメラから撮影空間内の被写体を撮影することによって、二つの撮影画像が得られる。以下、二つの撮影位置に配置されるカメラを左撮影カメラCL及び右撮影カメラCRとする。また、左撮影カメラCLで撮影空間を撮影して得られる撮影画像を左撮影画像PLと表記し、右撮影カメラCRで撮影空間を撮影して得られる撮影画像を右撮影画像PRと表記する。また、二つの撮影位置の中点を基準撮影位置Rcと表記する。二つの撮影位置は互いに距離dcだけ離れているものとする。
図3は、二つの撮影カメラにより撮影画像を撮影する様子を示す図であって、二つの撮影カメラを天頂方向から見た状態を示している。図中の破線は撮影カメラの水平画角を示しており、この破線で囲まれた撮影範囲内に存在する被写体が撮影画像に含まれる。なお、この図の例においては二つのカメラの光軸(撮影方向)は互いに平行であることとし、その撮影方向は二つの撮影位置を含む鉛直面に直交する向きになっている。また、ここでは具体例として、撮影画像内に被写体Sが含まれるものとし、二つの撮影位置から被写体Sまでの撮影方向に沿った距離をdxとする。
以下では、二つの撮影画像において撮影空間内の同じ位置が写っている点を対応点という。水平方向に沿って並んだ二つの撮影位置から撮影を行うことで、二つの撮影画像内の対応点は互いに水平方向にずれた位置に表示されることになる。なお、ここでは二つの撮影カメラの撮影方向が一致することとしているので、撮影位置からの距離が遠くなるほど二つの対応点は各撮影画像内の互いに近い位置に配置され、撮影位置からの距離が近くなるほど互いに離れた位置に配置される。この対応点の左右方向のずれによって、両眼視差による立体視が実現される。
表示画像描画部52は、撮影画像取得部51が取得した二つの撮影画像に基づいて二つの表示画像を描画して、描画した表示画像を中継装置30に対して出力することによって映像表示装置40に表示させる。具体的に表示画像描画部52は、左撮影画像PLに基づいて左目用表示画像DLを描画し、右撮影画像PRに基づいて右目用表示画像DRを描画する。そして、二つの表示画像を映像表示装置40に表示させることによって、左目用表示画像DLをユーザーの左目で、右目用表示画像DRを右目で、それぞれ閲覧させる。
本実施形態において表示画像描画部52は、左目用表示画像DL及び右目用表示画像DRのそれぞれを、以下のようにして描画する。すなわち、表示画像描画部52は、仮想空間内に平板状の仮想スクリーンVSを配置し、その仮想スクリーンVSの少なくとも一部を視野内に含めるような位置に、ユーザーの左右の目に対応する二つの視点カメラを配置する。以下ではこの二つの視点カメラを左視点カメラVL及び右視点カメラVRと表記する。左視点カメラVL及び右視点カメラVRは、人の左右の目と同様に互いに所定距離だけ離れて左右に並んで仮想空間内に配置される。以下では、二つの視点カメラの配置位置の中点を基準視点位置Rvと表記する。また、二つの視点カメラ間の距離をdvとする。なお、ここでは距離dvは、実空間における二つの撮影位置の間の距離dcに一致するものとする。また、二つの視点カメラの光軸(視線方向)は、撮影カメラの場合と同様に互いに平行であるものとする。
図4は、仮想スクリーンVS、及び二つの視点カメラが配置された仮想空間を上方から見た様子を示している。図中の破線は二つの視点カメラの水平画角を示している。同図においては、仮想スクリーンVSは基準視点位置Rvから視線方向に沿って距離dsだけ離れた位置に配置されている。また、ここでは二つの視点カメラは、仮想スクリーンVSに平行な平面内に配置され、その視線方向は仮想スクリーンVSの表面に直交している。
以上説明した条件下において、表示画像描画部52は、仮想スクリーンVSの表面に左撮影画像PLをテクスチャーとして貼り付け、この左撮影画像PLを左視点カメラVLから見た様子を示す画像を、左目用表示画像DLとして描画する。同様に、右撮影画像PRをテクスチャーとして貼り付けた仮想スクリーンVSの表面を右視点カメラVRから見た様子を示す画像を、右目用表示画像DRとして描画する。そして、描画した左目用表示画像DL及び右目用表示画像DRを映像表示装置40に表示させ、ユーザーに左右の目で閲覧させる。これによりユーザーは、二つの撮影位置から見た景色を立体的に認識することができる。
なお、二つの撮影画像のそれぞれを仮想スクリーンVS上に貼り付ける際の貼り付け位置及び大きさは、各撮影画像を撮影した撮影カメラの位置、及び画角に応じて決定される。具体的に、仮想空間内の基準視点位置Rvに基準撮影位置Rcが一致するように、二つの撮影カメラを撮影時の位置関係を保ったまま仮想空間内に配置したとする。このとき二つの撮影カメラは、撮影時と同様に水平方向に並び、かつ二つの撮影カメラを含む鉛直面が仮想スクリーンVSと平行になるように配置される。この場合に、各撮影カメラの画角に応じて決まる撮影範囲が仮想スクリーンVS上において占める領域が、撮影画像を貼り付ける領域となる。以下では、仮想スクリーンVS上の左撮影画像PLが貼り付けられる領域を貼り付け対象領域ALといい、右撮影画像PRが貼り付けられる領域を貼り付け対象領域ARという。貼り付け対象領域ALと貼り付け対象領域ARとは、仮想スクリーンVS上において水平方向に沿って互いに距離dcだけずれた領域となる。また、各貼り付け対象領域の大きさは、撮影カメラの画角と、基準視点位置Rvから仮想スクリーンVSまでの距離dsと、に応じて決定される。各撮影画像は、この貼り付け対象領域の大きさに合わせて拡大または縮小されて、対応する貼り付け対象領域に貼り付けられる。図5は、仮想スクリーンVS上の貼り付け対象領域AL及びARを示す図であって、二つの視点カメラの後方から仮想スクリーンVSを見た様子を示している。なお、図中の破線は二つの視点カメラの視野範囲を示している。
視点制御部53は、仮想空間内に配置された二つの視点カメラの位置を制御する。本実施形態において視点制御部53は、映像表示装置40の傾きの変化に応じて二つの視点カメラを回転させる回転制御を実行する。具体的に視点制御部53は、一定時間おきにモーションセンサー44の測定結果、またはカメラ25による撮像画像を取得し、解析することによって、取得時点における映像表示装置40の傾きを特定する。ここで映像表示装置40の傾きは、映像表示装置40の前後方向を回転軸とした回転の回転量を表すロール角によって定義されるものとする。映像表示装置40はユーザーの頭部に固定された状態で使用されるので、この映像表示装置40の傾きは、そのままユーザーの顔の傾きに対応することになる。なお、ここでは映像表示装置40を装着した状態におけるユーザーの顔の正面に一致する方向を、映像表示装置40の前方向(正面方向)としている。また、ロール角の値は、ユーザーが顔を傾けずに左右の目が水平になっている状態を基準状態として、この基準状態からの回転量を表すものであってよい。
視点制御部53は、特定した映像表示装置40の傾きの変化に連動して、二つの視点カメラを鉛直面内で回転させる。図6は視点カメラが回転した様子を示す図であって、図5と同様に仮想空間内に配置された二つの視点カメラを背面方向から見た様子を示している。また、図中の破線は二つの視点カメラの視野範囲を示している。同図に示されるように、二つの視点カメラは、基準視点位置Rvを回転中心として、視点カメラの視線方向を回転軸として回転する。その回転方向及び回転量φは、特定された映像表示装置40のロール角の値に一致してよい。図6に示されるように、視点カメラが回転したとしても、貼り付け対象領域AR及びALの位置、及び向きは変化しない。そのため、視点カメラの視野範囲内に含まれる撮影画像PR及びPLは、視点カメラの回転に連動して傾けられることになる。表示画像描画部52は、このように回転された各視点カメラから対応する撮影画像が貼り付けられた仮想スクリーンVSを見た様子を表示画像として描画する。これにより、ユーザーは、二つの撮影画像が表す景色を、自身の顔の傾きの変化に応じて傾けられた状態で閲覧することができる。
なお、視点制御部53は、映像表示装置40の傾きだけでなく、映像表示装置40の前面が向いている方向を特定してもよい。例えば映像表示装置40の方向は、上下方向を回転軸とした回転量を表すヨー角と、左右方向を回転軸とした回転量を表すピッチ角と、によって定義される。ヨー角及びピッチ角の値は、それぞれ基準方向に対する回転量を表すものであってよい。ここで基準方向は、映像表示装置40の使用開始時などに決定される方向であってよい。また、視点制御部53は、映像表示装置40の傾き、方向だけでなく、映像表示装置40が平行移動してその位置が変化した場合に、平行移動の向き、及び移動量を特定してもよい。そして、視点制御部53は、この映像表示装置40の方向、及び位置の変化に応じて、仮想空間内に配置された二つの視点カメラの視線方向、及び位置を変化させてよい。これにより、視線カメラが撮影画像内の限られた領域だけを視野範囲としている場合に、ユーザーの頭の動きに連動して視点カメラの位置や向きを変化させて、撮影画像内の任意の位置を視点カメラの視野範囲に含めるようにすることができる。
しかしながら、前述したように二つの視点カメラを傾ける制御を行うと、撮影画像内の被写体に垂直視差が生じて、ユーザーが被写体を立体的に認識しにくくなることがある。これにつき、以下に説明する。前述したように、左撮影画像PLと右撮影画像PRとでは、撮影空間内の同じ位置に対応する対応点が左右方向にずれた位置に写っている。そのため、各撮影画像を傾けられた視点から見ると、二つの対応点の位置が高さ方向にずれることになる。図7は、この高さ方向のずれを説明する模式図であって、被写体Sが写っている左撮影画像PL及び右撮影画像PRに基づいて描画される左目用表示画像DL及び右目用表示画像DRを示している。また、上段は視点カメラを傾ける前の状態(視点カメラが水平方向に並んだ状態)、下段は視点カメラを傾けた状態の表示画像を示している。上段に示されるように、左目用表示画像DLと右目用表示画像DRの間では、被写体Sの高さ方向の位置は一致しているが、左右方向の位置にずれが生じている。この左右方向のずれにより、ユーザーは被写体Sを立体的に認識することができる。これに対して、回転された視点カメラから仮想スクリーンVSを見た場合、図7の下段に示すように、左目用表示画像DLと右目用表示画像DRとの間で、被写体Sの高さ方向の位置にずれが生じることが分かる。このような表示画像を表示した場合、垂直視差が生じてしまい、ユーザーが被写体Sの奥行きを両眼視差によって正しく認識するのが難しくなる。
そこで本実施形態に係る情報処理装置10は、撮影画像内においてユーザーが注目している位置に写っている被写体を立体映像としてユーザーが正しく認識できるように、表示画像を描画する。以下ではユーザーが注目する表示画像内の位置を注視点といい、撮影画像内における注視点に対応する位置を注目位置という。また、撮影画像内のおいて注目位置に写っている被写体を注目被写体という。以下に説明するような描画処理を実行することで、注目被写体以外の被写体(特に撮影位置からの距離が注目被写体と大きく異なる被写体)については上述したような垂直視差が生じるおそれがあるものの、注目被写体については正しく奥行きを認識することができるようになる。これにより、立体映像を閲覧中にユーザーが感じる違和感を軽減することができる。以下、このような描画処理の具体例について説明する。
上述した描画処理を実現するために、注視点特定部54は、表示画像描画部52が描画した表示画像が映像表示装置40に表示される際に、ユーザーの注視点を特定する。具体的に、例えば注視点特定部54は、表示中の表示画像内においてユーザーが実際に視線を向けている位置を注視点として特定する。この場合、映像表示装置40内の、ユーザーの左右の目を撮像可能な位置に、カメラが取り付けられているものとする。注視点特定部54は、このカメラによって撮影されたユーザーの目の画像を解析して、ユーザーの左右それぞれの目の視線方向を特定する。そして、特定された視線方向が向いている表示画像内の位置を注視点として特定する。
あるいは注視点特定部54は、ユーザーが表示画像の中心を注視していると仮定して、表示画像の中心位置を注視点として特定してもよい。この場合、表示画像内における注視点の位置は固定されて変化しないことになるが、視点カメラの向きや位置が変化した場合に、これに伴って撮影画像内の注目位置が変化することになる。
また、注視点特定部54は、ユーザーの操作デバイス20に対する操作入力の内容に応じて注視点を特定してもよい。この場合、例えば注視点特定部54は、注視点を表すマーカーを表示画像と重ねて映像表示装置40に表示させ、ユーザーの方向を指示する操作入力に応じてこのマーカーを移動させる。そして、マーカーと重なる表示画像内の位置を、ユーザーの注視点として特定する。
注視点特定部54が注視点を特定すると、表示画像描画部52は、特定された注視点の位置において、二つの撮影画像内の互いに対応する対応点の高さ方向のずれを低減させるように、二つの表示画像を描画する。これにより、少なくとも注視点の位置においては垂直視差が低減され、その位置に写っている注目被写体をユーザーが立体的に認識しやすくなる。以下、このような垂直視差を低減する描画方法の具体例について、説明する。
まず表示画像描画部52は、注視点に対応する撮影画像内の注目位置を特定する。具体的に、表示画像内の注視点を仮想スクリーンVS上の位置座標に変換することで、仮想スクリーンVSに貼り付けられた左撮影画像PL、又は右撮影画像PR内における注目位置を特定する。この注目位置に写っている被写体が注目被写体となる。
次に表示画像描画部52は、撮影空間内における撮影位置から注目被写体までの撮影方向に沿った距離dnを特定する。例えば表示画像描画部52は、二つの撮影画像内における注目位置の左右方向のずれ量(視差量)を計測することによって、この視差量を注目被写体までの距離dnに換算する。あるいは表示画像描画部52は、撮影画像とともに予め用意された距離画像(デプスマップ)を用いて注目被写体までの距離dnを特定してもよい。この場合、距離画像は、撮影画像の撮影を行う際に併せて距離センサーなどを用いて生成される。この距離画像は、撮影画像と同じ撮影範囲を含んだ画像であって、画像内の各画素の画素値が当該位置に存在する被写体までの距離を示す数値によって構成された画像である。このような距離画像を予め用意しておけば、表示画像描画部52は、この距離画像を参照することで容易に距離dnを特定できる。
なお、表示画像描画部52は、距離dnを特定する際に、注視点に対応する注目位置の一点だけを用いてその一点に対応する注目被写体までの距離を特定するのではなく、撮影画像内における注目位置を含む所定の範囲内に写っている被写体までの距離を特定することによって、距離dnを決定してもよい。この場合の所定の範囲は、例えば注目位置を中心とした所定の大きさの矩形領域であってよい。この場合、表示画像描画部52は、撮影画像の所定の範囲内に含まれる複数の画素のそれぞれについて、当該画素に写っている被写体までの距離を特定する。そして、特定された画素ごとの距離の代表値を、求めるべき注目被写体までの距離dnとして算出する。この場合の代表値は、例えば平均値であってもよいし、最小値であってもよい。各画素に写っている被写体までの距離のうちの最小値を距離dnとして採用することによって、ユーザーが注目している範囲のうち最も手前側にある被写体を注目被写体とすることができる。このような制御によれば、表示画像描画部52が特定する距離dnの値が頻繁に変化しないようにすることができる。
続いて表示画像描画部52は、特定された距離dnの値に応じて決まる仮想空間内の位置に仮想スクリーンVSを配置する。具体的には、距離dnと同じ距離だけ基準視点位置Rvから離れた位置に仮想スクリーンVSを配置する。このようにして決定された位置に仮想スクリーンVSを配置し、その表面に各撮影画像を貼り付けることによって、注目被写体の二つの撮影画像間の視差量が距離dcに一致し、左撮影画像PL内の注目被写体と右撮影画像PR内の注目被写体とが仮想スクリーンVS上の同じ位置に貼り付けられることになる。これにより、二つの視点カメラを傾けた状態で各視点カメラから仮想スクリーンVS上の撮影画像を見た場合に、注目被写体の高さ方向の位置が二つの表示画像間で互いに同じになる。そのため、垂直視差を生じさせずにユーザーは注目被写体を立体的に認識することができる。
具体例として、図3に示す撮影空間を撮影した場合において、ユーザーが被写体Sの写っている位置を注目したとする。この場合、基準撮影位置Rcから被写体Sまでの距離dxと基準視点位置Rvから仮想スクリーンVSまでの距離dsが一致するように仮想スクリーンVSを配置する。これにより、撮影カメラと同じ位置関係で仮想空間内に配置された二つの視点カメラのそれぞれから仮想スクリーンVSに貼り付けられた撮影画像を見た場合に、被写体Sが仮想スクリーンVS上の同じ位置に見えることになる。そのため、視点カメラを傾けても、二つの表示画像内の被写体Sに垂直視差が生じず、ユーザーは被写体Sの奥行きを正しく認識できる。
なお、ここでは二つの撮影位置間の距離dcと二つの視点カメラ間の距離dvとが一致すると仮定したが、距離dcと距離dvとが相違する場合であっても、基準視点位置Rcから仮想スクリーンVSまでの距離dsは、距離dvに関係なく基準撮影位置Rcから注目被写体までの距離dnに応じて決定することができる。すなわち、仮想スクリーンVSを配置する距離dsを基準撮影位置Rcから注目被写体までの距離dnに一致させることで、仮想スクリーンVS上の同じ位置に注目被写体が貼り付けられるので、左右二つの視点カメラから見た際に注目被写体に垂直視差が生じさせないように制御することができる。
また、以上の説明ではある時点での注視点を検出した後、直ちにその注視点に対応する注目被写体までの距離dnに応じて決まる位置に仮想スクリーンVSを配置することとした。しかしながら、このような制御によると、注視点の変化に伴って仮想スクリーンVSの位置が大きく前後に移動することになる。そこで、単位時間ごとに注視点に応じて決定される距離dnの数値列に対して、ローパスフィルタ処理を施して得られる値に基づいて、仮想スクリーンVSの配置位置を決定してもよい。これにより、仮想スクリーンVSの位置が急激に変動しないようにすることができる。
以下、本実施形態に係る情報処理装置10が表示画像を描画する描画処理の流れの一例について、図8のフロー図を用いて説明する。この図に示す処理は、表示画像が映像表示装置40に表示されている間、所定時間ごとに繰り返し実行される。
まず視点制御部53が、当該処理の実行時点における映像表示装置40の姿勢(傾き、向き、及び位置)に関する情報を取得し(STEP1)、取得した情報に応じて仮想空間内における二つの視点カメラの配置位置を更新する(STEP2)。
次に注視点特定部54が、当該処理の実行時点におけるユーザーの注視点を特定する(STEP3)。そして、表示画像描画部52は、特定された注視点に対応する撮影画像内の注目位置に写っている被写体までの距離dnを用いて、仮想空間内における仮想スクリーンVSの配置位置を決定する(STEP4)。
その後、表示画像描画部52は、STEP2で決定された位置に配置される二つの視点カメラのそれぞれから、STEP4で決定される位置に配置される仮想スクリーンVSに貼り付けられた撮影画像を見た様子を示す表示画像を描画する(STEP5)。そして、描画された二つの表示画像を中継装置30に対して出力することにより、映像表示装置40に表示させる(STEP6)。
このような処理を所定時間ごとに繰り返し実行することによって、情報処理装置10は、ユーザーの注視点や頭の動きにリアルタイムで連動して、ユーザーがどのような姿勢でどの位置を見ている場合であっても、注目する被写体を立体的に認識できるような態様で立体映像を表示させることができる。
以上の説明では、撮影画像は一定の撮影範囲内の景色を含んだ画像であることとしたが、例えば全方位カメラなどによってより広い範囲を撮影して得られるパノラマ画像を撮影画像として用いてもよい。具体例として、全天周の景色を含んだパノラマ画像を撮影画像として使用する場合について、以下に説明する。なお、ここでは全天周の景色を含むパノラマ画像を例として説明するが、その一部範囲を撮影して得られる撮影画像を用いる場合にも、同様の処理を適用可能である。
この例においても、水平方向に沿って並んだ二つの撮影位置のそれぞれから全天周の景色を撮影することによって、二つの撮影画像が生成される。例えば、二つの撮影カメラを並べて配置し、両者の中間点を回転中心として360度回転させながら撮影を行うことによってこのような撮影画像が生成される。これらの撮影画像は、正距円筒図法などのデータフォーマットで記録されてよい。
情報処理装置10の表示画像描画部52は、このような撮影画像に基づいて二つの表示画像を描画する。具体的にこの例では、球の内面が仮想スクリーンVSになる。表示画像描画部52は、球状の仮想スクリーンVSを仮想空間内に配置するとともに、その球の中心に左右に並ぶ二つの視点カメラを配置する。表示画像描画部52は、左撮影画像PLに基づいて生成される、撮影位置から見た景色を表すテクスチャーを球の内面に貼り付けて、その様子を左視点カメラVLから見た様子を左目用表示画像DLとして描画する。同様に、右撮影画像PRに基づいて生成される景色を表すテクスチャーを球の内面に貼り付けて、その様子を右視点カメラVRから見た様子を右目用表示画像DRとして描画する。これら二つの表示画像を映像表示装置40に表示させることによって、前述した平面的な仮想スクリーンVSの例と同様に、ユーザーは撮影画像に写っている景色を立体映像として閲覧できる。
さらに、視点制御部53は、映像表示装置40の傾き、方向、及び位置の変化に応じて視点カメラの位置を制御する。特に映像表示装置40の方向の変化に応じて視点制御部53が視線カメラの視線方向を変化させることによって、ユーザーは全天周の任意の方向の景色を閲覧することができる。
また、表示画像描画部52は、注視点特定部54が特定するユーザーの注視点の変化に応じて、注視点に対応する注目位置に写っている注目被写体が立体的に認識できるように、二つの表示画像を描画する。具体的には、前述した平板状の仮想スクリーンVSの例と同様に、基準撮影位置Rcから注目被写体までの距離dnと、基準視点位置Rvから仮想スクリーンVSまでの距離dsとが一致するように、仮想スクリーンVSを配置する。ここでは仮想スクリーンVSが球面であって、基準視点位置Rvは球の中心に位置しているので、基準視点位置Rvから仮想スクリーンVSまでの距離dsはこの球の半径となる。そのため表示画像描画部52は、球の大きさを距離dnに応じて変化させることになる。図9は、この例における二つの視点カメラと球状の仮想スクリーンVSの位置関係を示す図であって、上方から見た様子を示している。
なお、表示画像描画部52は、仮想スクリーンVSの大きさだけでなく、仮想スクリーンVSに対する二つの撮影画像に基づくテクスチャーの貼り付け位置についても、注視点に応じて変化させる。具体的には、注目被写体の仮想スクリーンVS上の貼り付け位置が二つのテクスチャー間で一致するように、二つのテクスチャーの貼り付け位置をシフトさせる。これにより、距離dnに対応する視差量で注目被写体を二つの表示画像内に配置することができ、かつ、視点カメラを傾けても注目被写体に垂直視差が生じないようにすることができる。
以上説明した本実施形態に係る情報処理装置10によれば、撮影画像を傾けた状態を表示画像として表示する場合に、ユーザーが注目している位置の垂直視差を低減し、その位置に写っている注目被写体をユーザーが立体的に認識できるような立体映像を表示することができる。そのため、ユーザーが立体映像を見る際の違和感を減らすことができる。
なお、本発明の実施の形態は以上説明したものに限られない。例えば以上の説明では、撮影空間は実空間であって、撮影画像は現実の景色を撮影して得られるものとしたが、これに限らず撮影画像は、仮想空間内に配置された撮影位置からその仮想空間を見た様子を示す画像であってもよい。
また、以上の説明では映像表示装置40はユーザーの頭部に装着して使用される映像表示装置であることとしたが、これに限らず、立体映像を表示可能な表示装置であれば、部屋に設置して使用するタイプのものであってもよい。この場合、注視点特定部54は、ユーザーの前方に配置されたカメラを用いてユーザーの目を撮影することによって、ユーザーの注視点を特定してもよい。また、視点制御部53は、ユーザーの頭部の動きに応じて視点カメラの傾きや向きを変化させる代わりに、ユーザーの操作デバイス20に対する操作入力に応じて視点カメラを移動させてもよい。
また、以上の説明では撮影画像は静止画像であることとしたが、撮影画像は時間とともに変化する動画像であってもよい。さらにこの場合、撮影空間内において撮影位置に比較的近い場所に位置しており、撮影範囲内を移動する被写体(すなわち、動物や乗り物など、他の背景に対して相対的に移動している被写体)にユーザーが注目すると想定して、この移動する被写体を注目被写体として以上説明した処理を実行してもよい。
1 映像表示システム、10 情報処理装置、11 制御部、12 記憶部、13 インタフェース部、20 操作デバイス、25 カメラ、30 中継装置、40 映像表示装置、41 映像表示素子、42 光学素子、43 発光素子、44 モーションセンサー、45 通信インタフェース、51 撮影画像取得部、52 表示画像描画部、53 視点制御部、54 注視点特定部。

Claims (8)

  1. 立体映像を表示する映像表示装置と接続される情報処理装置であって、
    撮影空間内を二つの撮影位置から見た景色を表す二つの撮影画像を取得する取得部と、
    前記取得した二つの撮影画像が表す景色を仮想空間内に配置された仮想スクリーンに貼り付け、当該仮想スクリーンを前記仮想空間内に並んで配置された二つの視点カメラから見た様子を示す二つの表示画像を描画して、立体映像として前記映像表示装置に表示させる表示画像描画部と、
    前記表示画像内におけるユーザーの注視点を特定する注視点特定部と、
    を含み、
    前記表示画像描画部は、前記二つの撮影画像が表す景色を傾けた状態を表す前記二つの表示画像を描画する場合に、前記特定された注視点に対応する位置に写っている注目被写体までの前記二つの撮影位置の中点からの撮影方向に沿った距離と、前記二つの視点カメラの中点から当該二つの視点カメラの向きに沿った前記仮想スクリーンまでの距離とが一致するように前記仮想スクリーンを配置することで、前記二つの表示画像内で前記注目被写体の高さ方向のずれを低減させるように、前記二つの表示画像を描画する
    ことを特徴とする情報処理装置。
  2. 請求項1に記載の情報処理装置において、
    前記映像表示装置は、ユーザーが頭部に装着して使用する表示装置であって、
    前記情報処理装置は、前記映像表示装置の傾きに応じて、前記二つの視点カメラを回転させる視点制御部をさらに含み、
    前記表示画像描画部は、前記二つの撮影画像が表す景色が、前記二つの視点カメラの回転に応じて傾けられた状態を表す前記二つの表示画像を描画する
    ことを特徴とする情報処理装置。
  3. 請求項1又は2に記載の情報処理装置において、
    前記表示画像描画部は、前記注目被写体までの前記撮影位置からの距離を、当該注目被写体の前記二つの撮影画像内における視差量に基づいて算出する
    ことを特徴とする情報処理装置。
  4. 請求項1から3に記載の情報処理装置において、
    前記表示画像描画部は、前記撮影画像において、前記特定された注視点に対応する所定の範囲内に写っている被写体のうち、前記撮影位置からの距離が最も近い被写体を、前記注目被写体として特定する
    ことを特徴とする情報処理装置。
  5. 請求項1から4のいずれか一項に記載の情報処理装置において、
    前記注視点特定部は、前記ユーザーの視線方向を検出することにより、前記注視点を特定する
    ことを特徴とする情報処理装置。
  6. 立体映像を表示する映像表示装置と、当該映像表示装置に接続される情報処理装置と、を含む映像表示システムであって、
    前記情報処理装置は、
    撮影空間内を二つの撮影位置から見た景色を表す二つの撮影画像を取得する取得部と、
    前記取得した二つの撮影画像が表す景色を仮想空間内に配置された仮想スクリーンに貼り付け、当該仮想スクリーンを前記仮想空間内に並んで配置された二つの視点カメラから見た様子を示す二つの表示画像を描画する表示画像描画部と、
    前記表示画像内におけるユーザーの注視点を特定する注視点特定部と、
    を含み、
    前記映像表示装置は、前記表示画像描画部が描画した二つの表示画像を立体映像として表示し、
    前記表示画像描画部は、前記二つの撮影画像が表す景色を傾けた状態を表す前記二つの表示画像を描画する場合に、前記特定された注視点に対応する位置に写っている注目被写体までの前記二つの撮影位置の中点からの撮影方向に沿った距離と、前記二つの視点カメラの中点から当該二つの視点カメラの向きに沿った前記仮想スクリーンまでの距離とが一致するように前記仮想スクリーンを配置することで、前記二つの表示画像内で前記注目被写体の高さ方向のずれを低減させるように、前記二つの表示画像を描画する
    ことを特徴とする映像表示システム。
  7. 立体映像を表示する映像表示装置の制御方法であって、
    撮影空間内を二つの撮影位置から見た景色を表す二つの撮影画像を取得する取得ステップと、
    前記取得した二つの撮影画像が表す景色を仮想空間内に配置された仮想スクリーンに貼り付け、当該仮想スクリーンを前記仮想空間内に並んで配置された二つの視点カメラから見た様子を示す二つの表示画像を描画して、立体映像として前記映像表示装置に表示させる表示画像描画ステップと、
    前記表示画像内におけるユーザーの注視点を特定する注視点特定ステップと、
    を含み、
    前記表示画像描画ステップでは、前記二つの撮影画像が表す景色を傾けた状態を表す前記二つの表示画像を描画する場合に、前記特定された注視点に対応する位置に写っている注目被写体までの前記二つの撮影位置の中点からの撮影方向に沿った距離と、前記二つの視点カメラの中点から当該二つの視点カメラの向きに沿った前記仮想スクリーンまでの距離とが一致するように前記仮想スクリーンを配置することで、前記二つの表示画像内で前記注目被写体の高さ方向のずれを低減させるように、前記二つの表示画像を描画する
    ことを特徴とする映像表示装置の制御方法。
  8. 立体映像を表示する映像表示装置と接続されるコンピュータを、
    撮影空間内を二つの撮影位置から見た景色を表す二つの撮影画像を取得する取得手段、
    前記取得した二つの撮影画像が表す景色を仮想空間内に配置された仮想スクリーンに貼り付け、当該仮想スクリーンを前記仮想空間内に並んで配置された二つの視点カメラから見た様子を示す二つの表示画像を描画して、立体映像として前記映像表示装置に表示させる表示画像描画手段、及び、
    前記表示画像内におけるユーザーの注視点を特定する注視点特定手段、
    として機能させるためのプログラムであって、
    前記表示画像描画手段は、前記二つの撮影画像が表す景色を傾けた状態を表す前記二つの表示画像を描画する場合に、前記特定された注視点に対応する位置に写っている注目被写体までの前記二つの撮影位置の中点からの撮影方向に沿った距離と、前記二つの視点カメラの中点から当該二つの視点カメラの向きに沿った前記仮想スクリーンまでの距離とが一致するように前記仮想スクリーンを配置することで、前記二つの表示画像内で前記注目被写体の高さ方向のずれを低減させるように、前記二つの表示画像を描画する
    ことを特徴とするプログラム。
JP2015165084A 2015-08-24 2015-08-24 情報処理装置 Active JP6649010B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015165084A JP6649010B2 (ja) 2015-08-24 2015-08-24 情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015165084A JP6649010B2 (ja) 2015-08-24 2015-08-24 情報処理装置

Publications (2)

Publication Number Publication Date
JP2017046065A JP2017046065A (ja) 2017-03-02
JP6649010B2 true JP6649010B2 (ja) 2020-02-19

Family

ID=58212291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015165084A Active JP6649010B2 (ja) 2015-08-24 2015-08-24 情報処理装置

Country Status (1)

Country Link
JP (1) JP6649010B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107197153B (zh) * 2017-06-19 2024-03-15 上海传英信息技术有限公司 一种照片的拍摄方法及拍摄装置
WO2019163031A1 (ja) * 2018-02-21 2019-08-29 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置および画像処理方法
JP7006498B2 (ja) * 2018-05-15 2022-01-24 株式会社デンソー ヘッドアップディスプレイ
US20220239888A1 (en) * 2019-06-07 2022-07-28 Sony Group Corporation Video distribution system, video distribution method, and display terminal

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4624582B2 (ja) * 2001-03-21 2011-02-02 株式会社バンダイナムコゲームス 画像生成装置、プログラム及び情報記憶媒体
JP2011248254A (ja) * 2010-05-31 2011-12-08 Sharp Corp 映像表示システム、それを実現する映像表示装置、傾き検出装置および映像表示方法
CN103380625A (zh) * 2011-06-16 2013-10-30 松下电器产业株式会社 头戴式显示器及其位置偏差调整方法
JP2015149634A (ja) * 2014-02-07 2015-08-20 ソニー株式会社 画像表示装置および方法

Also Published As

Publication number Publication date
JP2017046065A (ja) 2017-03-02

Similar Documents

Publication Publication Date Title
KR102502404B1 (ko) 정보 처리 장치 및 방법, 그리고 프로그램
CN108292489B (zh) 信息处理装置和图像生成方法
JP6576536B2 (ja) 情報処理装置
US11184597B2 (en) Information processing device, image generation method, and head-mounted display
CN108027700B (zh) 信息处理装置
US10999412B2 (en) Sharing mediated reality content
KR101822471B1 (ko) 혼합현실을 이용한 가상현실 시스템 및 그 구현방법
JP2010072477A (ja) 画像表示装置、画像表示方法及びプログラム
JP6649010B2 (ja) 情報処理装置
EP3190566A1 (en) Spherical virtual reality camera
EP3136724B1 (en) Wearable display apparatus, information processing apparatus, and control method therefor
JP2018056889A (ja) 表示端末、表示方法、及びプログラム
WO2021079636A1 (ja) 表示制御装置、表示制御方法及び記録媒体
WO2017191703A1 (ja) 画像処理装置
JP6467039B2 (ja) 情報処理装置
US20240163391A1 (en) Information processing apparatus
KR101668117B1 (ko) 스테레오 카메라의 주시각 제어 장치 및 그가 구비된 3차원 영상 처리 시스템
KR20130070034A (ko) 스마트폰을 이용한 입체이미지 촬영 장치 및 그 방법
JP2023178093A (ja) 表示装置、制御方法及びプログラム
JP2014230027A (ja) 画像表示装置に表示する画像を制御する装置、方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180411

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200116

R150 Certificate of patent or registration of utility model

Ref document number: 6649010

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150