JP2016162142A - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP2016162142A
JP2016162142A JP2015039620A JP2015039620A JP2016162142A JP 2016162142 A JP2016162142 A JP 2016162142A JP 2015039620 A JP2015039620 A JP 2015039620A JP 2015039620 A JP2015039620 A JP 2015039620A JP 2016162142 A JP2016162142 A JP 2016162142A
Authority
JP
Japan
Prior art keywords
real space
image processing
virtual
light source
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015039620A
Other languages
English (en)
Other versions
JP2016162142A5 (ja
JP6625801B2 (ja
Inventor
真生 近藤
Masao Kondo
真生 近藤
宏崇 田幸
Hirotaka Takou
宏崇 田幸
裕介 辻田
Yusuke Tsujita
裕介 辻田
大輔 塩野
Daisuke Shiono
大輔 塩野
功 中島
Isao Nakajima
功 中島
賢一 山浦
Kenichi Yamaura
賢一 山浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2015039620A priority Critical patent/JP6625801B2/ja
Priority to PCT/JP2016/051430 priority patent/WO2016136332A1/ja
Priority to US15/551,177 priority patent/US10275938B2/en
Publication of JP2016162142A publication Critical patent/JP2016162142A/ja
Publication of JP2016162142A5 publication Critical patent/JP2016162142A5/ja
Application granted granted Critical
Publication of JP6625801B2 publication Critical patent/JP6625801B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Generation (AREA)

Abstract

【課題】現実感の高い演出が可能な画像処理装置と、画像処理方法と、プログラムを提供する。【解決手段】画像処理システム1は、センサ部110と、画像処理装置10と、映像出力部150を有し、画像処理装置10は、解析部120、実空間情報入力部130、信号生成部140、パラメータ操作部160、パラメータ設定部170、及び通信部180を備える。【選択図】図4

Description

本開示は、画像処理装置に関する。
プロジェクタやタッチパネルディスプレイなど、コンテンツを表示する装置が広く普及している。例えば、特許文献1には、検出された物体の位置に応じてアイコンなどのコンテンツをプロジェクタにより投影して表示する技術が開示されている。上記技術によれば、投影部と被投影体との間に物体が存在する場合でも、そのまま物体に投影されないように映像処理を行うことで、良好な視認性が得られている。
特開2012−208439号公報
このようにプロジェクタやタッチパネルディスプレイなどの装置がコンテンツを表示しようとする際、コンテンツを表示しようとする実空間の状況によっては、表示されたコンテンツがユーザに現実感を与えられない場合があった。
そこで、本開示では、より現実感の高い演出が可能な、新規かつ改良された画像処理装置を提案する。
本開示によれば、実空間の情報が入力される実空間情報入力部と、前記実空間の情報に基づいて、仮想的な影効果を前記実空間に与える映像の制御信号を生成する信号生成部と、を備える、画像処理装置が提供される。
また、本開示によれば、実空間の情報が入力されることと、前記実空間の情報に基づいて、プロセッサが仮想的な影効果を与える映像の制御信号を生成することと、を含む、画像処理方法が提供される。
また、本開示によれば、コンピュータに、実空間の情報が入力される処理と、
前記実空間の情報に基づいて、仮想的な影効果を与える映像の制御信号を生成する処理と、を行わせるための、プログラムが提供される。
以上説明したように本開示によれば、より現実感の高い演出が可能である。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態にかかる画像処理システムの構成例を示す説明図である。 本開示の一実施形態にかかる画像処理システムの構成例を示す説明図である。 本開示の一実施形態にかかる画像処理システムの構成例を示す説明図である。 本開示の一実施形態にかかる画像処理システムの機能構成例を示す説明図である。 本開示の一実施形態にかかる画像処理システムの動作例を示すフローチャート図である。 具体例1にかかる演出を説明するための説明図である。 具体例1にかかる演出を説明するための説明図である。 具体例1にかかる演出を説明するための説明図である。 具体例1にかかる演出を説明するための説明図である。 具体例2にかかる演出を説明するための説明図である。 具体例2にかかる演出を説明するための説明図である。 具体例3にかかる演出を説明するための説明図である。 具体例3にかかる演出を説明するための説明図である。 具体例4にかかる演出を説明するための説明図である。 具体例4にかかる演出を説明するための説明図である。 具体例4にかかる演出を説明するための説明図である。 変形例1にかかる仮想的な影効果のバリエーションを説明するための説明図である。 変形例2にかかる仮想的な光源のバリエーションを説明するための説明図である。 変形例2にかかる仮想的な光源のバリエーションを説明するための説明図である。 変形例2にかかる仮想的な光源のバリエーションを説明するための説明図である。 変形例2にかかる仮想的な光源のバリエーションを説明するための説明図である。 変形例2にかかる仮想的な光源のバリエーションを説明するための説明図である。 変形例3にかかるアニメーション演出のバリエーションを説明するための説明図である。 ハードウェア構成例を示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
なお、説明は以下の順序で行うものとする。
<<1.画像処理システムの概要>>
<1−1.システム構成例>
<1−2.機能構成例>
<1−3.動作例>
<<2.演出の具体例>>
<2−1.具体例1>
<2−2.具体例2>
<2−3.具体例3>
<2−4.具体例4>
<<3.変形例>>
<3−1.変形例1>
<3−2.変形例2>
<3−3.変形例3>
<<4.ハードウェア構成例>>
<<5.むすび>>
<<1.画像処理システムの概要>>
<1−1.システム構成例>
まず、図面を参照しながら本開示の一実施形態にかかる画像処理システムの構成例について説明する。図1は、本開示の一実施形態にかかる画像処理システムの構成例を示す説明図である。
図1に示したように、本開示の一実施形態にかかる画像処理システム1aは、センサ部110a、及び映像出力部150aを含む。図1に示した本開示の一実施形態にかかる画像処理システム1aは、テーブル300aの天面の情報に基づいて、仮想的な影効果をテーブル300aの天面に与える映像をテーブル300aの天面に表示するシステムである。なお、画像処理システム1aにおいて、映像が表示される対象は、テーブルに限らず、床や壁であってもよい。
センサ部110aは、画像処理システム1aにより仮想的な影効果が与えられる実空間をセンシングする装置である。例えば、図1においてセンサ部110aは、テーブル300aの天面と、テーブル300aの上に存在する物体の色や深度などをセンシングしてもよい。図1に示した例では、センサ部110aは、テーブル300aの上方に、例えば天井から吊り下げられた状態で設けられる。すなわち、センサ部110aは、映像が表示される対象となるテーブル300aとは隔離されて設けられる。センサ部110aとしては、例えばテーブル300aを撮像するカメラや、2つのカメラでテーブル300aを撮像して奥行き方向の深度情報をセンシングすることが可能なステレオカメラなどが用いられる。また、センサ部110aは上記のうち複数を含んでもよい。
センサ部110aとして、テーブル300aを撮像するカメラが用いられる場合、画像処理システム1aは、そのカメラが撮像した画像を解析することで、テーブル300aに置かれた物体(例えば図1における物体200a)を検出することが出来る。また、センサ部110aとして、ステレオカメラが用いられる場合、そのステレオカメラには、例えば可視光カメラや赤外線カメラなどが用いられ得る。センサ部110aとしてステレオカメラが用いられることで、センサ部110aは、深度情報をセンシングすることが可能となる。画像処理システム1aは、センサ部110aが取得した深度情報を解析することで、例えばテーブル300aの上に存在する物体の検出、物体の立体形状の認識、手の検出、ユーザの操作の検出などが可能になる。なお、以下の説明では、ユーザの操作としてタッチ操作が用いられる場合について説明する。また、以下の説明では、ユーザが映像の表示対象(例えば、図1においては、テーブル300aや物体200a)に手などの操作体を接触または近接させることを、まとめて単に「タッチ」とも称する。
なお、赤外線カメラがセンサ部110に含まれる場合には、センサ部110aは所定の赤外線パターン(例えばボロノイパターン)を照射する赤外線照射部を含んでもよい。かかる構成によれば、テーブル300aが模様などの特徴に欠ける場合であっても、画像処理システム1aが赤外線カメラにより撮像された赤外線パターンを解析することで、より高精度な深度情報の取得を行うことが可能となる。
映像出力部150aは、センサ部110のセンシング結果、またはその解析により得られた情報に基づいて、実空間(例えば図1においてはテーブル300aとその上方の空間)に、仮想的な影効果を与える映像を表示させる装置である。図1に示した例では、映像出力部150aは、テーブル300aの上方に、例えば天井から吊り下げられた状態で設けられる。映像出力部150aにプロジェクタが用いられる場合、映像出力部150aは、テーブル300aの天面に映像を照射する。
図1に示した画像処理システム1aにおいて、センサ部110aと映像出力部150aは略同一方向を向き、センサ部110aがセンシング可能な実空間の範囲と、映像出力部150aが映像を出力する範囲が概ね重複している。また、画像処理システム1aは、センサ部110aが有する座標系から映像出力部150aが有する座標系へ変換する機能を有してもよい。かかる構成によれば、センサ部110aのセンシング結果に基づいて、映像出力部150aは、例えば物体200aに対応する仮想的な影(仮想影)が物体200aの近傍に表示されるような映像を出力することが可能である。なお、本開示によるセンサ部110と映像出力部150の配置は上記に限定されるものではない。
図1に示した例では、仮想影400aは、映像出力部150aが出力した映像の一部であり、当該仮想影400aによってテーブル300a、及び物体200aに仮想的な影効果が与えられている。
意図した位置に影の効果を与えたい場合、例えば、物体200aの影が仮想影400aの位置になるように、複数の照明装置を用い、各照明装置の位置や明るさを調整する方法が考えられる。しかし、景観上照明装置の存在を隠したい場合でも、与えたい影の効果によっては複数の照明装置が目立つ位置に配置されてしまう場合があった。また、複数の照明装置や、照明装置の位置を調整するための機構により、設備が複雑化する恐れがあった。一方、図1に示した画像処理システム1aによれば、テーブル300aの上方に設けられた映像出力部150が出力する映像によって、仮想影400aを生じさせることが可能である。また、影をアニメーションのように動かしたい場合、例えば光源となる照明装置を移動させる方法が考えられるが、この場合も設備が複雑化する恐れがあった。一方、図1に示した画像処理システム1aによれば、映像出力部150aが出力する映像内の仮想影400aに対応する領域をアニメーションさせることで、仮想影400aを動かすことが可能である。上記のように、画像処理システム1aによれば、より単純、かつ、より隠しやすい設備で、意図した影効果を与えることが可能である。
本開示では、画像処理システムの形態は図1に示したものに限定されるものではない。図2、3は、本開示の一実施形態にかかる画像処理システムのさらなる別の形態の例を示す説明図である。
図2は、本開示の一実施形態にかかる画像処理システム1bの構成例を示す説明図である。図2には、圧力センサを備えるタッチパネル式のディスプレイがテーブル300a上に置かれている状態が示されている。このような場合、センサ部110b、及び映像出力部150bは、圧力センサを備えるタッチパネル式のディスプレイとして構成され得る。図2に示した画像処理システム1bにおいて、映像の表示面はタッチパネル式のディスプレイとなる。また、センサ部110bは、圧力センシングによりディスプレイ上の物体200aの位置やディスプレイに接した面の形状、ディスプレイに対するユーザのタッチ位置などを検出してもよい。また、図2に示した画像処理システム1bでは、図1に示した画像処理システム1aと同様に、タッチパネル式のディスプレイの上方に、ディスプレイ上の物体の立体形状や、ディスプレイ上の実際の影などを検出するためのカメラが設けられてもよい。
図3は、本開示の一実施形態にかかる画像処理システム1bの構成例を示す説明図である。図3には、圧力センサシートが床に置かれている状態が示されている。このような場合、センサ部110cは圧力センサシートとして構成され得る。また、センサ部110cの上方には、図1に示した画像処理システム1aと同様に、映像出力部150cが設けられている。図3に示した画像処理システム1cにおいて、映像の表示面は圧力センサシートとなる。また、センサ部110cは、圧力センシングにより圧力センサシート上の物体200aの位置や圧力センサシートに接した面の形状、圧力センサシートに対するユーザのタッチ位置などを検出してもよい。また、図3に示した画像処理システム1cでは、図1に示した画像処理システム1aと同様に、タッチパネル式のディスプレイの上方に、ディスプレイ上の物体の立体形状や、ディスプレイ上の実際の影などを検出するためのカメラが設けられてもよい。
以上、本開示の一実施形態にかかる画像処理システムのシステム構成例について説明した。続いて、本開示の一実施形態にかかる画像処理システムの機能構成例について説明する。なお、以下の説明では、特に断りのない限り、図1に示したように、映像の表示面、センサ部110a、及び映像出力部150aがそれぞれ独立して設けられる画像処理システムの構成を例にして説明する。
<1−2.機能構成例>
図4は、本開示の一実施形態にかかる画像処理システム1の機能構成例を示す説明図である。
図4に示したように、本開示の一実施形態にかかる画像処理システム1は、センサ部110と、画像処理装置10と、映像出力部150を有する情報処理システムである。また図4に示したように、画像処理装置10は、解析部120、実空間情報入力部130、信号生成部140、パラメータ操作部160、パラメータ設定部170、及び通信部180を備える情報処理装置である。
センサ部110は、画像処理システム1により仮想的な影効果が与えられる実空間をセンシングする。例えば、センサ部110は、当該実空間内の色や深度などをセンシングしてもよい。センサ部110のセンシング結果は、解析部120に提供される。
解析部120は、センサ部110のセンシング結果(実空間内の色や深度などの情報)を解析し、物体情報(物体の立体形状、位置、色など)、実空間における影の形状、ユーザの操作を示す操作情報などの実空間の情報(実空間情報)を取得する実空間情報取得部としての機能を有する。
例えば、センサ部110により実空間を撮像した画像が取得される場合、解析部120は、周知の背景差分法などを用いた画像解析により物体の位置や色、実空間における影の形状などを取得してもよい。また、センサ部110により実空間の深度情報が取得される場合、解析部120は、周知の手領域検出技術により取得した手の位置と、実空間内の物体や表示面の位置関係に基づいてタッチ位置を検出してもよい。また、センサ部110により実空間の深度情報が取得される場合、解析部120は、周知の背景差分法などにより物体領域を検出した後、当該物体の深度情報に基づいて、物体の立体形状を取得してもよい。
実空間情報入力部130には、解析部120がセンサ部110のセンシング結果を解析して取得した実空間情報が入力される。実空間情報入力部130に入力された実空間情報は、信号生成部140、及びパラメータ設定部170に提供される。また、実空間情報入力部130に入力された実空間の情報は、不図示の記憶部に提供されて記憶されてもよい。
信号生成部140は、実空間情報に基づいて、仮想的な影効果を当該実空間に与える仮想影映像の制御信号を生成する。信号生成部140により生成された制御信号は、映像出力部150に提供される。なお、信号生成部140が生成する映像の制御信号は、映像出力部150が直接再生可能な映像信号(所謂RGB信号など)であってもよいし、レンダリング処理が行われることで画像や映像が得られるようなデータ(HTMLデータなど)であってもよい。
また、信号生成部140は、後述するパラメータ設定部170が設定する仮想的な光源のパラメータに応じた仮想的な影効果を決定し、当該仮想的な影効果を実空間に与える仮想影映像の制御信号を生成してもよい。例えば、信号生成部140は、当該光源パラメータ(例えば光源特性、光源の位置、光源から発せられる光の方向、光源から発せられる光の範囲、光源から発せられる光の色、光源から発せられる光の明るさなど)を持つ光源が存在した場合に実空間に生成されるべき影をシミュレーションし、当該影を実空間に再現するように仮想的な影効果を決定してもよい。
また、実空間の情報が実空間に存在する物体に関する物体情報(物体の位置、立体形状、色など)を含む場合、上記の仮想影映像は、当該物体情報に応じて、仮想的な影効果を与えてもよい。例えば、物体情報が物体の位置を示す情報を含む場合、上記の仮想影映像は、当該物体の位置に応じて、仮想的な影効果を与えてもよい。また、物体情報が物体の立体形状を示す情報を含む場合、上記の仮想影映像は、当該物体の立体形状に応じて、仮想的な影効果を与えてもよい。例えば、信号生成部140は、特定の光源パラメータを持つ仮想的な光源による光が当該物体に照射されることで実空間に生成されるべき影をシミュレーションし、当該影を実空間に再現するように仮想的な影効果を決定してもよい。
また、上記のように物体と対応付けられた仮想的な影(当該物体に光が照射されることで実空間に生成されるべき影を再現した影)は、実空間情報に含まれる実空間におけるユーザのタッチ位置を示す情報に基づいて変化してもよい。例えば、仮想的な影効果は、仮想的な影と対応付けられた物体にユーザがタッチした場合に、変化してもよい。
なお、影効果の変化は上記に限られない。例えば、仮想的な影効果は、仮想的な影にユーザがタッチした場合に、変化してもよい。また、仮想的な影効果は、ユーザのタッチに依存せずに変化してもよい。例えば、仮想的な影の大きさは、経時的に変化してもよい。
また、映像出力部150がプロジェクタのような照明効果を与える機能を有する場合、信号生成部140は、実空間に存在する物体に照射されて照明効果を与える映像の制御信号をさらに生成してもよい。また、当該物体に対応した影の大きさが経時的に変化する場合、当該照明効果は、仮想的な影の大きさの変化に応じて、明るさが変化する照明効果であってもよい。
また、上記の仮想影映像は、実空間情報に含まれる実際の光源により生じた実空間における影(実影)の位置を示す情報に基づいて、当該実影の位置に応じた位置に、仮想的な影効果を与えてもよい。例えば、信号生成部140は、実影の近傍に仮想影を生じるように仮想的な影効果を決定してもよい。
また、映像出力部150がプロジェクタのような照明部を含む場合、信号生成部140は、実空間に存在する物体の立体形状に応じて当該物体を照射するよう当該照明部を制御するための制御信号をさらに生成してもよい。なお、照明部がプロジェクタである場合、当該制御信号は、映像信号であってもよい。
映像出力部150は、信号生成部140が生成した制御信号に基づいて、仮想的な影効果を実空間に与える映像を出力し、当該実空間に表示させる。また、映像出力部150は、信号生成部140が生成した制御信号に基づいて、物体に照射されて照明効果を与える映像を出力してもよい。
パラメータ操作部160は、仮想的な光源のパラメータに関するユーザの入力を受け付ける。パラメータ操作部160が受け付けたユーザの入力の情報は、パラメータ設定部170に提供される。
パラメータ設定部170は、仮想的な光源のパラメータを設定する。例えば、パラメータ設定部170は、パラメータ操作部160が受け付けたユーザの入力に基づいて、仮想的な光源のパラメータを設定してもよい。また、パラメータ設定部170は、後述する通信部180から入力される情報に基づいて仮想的な光源のパラメータを設定してもよい。また、パラメータ設定部170は、実空間情報入力部130から提供された実空間情報に基づいて仮想的な光源のパラメータを設定してもよい。また、パラメータ設定部170は、経時的に変化するように、仮想的な光源のパラメータを設定してもよい。
パラメータ設定部170が設定する仮想的な光源のパラメータは、例えば、光源特性、光源の位置、光源から発せられる光の方向、光源から発せられる光の範囲、光源から発せられる光の色、光源から発せられる光の明るさ、などに関する値を含んでもよい。パラメータ設定部170が設定した仮想的な光源のパラメータは、信号生成部140に提供される。
通信部180は、不図示の通信網(インターネットなど)に接続され、当該通信網に接続された不図示の外部サーバから仮想的な光源のパラメータに関する情報を取得する。例えば、通信部180は、現在または任意の時点の天気に関する情報や、一般のユーザが公開した光源パラメータに関する情報などを取得してもよい。通信部180が取得した仮想的な光源のパラメータに関する情報はパラメータ設定部170に提供される。
<1−3.動作例>
以上、本開示の一実施形態にかかる画像処理システム1の機能構成例について説明した。続いて、図5を参照して、本開示の一実施形態にかかる画像処理システム1の動作例について説明する。
図5は、本開示の一実施形態にかかる画像処理システム1の動作例を示すフローチャート図である。
まず、パラメータ設定部170が仮想的な光源のパラメータを設定する。(S102)既に設定されたパラメータが存在する場合には、パラメータ設定部170は仮想的な光源パラメータを更新する。設定・更新された仮想的な光源のパラメータは、信号生成部140に提供される。
続いて、センサ部110が実空間のセンシングを行う(S104)。センサ部110によるセンシング結果は解析部120に提供される。センサ部110からセンシング結果を受け取った解析部120は、当該センシング結果を解析し、実空間に存在する物体の立体形状、位置や色、実空間における影の形状、ユーザのタッチ位置などの実空間情報を取得する(S106)。取得された実空間情報は、実空間情報入力部130に入力された後、信号生成部140に提供される。
続いて、信号生成部140は、パラメータ設定部が設定した仮想的な光源のパラメータと、実空間情報に基づいて、仮想的な影効果を決定する(S108)。例えば、信号生成部140は、仮想的な光源の情報と実空間に存在する物体の情報に基づいて仮想的な影をシミュレーションすることで、仮想的な影効果を決定してもよい。さらに、信号生成部140は、決定された仮想的な影効果を与える映像の制御信号を生成する(S110)。生成された映像の制御信号は映像出力部150に提供される。
最後に、映像出力部150は、信号生成部140から提供された映像の制御信号に基づいて、仮想的な影効果を与える映像を実空間に出力し、表示させる(S112)。
以上の動作は、定期的に、または連続して繰り返されてもよい。例えば、図5に示した一連の動作について、一フレームの映像(画像)が出力され、図5に示した一連の動作が繰り返されることで複数フレームの映像が出力されてもよい。また、図5に示した一連の動作について、複数のフレームの映像が出力されてもよい。
<<2.演出の具体例>>
以上、本開示の一実施形態にかかる画像処理システム1の概要を説明した。続いて、上述した画像処理システム1により実現可能な演出の具体例を説明する。以下の、具体例ごとにシステム構成例を合わせて説明するが、図1〜図4を参照して説明したどの画像処理システム1であっても、以下に説明する具体例にかかる演出を実現可能である。また、以下の具体例は単独で実施されてもよいし、組み合わせて実施されてもよい。
<2−1.具体例1>
本具体例にかかる画像処理システム1は、実空間に存在する物体の立体形状に応じて、実空間に仮想的な影効果を与え、当該物体や当該物体に対応した仮想的な影にユーザがタッチすることで、仮想的な影効果に変化を与える。実際の光源、及び影により上記のような影効果を与える場合、例えば照明装置を隠したいにも拘らず、影に応じて目立つ位置に配置する必要が生じる場合や、照明装置を移動させる機構が必要となり、設備が複雑になる場合がある。そこで、本具体例にかかる画像処理システム1aは、仮想的な光源を設定し、仮想的な影効果を実空間に与える映像を出力することで、映像出力部150aの位置が影に依存することなく、また、より簡易な設備で上記のような影効果を与える。以下、図6〜9を参照して、本具体例について詳しく説明する。図6〜9は、具体例1にかかる演出を説明するための説明図である。
図6は、本具体例で想定されるシステム構成例を示す説明図である。図6に示すように、本具体例で想定される画像処理システム1aでは、図1に示した画像処理システム1aと同様にセンサ部110a、映像出力部150aがテーブル300aの上方に設けられる。
図7は、テーブル300aに何も置かれていない状態から、物体200aが置かれた状態に変化した場合に、本具体例にかかる映像出力部150aが出力する出力映像と、テーブル300aを上方から見た場合の実際の見えの変化例を示す説明図である。図7に示すようにテーブル300a上に何も物体が存在しない場合には、センサ部110aのセンシングと解析部120の実空間解析により物体が検出されず、出力映像に仮想影は含まれない(図7左列)。その後、物体200aがテーブル300a上に置かれると(図7中央列)、センサ部110aのセンシングと解析部120の実空間解析により物体200aが検出され、物体200aの位置と立体形状が取得される。その後、信号生成部140は、図7右列に示すように、物体200aの位置と立体形状に応じた仮想影400aが実空間に表示されるような映像の制御信号を生成し、映像出力部150aが当該映像を出力する。
図7に示すように、実空間に存在する物体200aの位置や立体形状に応じた仮想的な影効果を実空間に与えることで、現実感の高い表示や演出を行うことが可能である。例えば、仮想影400a内にコンテンツが表示されてもよく、この場合、実空間に存在する物体の影にコンテンツが表示されるように見えるため、現実感の高いUI(User Interface)が実現される。
例えば、仮想影400a内に表示されるコンテンツは、仮想影400aに対応する物体200aに関するコンテンツであってもよい。例えば、物体200aがオーディオCD(Compact Disc)のジャケットであった場合には、解析部120により当該ジャケットが認識され、仮想影400aに当該オーディオCDのアーティスト情報や曲名リストなどが表示されてもよい。また、物体200aが通信可能な装置(スマートフォンなど)であった場合には、当該装置と通信部180が通信し、当該装置内のコンテンツや操作メニュー、当該装置に通知された情報(例えばメールの受信情報)や、などが仮想影400a内に表示されてもよい。
仮想影400a内にコンテンツが表示される場合、当該コンテンツに対するユーザのタッチ操作が解析部120により検出されて、タッチ操作に応じて表示コンテンツが変更されてもよい。例えば、オーディオCDのジャケットのような非装置に対応する仮想影400aにコンテンツがスクロールバーと共に表示されていた場合、当該スクロールバーに対する操作が検出され、仮想影400a内に表示されたコンテンツがスクロールされてもよい。また、スマートフォンなどの通信可能な装置に対応する仮想影400aにコンテンツが表示されていた場合、当該コンテンツに対するユーザのタッチ操作に関する情報が通信部180から当該装置に送信され、当該スマートフォンが操作されてもよい。
仮想影400aに対するタッチ操作に応じた画像処理システム1aの処理は上記に限られない。例えば、仮想影400aにユーザがタッチした場合に、映像出力部150aが出力する出力映像が実空間に与える仮想的な影効果が変化してもよい。
図8は、仮想影400aへのユーザのタッチに応じて仮想的な影効果が変化する場合に、本具体例にかかる映像出力部150aが出力する出力映像と、テーブル300aを上方から見た場合の実際の見えの変化例を示す説明図である。物体200aに対応する仮想影400aが表示された状態(図8左列)において、仮想影400aにユーザがタッチすると(図8中央列)、解析部120により仮想影400aがタッチされたことが検出され、仮想影400aの形状は図8右列に示すように変化する。仮想影400aの形状の変化は、仮想的な光源の位置の変更に伴う変化であっても良く、パラメータ設定部170がユーザのタッチ位置を示す情報に基づいて仮想的な光源のパラメータを更新することで、生じてもよい。また、仮想影400a内にコンテンツが表示される場合には、仮想影400aの形状の変化に伴って仮想影400a内に表示されるコンテンツが変更されてもよい。
また、上記と同様に、仮想影400aに対応する物体200aにユーザがタッチした場合に、映像出力部150aが出力する出力映像が実空間に与える仮想的な影効果が変化してもよい。
図9は、物体200aへのユーザのタッチに応じて仮想的な影効果が変化する場合に、本具体例にかかる映像出力部150aが出力する出力映像と、テーブル300aを上方から見た場合の実際の見えの変化例を示す説明図である。物体200aに対応する仮想影400aが表示された状態(図9左列)において、物体200aにユーザがタッチすると(図9中央列)、解析部120により物体200aがタッチされたことが検出され、仮想影400aの形状は図9右列に示すように変化する。なお、物体200aがタッチ操作の検出と通信が可能な装置(例えばスマートフォンなど)である場合には、当該装置が検出したタッチ操作が通信部180に送信されることで、物体200aへのタッチ操作が画像処理システム1aに取得されてもよい。
<2−2.具体例2>
本具体例にかかる画像処理システム1は、実際の光源により生じた実空間における影の位置に応じた位置に、仮想的な影効果を与える。実際の光源により生じた影に応じた仮想影の表示が行われることで、仮想影に対応する実在しない物体が、実空間に存在するような印象をユーザに与え、現実感の高い演出が可能となる。以下、図10、11を参照して、本具体例について詳しく説明する。図10、11は、具体例2にかかる演出を説明するための説明図である。
図10は、本具体例で想定されるシステム構成例を示す説明図である。図10に示すように、本具体例で想定される画像処理システム1aでは、センサ部110aがテーブル300aの上方に映像出力部150aがテーブル300aの斜め上方に設けられる。また、図10に示すように、テーブル300aの上には花が挿された花瓶である物体200bが置かれ、映像出力部150a(実際の光源)の照射により物体200bの実影420aが生じている。
図11は、本具体例にかかる映像出力部150aが出力する出力映像と、本具体例においてテーブル300aを上方から見た場合の実際の見えの例を示す説明図である。図11の左列に示したように、出力映像によって実空間に実影420aが生じると、センサ部110aのセンシングと解析部120の実空間解析により実影420aの位置が取得される。続いて、信号生成部140は、図11の中央列に示すように、実影420aの位置の近傍に仮想影400bが表示されるような映像の制御信号を生成し、映像出力部150aが当該映像を出力する。また、信号生成部140は、図11の右列に示すように、実影420aに接するように仮想影400bが表示されるような映像の制御信号を生成し、映像出力部150aが当該映像を出力してもよい。図11の中央列から図11の右列への遷移において、信号生成部140は、仮想影400bが滑らかに移動するように映像の制御信号を生成してもよい。
なお、解析部120は、画像認識により、実影420aがどのような種類の物体の影であるかを認識し、信号生成部140は、当該種類に応じたコンテンツを用いた影効果を決定してもよい。例えば、図11の例では、実影420aは花と花瓶の影であり、花と花瓶に応じたコンテンツとして、蝶の仮想影400bを表示させるという影効果が決定されている。
また、本具体例は、上述した具体例1と組み合わされてもよい。例えば、信号生成部140は、実影420aの近傍に表示されていた仮想影400bが、図8左列に示した仮想影400aの近傍に移動するように映像の制御信号を生成してもよい。かかる構成によれば、仮想影400bの移動により、仮想影400aに対するタッチ操作が可能であることをユーザにほのめかす(気づかせる)効果がある。
<2−3.具体例3>
本具体例にかかる画像処理システム1は、実空間に存在する物体の立体形状に応じて、実空間に仮想的な影効果を与えると共に、当該立体形状に応じて当該物体を照射するよう照明部を制御する。かかる構成によれば物体に対する光の当たり方の調整と、物体に対応する仮想的な影の調整を別々に容易に行うことが可能となる。以下、図12、13を参照して、本具体例について詳しく説明する。図12、13は、具体例3にかかる演出を説明するための説明図である。
図12は、本具体例で想定されるシステム構成例を示す説明図である。図10に示すように、本具体例で想定される画像処理システム1aでは、図1に示した画像処理システム1aと同様にセンサ部110a、映像出力部150aがテーブル300aの上方に設けられる。また、物体200aがテーブル300aに置かれている。さらに、本具体例で想定される画像処理システム1aでは、映像出力部150bが照明部としてテーブル300aの斜め上方に設けられる。
図13は、本具体例にかかる映像出力部150a、及び映像出力部150bが出力する出力映像と、テーブル300aを斜め上方から見た場合の実際の見えの例を示す説明図である。図13に示すように、映像出力部150aが出力する出力映像によって仮想影400aが表示され、映像出力部150bが出力する出力映像によって、物体200aが照射される。例えば、信号生成部140が映像出力部150aの出力映像を変化させるように制御信号を生成することで、仮想影400aの大きさ(長さ)や色、影が伸びる方向などを調整することが可能である。また、信号生成部140が映像出力部150bの出力映像を変化させるように制御信号を生成することで、物体200aに照射される光の明るさや、色などを調整することが可能である。したがって、信号生成部140が上記の制御信号の生成を別々に行うことで、物体200aに対する光の当たり方の調整と、物体200aに対応する仮想影400aの調整を別々に容易に行うことが可能となる。
なお、仮想影400aは、映像出力部150bと物体200aの位置関係に応じた位置に表示されてもよい。例えば、仮想影400aは、物体200aに対して映像出力部150bと反対側の位置に表示されてもよい。上記のように仮想影400aが表示されることで、物体200aに照射される光と、仮想影400aが対応して見えるため、より現実感の高い演出が可能となる。
また、本具体例で想定される画像処理システム1aでは二つの映像出力部が含まれるため、一方の映像出力部の出力映像の影響で意図しない影(実影)が生じた場合に、他方の映像出力部の出力映像により、当該実影を打ち消すことも可能である。
<2−4.具体例4>
本具体例にかかる画像処理システム1は、実空間に存在する物体に対応した仮想的な影を実空間に表示させると共に、当該物体を照射して照明効果を与える。また、本具体例にかかる画像処理システム1は、上記仮想的な影の大きさを経時的に変化させると共に、当該仮想的な影の大きさの変化に応じて、当該物体の明るさが変化するように上記照明効果を与える。かかる構成によれば、実際には動いていない物体が、あたかも動いているかのように見える感覚をユーザに与えることが可能である。以下、図14〜16を参照して、本具体例について詳しく説明する。図14〜16は、具体例4にかかる演出を説明するための説明図である。
図14は、本具体例で想定されるシステム構成例を示す説明図である。図14に示すように、本具体例で想定される画像処理システム1aでは、センサ部110a、映像出力部150aが映像の表示面である壁300cに接するように設けられる。また、付箋である物体200cが壁に貼られている。なお、図14に示した例ではセンサ部110aは壁300cに接するように設けられているが、センサ部110aは壁と向かい合うように設けられてもよい。
図15、16は、本具体例にかかる映像出力部150aが出力する出力映像と、壁300cを壁300cに対して垂直方向から見た場合の実際の見えの遷移例を示す説明図である。映像出力部150aから光が照射されていない状態(図15左列)から、映像出力部150aからスポットライト状の光が照射された状態(図15中央列)に遷移すると、壁300cと物体200cが照らされ、解析部120は物体200cを検出可能となる。また、図15中央列のように物体200cに応じて仮想影400cが表示される。ここで、解析部120が物体200cの形状と色を解析し、映像出力部150aは、図15右列に示すように物体200cと同一の形状と色を有する仮想物体440aを表示してもよい。なお、図15右列に示すように、スポットライト状の光の形状に合わせたシミュレーションにより、仮想物体440aの右下の領域は物体200cと同一の色で表示され、仮想物体440aの左上の領域は物体200cより暗く表示されてもよい。上記のように仮想物体440aは、実在の物体と同一の形状と色を有すると共に、スポットライト状の光の影響を受けた状態が再現されているため、仮想的な物体だけを壁に表示する場合に比べて現実感の高い演出が可能となる。
なお、本具体例では、物体200c、及び仮想物体440aは付箋であるため、上記の物体200c及び仮想物体440aに対して、映像出力部150aにより文字や絵などが投影され、連絡や通知のためのUIとして用いられてもよい
また、図16に示すように、映像出力部150の出力映像は、仮想影400cの大きさと形状が経時的に変化すると共に、仮想影400cの変化に応じて、物体200cの明るさが変化するように照明効果を与える。かかる構成によれば、実際には動いていない物体200cが、あたかも動いている(揺れている)かのように見える感覚をユーザに与えるアニメーション演出を実現することが可能である。なお、仮想影400cの大きさが変化することで、物体200cと壁との距離が変化するように見える効果があり、物体200cの明るさが変化することで、スポットライト状の光に対する物体200cの角度が変化するように見える効果がある。
上記のアニメーション演出は、例えば、実際には動いていない物体が動いた場合のシミュレーションが行われることで実現されてもよい。例えば、信号生成部140は、シミュレーションされた物体の形状と、仮想的な光源に基づいて動的に仮想的な影効果や照明効果を与える映像の制御信号を生成して、上記のようなアニメーション演出を実現してもよい。また、予め形状や動きがデザインされた仮想的な影効果と照明効果が複数用意され、解析部120による物体の形状や種類、大きさなどの解析結果に応じて、仮想的な影効果と照明効果が選択、変形(サイズ、傾き、アスペクト比、影の濃さなど)されてもよい。
なお、上記のアニメーション演出は、例えば、ユーザに情報を通知したい場合などに、ユーザの注意を引くため(ユーザに気づかせる)に行われてもよい。
<<3.変形例>>
以上、本開示の一実施形態を説明した。以下では、本実施形態の幾つかの変形例を説明する。なお、以下に説明する各変形例は、単独で本実施形態に適用されてもよいし、組み合わせで本実施形態に適用されてもよい。また、各変形例は、本実施形態で説明した構成に代えて適用されてもよいし、本実施形態で説明した構成に対して追加的に適用されてもよい。
<3−1.変形例1>
上記では、いくつかの仮想的な影について説明したが、本実施形態による画像処理システム1により表示される仮想的な影は上記の例に限定されない。図17は、仮想的な影のバリエーションの例を示す説明図である。図17に示すように、仮想的な影は、仮想的な光源のパラメータや物体の立体形状などに応じて、様々な形状を有してよい。また、仮想的な影の色は黒色に限られず、グラデーションを有してもよいし、様々な色を含んでもよい。なお、仮想的な影の色は、仮想的な光源のパラメータに応じて決定されてもよい。また、仮想的な影の形状は、物体の立体形状に応じた形状に限られず、予め用意された形状や、予め用意された形状を変形させた形状であってもよい。
また、同時に複数の仮想的な影が表示されてもよい。複数の仮想的な影は、同一の仮想的な光源パラメータに基づいて表示されてもよいし、仮想的な影ごとに異なる仮想的な光源パラメータに基づいて表示されてもよい。
<3−2.変形例2>
上記では、いくつかの仮想的な光源について説明したが、本実施形態による画像処理システム1により表示される仮想的な光源は上記の例に限定されない。以下では、図18〜図22を参照して、仮想的な光源のバリエーションについて説明する。図18〜図22は、仮想的な光源のバリエーションを説明するための説明図である。
例えば、図7を参照して説明した具体例1では、仮想的な影以外の全ての表示範囲に光が照射される例を説明したが、表示範囲の一部の領域に限定されて光が照射されてもよい。また、仮想的な光源による光の照射領域は、照射面となる物体に応じてトリミングされてもよい。
図18に示すように光の照射面であるテーブル300dが映像出力部150aの照射領域よりも小さい場合がある。上記のような場合、例えば、図19に示すように、光の照射面であるテーブル300dの形状に応じて、映像出力部150aの出力映像がトリミングされてもよい。
また、仮想的な光源による光の照射領域は均一に照射される例に限られない。図20の上段に示した例は、仮想的な光源による光を窓枠のように表示することで、窓から差し込む光を表現した例である。また、図20下段左に示す例のように、窓の外の木をシミュレーションすることで、窓から差し込む木漏れ日が表現されてもよい。また、図20下段右に示す例のように、天気が雨の場合に水滴が付いた窓から差し込む光が表現されてもよい。なお、現在、または任意の時点の天気情報を外部サーバから通信部180を介して取得することで、仮想的な光源に天気情報が反映されてもよい。
また、トリミングされる出力映像の形状は上記の例に限定されない。例えば、光の小斜面であるテーブルが円形の場合には、図21のように、出力映像の形状は円形にトリミングされてもよい。
また、上記具体例4では、スポットライト状の光を照射する仮想的な光源の例を説明したが、スポットライトの形状は上記に限定されない。図22上段に示すように、本開示による画像処理システム1により照射されるスポットライト状の光は多様な形状を有してよい。また、図22下段に示すように、照射面と映像出力部150aとの位置関係に応じて、スポットライト状の光は多様な形状を有してもよい。
<3−3.変形例3>
上記具体例4では、図16を参照して説明したように、実際には動いていない物体が動いているかのように見せるアニメーション演出を説明したが、本開示によるアニメーション演出はかかる例に限定されない。図23は本開示によるアニメーション演出のバリエーションの例を示す説明図である。
図23上段左に示すように、物体(付箋)全体が動いているように見せるアニメーション演出が行われてもよいし、図23上段右に示すように、物体の一部が動いているように見せるアニメーション演出が行われてもよい。また、図23下段左に示すように、物体の形状と仮想的な光源の位置関係に応じた仮想的な影のアニメーション演出が行われてもよい。また、図23下段右に示すように、物体の形状が変化しているように見せるアニメーション演出が行われてもよい。図23下段右の例では、仮想的な影が歪みを有することに加え、物体への照明効果が下に行くほど明るくなることで、物体(付箋)がめくれるような形状変化をしているように見える効果がある。
<<4.ハードウェア構成例>>
以上、本開示の一実施形態と各変形例を説明した。上述した実空間解析処理、影効果決定処理、信号生成処理などの情報処理は、ソフトウェアと、以下に説明する画像処理装置10のハードウェアとの協働により実現される。
図24は、画像処理装置10のハードウェア構成を示す説明図である。図24に示したように、画像処理装置10は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、入力装置104と、出力装置105と、ストレージ装置106と、通信装置107とを備える。
CPU101は、演算処理装置及び制御装置として機能し、各種プログラムに従って画像処理装置10内の動作全般を制御する。また、CPU101は、マイクロプロセッサであってもよい。ROM102は、CPU101が使用するプログラムや演算パラメータなどを記憶する。RAM103は、CPU101の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。主に、CPU101、ROM102及びRAM103とソフトウェアとの協働により、解析部120、実空間情報入力部130、信号生成部140、パラメータ設定部170、の機能が実現される。
入力装置104は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU101に出力する入力制御回路などから構成されている。画像処理装置10のユーザは、該入力装置104を操作することにより、画像処理装置10に対して各種のデータを入力したり処理動作を指示したりすることができる。入力装置104は、図4を参照して説明したパラメータ操作部160に対応する。
出力装置105は、例えば、液晶ディスプレイ(LCD)装置、OLED装置及びランプなどの表示装置を含む。さらに、出力装置105は、スピーカ及びヘッドホンなどの音声出力装置を含む。例えば、表示装置は、撮像された画像や生成された画像などを表示する。一方、音声出力装置は、音声データなどを音声に変換して出力する。
ストレージ装置106は、データ格納用の装置である。ストレージ装置106は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置及び記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置106は、CPU101が実行するプログラムや各種データを格納する。
通信装置107は、例えば、通信網に接続するための通信デバイスなどで構成された通信インタフェースである。また、通信装置107は、無線LAN(Local Area Network)対応通信装置、LTE(Long Term Evolution)対応通信装置、有線による通信を行うワイヤー通信装置、またはブルートゥース通信装置を含んでもよい。通信装置107は、図4を参照して説明した通信部180に対応する。
<<5.むすび>>
以上説明したように、本開示の実施形態によれば、実空間の情報に基づいて仮想的な影効果が実空間に与えられるため、より現実感の高い演出が可能になる。また、実際の光源により影効果を与えようとする場合に比べ、より単純な設備で仮想的な影効果を与えることが可能である。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態では、解析部120がセンサ部110のセンシング結果を解析して空間情報を取得する実空間情報取得部として機能する例を説明したが、本技術はかかる例に限定されない。例えば、センサ部110が圧力センサを含み、センサ部110の出力が直接的に物体の位置情報のような空間情報を示す場合、センサ部110が実空間情報取得部として機能するとみなされてもよい。
また、上記実施形態では、センサ部としてカメラやステレオカメラ、圧力センサを有するタッチパネルなどが用いられる例を説明したが、本技術はかかる例に限定されない。例えば、センサ部は物体の透過性をセンシング可能なセンサを含んでもよい。センサ部が物体の透過性をセンシング可能なセンサを含む場合、信号生成部は、センシングされた物体の透過性に応じて、仮想的な影を透過させるように影効果を決定してもよい。なお、上記の物体の透過性をセンシング可能なセンサとしては、例えば物体の材質をセンシングする電波式センサや音波式センサなどが用いられてもよい。また、センサ部は、環境光の強さや方向などをセンシングする環境光センサを含んでもよい。センサ部が環境光センサを含む場合、例えば、信号生成部は環境光の強さや方向と整合した自然な影になるように仮想的な影効果を決定してもよいし、環境光の強さや方向と矛盾した目立つ影となるように仮想的な影効果を決定してもよい。
また、上記実施形態では、ユーザの操作として、ユーザのタッチ位置の検出に基づくタッチ操作が用いられる例を説明したが、本技術で用いられるユーザの操作はかかる例に限定されない。例えば、ユーザの操作は実空間または仮想空間に対するポインティング操作であってもよい。ポインティング操作は、例えば、上記実施形態で例示的に示したタッチ操作の他、指さし操作、視線操作、カーソル位置を利用してポインティングする操作、レーザポインタを利用してポインティングする操作などであってもよい。指さし操作は、例えば、操作体の向いている方向により位置をポインティングする操作である。また、視線操作は、例えば、ユーザの視線が向いている方向から推定されるユーザが注視している位置をポインティングする操作である。また、カーソルを利用してポインティングする操作は、例えば、操作体の移動に応じて実空間または仮想空間においてカーソルを移動させ、カーソルの位置が実空間において示す位置をポインティングする操作である。レーザポインタを利用してポインティングする操作は、レーザポインタにより照らされる位置をポインティングする操作である。上記のようなユーザの操作を示す操作情報は、例えば、センサ部、または解析部によって実空間の情報として取得され、実空間情報入力部に入力されてもよい。
また、本実施形態によれば、CPU101、ROM102、及びRAM103などのハードウェアを、上述した画像処理装置10の各構成と同様の機能を発揮させるためのコンピュータプログラムも提供可能である。また、該コンピュータプログラムが記録された記録媒体も提供される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
実空間の情報が入力される実空間情報入力部と、
前記実空間の情報に基づいて、仮想的な影効果を前記実空間に与える映像の制御信号を生成する信号生成部と、
を備える、画像処理装置。
(2)
前記実空間の情報は、前記実空間に存在する物体に関する物体情報を含み、
前記映像は、前記物体情報に応じて、前記仮想的な影効果を与える、前記(1)に記載の画像処理装置。
(3)
前記映像は、仮想的な光源のパラメータに応じた前記仮想的な影効果を与える、前記(2)に記載の画像処理装置。
(4)
前記物体情報は、前記物体の位置を示す情報を含み、
前記映像は、前記実空間に存在する物体の位置に応じて、前記仮想的な影効果を与える、前記(3)に記載の画像処理装置。
(5)
前記仮想的な光源のパラメータは、光源特性、光源の位置、光源から発せられる光の方向、光源から発せられる光の範囲、光源から発せられる光の色、光源から発せられる光の明るさ、のうち少なくともいずれか一つに関する値を含む、前記(4)に記載の画像処理装置。
(6)
前記物体情報は、前記物体の立体形状を示す情報をさらに含み、
前記映像は、前記実空間に存在する物体の立体形状に応じて、前記仮想的な影効果を与える、前記(4)または(5)に記載の画像処理装置。
(7)
前記信号生成部は、前記物体の立体形状に応じて前記物体を照射するよう照明部を制御するための制御信号をさらに生成する、前記(6)に記載の画像処理装置。
(8)
前記実空間の情報は、前記実空間におけるユーザの操作を示す情報を含み、
前記仮想的な影効果は、前記ユーザの操作に基づいて変化する、前記(2)に記載の画像処理装置。
(9)
前記ユーザの操作は、前記実空間または仮想空間に対するポインティング操作である、前記(8)に記載の画像処理装置。
(10)
前記ポインティング操作は、前記物体に対するポインティング操作である、前記(9)に記載の画像処理装置。
(11)
前記ポインティング操作は、前記映像により前記実空間に与えられた仮想的な影に対するポインティング操作である、前記(9)または(10)に記載の画像処理装置。
(12)
前記ポインティング操作は、タッチ操作、指さし操作、視線操作、カーソルを利用してポインティングする操作、レーザポインタを利用してポインティングする操作、のうち少なくともいずれか一つを含む、前記(9)〜(11)のいずれか一項に記載の画像処理装置。
(13)
前記実空間の情報は、実際の光源により生じた前記実空間における影の位置を示す情報を含み、
前記映像は、前記実際の光源により生じた影の位置に応じた位置に、前記仮想的な影効果を与える、前記(1)〜(12)のいずれか一項に記載の画像処理装置。
(14)
前記映像により前記実空間に与えられた仮想的な影の大きさは、経時的に変化する、前記(1)〜(13)のいずれか一項に記載の画像処理装置。
(15)
前記仮想的な影は、前記実空間に存在する物体に対応した影であり、
前記信号生成部は、前記物体に照射されて照明効果を与える映像の制御信号をさらに生成し、
前記照明効果は、前記仮想的な影の大きさの変化に応じて、明るさが変化する、前記(14)に記載の画像処理装置。
(16)
前記実空間の情報を取得する実空間情報取得部をさらに備える、前記(1)〜(15)のいずれか一項に記載の画像処理装置。
(17)
実空間の情報が入力されることと、
前記実空間の情報に基づいて、プロセッサが仮想的な影効果を与える映像の制御信号を生成することと、
を含む、画像処理方法。
(18)
コンピュータに、
実空間の情報が入力される処理と、
前記実空間の情報に基づいて、仮想的な影効果を与える映像の制御信号を生成する処理と、を行わせるための、プログラム。
1 画像処理システム
10 画像処理装置
110 センサ部
120 解析部
130 実空間情報入力部
140 信号生成部
150 映像出力部
150a 出力部
160 パラメータ操作部
170 パラメータ設定部
180 通信部
200 物体
400 仮想影

Claims (18)

  1. 実空間の情報が入力される実空間情報入力部と、
    前記実空間の情報に基づいて、仮想的な影効果を前記実空間に与える映像の制御信号を生成する信号生成部と、
    を備える、画像処理装置。
  2. 前記実空間の情報は、前記実空間に存在する物体に関する物体情報を含み、
    前記映像は、前記物体情報に応じて、前記仮想的な影効果を与える、請求項1に記載の画像処理装置。
  3. 前記映像は、仮想的な光源のパラメータに応じた前記仮想的な影効果を与える、請求項2に記載の画像処理装置。
  4. 前記物体情報は、前記物体の位置を示す情報を含み、
    前記映像は、前記実空間に存在する物体の位置に応じて、前記仮想的な影効果を与える、請求項3に記載の画像処理装置。
  5. 前記仮想的な光源のパラメータは、光源特性、光源の位置、光源から発せられる光の方向、光源から発せられる光の範囲、光源から発せられる光の色、光源から発せられる光の明るさ、のうち少なくともいずれか一つに関する値を含む、請求項4に記載の画像処理装置。
  6. 前記物体情報は、前記物体の立体形状を示す情報をさらに含み、
    前記映像は、前記実空間に存在する物体の立体形状に応じて、前記仮想的な影効果を与える、請求項4に記載の画像処理装置。
  7. 前記信号生成部は、前記物体の立体形状に応じて前記物体を照射するよう照明部を制御するための制御信号をさらに生成する、請求項6に記載の画像処理装置。
  8. 前記実空間の情報は、前記実空間におけるユーザの操作を示す情報を含み、
    前記仮想的な影効果は、前記ユーザの操作に基づいて変化する、請求項2に記載の画像処理装置。
  9. 前記ユーザの操作は、前記実空間または仮想空間に対するポインティング操作である、請求項8に記載の画像処理装置。
  10. 前記ポインティング操作は、前記物体に対するポインティング操作である、請求項9に記載の画像処理装置。
  11. 前記ポインティング操作は、前記映像により前記実空間に与えられた仮想的な影に対するポインティング操作である、請求項9に記載の画像処理装置。
  12. 前記ポインティング操作は、タッチ操作、指さし操作、視線操作、カーソルを利用してポインティングする操作、レーザポインタを利用してポインティングする操作、のうち少なくともいずれか一つを含む、請求項9に記載の画像処理装置。
  13. 前記実空間の情報は、実際の光源により生じた前記実空間における影の位置を示す情報を含み、
    前記映像は、前記実際の光源により生じた影の位置に応じた位置に、前記仮想的な影効果を与える、請求項1に記載の画像処理装置。
  14. 前記映像により前記実空間に与えられた仮想的な影の大きさは、経時的に変化する、請求項1に記載の画像処理装置。
  15. 前記仮想的な影は、前記実空間に存在する物体に対応した影であり、
    前記信号生成部は、前記物体に照射されて照明効果を与える映像の制御信号をさらに生成し、
    前記照明効果は、前記仮想的な影の大きさの変化に応じて、明るさが変化する、請求項14に記載の画像処理装置。
  16. 前記実空間の情報を取得する実空間情報取得部をさらに備える、請求項1に記載の画像処理装置。
  17. 実空間の情報が入力されることと、
    前記実空間の情報に基づいて、プロセッサが仮想的な影効果を与える映像の制御信号を生成することと、
    を含む、画像処理方法。
  18. コンピュータに、
    実空間の情報が入力される処理と、
    前記実空間の情報に基づいて、仮想的な影効果を与える映像の制御信号を生成する処理と、を行わせるための、プログラム。
JP2015039620A 2015-02-27 2015-02-27 画像処理装置、画像処理方法、及びプログラム Expired - Fee Related JP6625801B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015039620A JP6625801B2 (ja) 2015-02-27 2015-02-27 画像処理装置、画像処理方法、及びプログラム
PCT/JP2016/051430 WO2016136332A1 (ja) 2015-02-27 2016-01-19 画像処理装置、画像処理方法、及びプログラム
US15/551,177 US10275938B2 (en) 2015-02-27 2016-01-19 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015039620A JP6625801B2 (ja) 2015-02-27 2015-02-27 画像処理装置、画像処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2016162142A true JP2016162142A (ja) 2016-09-05
JP2016162142A5 JP2016162142A5 (ja) 2017-03-09
JP6625801B2 JP6625801B2 (ja) 2019-12-25

Family

ID=56788454

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015039620A Expired - Fee Related JP6625801B2 (ja) 2015-02-27 2015-02-27 画像処理装置、画像処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US10275938B2 (ja)
JP (1) JP6625801B2 (ja)
WO (1) WO2016136332A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020513581A (ja) * 2016-11-07 2020-05-14 サムスン エレクトロニクス カンパニー リミテッド ディスプレイ装置及びディスプレイ方法
US10860205B2 (en) 2017-02-24 2020-12-08 Sony Corporation Control device, control method, and projection system
WO2021131781A1 (ja) * 2019-12-26 2021-07-01 ソニーグループ株式会社 表示制御装置、表示制御方法、及び、記録媒体
DE112020001852T5 (de) 2019-04-09 2022-01-20 Sony Group Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10614666B2 (en) 2011-04-20 2020-04-07 Video Gaming Technologies, Inc. Gaming machines with free play bonus mode presenting only winning outcomes
EP3163358B1 (de) * 2015-10-29 2018-03-28 X-Rite Switzerland GmbH Visualisierungsvorrichtung
WO2019031259A1 (ja) * 2017-08-08 2019-02-14 ソニー株式会社 画像処理装置および方法
USD902941S1 (en) 2017-08-31 2020-11-24 Aristocrat Technologies Australia Pty Limited Display screen or portion thereof with graphical user interface
US10922878B2 (en) * 2017-10-04 2021-02-16 Google Llc Lighting for inserted content
US10937216B2 (en) * 2017-11-01 2021-03-02 Essential Products, Inc. Intelligent camera
US10817079B2 (en) * 2018-01-29 2020-10-27 Dell Products L.P. Displaying a shadow of a stylus or of content on a display device
USD896236S1 (en) * 2018-03-16 2020-09-15 Magic Leap, Inc. Display panel or portion thereof with a transitional mixed reality graphical user interface
USD874503S1 (en) * 2018-10-03 2020-02-04 Aristocrat Technologies Australia Pty Limited Display screen with an animated graphical interface
USD916865S1 (en) 2019-01-25 2021-04-20 Aristocrat Technologies Australia Pty Limited Display screen or portion thereof with transitional graphical user interface
US11482070B2 (en) 2019-10-14 2022-10-25 Aristocrat Technologies Australia Pty Limited Gaming system with symbol-driven approach to randomly-selected trigger value for feature

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11144077A (ja) * 1997-11-14 1999-05-28 Nintendo Co Ltd ビデオゲーム装置およびその記憶媒体
US20080316145A1 (en) * 2007-06-25 2008-12-25 May Gregory J Virtual shadow for physical object placed on surface
US20100315413A1 (en) * 2009-06-16 2010-12-16 Microsoft Corporation Surface Computer User Interaction
JP2013517579A (ja) * 2010-03-25 2013-05-16 ビズモードライン カンパニー リミテッド 拡張現実システム
JP2013182618A (ja) * 2012-02-29 2013-09-12 Thomson Licensing イメージまたはイメージシーケンスに補助視覚オブジェクトを追加する方法および装置
JP2014203326A (ja) * 2013-04-08 2014-10-27 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012208439A (ja) 2011-03-30 2012-10-25 Sony Corp 投影装置、投影方法及び投影プログラム
US20130227609A1 (en) 2012-02-29 2013-08-29 Thomson Licensing Method and apparatus for adding auxiliary visual objects to an image or an image sequence

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11144077A (ja) * 1997-11-14 1999-05-28 Nintendo Co Ltd ビデオゲーム装置およびその記憶媒体
US20080316145A1 (en) * 2007-06-25 2008-12-25 May Gregory J Virtual shadow for physical object placed on surface
US20100315413A1 (en) * 2009-06-16 2010-12-16 Microsoft Corporation Surface Computer User Interaction
JP2013517579A (ja) * 2010-03-25 2013-05-16 ビズモードライン カンパニー リミテッド 拡張現実システム
JP2013182618A (ja) * 2012-02-29 2013-09-12 Thomson Licensing イメージまたはイメージシーケンスに補助視覚オブジェクトを追加する方法および装置
JP2014203326A (ja) * 2013-04-08 2014-10-27 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
""世界で初めて、写真や絵に動きを与える不思議な照明『変幻灯』を開発"", NTT持株会社ニュースリリース, JPN6018005990, 17 February 2015 (2015-02-17), JP, ISSN: 0003743661 *
冨手要ほか2名: ""複合現実感における影の光学的整合性に関する検討とレイトレーシングによる実現"", 情報処理学会研究報告, vol. 第2008巻, 第3号, JPN6018005988, 17 January 2008 (2008-01-17), JP, pages 75 - 80, ISSN: 0003743660 *
向川康博ほか2名: ""SpaceRelighter: パターン投影による照明環境の再現"", 日本バーチャルリアリティ学会論文誌, vol. 第10巻, 第2号, JPN6017048404, 30 June 2005 (2005-06-30), JP, pages 155 - 162, ISSN: 0003703498 *
小林良穂ほか2名: ""sonodial: 人工の影を用いたインタラクティブサウンドインスタレーション"", 日本バーチャルリアリティ学会論文誌, vol. 第18巻, 第3号, JPN6017048406, 30 September 2013 (2013-09-30), JP, pages 267 - 276, ISSN: 0003703499 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020513581A (ja) * 2016-11-07 2020-05-14 サムスン エレクトロニクス カンパニー リミテッド ディスプレイ装置及びディスプレイ方法
US10860205B2 (en) 2017-02-24 2020-12-08 Sony Corporation Control device, control method, and projection system
DE112020001852T5 (de) 2019-04-09 2022-01-20 Sony Group Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
WO2021131781A1 (ja) * 2019-12-26 2021-07-01 ソニーグループ株式会社 表示制御装置、表示制御方法、及び、記録媒体

Also Published As

Publication number Publication date
JP6625801B2 (ja) 2019-12-25
WO2016136332A1 (ja) 2016-09-01
US10275938B2 (en) 2019-04-30
US20180040156A1 (en) 2018-02-08

Similar Documents

Publication Publication Date Title
WO2016136332A1 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6731457B2 (ja) 音声情報を補償する視覚的表示方法及び装置、記録媒体、プログラム、電子機器
US9898844B2 (en) Augmented reality content adapted to changes in real world space geometry
US20150185825A1 (en) Assigning a virtual user interface to a physical object
US9740338B2 (en) System and methods for providing a three-dimensional touch screen
US9659381B2 (en) Real time texture mapping for augmented reality system
JP6909554B2 (ja) 視覚効果を有するオブジェクトを表示する装置及び方法
US10380803B1 (en) Methods and systems for virtualizing a target object within a mixed reality presentation
US8730183B2 (en) Large scale multi-user, multi-touch system
US9984508B2 (en) Light-based radar system for augmented reality
CN106062862A (zh) 用于沉浸式和交互式多媒体生成的***和方法
US20110055703A1 (en) Spatial Apportioning of Audio in a Large Scale Multi-User, Multi-Touch System
CN105191330A (zh) 显示装置及其图形用户界面屏幕提供方法
US11023035B1 (en) Virtual pinboard interaction using a peripheral device in artificial reality environments
CN109196577A (zh) 用于为计算机化***提供用户界面并与虚拟环境交互的方法和设备
US10976804B1 (en) Pointer-based interaction with a virtual surface using a peripheral device in artificial reality environments
JP2015091008A (ja) 照明装置
JPWO2016136311A1 (ja) 情報処理装置、情報処理方法及びプログラム
CN114385289B (zh) 一种渲染显示方法、装置、计算机设备及存储介质
KR102242324B1 (ko) 카메라 광 데이터로 가상 환경을 조명하는 방법
Petford et al. A comparison of notification techniques for out-of-view objects in full-coverage displays
CN110673810A (zh) 显示设备及其显示方法、装置、存储介质和处理器
CN104811639B (zh) 信息处理方法及电子设备
US11922904B2 (en) Information processing apparatus and information processing method to control display of a content image
US11023036B1 (en) Virtual drawing surface interaction using a peripheral device in artificial reality environments

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170130

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170825

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180126

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180201

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20180223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190207

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190415

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191128

R150 Certificate of patent or registration of utility model

Ref document number: 6625801

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees