JP2015056143A - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP2015056143A
JP2015056143A JP2013190717A JP2013190717A JP2015056143A JP 2015056143 A JP2015056143 A JP 2015056143A JP 2013190717 A JP2013190717 A JP 2013190717A JP 2013190717 A JP2013190717 A JP 2013190717A JP 2015056143 A JP2015056143 A JP 2015056143A
Authority
JP
Japan
Prior art keywords
information processing
processing apparatus
image
depth
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013190717A
Other languages
English (en)
Inventor
達雄 藤原
Tatsuo Fujiwara
達雄 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013190717A priority Critical patent/JP2015056143A/ja
Priority to US14/450,766 priority patent/US9516214B2/en
Publication of JP2015056143A publication Critical patent/JP2015056143A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】深度情報を有する画像に対して直観的に三次元的な編集を施すことが可能な情報処理装置および情報処理方法を提供する。【解決手段】情報処理装置であって、前記情報処理装置の動きを検知する検知部と、深度情報を有する画像について、前記検知部による検知結果に基づいて仮想的な光源の位置または向きを設定する設定部と、前記設定部により設定される仮想的な光源の位置または向き、および前記深度情報に基づいて前記画像に照明効果を施す表示制御部と、を備える情報処理装置。【選択図】図3A

Description

本開示は、情報処理装置および情報処理方法に関する。
近年、画像を三次元的に表示または編集するための情報機器またはアプリケーションが提案されている。一般的に、画像の三次元的な表示または編集とは、画像の奥行方向の分布、被写体の3次元形状、または被写体の反射特性等を考慮した画像の表示または編集を意味している。
例えば、特許文献1では、光源を設置して被写体に光を照射しながら被写体を回転させて撮像し、撮像により得られた画像を表示する際に、ユーザ操作に応じて光源の位置が所望の位置である画像に切り替える発明が開示されている。
また、画像から所望の画像の部分をユーザ操作により切り出して、奥行感のある画像に加工するアプリケーションおよびその切り出し方法が提供されている。
特開2000−90233号公報
しかし、特許文献1では、画像における光源の位置を変化させる操作が具体的に開示されていない。
また、一般的に、画像の三次元的な編集は、画像の奥行方向を考慮しない二次元的な編集に比べて多くの複雑な操作を要し、その結果、編集作業が煩雑となり、編集に時間がかかることが多い。
そこで、本開示では、深度情報を有する画像に対して直観的に三次元的な編集を施すことが可能な、新規かつ改良された情報処理装置および情報処理方法を提案する。
本開示によれば、情報処理装置であって、情報処理装置の動きを検知する検知部と、深度情報を有する画像について、検知部による検知結果に基づいて仮想的な光源の位置または向きを設定する設定部と、設定部により設定される仮想的な光源の位置または向き、および深度情報に基づいて画像に照明効果を施す表示制御部と、を備える情報処理装置が提供される。
また、本開示によれば、深度情報を有する1の画像の深度の一部を合焦対象として設定する設定部と、設定部により設定される合焦対象の深度の部分の変化に従って画像においてぼかし処理を施す部分を変化させる表示制御部と、を備える情報処理装置が提供される。
また、本開示によれば、情報処理装置であって、情報処理装置の操作および情報処理装置の移動を検知する検知部と、各平面位置についての深度情報を有する画像について、情報処理装置の操作に基づいて平面位置を設定し、情報処理装置の移動に基づいて深度位置を設定する設定部と、設定部により設定される平面位置および深度位置の変化を示す軌道を画像に重畳する表示制御部と、を備える情報処理装置が提供される。
また、本開示によれば、情報処理装置であって、深度情報を有する画像を表示する情報処理装置の移動を検知する検知部と、情報処理装置の移動に応じて定まる深度区分に該当する画像の部分を切り出す画像切り出し部と、を備える情報処理装置が提供される。
以上説明したように本開示によれば、深度情報を有する画像に対して直観的に三次元的な編集を施すことが可能な情報処理装置および情報処理方法が提供される。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施形態に係る情報処理装置の概要を説明するための図である。 本開示の実施形態に係る情報処理装置の概略的な機能構成を示すブロック図である。 本開示の実施形態に係る情報処理装置のリライティングの仮想的な光源の位置の変化に対する画像の変化を示す図である。 本開示の実施形態に係る情報処理装置のリライティングの仮想的な光源の位置の変化を示す概念図である。 本開示の実施形態に係る情報処理装置のリライティングの仮想的な光源の向きの変化に対する画像の変化を示す図である。 本開示の実施形態に係る情報処理装置のリライティングの仮想的な光源の向きの変化を示す概念図である。 本開示の実施形態における情報処理装置のリライティングの処理を概念的に示すフローチャートである。 本開示の実施形態に係る情報処理装置のリライティングにおける仮想的な光源の属性の設定について説明するための図である。 本開示の実施形態に係る情報処理装置のデフォーカシングの処理の例を説明するための図である。 本開示の実施形態における情報処理装置のデフォーカシングの処理を概念的に示すフローチャートである。 本開示に係る情報処理装置のドラッグ操作によるデフォーカシングの例を説明するための図である。 本開示に係る情報処理装置のチルトシフト操作によるデフォーカシングの例を説明するための図である。 本開示に係る情報処理装置のチルトシフト操作によるデフォーカシングの他の例を説明するための図である。 本開示の実施形態に係る情報処理装置のライトペインティングの例を説明するための図である。 本開示の実施形態に係る情報処理装置の移動範囲の例を説明するための図である。 本開示の実施形態に係る情報処理装置の画像の深度を概念的に表した図である。 本開示の実施形態における情報処理装置のライトペインティングの処理を概念的に示すフローチャートである。 本開示の実施形態に係る情報処理装置のセグメンテーションの例を説明するための図である。 本開示の実施形態における情報処理装置のセグメンテーションの処理を概念的に示すフローチャートである。 本開示の実施形態に係る情報処理装置のポップアウトフォトグラフィの例を説明するための図である。 本開示の実施形態における情報処理装置のポップアップフォトグラフィの処理を概念的に示すフローチャートである。 本開示に係る情報処理装置のハードウェア構成を示した説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.情報処理装置の概要
2.情報処理装置の構成
3.リライティング
4.デフォーカシング
5.ライトペインティング
6.セグメンテーション
7.ハードウェア構成
8.むすび
<1.情報処理装置の概要>
まず、図1を参照して、本開示の実施形態に係る情報処理装置の概要について説明する。図1は、本開示の実施形態に係る情報処理装置の概要を説明するための図である。
図1に示される情報処理装置100は、ユーザにより移動される可搬式の携帯端末であり、情報処理装置100の動きを検知する機能を有する。このため、情報処理装置100は、ユーザによる移動または傾き等を検知することが可能である。例えば、情報処理装置100は、図1に示されるXYZ軸方向の各々の移動、またはXYZ軸の各々に対する回転を検知することが可能である。ここで、Y軸方向とは、情報処理装置100の基準となる姿勢における鉛直方向であり、Z軸方向とは、情報処理装置100の基準となる姿勢における奥行方向であり、X軸方向とは、Y軸およびZ軸の各々と直交する方向であり得る。また、情報処理装置100は、後述される画像の各種の編集処理前に、処理直前の状態を、情報処理装置100の基準となる姿勢として設定する。なお、情報処理装置100の基準となる姿勢とは、例えば、情報処理装置100を直立させたときの姿勢であり得る。
また、情報処理装置100は、被写体の相対的な奥行方向の距離を示す深度情報を有する画像を表示し、当該画像の三次元的な編集を行う。例えば、情報処理装置100は、内蔵するタッチパネルに画像を表示させ、タッチパネル等を介した入力操作と画像の深度情報に基づいて画像を編集する。
ここで、一般的に、画像の三次元的な編集は、画像の奥行方向を考慮しない二次元的な編集に比べて多くの複雑なパラメータの設定操作を要し、その結果、編集作業が煩雑となる。そこで、情報処理装置100は、深度情報を有する画像の三次元的な編集のためのパラメータ設定を、情報処理装置100の動きまたは操作に基づいて設定する。例えば、ユーザが、情報処理装置100に対してXY軸の平面で操作を行いながら、情報処理装置100を図1に示されるZ軸方向に動かす等を行うと、画像の奥行方向を加味した編集が行われ得る。
このように、情報処理装置100は、情報処理装置100の動きまたは操作に基づいて、画像の三次元的な編集のためのパラメータを設定する。このため、ユーザは直観的に画像の三次元的な編集のためのパラメータを設定することにより、画像の三次元的な編集作業を簡単化することが可能となる。なお、図1においては情報処理装置100の一例としてスマートフォンを示しているが、情報処理装置100は、タブレット端末、または携帯ゲーム機等の携帯端末であってもよい。
<2.情報処理装置の構成>
以上、本開示の実施形態に係る情報処理装置100の概要について説明した。次に、図2を参照して、本実施形態に係る情報処理装置の構成について説明する。図2は、本開示の実施形態に係る情報処理装置100の概略的な機能構成を示すブロック図である。
図2を参照すると、情報処理装置100は、検知部102、編集内容判定部108、設定部110、記憶部112、表示制御部114、表示部116、および出力部118を備える。
検知部102は、情報処理装置100の状態を検知するために、操作検知部104、および動き検知部106を備える。
操作検知部104は、情報処理装置100に対するユーザ操作を検知する。例えば、操作検知部104は、タッチパネルに対するタッチ操作を検知するタッチセンサ等であり得る。また、操作検知部104は、後述する編集内容判定部108および設定部110に検知結果を伝達する。
動き検知部106は、情報処理装置100の動きを検知する。例えば、動き検知部106は、情報処理装置100の位置の変化または向きの変化を検知する加速度センサ、および角速度センサ(ジャイロセンサ)、または角速度センサに代えて地磁気センサ等を備え得る。また、動き検知部106は、設定部110に検知結果を伝達する。
編集内容判定部108は、ユーザが選択する画像の編集内容を判定する。具体的には、編集内容判定部108は、操作検知部104により検知された操作に基づいて編集内容を判定する。本実施形態における上記の編集内容は、リライティング、デフォーカシング、ライトペインティング、またはセグメンテーションのうちのいずれかである。編集内容の各々の詳細については後述する。
設定部110は、記憶部112に記憶されている画像および画像の深度情報を読出し、検知部102から得られる検知結果に基づいて、選択された編集内容に応じた画像の編集のためのパラメータを設定する。具体的には、設定部110は、操作検知部104または動き検知部106から伝達される検知結果に基づいて、編集内容判定部108で判定された編集内容に応じた画像の編集のためのパラメータを設定する。なお、必要に応じて読み出した画像の深度情報が用いられる。編集内容の各々において設定するパラメータが異なるため、詳細については後述する。
記憶部112は、編集対象の画像および画像の深度情報を記憶する。
表示制御部114は、表示部116に表示させる画像を生成する。具体的には、設定部110により設定された画像の編集のためのパラメータと記憶部112から読み出された画像の深度情報とに基づいて、選択された編集内容に応じた処理を画像に対して行う。
表示部116は、記憶部112から読み出した処理前の画像または表示制御部114により処理された画像を表示する。例えば、表示部116は、タッチパネル等であり得る。
出力部118は、表示制御部114により処理された画像を出力する。例えば、出力部118は、処理された画像を、通信装置等を介して情報処理装置100の外部に出力し得る。なお、出力部118は、表示制御部114により処理された画像を動画形式で出力してもよい。また、出力部118は、設定部110により設定されたパラメータを出力してもよい。出力部118がパラメータを出力する場合、情報処理装置100は、出力されたパラメータと画像および深度情報とを一式で取扱い、例えば、情報処理装置100は、情報処理装置100の外部装置等に当該一式を提供し得る。これにより、動画形式で提供する場合と比較してデータ量を削減すること、および提供先でパラメータの設定変更を行うこと、が可能となる。例えば、提供先でパラメータの設定変更が可能となることにより、提供先の機器構成および処理能力に応じてレンダリングの画質の設定を調整することが可能となる。
以上、本開示の実施形態に係る情報処理装置100の構成について説明した。以下では、情報処理装置100の編集内容(リライティング、デフォーカシング、ライトペインティング、セグメンテーション)ごとに詳細を説明する。
<3.リライティング>
[3−1.背景]
近年、撮像により得られた画像における光の照射状態を、撮像後に変更する電子機器またはアプリケーションが提案されている。
しかし、一般的に、画像における光の照射状態の三次元的な編集は、画像の奥行方向を考慮しない二次元的な編集に比べて多くの複雑な操作を要し、その結果、編集作業が煩雑となり、編集に時間がかかることが多い。
そこで、深度情報を有する画像に対して直観的に照明効果を施すことが可能な情報処理装置および情報処理方法を以下に提案する。
[3−2.リライティングの概要]
まず、本開示の実施形態に係る情報処理装置100におけるリライティングの概要について説明する。
情報処理装置100におけるリライティングとは、深度情報を有する画像に対して、情報処理装置100の動きに基づいて照明効果を追加的に施すことである。具体的には、リライティングにおいては、深度情報を有する画像に対して、図1に示されるXYZ軸方向の情報処理装置100の位置の変化、または図1に示されるXYZ軸の各々の軸についての回転角の変化に基づいて仮想的な光源が設定される。そして、仮想的な光源の位置または向きが決定された後、深度情報から得られる各被写体の前後関係と設定された仮想的な光源の位置または向きから光が当たる領域および影になる領域が特定されて画像に反映される。
このように、情報処理装置100におけるリライティングは、情報処理装置100の動きに基づいて仮想的な光源の位置または向きを設定し、画像に照明効果を施す。
[3−3.リライティングの詳細]
次に、上記のリライティングの処理を実現するための情報処理装置100の各機能の動作について説明する。
リライティングの処理は、動き検知部106、設定部110、表示制御部114、および表示部116の動作によって実現される。
動き検知部106は、情報処理装置100の動きを検知する。具体的には、動き検知部106は、情報処理装置100の位置の変化または向きの変化を検知する。検知結果は、設定部110に伝達される。
設定部110は、動き検知部106の検知結果に基づいて仮想的な光源の位置または向きを設定する。具体的には、設定部110は、動き検知部106から得られる位置の変化または向きの変化に基づいて、位置の変化量または向きの変化量を算出する。そして、設定部110は、仮想的な光源の直前の位置または向きと、算出された位置の変化量または向きの変化量と、から仮想的な光源の位置または向きの設定変更を行う。
表示制御部114は、設定部110により設定された仮想的な光源の位置または向き、および画像の深度情報に基づいて画像に照明効果を施す。具体的には、表示制御部114は、深度情報から得られる各被写体の前後関係と設定された仮想的な光源の位置または向きとから、光が当たる領域および影になる領域を特定し、画像に反映させる。なお、仮想的な光源の位置から画像の各箇所の深度を踏まえた位置までの距離を算出し、算出された距離に応じて光の当たる領域の光の強さを調整してもよい。また、表示制御部114は、質感の強調または変更を行ってもよい。例えば、表示制御部114は、被写体の領域毎に反射特性を推定または指定することで、鏡面反射または拡散反射などの各種反射効果を加え得る。
表示部116は、表示制御部114により照明効果が施された画像を表示する。
次に、図3Aおよび図3Bを参照して、リライティングを具体的に説明する。図3Aは、本開示の実施形態に係る情報処理装置100のリライティングの仮想的な光源の位置の変化に対する画像の変化を示す図である。また、図3Bは、本開示の実施形態に係る情報処理装置100のリライティングの仮想的な光源の位置の変化を示す概念図であり、画像の被写体を上から見た場合の仮想的な光源の位置の変化を示している。
図3Aの左図は、被写体として1人の人物が写された画像200を示している。以下、画像200に施される照明効果が情報処理装置100に対するユーザ操作および情報処理装置100の位置の変化によって変化する例を説明する。
まず、ユーザが編集内容としてリライティングを選択すると、設定部110は、仮想的な光源を、図3Bに示すように所定の初期位置10Aに設定し、表示制御部114は、設定された仮想的な光源の位置に基づいて画像に照明効果を施す。その結果、リライティングの開始状態として、画像200には初期位置10Aにおける仮想的な光源による照明効果が施され、図3Aの中図に示すように画像200の人物が照らされると共に、人物の影が表示される。
次に、ユーザが情報処理装置100を画像200に向かって右方向に動かす、すなわち図1に示されるX軸の正の方向に情報処理装置100を動かすと、動き検知部106は、情報処理装置100の位置の変化を検知する。次に、設定部110は、動き検知部106の検知した位置の変化に基づいて、位置の変化量を算出し、直前の位置と算出された位置の変化量に基づいて仮想的な光源の位置を10Bに設定する。そして、表示制御部114は、設定部110により設定された仮想的な光源の位置と画像の深度情報に基づいて画像に照明効果を施す。ここで、情報処理装置100の位置の変化の方向と仮想的な光源の位置の変化の方向が同方向に対応付けられている場合、情報処理装置100のX軸の正方向への移動に応じて、仮想的な光源が画像200に向かって右方向の位置10Bに移動する。そして、画像200には位置10Bにおける仮想的な光源による照明効果が施されることにより、図3Aの右図に示すように、画像200の人物の照らされ方および影の向き等が変化する。
また、リライティングの別の例について、図4Aおよび図4Bを参照して説明する。図4Aは、本開示の実施形態に係る情報処理装置100のリライティングの仮想的な光源の向きの変化に対する画像の変化を示す図である。また、図4Bは、本開示の実施形態に係る情報処理装置100のリライティングの仮想的な光源の向きの変化を示す概念図であり、画像の被写体を上から見た場合の仮想的な光源の向きの変化を示している。
図4Aの左図は、被写体として2人の人物が写された画像200を示している。以下、画像200に施される照明効果が情報処理装置100に対するユーザ操作および情報処理装置100の向きの変化によって変化する例を説明する。
まず、ユーザが編集内容としてリライティングを選択すると、設定部110は、仮想的な光源を、図4Bに示されるように所定の初期の向き12Aで設定し、表示制御部114は、設定された仮想的な光源の向きに基づいて画像に照明効果を施す。その結果、画像200には初期の向き12Aの仮想的な光源による照明効果が施されることにより、図4Aの中図に示すように、画像200の2人の人物の両方が照らされると共に影が表示される。
次に、ユーザが情報処理装置100を画像200に向かって右奥方向に傾斜させる、すなわち図1に示されるY軸を中心に反時計回りに情報処理装置100を傾斜させると、動き検知部106は、情報処理装置100の向きの変化を検知する。次に、設定部110は、動き検知部106の検知したい向きの変化に基づいて、向きの変化量を算出し、直前の向きと算出された向きの変化量に基づいて仮想的な光源の向きを12Bに設定する。そして、表示制御部114は、設定部110により設定された仮想的な光源の向きと画像の深度情報に基づいて画像に照明効果を施す。ここで、情報処理装置100の向きの変化の方向と仮想的な光源の向きの変化の方向が同方向に対応付けられている場合、情報処理装置100のY軸を中心とした反時計回りの傾きに応じて、仮想的な光源の向きが12Aから12Bに変更される。そして、画像200には向き12Bの仮想的な光源による照明効果が施されることにより、図4Aの右図に示すように画像200の右の人物の照らされ方および影は変化せず、画像200の左の人物は光源の照射範囲から外れるため光に照らされず、画像200の左の人物の影が表示されなくなる。
[3−4.リライティングの処理]
次に、図5を参照して、本開示の実施形態における情報処理装置100のリライティングの処理について説明する。図5は、本開示の実施形態における情報処理装置100のリライティングの処理を概念的に示すフローチャートである。
まず、設定部110は、仮想的な光源の初期位置を設定する(ステップS302)。例えば、初期位置は、所定の位置であり得る。
次に、設定部110は、情報処理装置100の動きが検知されたかの判定を行う(ステップS304)。具体的には、設定部110は、動き検知部106の検知結果に基づいて判定を行う。
ステップS304にて、情報処理装置100の動きが検知されたと判定された場合、設定部110は、情報処理装置100の位置の変化に応じて仮想的な光源の位置を設定する(ステップS306)。具体的には、設定部110は、動き検知部106から得られる位置の変化に基づいて、位置の変化量を算出し、直前の位置と算出された位置の変化量から位置の設定変更を行う。
次に、設定部110は、情報処理装置100の位置の向きの変化に応じて仮想的な光源の向きを設定する(ステップS308)。具体的には、設定部110は、動き検知部106から得られる向きの変化に基づいて、向きの変化量を算出し、直前の向きと算出された向きの変化量から向きの設定変更を行う。
次に、表示制御部114は、設定部110により変更された設定に基づいて、画像に照明効果を施す(ステップS310)。具体的には、表示制御部114は、設定部110により設定された仮想的な光源の位置または向きと、画像の深度情報とに基づいて、画像に照明効果を施す。
次に、表示部116は、表示制御部114により照明効果が施された画像を表示する(ステップS312)。
このように、情報処理装置100のリライティングでは、情報処理装置100の位置または向きに基づいて光源の位置または向きを設定し、設定に基づいて深度情報を有する画像200に照明効果を施す。このため、情報処理装置100の位置または向きで画像200にパラメータの設定ことにより、ユーザが直観的に画像200に照明効果を施すことが可能となる。
[3−5.仮想的な光源の設定の例]
本実施形態に係る情報処理装置100のリライティングは、仮想的な光源の属性の設定を行ってもよい。具体的には、操作検知部104が検知した操作結果に基づいて、設定部110は、仮想的な光源の属性を設定し、表示制御部114は、設定に基づいて照明効果を施す。例えば、仮想的な光源の属性は、光源の種類、光の強さ、または光の色味等であり得る。より具体的には、図6を参照して説明する。図6は、本開示に係る情報処理装置100のリライティングにおける仮想的な光源の属性の設定について説明するための図である。
図6を参照すると、情報処理装置100の表示部116が表示する画像に、仮想的な光源の属性の設定画面202が表示されている。仮想的な光源の属性は、設定画面202上で選択され得る。
光源の種類は、選択肢の中から選択する方式であり得る。例えば、光源の種類は、太陽光、蛍光灯、またはスポットライト等であり得、プルダウンメニューで選択され得る。また、光の強さは、段階的に選択する方式であり得る。また、光の色味は、例えば、RGBで表現され、RGBの各々で段階的に選択する方式であり得る。
なお、仮想的な光源の属性の設定画面202は一例であり、情報処理装置100は、設定画面を表示させずタッチ操作またはボタン操作等で仮想的な光源の属性を設定してもよい。
このように、情報処理装置100は、設定画面202で選択した仮想的な光源の属性の設定に基づいて、表示制御部114が画像に照明効果を施し、表示部116が照明効果の施された画像を表示する。このため、情報処理装置100に対するユーザ操作で仮想的な光源の属性を設定させることにより、仮想的な光源の位置または向きの変更と同時に仮想的な光源の属性を設定することが可能となる。
[3−6.仮想的な光源の設定の時間変化の例]
本実施形態に係る情報処理装置100のリライティングは、画像の照明効果を時間的に変化させてもよい。具体的には、設定部110は、仮想的な光源の設定を時間的に変化させ、表示制御部114は、仮想的な光源の設定の変化に従って施す照明効果を変化させる。より具体的には、設定部110は、操作検知部104または動き検知部106の検知結果に基づいて行った仮想的な光源の設定を記憶部112に記憶させておき、後から記憶部112に記憶されている設定を読み出して、順次設定を適用する。そして、表示制御部114は、設定部110により変化される設定に従って照明効果を画像に施す。
このように、情報処理装置100は、仮想的な光源の設定を記憶させておき、記憶した設定を時間的に読み出して順次設定を適用し、適用される設定に基づいて照明効果を施す。このため、記憶された仮想的な光源の設定が時間的に順次読み出されて適用されることにより、画像の照明効果が時間的に変化する動画を生成することが可能となる。
<4.デフォーカシング>
[4−1.背景]
近年、撮像により得られた画像における合焦位置を、撮像後に変更する電子機器またはアプリケーションが提案されている。
しかし、一般的に、画像の合焦位置を時間的に変化させることは困難である。
そこで、画像の合焦位置を時間的に変化させることが可能な情報処理装置および情報処理方法を以下に提案する。
[4−2.デフォーカシングの概要]
まず、本開示の実施形態に係る情報処理装置100におけるデフォーカシングの概要について説明する。
一般的に、デフォーカシングとは、被写界深度の浅い撮影条件またはアオリなどの写真撮影における各種ボケ味の表現を目的に、撮像面をレンズの結像面から光軸方向に移動させ、画像を適応的にぼかすことである。本実施形態においては、デフォーカシングとは、上記の各種ボケ味の再現を目的として、深度情報を有する画像に対し追加的に施されるぼかし効果を時間的に変化させることであると定義する。具体的には、デフォーカシングにおいては、画像の合焦対象となる深度の部分の時間変化の情報が記憶部に記憶され、記憶された情報に基づき、画像においてぼかし処理の施される部分が時間経過に伴って変化する。
また、設定する深度の部分は、ユーザ操作によって指定され得る。具体的には、情報処理装置100は、情報処理装置100に対するユーザ操作または情報処理装置100の動きを検知し、検知結果に基づいて合焦対象の深度の部分の時間変化の情報を記憶する。そして、情報処理装置100は、記憶された情報を順に読み出して合焦対象の深度の部分を設定し、設定された深度の部分に含まれる深度を有する画像の部分を合焦させる。例えば、表示部116はタッチパネルであり、タッチパネルに画像が表示され、ユーザは、表示される画像上の合焦させたい位置をタッチ操作で指定する。タッチ操作は操作検知部104に検知され、設定部110は、操作検知部104の検知結果に基づいて画像上の位置を特定し、当該画像上の位置の深度を含む深度の部分の合焦対象として時系列に記憶する。設定部110は、記憶された深度の部分を順に読み出して合焦対象として設定し、表示制御部114は、設定された深度の部分に含まれる深度を有する画像の部分を合焦させる。
このように、情報処理装置100におけるデフォーカシングは、情報処理装置100に対するユーザ操作を検知し、検知結果に基づいて合焦対象の深度の部分の時間変化の情報を記憶させておき、記憶された情報を順に読み出して合焦対象の深度の部分を設定し、設定される深度の部分に含まれる深度を有する画像の部分に基づいて画像の部分を合焦させる。
[4−3.デフォーカシングの詳細]
次に、上記のデフォーカシングの処理を実現するための情報処理装置100の各機能の動作について説明する。
デフォーカシングの処理は、操作検知部104、設定部110、記憶部112、表示制御部114、および表示部116の動作によって実現される。
操作検知部104は、情報処理装置100に対するユーザ操作を検知する。例えば、操作検知部104は、タッチパネルに対するユーザのタッチ操作を検知する。検知結果は、設定部110に伝達される。
設定部110は、操作検知部104の検知結果に基づいて合焦対象の深度の部分を算出し、算出された深度の部分を記憶部112に記憶させる。具体的には、設定部110は、操作検知部104により検知されたタッチ位置に対応する画像の位置が有する深度を含む深度の部分を算出し、算出された深度の部分を記憶部112に記憶させる。
記憶部112は、設定部110により算出された深度の部分を記憶する。
表示制御部114は、設定部110により設定された深度の部分に基づいて画像の部分を合焦させる。具体的には、表示制御部114は、設定部110により設定された画像の部分を合焦させ、他の画像の部分をぼかす。
表示部116は、表示制御部114により処理された画像を表示する。
次に、図7を参照して、タッチ操作によるデフォーカシングを具体的に説明する。図7は、本開示の実施形態に係る情報処理装置100のデフォーカシングの処理の例を説明するための図である。
図7は、被写体として人物、家屋、および山が写された画像200を示している。以下、画像200の合焦位置が情報処理装置100に対するユーザ操作によって変化する例を説明する。
まず、ユーザ20が、画像200上の人物の表示位置にタッチ操作を行うと、操作検知部104は、タッチ操作を検知し、設定部110は、操作検知部104により検知されたタッチ位置に対応する画像の位置に基づいて合焦対象の深度の部分を設定する。併せて設定部110は、設定した深度の部分を記憶部112に記憶させる。そして、表示制御部114は、設定部110により設定された深度の部分に基づいて画像200を合焦させる。その結果、情報処理装置100に対するタッチ操作に応じて、画像200は、図7の中図に示すように、人物に合焦し、山に合焦しなくなる。
次に、ユーザ20が、画像200上の人物の表示位置にタッチ操作を行った後に、画像200上の家屋の表示位置にタッチ操作を行うと、操作検知部104は、タッチ操作を検知し、設定部110は、操作検知部104により検知されたタッチ位置に対応する画像の位置に基づいて合焦対象の深度の部分を設定する。併せて設定部110は、設定した深度の部分を記憶部112に記憶させる。そして、表示制御部114は、設定部110により設定された深度の部分に基づいて画像200を合焦させる。その結果、情報処理装置100に対するタッチ操作に応じて、画像200は、図7の右図に示すように、家屋に合焦し、人物に合焦しなくなる。
次に、上記の操作の終了後に、ユーザが時間的に画像200の合焦位置を変化させるよう情報処理装置100に指示すると、操作検知部104は、ユーザのデフォーカシング処理実行の指示操作を検知し、設定部110は、記憶部112に記憶された深度の部分を時間的に読み出して合焦対象として設定する。そして、表示制御部114は、時間的に設定される深度の部分に基づいて画像200を合焦させる。その結果、ユーザの操作で設定された順に従って、画像200の人物、家屋の順に画像200の合焦位置が時間的に変化する。
[4−4.デフォーカシングの処理]
次に、図8を参照して、本開示の実施形態における情報処理装置100のデフォーカシングの処理について説明する。図8は、本開示の実施形態における情報処理装置100のデフォーカシングの処理を概念的に示すフローチャートである。
最初に、情報処理装置100は、デフォーカシングの処理の準備として、合焦対象の設定の蓄積を行う。
まず、操作検知部104は、情報処理装置100に対するユーザ操作を検知したかの判定を行う(ステップS402)。具体的には、操作検知部104は、センサ等から検知した操作の情報を得て、情報処理装置100に対するユーザ操作を検知したかの判定を行う。
ステップS402にて、情報処理装置100に対するユーザ操作を検知したと判定された場合、設定部110は、検知された情報処理装置100に対するユーザ操作に応じて、合焦対象の設定を記憶させる(ステップS404)。具体的には、設定部110は、操作検知部104により検知された操作に基づいて合焦対象の深度の部分を算出し、算出された深度の部分を記憶部112に記憶させる。そして、算出された深度の部分が記憶部112に記憶された後、ステップS402に処理が戻される。
ステップS402にて、情報処理装置100に対するユーザ操作を検知しなかったと判定された場合、表示制御部114は、デフォーカシング実行の指示操作を検知したかの判定を行う(S406)。具体的には、表示制御部114は、操作検知部104によりデフォーカシング実行を指示するユーザ操作が検知されたかの判定を行う。
ステップS406にて、デフォーカシング実行の指示操作を検知したと判定された場合、情報処理装置100は、デフォーカシングの処理を開始する。
始めに、設定部110は、記憶された合焦対象の設定を読み出す(ステップS408)。具体的には、設定部110は、記憶部112に記憶された合焦対象の深度の部分を読み出す。
次に、読み出された合焦対象の設定に基づいて、表示制御部114は、画像にぼかし処理を施す(ステップS410)。具体的には、設定部110は、記憶部112から読み出した深度の部分を合焦対象として設定し、表示制御部114は、設定部110により設定された合焦対象の深度の部分に含まれる深度を有する画像の部分を合焦させる。
次に、ぼかし処理が施された画像を、表示部116が表示する(ステップS412)。
次に、設定部110は、記憶された次の合焦対象の設定が存在するかの判定を行う(ステップS414)。具体的には、設定部110は、記憶部112に次の合焦対象の深度の部分が記憶されているかの判定を行う。
なお、ステップS414にて、記憶された次の合焦対象の設定が存在すると判定された場合、ステップS408に処理が戻される。
ステップS414にて、記憶された次の合焦対象の設定が存在しないと判定された場合、デフォーカシングの処理が終了する。
ステップS406にて、デフォーカシング実行の指示操作を検知しなかったと判定された場合、表示制御部114は、処理終了の指示操作を検知したかの判定を行う(ステップS416)。具体的には、表示制御部114は、操作検知部104により処理終了を指示するユーザ操作が検知されたかの判定を行う。
ステップS416にて、処理終了の指示操作を検知したと判定された場合、デフォーカシングの処理が終了する。
なお、ステップS416にて、処理終了の指示操作を検知しなかったと判定された場合、ステップS402に処理が戻される。
このように、情報処理装置100は、指定された合焦対象の深度の部分の設定を記憶部112に時系列で記憶させておき、記憶部112から順に読み出される深度の部分に基づいて画像の合焦を行う。このため、記憶された合焦対象の深度の部分の設定が順に読み出されることにより、画像の合焦位置が時間経過に伴って変化する動画を生成することが可能となる。
[4−5.ドラッグ操作によるデフォーカシングの例]
本実施形態に係る情報処理装置100のデフォーカシングにおける合焦対象の設定は、情報処理装置100に対するユーザ操作に基づいて、画像における合焦する深度の幅である被写界深度の設定を行ってもよい。
具体的には、情報処理装置100は、情報処理装置100に対する操作で特定される画像の部分が有する深度の部分を合焦対象とし、情報処理装置100に対する操作の変化量に応じて変更される当該深度の部分の深度幅の時間変化を記憶させる。そして、情報処理装置100は、記憶された深度幅を順に読み出して、読み出された深度幅を有する深度の部分を合焦対象として設定し、設定された深度の部分に含まれる深度を有する画像の部分を合焦させる。図9を参照してより具体的に説明する。図9は、本開示に係る情報処理装置100のドラッグ操作によるデフォーカシングの例を説明するための図である。
図9の左図は、被写体として3人の人物が写された画像200を示している。以下、画像200の被写界深度が情報処理装置100に対するユーザ操作によって変化する例を説明する。
まず、ユーザ20が画像200の手前の人物の表示位置にタッチ操作を行うと、設定部110は、操作検知部104で検知される画像200上の位置に基づいて、合焦対象の深度幅を手前の人物の表示位置における深度幅に設定する。そして、表示制御部114は、設定に基づき合焦を行った画像200を表示部116が表示する。その結果、画像200は、図9の中左図に示すように手前の人物に合焦する。
次に、ユーザ20が画像200に向かって右方向にドラッグ操作を行うと、設定部110は、操作検知部104で検知される操作量に基づいて、設定されている合焦対象の深度幅に、さらに合焦対象とする深度幅を加算して設定する。そして、表示制御部114が設定に基づき合焦を行った画像200を表示部116が表示する。
その結果、画像200は、図9の中右図に示すように手前の人物および1つ奥の人物に合焦する。
次に、ユーザ20が画像200に向かって右方向にドラッグ操作を継続すると、設定部110は、操作検知部104で検知される操作量に基づいて、設定されている合焦対象の深度の部分に、さらに合焦対象とする深度の部分を加算して設定する。そして、表示制御部114は、設定に基づき合焦を行った画像を表示部116が表示する。その結果、画像200は、図9の右図に示すように全ての人物に合焦する。
このように、情報処理装置100は、情報処理装置100に対する操作で特定される画像の部分が有する深度の部分を合焦対象とし、情報処理装置100に対する操作の変化量応じて変更される当該深度の部分の深度幅の時間変化を記憶させる。そして、情報処理装置100は、記憶された深度幅を順に読み出して、読み出された深度幅を有する深度の部分を合焦対象として設定し、設定された深度の部分に含まれる深度を有する画像の部分を合焦させる。このため、情報処理装置100に対するユーザ操作に応じて合焦対象の深度幅が伸縮されて設定されることにより、ユーザは直観的に画像200の被写界深度を調整することが可能となる。
[4−6.チルトシフト操作によるデフォーカシングの例]
本実施形態に係る情報処理装置100のデフォーカシングにおける合焦対象の設定は、情報処理装置100の動きに基づいて、合焦対象の深度の部分の設定を行ってもよい。例えば、情報処理装置100は、デジタルカメラ等におけるチルトシフトのようなレンズとセンサ面の位置関係によって生じるぼかしを、レンズの向きを情報処理装置100の向きに見立てて、情報処理装置100の向きの変化に基づいて合焦対象の深度の部分の設定を行い得る。
具体的には、情報処理装置100は、情報処理装置100の向きの変化に応じて変更される合焦対象の深度の部分の時間変化を記憶させておき、記憶された深度の部分を順に読み出して深度の部分を合焦対象として設定し、設定された深度の部分に含まれる深度を有する画像の部分を合焦させる。
より具体的には、動き検知部106は、情報処理装置100の向きの変化を検知し、設定部110は、動き検知部106により検知された向きの変化に応じて向きの回転軸と平行に移動する画像上の直線と重なる画像の部分が有する深度の部分を合焦対象として記憶させる。そして、設定部110は、記憶された深度の部分を読み出して、読み出された深度の部分を合焦対象として設定し、表示制御部114は、設定されている深度の部分に含まれる深度を有する画像の部分を合焦させる。さらに、図10Aおよび図10Bを参照して説明する。図10Aは、本開示に係る情報処理装置100のチルトシフト操作によるデフォーカシングの例を説明するための図であり、図10Bは、本開示に係る情報処理装置100のチルトシフト操作によるデフォーカシングの他の例を説明するための図である。
図10Aの左図は、被写体として3人の人物、家屋、および山が写された画像200を示している。以下、画像200の合焦位置が情報処理装置100の向きの変化によって変化することを例で説明する。
まず、ユーザが、情報処理装置100を図1に示されるX軸を中心に時計回りに傾けると、動き検知部106は、情報処理装置100の向きの変化を検知する。次に、設定部110は、動き検知部106により検知された向きの変化に応じてX軸と平行に移動する画像上の直線30aと重なる画像の部分が有する深度の部分を合焦対象として記憶させる。そして、設定部110は、記憶された深度の部分を読み出して合焦対象として設定し、表示制御部114は、設定された深度の部分に含まれる深度を有する画像の部分を合焦させる。その結果、情報処理装置100のX軸を中心とした時計回りの傾きに応じて、画像200は、図10Aの右図に示すように、直線30aと重なる家屋および家屋の深度の部分に含まれる深度を有する家屋の前方の2人の人物に合焦し、画像200の手前に表示される人物および背景に表示される山はぼかされる。
図10Bの左図は、図10Aの左図と同様、被写体として3人の人物、家屋、および山が写された画像200を示している。以下、画像200の合焦位置が情報処理装置100の向きの変化によって変化することを例で説明する。
まず、ユーザが、情報処理装置100を図1に示されるY軸を中心に時計回りに傾けると、動き検知部106は、情報処理装置100の向きの変化を検知する。次に、設定部110は、動き検知部106により検知された向きの変化に応じて向きのY軸と平行に移動する画像上の直線30bと重なる画像の部分が有する深度の部分を合焦対象として記憶させる。そして、設定部110は、記憶された深度の部分を読み出して合焦対象として設定し、表示制御部114は、設定された深度の部分に含まれる深度を有する画像の部分を合焦させる。その結果、情報処理装置100のY軸を中心とした時計回りの傾きに応じて、画像200は、図10Bの右図に示すように、直線30bと重なる左部分に表示される人物および当該人物の深度の部分に含まれる深度を有する当該人物の右隣りの人物に合焦し、画像200の右部分に表示される人物、家屋および山はぼかされる。
このように、情報処理装置100は、情報処理装置100の向きの変化に応じて変更される合焦対象の深度の部分の時間変化を記憶させておき、記憶された深度の部分を順に読み出して深度の部分を合焦対象として設定し、設定された深度の部分に含まれる深度を有する画像の部分を合焦させる。このため、情報処理装置100の向きの変化に応じて合焦対象の深度の部分を設定することにより、ユーザは直観的に合焦位置を設定することが可能となる。
[4−7.ぼかし処理の自動処理の例]
本実施形態に係る情報処理装置100のデフォーカシングは、プログラムにより自動的に行われてもよい。具体的には、情報処理装置100は、プログラムに基づいて合焦対象の深度の部分の設定を行い、設定される深度の部分に従って画像にぼかし処理を行う。より具体的には、設定部110は、記憶部112に記憶されるプログラムに基づいて、合焦対象として設定する深度の部分を変化させ、表示制御部114は、設定部110の設定する深度の部分の変化に従って画像にぼかし処理を行う。
このように、情報処理装置100は、プログラムに基づいて合焦対象の深度の部分の設定を変化させ、設定される深度の部分の変化に従って画像にぼかし処理を行う。このため、プログラムにより合焦対象の深度の部分が設定されることにより、一定の規則に従って画像の合焦位置が変化する動画を生成することが可能となる。
<5.ライトペインティング>
[5−1.背景]
近年、ライトペインティングと呼ばれる光の軌道が写された写真を撮る手法が一般に広まっている。ライトペインティングとは、カメラを長時間露光させている間の、ライト等の光源の移動により生じる光源の軌道を撮像する手法である。
しかし、ユーザが描画行為している間は、ユーザは描画結果を確認することが困難である。
また、撮像後に画像に対してライトペインティングを施したいといった要望もある。
そこで、深度情報を有する画像に対して光源の軌道を確認しながら描画することが可能な情報処理装置および情報処理方法を以下に提案する。
[5−2.ライトペインティングの概要]
まず、本開示の実施形態に係る情報処理装置100におけるライトペインティングの概要について説明する。
情報処理装置100におけるライトペインティングとは、情報処理装置100に対するユーザ操作および移動に基づいて深度情報を有する画像に光源の軌道を重畳することである。
具体的には、ライトペインティングの処理は、情報処理装置100に対するユーザ操作および情報処理装置100の移動を検知する。次に、当該処理は、各平面位置に深度を有する画像に対して、検知された情報処理装置100に対するユーザ操作に基づいて平面位置を設定し、かつ検知された情報処理装置100の移動に基づいて深度位置を設定する。そして、当該処理は、設定される平面位置および深度位置の変化を示す光源の軌道を重畳する。例えば、ユーザがタッチパネルに対する操作で画像の平面位置を指定しながら、情報処理装置100を奥行方向、すなわち図1に示されるZ軸方向に移動させると、奥行方向に移動した光源の軌道が画像に重畳される。
このように、情報処理装置100におけるライトペインティングは、情報処理装置100に対するユーザ操作および情報処理装置100の移動に基づいて画像上の平面位置および深度位置を設定し、平面位置および深度位置の変化が示す光源の軌道を画像に重畳する。このため、ユーザの視野の範囲内で行われる情報処理装置100に対するユーザ操作に基づいて光源の軌道に係る平面位置を設定することにより、ユーザは光源の軌道を確認しながら描画することが可能となる。
[5−3.ライトペインティングの詳細]
上記のライトペインティングの動作を実現するための情報処理装置100の各機能の動作について説明する。
ライトペインティングは、操作検知部104、動き検知部106、設定部110、表示制御部114、および表示部116の動作によって実現される。
操作検知部104は、情報処理装置100に対するユーザ操作を検知し、動き検知部106は、情報処理装置100の移動を検知する。検知結果の各々は、設定部110に伝達される。
設定部110は、操作検知部104の検知結果に基づいて平面位置を設定し、動き検知部106の検知結果に基づいて深度位置を設定する。具体的には、設定部110は、操作が検知された画像における平面位置の座標を設定し、検知された情報処理装置100の位置の変化における変化量に応じて直前の深度を変化させて得られる深度を深度位置として設定する。
表示制御部114は、設定部110により設定される平面位置および深度位置の変化を示す光源の軌道を画像に重畳する。具体的には、表示制御部114は、画像に重畳している光源の軌道に対し、直前に設定された平面位置および深度位置から、設定部110により設定される平面位置および深度位置への光源の移動を示す軌道を追加し、画像に重畳する。
表示部116は、光源の軌道が重畳された画像を表示する。
次に、図11を参照して、ライトペインティングを具体的に説明する。図11は、本開示の実施形態に係る情報処理装置100のライトペインティングの例を説明するための図である。
図11の上部には、図1で示した情報処理装置100のZ軸方向の動きを示した概念図が示されている。また、図11の下部には、情報処理装置100に対するユーザ操作が示されている。
図11は、被写体として2人の人物が写された画像200を示している。以下、画像200に重畳される光源の軌道が情報処理装置100に対するユーザ操作および情報処理装置100の動きによって変化する例を説明する。
まず、ユーザ20が、手前の人物の前方の位置にタッチ操作を行い、続けて画像200に向かって右にドラッグ操作を行うと、操作検知部104は、タッチ位置を検知する。次に、設定部110は、操作検知部104から得たタッチ位置に対応する画像200上の平面位置を設定し、動き検知部106により検知された情報処理装置100の動きにおける位置の変化量に対応する画像200の深度位置を設定する。そして、表示制御部114は、設定部110により設定された平面位置および深度位置に光源を画像200に重畳する。続いて、操作検知部104は、ドラッグ操作により変遷するタッチ位置を検知する。次に、設定部110は、操作検知部104から得た変遷するタッチ位置の各々を画像200の平面位置として時系列で設定する。そして、表示制御部114は、設定部110により時系列で設定される平面位置に従って延長される光源の軌道を画像200に重畳する。その結果、タッチ操作およびドラッグ操作に応じて、図11の左図に示すように画像200の手前の人物の前方に光源の軌道が画像200に重畳される。
次に、ユーザ20が、画像200の手前の人物の後ろ側までドラッグ操作を継続するとともに、併せて情報処理装置100をZ軸方向のD1の位置に移動させると、動き検知部106は、情報処理装置100のZ軸の正方向のOからD1への移動を検知し、操作検知部104は、ドラッグ操作により変遷するタッチ位置を検知する。次に、設定部110は、操作検知部104から得た変遷するタッチ位置の各々に対応する画像200上の光源の平面位置を時系列で設定し、動き検知部106から得た情報処理装置100のZ軸の正方向の位置の変化の各々における変化量に応じて直前の深度を変化させて得られる光源の深度位置の各々を時系列で設定する。そして、表示制御部114は、設定部110により時系列で設定される平面位置および深度位置に従って延長される光源の軌道を画像200に重畳する。その結果、ドラッグ操作および情報処理装置100のZ軸の正方向の移動に応じて、図11の中図に示すように画像200の手前の人物の前方から後方にかけて光源の軌道が重畳される。
次に、ユーザ20が、画像200の手前の人物の左側までドラッグ操作を継続するとともに、併せて情報処理装置100をZ軸方向のOの位置に戻すと、動き検知部106は情報処理装置100のZ軸の正方向の移動を検知し、操作検知部104はドラッグ操作により変遷するタッチ位置を検知する。次に、設定部110は操作検知部104から得た変遷するタッチ位置の各々に対応する画像200上の光源の平面位置を時系列で設定し、動き検知部106から得た情報処理装置100のZ軸の正方向の位置の変化の各々における変化量に応じて直前の深度を変化させて得られる光源の深度位置を深度位置として時系列で設定する。そして、表示制御部114は、設定部110により時系列で設定される平面位置および深度位置に従って延長される光源の軌道を画像200に重畳する。その結果、ドラッグ操作および情報処理装置100のZ軸の正方向の移動に応じて、図11の右図に示すように画像200の手前の人物の前方から後方を経由して左方に光源の軌道が画像200に重畳される。
ここで、図11に示したZ軸方向の情報処理装置100の移動は、一般的に、ユーザの手の可動範囲内においてされる。
そこで、情報処理装置100は、情報処理装置100の位置と画像の深度とを対応付けて処理を行う。具体的には、図12Aおよび図12Bを参照して説明する。図12Aは、本開示の実施形態に係る情報処理装置100の移動範囲の例を説明するための図であり、図12Bは、本開示の実施形態に係る情報処理装置100の画像の深度を概念的に表した図である。
図12Aに示したように、ユーザ20は、幅Distの範囲で情報処理装置100を移動させることが可能であるとする。例えば、幅Distの値は所定の値であり得る。また、図12Bに示したように、画像200の深度が幅Dpthの範囲で割当てられているとする。例えば、幅Dpthは0〜255の幅であり得る。ここで、情報処理装置100は、上記の幅Distおよび幅Dpthを各々の全範囲で対応付ける。例えば、Dist=0〜40cm、Dpth=0〜255とした場合、情報処理装置100の移動距離10cmに対し、深度64が対応する。
このように、情報処理装置100は、ユーザ20の手の可動範囲Distに深度の幅Dpthを対応付ける。このため、ユーザ20の手の可動範囲内で全範囲にわたる深度の選択が可能となり、ユーザ20は画像に重畳される光源の軌道を確認しながら描画を行うことが可能となる。
[5−4.ライトペインティングの処理]
次に、図13を参照して、本開示の実施形態における情報処理装置100のライトペインティングの処理について説明する。図13は、本開示の実施形態における情報処理装置100のライトペインティングの処理を概念的に示すフローチャートである。
まず、設定部110は、情報処理装置100の位置を初期化する(ステップS502)。具体的には、設定部110は、ユーザにより指示された情報処理装置100の位置を基準とする。例えば、情報処理装置100の位置は、基準の位置を原点とした相対的な位置である。
次に、操作検知部104は、情報処理装置100に対するユーザ操作を検知したかの判定を行う(ステップS504)。具体的には、操作検知部104は、センサ等から検知した操作の情報を得て、情報処理装置100に対するユーザ操作を検知したかの判定を行う。
ステップS504にて、情報処理装置100に対するユーザ操作を検知したと判定された場合、設定部110は、描画開始位置として光源の平面位置および深度位置を設定する(ステップS506)。具体的には、設定部110は、操作検知部104により検知された操作位置に対応する画像上の平面位置を光源の軌道の開始位置として設定し、動き検知部106により検知された情報処理装置100の動きにおける前述の基準の位置からの位置の変化量に応じて深度位置を設定する。
ステップS504にて、情報処理装置100に対するユーザ操作を検知しなかったと判定された場合、情報処理装置100は、操作が検知されるまで待機する。
光源が設定された後、操作検知部104は、情報処理装置100に対する操作を検知したかの判定を行う(ステップS508)。具体的には、操作検知部104は、センサ等から検知した操作の情報を得て、ステップS504で検知された操作に続いて行われる操作を検知したかの判定を行う。
ステップS508にて、情報処理装置100に対するユーザ操作位置の変化を検知したと判定された場合、動き検知部106は、情報処理装置100の動きを検知したかの判定を行う(ステップS510)。具体的には、動き検知部106は、センサ等から位置の変化の情報を得て、情報処理装置100の位置の変化を検知したかの判定を行う。
ステップS510にて、情報処理装置100の動きを検知したと判定された場合、設定部110は、情報処理装置100の動きに基づいて深度位置を変更する(ステップS512)。具体的には、設定部110は、動き検知部106の検知した位置の変化の各々における変化量に応じて直前の深度を変化させて得られる深度を深度位置として変更する。
ステップS510にて、情報処理装置100の動きを検知しなかったと判定された場合、ステップS514に処理が進められる。
次に、操作検知部104は、情報処理装置100に対する操作の変化を検知したかの判定を行う(ステップS514)。具体的には、操作検知部104は、センサ等から検知した操作の変化の情報を得て、ステップS504で検知された操作に続いて行われる操作を検知したかの判定を行う。
ステップS514にて、情報処理装置100に対するユーザ操作位置の変化を検知したと判定された場合、設定部110は、情報処理装置100に対するユーザ操作位置の変化に基づいて平面位置を変更する(ステップS516)。具体的には、設定部110は、操作検知部104により検知された操作位置に対応する画像上の平面位置に設定を変更する。
ステップS514にて、情報処理装置100に対するユーザ操作位置の変化を検知しなかったと判定された場合、ステップS508に処理が戻される。
次に、表示制御部114は、設定部110により変更された平面位置および深度位置の変化を示す光源の軌道を画像に重畳する(ステップS518)。具体的には、表示制御部114は、画像に重畳している光源の軌道に対し、直前に設定された平面位置および深度位置から、設定部110により変更された平面位置および深度位置への光源の移動の軌道を追加し、画像に重畳する。
次に、表示部116は、表示制御部114により光源の軌道が重畳された画像を表示する(ステップS520)。画像の表示が行われた後、ステップS510に処理が戻される。
ステップS508にて、情報処理装置100に対するユーザ操作を検知しなかったと判定された場合、ライトペインティングの処理が終了される。
このように、情報処理装置100は、情報処理装置100に対するユーザ操作および情報処理装置100の移動を検知し、検知した操作に基づいて画像の平面位置を設定し、検知した移動に基づいて画像の深度位置を設定する。そして、設定された平面位置および深度位置の変化を示す光源の軌道を画像に重畳する。このため、ユーザの視野の範囲内で行われる情報処理装置100に対するユーザ操作に基づいて光源の軌道に係る平面位置を設定することにより、ユーザは光源の軌道を確認しながら描画することが可能となる。
[5−5.ライトペインティングの時間変化の例]
本実施形態に係る情報処理装置100のライトペインティングは、画像に重畳される光源の軌道が時間的に変化してもよい。具体的には、設定部110は、平面位置および深度位置の設定を時間的に変化させ、表示制御部114は、設定部110により設定される平面位置および深度位置の変化に従って、画像に重畳させる光源の軌道を変化させる。
より具体的には、設定部110は、情報処理装置100に対するユーザ操作に基づいて設定される平面位置、および情報処理装置100の移動に基づいて設定される深度位置を記憶させておき、記憶された平面位置および深度位置を時間的に順次読み出して設定する。そして、表示制御部114は、設定部110により時間的に順次設定される平面位置および深度位置の変化に従って光源の軌道を順次変化させて画像に重畳する。
このように、情報処理装置100は、検知した情報処理装置100に対するユーザ操作および情報処理装置100の移動に基づいて、設定される平面位置および深度位置の各々を記憶する。そして、情報処理装置100は、記憶された平面位置および深度位置の各々を時間的に順次読み出して設定し、順次設定される平面位置および深度位置の変化に従って重畳する光源の軌道を変化させる。このため、記憶された平面位置および深度位置が時間的に順次読み出されて設定されることにより、画像に重畳される光源の軌道が時間的に変化する動画を生成することが可能となる。
[5−6.ライトペインティングの自動処理の例]
本実施形態に係る情報処理装置100のライトペインティングは、プログラムにより自動的に行われてもよい。具体的には、情報処理装置100は、プログラムに基づいて平面位置および深度位置の設定を行い、設定される平面位置および深度位置の変化を示す光源の軌道を画像に重畳する。より具体的には、設定部110は、記憶部112に記憶されるプログラムに基づいて、設定する平面位置および深度位置を変化させ、表示制御部114は、設定部110の設定する平面位置および深度位置の変化が示す光源の軌道を画像に重畳する。
このように、情報処理装置100は、プログラムに基づいて平面位置および深度位置の設定を変化させ、設定される平面位置および深度位置の変化を示す光源の軌道を画像に重畳させる。このため、プログラムにより平面位置および深度位置が設定されることにより、一定の規則に従った光源の軌道を精密に画像に重畳することが可能となる。
<6.セグメンテーション>
[6−1.背景]
近年、画像から当該画像の部分を切り出すための電子機器またはアプリケーションが提案されている。
しかし、一般的に、奥行感のある画像の編集は、画像の奥行方向を考慮しない二次元的な編集に比べて多くの複雑な操作を要し、その結果、編集作業が煩雑となり、編集に時間がかかることが多い。
そこで、深度情報を有する画像から所望の奥行きにある画像の部分を直観的に切り出すことが可能な情報処理装置および情報処理方法を以下に提案する。
[6−2.セグメンテーションの概要]
まず、本開示の実施形態に係る情報処理装置100におけるセグメンテーションの概要について説明する。
情報処理装置100におけるセグメンテーションとは、情報処理装置100の移動に応じて定まる画像の深度区分に該当する画像の部分を切り出すことである。
具体的には、セグメンテーションにおいては、検知された情報処理装置100の位置の変化における位置の変化量に対応する深度の部分を切り出し対象の深度区分として設定し、設定される深度区分に該当する画像の部分を切り出す。例えば、ユーザが情報処理装置100を奥行方向、すなわち図1に示されるZ軸方向に移動させると、移動距離に応じて切り出し対象の深度の部分が変化し、当該深度の部分が深度区分として設定され、深度区分に該当する画像の部分が切り出される。
このように、情報処理装置100におけるセグメンテーションは、情報処理装置100の移動を検知し、移動量に応じて切り出し対象の深度の部分である深度区分を設定し、設定された深度区分に該当する画像の部分を切り出す。
[6−3.セグメンテーションの詳細]
上記のセグメンテーションの処理を実現するための情報処理装置100の各機能の動作について説明する。
セグメンテーションは、動き検知部106、設定部110、表示制御部114、および表示部116の動作によって実現される。
動き検知部106は、情報処理装置100の移動を検知する。検知結果は、設定部110に伝達される。
設定部110は、動き検知部106の検知結果に基づいて切り出す画像の深度区分を設定する。具体的には、設定部110は、検知された情報処理装置100の位置の変化における位置の変化量に対応する深度の部分を深度区分として設定する。
表示制御部114は、設定部110により設定された深度区分に該当する画像の部分を切り出す。具体的には、表示制御部114は、設定部110により設定された深度区分に該当する深度を有する画像の部分を切り出す。
表示部116は、表示制御部114により切り出された画像の部分を表示する。
次に、図14を参照して、セグメンテーションを具体的に説明する。図14は、本開示の実施形態に係る情報処理装置100のセグメンテーションの例を説明するための図である。
図14の上部には、図1で示した情報処理装置100のZ軸方向の動きを示した概念図が示されている。また、図14の下部には、情報処理装置100の表示部116に表示される画像が示されている。
図14は、被写体として3人の人物が奥行方向に並んで写された画像200を示している。以下、画像200の一部が情報処理装置100の動きによって切り出される例を説明する。
まず、ユーザ20が、情報処理装置100をZ軸方向のD2の位置に移動させると、動き検知部106は、情報処理装置100のZ軸の正方向の移動を検知する。次に、設定部110は、動き検知部106から得たZ軸の正方向の移動によるOからD4までの移動量に対応する深度の部分を深度区分として設定する。そして、表示制御部114は、設定部110により設定される深度区分に該当する深度を有する画像200の部分を選択状態にする。その結果、情報処理装置100のZ軸の正方向の移動に応じて、図14の中左図に示すように画像200の手前の人物が選択状態にされる。
次に、ユーザ20が、情報処理装置100をZ軸方向のD2からD3の位置に移動させると、動き検知部106は、情報処理装置100のZ軸の正方向の移動を検知する。次に、設定部110は、動き検知部106から得たZ軸の正方向の移動に基づいて移動後の位置D3を算出し、算出された位置D3に対応する深度の部分の集合を深度区分として設定する。そして、表示制御部114は、設定部110により設定される深度区分に該当する深度を有する画像200の部分を選択状態にする。その結果、情報処理装置100のさらなるZ軸の正方向の移動に応じて、図14の中右図に示すように画像200の手前の人物および奥行方向に次に並ぶ人物が選択状態にされる。
次に、ユーザ20が、情報処理装置100に対して入力操作等を行い、切り出す画像200の部分を決定すると、操作検知部104は、情報処理装置100に対するユーザ操作を検知する。操作検知部104により操作が検知されると、表示制御部114は、選択状態の画像200の部分を切り出し、切り出した画像200の部分のみを表示させる。その結果、情報処理装置100に対するユーザ操作に応じて、図14の右図に示すように、選択状態であった画像200の手前の人物および奥行方向に次に並ぶ人物のみが切り出されて表示される。
[6−4.セグメンテーションの処理]
次に、図15を参照して、本開示の実施形態における情報処理装置100のセグメンテーションの処理について説明する。図15は、本開示の実施形態における情報処理装置100のセグメンテーションの処理を概念的に示すフローチャートである。
まず、設定部110は、深度区分の設定を初期化する(ステップS602)。
次に、動き検知部106は、情報処理装置100の移動を検知したかの判定を行う(ステップS604)。具体的には、動き検知部106は、センサ等から位置の変化の情報を得て、情報処理装置100の位置の変化を検知したかの判定を行う。
ステップS604にて、情報処理装置100の移動を検知したと判定された場合、設定部110は、情報処理装置100の移動によって定まる深度区分を設定する(ステップS606)。具体的には、設定部110は、動き検知部106の検知した位置の変化における位置の変化量に対応する深度の部分を深度区分として設定する。
次に、表示制御部114は、設定部110により設定された深度区分に該当する画像の部分を選択状態にする(ステップS608)。具体的には、表示制御部114は、設定された深度区分に含まれる深度を有する画像の部分を選択状態にする。
次に、表示部116は、表示制御部114により画像の部分が選択状態にされた画像を表示する(ステップS610)。表示部116により画像が表示された後、ステップS604に処理が戻される。
ステップS604にて、情報処理装置100の移動を検知したと判定された場合、表示制御部114は、選択状態とされている画像の部分、すなわち設定された深度区分に該当する画像の部分を切り出す(ステップS612)。具体的には、表示制御部114は、設定された深度区分に含まれる深度を有する画像の部分を切り出す。
次に、表示部116は、表示制御部114により切り出された画像の部分のみを表示する(ステップS614)。
このように、情報処理装置100は、情報処理装置100の移動を検知し、検知された移動に基づいて切り出し対象の画像の深度区分を設定し、深度区分に該当する画像の部分を切り出す。このため、切り出し対象の画像の深度区分を情報処理装置100の移動で設定することにより、ユーザは直観的に画像の深度に応じた画像の部分の切り出しが可能となる。
[6−5.ポップアウトフォトグラフィの例]
本実施形態に係る情報処理装置100は、セグメンテーションを利用して、いわゆるポップアウトフォトグラフィを行ってもよい。具体的には、情報処理装置100は、情報処理装置100の移動に基づいて切り出し対象の深度区分を設定することに加え、情報処理装置100に対するユーザ操作および情報処理装置100の向きの変化に基づいて、設定される深度区分に該当しない画像の部分を切り出し対象として設定する。
より具体的には、設定部110は、情報処理装置100の移動に基づいて深度区分を設定し、情報処理装置100に対するユーザ操作および情報処理装置100の向きの変化に基づいて画像の部分を設定する。そして、表示制御部114は、設定される深度区分に該当する画像の部分および設定される画像の部分を切り出す。詳細については、図16を参照して、ポップアウトフォトグラフィの例を用いて説明する。図16は、本開示の実施形態に係る情報処理装置100のポップアウトフォトグラフィの例を説明するための図である。
図16の上段には、図1で示した情報処理装置100のZ軸方向の動きを示した概念図が示されている。また、図16の中段には、情報処理装置100に対するユーザ操作が示されている。また、図16の下段には、情報処理装置100の向きの変化、すなわち図1で示した情報処理装置100のY軸を中心とした回転の動きを示した概念図が示されている。
図16は、被写体として人物、家屋、および山が写された画像200を示している。以下、画像200の一部が情報処理装置100の動きおよび情報処理装置100に対するユーザ操作によって切り出される例を説明する。
まず、ユーザ20が、情報処理装置100をZ軸方向のD4の位置に移動させると、動き検知部106は、情報処理装置100のZ軸の正方向の移動を検知する。次に、設定部110は、動き検知部106から得たZ軸の正方向の移動によるOからD4までの移動量対応する深度の部分を深度区分として設定する。そして、表示制御部114は、設定部110により設定された深度区分に該当する深度を有する画像200の部分を選択状態にする。その結果、情報処理装置100のZ軸の正方向の移動に応じて、図16の中左図に示すように画像200の人物が選択状態にされる。
次に、ユーザ20が、タッチパネルに対して、タッチ操作をした後、タッチ位置から斜めにドラッグ操作を行うと、操作検知部104は、情報処理装置100のタッチ操作およびドラッグ操作を検知する。次に、設定部110は、操作検知部104から得たタッチ操作およびドラッグ操作に基づいて、タッチ位置からドラッグ操作中のタッチ位置またはドラッグ操作終了位置までを対角線とした矩形を算出し、算出した矩形の画像200の部分を切り出し対象として設定する。そして、表示制御部114は、設定部110により設定された深度区分に該当する深度を有する画像200の部分の選択状態を維持したまま、設定された画像200の部分を選択状態にする。その結果、情報処理装置100のタッチ操作およびドラッグ操作に応じて、図16の中図に示すように、画像200の人物に加え、家屋の一部を含む背景が選択状態にされる。
次に、ユーザ20が、情報処理装置100を右奥方向に傾斜させると、動き検知部106は、情報処理装置100のY軸を中心とする反時計回りの向きの変化を検知する。次に、設定部110は、動き検知部106から得た向きの変化の回転方向と逆のY軸を中心とする時計回りの回転方向に選択状態の矩形を仮想的に傾斜させ、傾斜した形状を元の矩形に代えて切り出し対象の画像200の部分として設定を変更する。そして、表示制御部114は、設定部110により設定された深度区分に該当する深度を有する画像200の部分の選択状態を維持したまま、設定変更された画像200の部分を選択状態にする。その結果、情報処理装置100のY軸を中心とした反時計回りの向きの変化に応じて、図16の中右図に示すように画像200の人物は選択状態のまま、選択状態であった矩形が台形に変更され選択状態となる。
次に、ユーザ20が、情報処理装置100に対して入力操作等を行い、切り出す画像200の部分を決定すると、これに対し、操作検知部104は、情報処理装置100に対するユーザ操作を検知する。操作検知部104により操作が検知されると、表示制御部114は、選択状態の画像200の部分、すなわち設定された深度区分に該当する画像200の部分および設定された画像200の部分、を切り出し、切り出した画像200の部分のみを表示させる。その結果、情報処理装置100に対するユーザ操作に応じて、図16の右図に示すように選択状態であった人物および家屋の一部を含む台形形状の画像200の部分のみが切り出されて表示される。
続いて、図17を参照して、本開示の実施形態における情報処理装置100のポップアップフォトグラフィの処理について説明する。図17は、本開示の実施形態における情報処理装置100のポップアップフォトグラフィの処理を概念的に示すフローチャートである。
まず、設定部110は、深度区分および切り出し対象の画像の部分の設定を初期化する(ステップS702)。
次に、動き検知部106は、情報処理装置100の移動を検知したかの判定を行う(ステップS704)。具体的には、動き検知部106は、センサ等から位置の変化の情報を得て、情報処理装置100の位置の変化を検知したかの判定を行う。
ステップS704にて、情報処理装置100の移動を検知したと判定された場合、設定部110は、情報処理装置100の移動によって定まる深度区分を設定する(ステップS706)。具体的には、設定部110は、動き検知部106の検知した移動による移動量に対応する深度の部分を深度区分として設定する。
次に、表示制御部114は、設定部110により設定された深度区分に該当する画像の部分を選択状態にする(ステップS708)。具体的には、表示制御部114は、設定された深度区分に含まれる深度を有する画像の部分を選択状態にする。
次に、表示部116は、表示制御部114により画像の部分が選択状態にされた画像を表示する(ステップS710)。表示部116により画像が表示された後、ステップS704に処理が戻される。
ステップS704にて、情報処理装置100の移動を検知しなかったと判定された場合、操作検知部104は、情報処理装置100に対するユーザ操作を検知したかの判定を行う(ステップS712)。具体的には、操作検知部104は、センサ等から検知した操作の情報を得て、情報処理装置100に対するユーザ操作を検知したかの判定を行う。
ステップS712にて、情報処理装置100に対するユーザ操作を検知したと判定された場合、設定部110は、情報処理装置100に対するユーザ操作に基づいて画像の矩形の部分を設定する(ステップS714)。具体的には、設定部110は、操作検知部104により検知されたタッチ位置およびドラッグ終了位置を結ぶ線を対角線とする矩形を選択対象として設定する。
ステップS712にて、情報処理装置100に対するユーザ操作を検知しなかったと判定された場合、ステップS716に処理が進められる。
次に、動き検知部106は、情報処理装置100の向きの変化を検知したかの判定を行う(ステップS716)。具体的には、動き検知部106は、センサ等から傾きの変化の情報を得て、情報処理装置100の向きの変化を検知したかの判定を行う。
ステップS716にて、情報処理装置100の向きの変化を検知したと判定された場合、設定部110は、情報処理装置100の向きの変化に基づいて選択状態の画像の矩形の部分を傾斜させる(ステップS718)。具体的には、設定部110は、動き検知部106により検知された向きの変化の回転方向と逆の回転方向に選択状態の矩形を仮想的に傾斜させ、傾斜した形状を元の矩形に代えて切り出し対象の画像の部分として設定する。
ステップS716にて、情報処理装置100の向きの変化を検知しなかったと判定された場合、ステップS720に処理が進められる。
次に、表示制御部114は、設定部110により設定された深度区分に該当する画像の部分および選択状態の画像の部分を切り出す(ステップS720)。具体的には、表示制御部114は、設定部110により設定された深度区分に含まれる深度を有する画像の部分および選択状態の画像の部分のいずれかに該当する画像の部分を切り出す。
次に、表示部116は、表示制御部114により切り出された画像の部分を表示する(ステップS722)。
このように、情報処理装置100は、情報処理装置100の移動に基づいて画像を切り出し対象の深度区分を設定し、情報処理装置の向きの変化、および情報処理装置100に対するユーザ操作に基づいて深度区分に含まれない切り出す画像の部分を設定する。そして、情報処理装置100は、設定された画像の部分の切り出しを行う。このため、情報処理装置100の動きおよび情報処理装置100に対するユーザ操作に基づいて切り出す画像の部分を設定することにより、ユーザが直観的にポップアップフォトグラフィを行うことが可能となる。
[6−6.セグメンテーションの時間変化の例]
本実施形態に係る情報処理装置100のセグメンテーションは、切り出される画像の部分が時間的に変化してもよい。具体的には、設定部110は、深度区分の設定を時間的に変化させ、表示制御部114は、設定部110により設定される深度区分の変化に従って、切り出す画像を変化させる。
より具体的には、設定部110は、情報処理装置100の移動に基づいて設定される深度区分を記憶させておき、記憶された深度区分を時間的に順次読み出して設定する。そして、表示制御部114は、設定部110により時間的に設定される深度区分の変化に従って画像の部分を順次切り出す。そして、表示部116は、表示制御部114により切り出される画像を順次表示する。
このように、情報処理装置100は、情報処理装置100の移動に基づいて、設定される深度区分の変化を記憶しておき、記憶された深度区分の各々を時間的に順次読み出して設定し、順次設定される深度区分に従って切り出す画像の部分を変化させる。このため、記憶された深度区分が時間的に順次読み出されて設定されることにより、切り出される画像の部分が時間的に変化する動画を生成することが可能となる。
[6−7.セグメンテーションの自動処理の例]
本実施形態に係る情報処理装置100のセグメンテーションは、プログラムにより自動的に行われてもよい。具体的には、情報処理装置100は、プログラムに基づいて切り出し対象の深度区分の設定を行い、設定される深度区分に従って画像の部分を切り出す。より具体的には、設定部110は、記憶部112に記憶されるプログラムに基づいて、設定する深度区分を変化させ、表示制御部114は、設定部110の設定する深度区分に該当する画像の部分を切り出す。
このように、情報処理装置100は、プログラムに基づいて切り出し対象の深度区分を設定し、設定される深度区分に該当する画像の部分を切り出す。このため、プログラムにより深度区分が設定されることにより、一定の規則に従って画像の部分を精密に切り出すことが可能となる。
<7.ハードウェア構成>
以上、本発明の実施形態を説明した。上述した情報処理装置100の処理は、ソフトウェアと、以下に説明する情報処理装置のハードウェアとの協働により実現される。
図18は、本開示に係る情報処理装置100のハードウェア構成を示した説明図である。図18に示したように、情報処理装置100は、CPU(Central Processing Unit)142と、ROM(Read Only Memory)144と、RAM(Random Access Memory)146と、ブリッジ148と、バス150と、インターフェース152と、入力装置154と、出力装置156と、ストレージ装置158と、ドライブ160と、接続ポート162と、通信装置164とを備える。
CPU142は、演算処理装置および制御装置として機能し、各種プログラムと協働して情報処理装置100内の編集内容判定部108、設定部110、表示制御部114の動作を実現する。また、CPU142は、マイクロプロセッサであってもよい。ROM144は、CPU142が使用するプログラムまたは演算パラメータ等を記憶する。RAM146は、CPU142の実行にいて使用するプログラムまたは実行において適宜変化するパラメータ等を一時記憶する。ROM144およびRAM146により、情報処理装置100内の記憶部112の一部を実現する。CPU142、ROM144およびRAM146は、CPUバスなどから構成される内部バスにより相互に接続されている。
入力装置154は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバーなどユーザが情報を入力するための入力手段、および情報処理装置100に備えられる操作検知部104および動き検知部106からなる検知部102と、ユーザによる入力、および検知部102からの入力に基づいて入力信号を生成し、CPU142に出力する入力制御回路などから構成されている。情報処理装置100のユーザは、入力装置154を操作することにより、情報処理装置100に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置156は、情報処理装置100の表示部116の一例として、例えば、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置への出力を行う。さらに、出力装置156は、スピーカおよびヘッドフォンなどの音声出力を行ってもよい。
ストレージ装置158は、本実施形態にかかる情報処理装置100の記憶部112の一例として構成されたデータ格納用の装置である。ストレージ装置158は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含んでもよい。ストレージ装置158は、CPU142が実行するプログラムや各種データを格納する。
ドライブ160は、記憶媒体用リーダライタであり、情報処理装置100に内蔵、あるいは外付けされる。ドライブ160は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM144に出力する。また、ドライブ160は、リムーバブル記憶媒体に情報を書込むこともできる。
接続ポート162は、例えば、情報処理装置100の外部の情報処理装置または周辺機器と接続するためのバスである。また、接続ポート162は、USB(Universal Serial Bus)であってもよい。
通信装置164は、本実施形態にかかる情報処理装置100の出力部118の一例である、例えば、ネットワークに接続するための通信デバイスで構成された通信インターフェースである。また、通信装置164は、無線LAN(Local Area Network)対応通信装置であっても、LTE(Long Term Evolution)対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
<8.むすび>
本開示の実施形態によれば、深度情報を有する画像に対して、情報処理装置100の動きまたは操作に基づいて三次元的な編集のためのパラメータを設定することにより、直観的に三次元的な編集を施すことが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、上記の実施形態のフローチャートに示されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的にまたは個別的に実行される処理をも含む。また時系列的に処理されるステップでも、場合によっては適宜順序を変更することが可能であることは言うまでもない。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)情報処理装置であって、前記情報処理装置の動きを検知する検知部と、
深度情報を有する画像について、前記検知部による検知結果に基づいて仮想的な光源の位置または向きを設定する設定部と、前記設定部により設定される仮想的な光源の位置または向き、および前記深度情報に基づいて前記画像に照明効果を施す表示制御部と、を備える情報処理装置。
(2)前記検知部は、さらに前記情報処理装置の操作を検知し、前記設定部は、前記検知部による検知結果に基づいて前記仮想的な光源の属性を設定する、前記(1)に記載の情報処理装置。
(3)前記表示制御部は、前記設定の変化に従って施す前記照明効果を変化させる、前記(1)または(2)に記載の情報処理装置。
(4)情報処理装置であって、情報処理装置の操作および前記情報処理装置の移動を検知する検知部と、各平面位置についての深度情報を有する画像について、前記情報処理装置の操作に基づいて平面位置を設定し、前記情報処理装置の移動に基づいて深度位置を設定する設定部と、前記設定部により設定される前記平面位置および前記深度位置の変化を示す軌道を前記画像に重畳する表示制御部と、を備える情報処理装置。
(5)前記深度位置は、ユーザの手の届く範囲内の前記情報処理装置の移動量に対応付けられる、前記(4)に記載の情報処理装置。
(6)前記表示制御部は、前記平面位置および前記深度位置の変化に従って、重畳する前記軌道を変化させる、前記(4)または(5)に記載の情報処理装置。
(7)前記設定部は、所定のプログラムに基づいて設定する前記平面位置および前記深度位置を変化させる、前記(4)〜(6)のいずれか1項に記載の情報処理装置。
(8)情報処理装置であって、深度情報を有する画像を表示する情報処理装置の移動を検知する検知部と、前記情報処理装置の移動に応じて定まる深度区分に該当する前記画像の部分を切り出す画像切り出し部と、を備える情報処理装置。
(9)前記検知部は、さらに前記情報処理装置の操作または向きを検知し、前記画像切り出し部は、前記検知部により検知される前記情報処理装置の操作または向きに基づいて前記画像の一部を、前記深度区分に該当する前記画像の部分とともに切り出す、前記(8)に記載の情報処理装置。
(10)前記画像切り出し部は、前記深度区分に該当する前記画像の部分の変化に従って、切り出す画像の部分を変化させる、前記(8)または(9)に記載の情報処理装置。
(11)前記画像切り出し部は、所定のプログラムに基づいて切り出す前記画像の部分を変化させる、前記(8)〜(10)のいずれか1項に記載の情報処理装置。
10、12 仮想的な光源
100 情報処理装置
102 検知部
104 操作検知部
106 動き検知部
110 設定部
114 表示制御部
200 画像

Claims (11)

  1. 情報処理装置であって、
    前記情報処理装置の動きを検知する検知部と、
    深度情報を有する画像について、前記検知部による検知結果に基づいて仮想的な光源の位置または向きを設定する設定部と、
    前記設定部により設定される仮想的な光源の位置または向き、および前記深度情報に基づいて前記画像に照明効果を施す表示制御部と、
    を備える情報処理装置。
  2. 前記検知部は、さらに前記情報処理装置の操作を検知し、
    前記設定部は、前記検知部による検知結果に基づいて前記仮想的な光源の属性を設定する、
    請求項1に記載の情報処理装置。
  3. 前記表示制御部は、前記設定の変化に従って施す前記照明効果を変化させる、
    請求項2に記載の情報処理装置。
  4. 情報処理装置であって、
    情報処理装置の操作および前記情報処理装置の移動を検知する検知部と、
    各平面位置についての深度情報を有する画像について、前記情報処理装置の操作に基づいて平面位置を設定し、前記情報処理装置の移動に基づいて深度位置を設定する設定部と、
    前記設定部により設定される前記平面位置および前記深度位置の変化を示す軌道を前記画像に重畳する表示制御部と、
    を備える情報処理装置。
  5. 前記深度位置は、ユーザの手の届く範囲内の前記情報処理装置の移動量に対応付けられる、
    請求項4に記載の情報処理装置。
  6. 前記表示制御部は、前記平面位置および前記深度位置の変化に従って、重畳する前記軌道を変化させる、
    請求項5に記載の情報処理装置。
  7. 前記設定部は、所定のプログラムに基づいて設定する前記平面位置および前記深度位置を変化させる、
    請求項6に記載の情報処理装置。
  8. 情報処理装置であって、
    深度情報を有する画像を表示する情報処理装置の移動を検知する検知部と、
    前記情報処理装置の移動に応じて定まる深度区分に該当する前記画像の部分を切り出す画像切り出し部と、
    を備える情報処理装置。
  9. 前記検知部は、さらに前記情報処理装置の操作または向きを検知し、
    前記画像切り出し部は、前記検知部により検知される前記情報処理装置の操作または向きに基づいて前記画像の一部を、前記深度区分に該当する前記画像の部分とともに切り出す、
    請求項8に記載の情報処理装置。
  10. 前記画像切り出し部は、前記深度区分に該当する前記画像の部分の変化に従って、切り出す画像の部分を変化させる、
    請求項9に記載の情報処理装置。
  11. 前記画像切り出し部は、所定のプログラムに基づいて切り出す前記画像の部分を変化させる、
    請求項10に記載の情報処理装置。
JP2013190717A 2013-09-13 2013-09-13 情報処理装置および情報処理方法 Pending JP2015056143A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013190717A JP2015056143A (ja) 2013-09-13 2013-09-13 情報処理装置および情報処理方法
US14/450,766 US9516214B2 (en) 2013-09-13 2014-08-04 Information processing device and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013190717A JP2015056143A (ja) 2013-09-13 2013-09-13 情報処理装置および情報処理方法

Publications (1)

Publication Number Publication Date
JP2015056143A true JP2015056143A (ja) 2015-03-23

Family

ID=52667620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013190717A Pending JP2015056143A (ja) 2013-09-13 2013-09-13 情報処理装置および情報処理方法

Country Status (2)

Country Link
US (1) US9516214B2 (ja)
JP (1) JP2015056143A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016213717A (ja) * 2015-05-11 2016-12-15 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、記憶媒体
JP2017123020A (ja) * 2016-01-06 2017-07-13 キヤノン株式会社 画像処理装置および撮像装置、それらの制御方法ならびにプログラム
JP2017129950A (ja) * 2016-01-19 2017-07-27 キヤノン株式会社 画像処理装置、撮像装置および画像処理プログラム
JP2018010497A (ja) * 2016-07-14 2018-01-18 キヤノン株式会社 画像処理装置
JP2019046055A (ja) * 2017-08-31 2019-03-22 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2021086586A (ja) * 2019-11-29 2021-06-03 キヤノン株式会社 表示制御装置及びその制御方法

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6152635B2 (ja) * 2012-11-08 2017-06-28 ソニー株式会社 画像処理装置および方法、並びに、プログラム
KR20160021607A (ko) * 2014-08-18 2016-02-26 삼성전자주식회사 배경 화면을 디스플레이하는 방법 및 장치
US20160189355A1 (en) * 2014-12-29 2016-06-30 Dell Products, Lp User controls for depth based image editing operations
US20160366323A1 (en) * 2015-06-15 2016-12-15 Mediatek Inc. Methods and systems for providing virtual lighting
KR102352682B1 (ko) * 2015-06-23 2022-01-18 삼성전자주식회사 디지털 촬영 장치 및 그 동작 방법
US10291842B2 (en) 2015-06-23 2019-05-14 Samsung Electronics Co., Ltd. Digital photographing apparatus and method of operating the same
JP2019114821A (ja) 2016-03-23 2019-07-11 日本電気株式会社 監視システム、装置、方法およびプログラム
DK3466068T3 (da) * 2016-06-03 2021-02-15 Utku Buyuksahin Et system og en metode til at tage og generere 3d-billeder
WO2018058312A1 (zh) * 2016-09-27 2018-04-05 深圳市大疆创新科技有限公司 控制方法、控制装置及电子装置
US10957025B2 (en) 2018-12-03 2021-03-23 International Business Machines Corporation Photograph with variable light source distribution
KR20200126232A (ko) * 2019-04-29 2020-11-06 삼성전자주식회사 전자 장치 및 그 영상을 출력하는 방법
US11770494B1 (en) * 2021-06-14 2023-09-26 Jeremy Cowart Photography, Inc. Apparatus, systems, and methods for providing a lightograph

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6667741B1 (en) * 1997-12-24 2003-12-23 Kabushiki Kaisha Sega Enterprises Image generating device and image generating method
JP2000090233A (ja) 1998-09-08 2000-03-31 Olympus Optical Co Ltd 画像処理装置
US7274365B1 (en) * 2003-01-31 2007-09-25 Microsoft Corporation Graphical processing of object perimeter information
JP4948218B2 (ja) * 2007-03-22 2012-06-06 キヤノン株式会社 画像処理装置及びその制御方法
US8988439B1 (en) * 2008-06-06 2015-03-24 Dp Technologies, Inc. Motion-based display effects in a handheld device
US8547457B2 (en) * 2009-06-22 2013-10-01 Empire Technology Development Llc Camera flash mitigation
US8384770B2 (en) * 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
US20120200600A1 (en) * 2010-06-23 2012-08-09 Kent Demaine Head and arm detection for virtual immersion systems and methods
US9122053B2 (en) * 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
US9201467B2 (en) * 2011-01-26 2015-12-01 Sony Corporation Portable terminal having user interface function, display method, and computer program
US20120249422A1 (en) * 2011-03-31 2012-10-04 Smart Technologies Ulc Interactive input system and method
US9710958B2 (en) * 2011-11-29 2017-07-18 Samsung Electronics Co., Ltd. Image processing apparatus and method
US20140108981A1 (en) * 2012-10-12 2014-04-17 Microsoft Corporation Weighted focus navigation of graphical user interface
KR102054680B1 (ko) * 2013-01-23 2020-01-22 삼성전자주식회사 영상 처리 장치, 초음파 영상 장치 및 영상 처리 방법
US9792724B2 (en) * 2013-03-14 2017-10-17 Robert Bosch Gmbh System and method for generation of shadow effects in three-dimensional graphics
WO2014161060A1 (en) * 2013-04-03 2014-10-09 Glitchsoft Corporation Computer-implemented game with modified output
KR102111626B1 (ko) * 2013-09-10 2020-05-15 삼성전자주식회사 영상 처리 장치 및 영상 처리 방법
JP2015165610A (ja) * 2014-02-28 2015-09-17 株式会社リコー 撮像装置、撮像システムおよび撮像方法
JP6646936B2 (ja) * 2014-03-31 2020-02-14 キヤノン株式会社 画像処理装置、その制御方法、およびプログラム
KR20160021607A (ko) * 2014-08-18 2016-02-26 삼성전자주식회사 배경 화면을 디스플레이하는 방법 및 장치

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016213717A (ja) * 2015-05-11 2016-12-15 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、記憶媒体
JP2017123020A (ja) * 2016-01-06 2017-07-13 キヤノン株式会社 画像処理装置および撮像装置、それらの制御方法ならびにプログラム
JP2017129950A (ja) * 2016-01-19 2017-07-27 キヤノン株式会社 画像処理装置、撮像装置および画像処理プログラム
JP2018010497A (ja) * 2016-07-14 2018-01-18 キヤノン株式会社 画像処理装置
JP2019046055A (ja) * 2017-08-31 2019-03-22 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2021086586A (ja) * 2019-11-29 2021-06-03 キヤノン株式会社 表示制御装置及びその制御方法

Also Published As

Publication number Publication date
US9516214B2 (en) 2016-12-06
US20150077591A1 (en) 2015-03-19

Similar Documents

Publication Publication Date Title
JP2015056143A (ja) 情報処理装置および情報処理方法
DK180685B1 (en) USER INTERFACES FOR RECEIVING AND HANDLING VISUAL MEDIA
US11663785B2 (en) Augmented and virtual reality
AU2020100720B4 (en) User interfaces for capturing and managing visual media
KR101679078B1 (ko) 파노라마 이미지를 탐색하기 위한 방법, 기계로 읽을 수 있는 저장 장치 및 휴대용 장치
JP6730690B2 (ja) シーン内に存在する不要なオブジェクトの除去に基づくシーンの画像の動的生成
KR101458645B1 (ko) 파노라믹 이미지를 조합하는 방법, 파노라믹 이미지의버추얼 3d 프로젝션을 제공하는 방법 및 이를 위한 카메라
JP5760324B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム並びにこの画像処理プログラムが記録された記録媒体
AU2022221466B2 (en) User interfaces for capturing and managing visual media
US20150009349A1 (en) Method and apparatus for previewing a dual-shot image
JP2016530831A (ja) 対話型画像合成
CN107580178A (zh) 一种图像处理方法及装置
US20220343590A1 (en) System and techniques for lighting adjustment for an immersive content production system
WO2020170604A1 (ja) 情報処理装置、情報処理方法、プログラム
TW201447468A (zh) 全景影像的拍攝方法
JP2014017665A (ja) 表示制御装置、表示制御装置の制御方法、プログラムおよび記録媒体
JP5623247B2 (ja) 撮像装置及びその制御方法
JP5967172B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
AU2022202424B2 (en) Color and lighting adjustment for immersive content production system
US20220343562A1 (en) Color and lighting adjustment for immersive content production system
NZ787202A (en) Color and lighting adjustment for immersive content production system
CN117101123A (zh) 游戏中的交互控制方法、装置和电子设备
JP2014131185A (ja) 情報処理装置、撮像装置、およびその制御方法とプログラム。