JP2017016166A - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP2017016166A
JP2017016166A JP2013233805A JP2013233805A JP2017016166A JP 2017016166 A JP2017016166 A JP 2017016166A JP 2013233805 A JP2013233805 A JP 2013233805A JP 2013233805 A JP2013233805 A JP 2013233805A JP 2017016166 A JP2017016166 A JP 2017016166A
Authority
JP
Japan
Prior art keywords
image
content
background
unit
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013233805A
Other languages
English (en)
Inventor
克幸 永井
Katsuyuki Nagai
克幸 永井
幸司 森下
Koji Morishita
幸司 森下
尚志 野田
Hisashi Noda
尚志 野田
英良 松嶋
Hideyoshi Matsushima
英良 松嶋
岩元 浩太
Kota Iwamoto
浩太 岩元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
NEC Solution Innovators Ltd
Original Assignee
NEC Corp
NEC Solution Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp, NEC Solution Innovators Ltd filed Critical NEC Corp
Priority to JP2013233805A priority Critical patent/JP2017016166A/ja
Priority to PCT/JP2014/005387 priority patent/WO2015072091A1/ja
Publication of JP2017016166A publication Critical patent/JP2017016166A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】場所や時間の制限なく、所望の背景画像にARコンテンツが重畳されたAR画像を提示する技術を提供する。【解決手段】画像処理装置は、画像ファイルの選択操作を受け付ける操作受付部と、画像ファイルを保持する背景保持部から、選択操作で選択された画像ファイルの画像を背景画像として取得する背景取得部と、取得された背景画像からマーカを検出するマーカ検出部と、検出されたマーカに関する現実情報及び画像情報に基づいて、3次元座標空間を設定し、かつ、背景撮影位置及び背景撮影方向を算出する基準算出部と、表示対象のARコンテンツを仮想的に配置する3次元座標空間上の位置を決定する位置決定部と、3次元座標空間の決定された位置に配置されるARコンテンツの背景撮影位置及び背景撮影方向からの視認画像が背景画像に重畳された合成画像を表示部に表示させる表示処理部と、を有する。【選択図】図1

Description

本発明は、拡張現実(Augmented Reality;AR)の画像処理技術に関する。
現在、拡張現実と呼ばれる技術を用いた様々なアプリケーションが提供されている。AR技術は、スマートフォン等の携帯機器のカメラやヘッドマウントディスプレイ(HMD)を介して得られる現実世界に3次元コンテンツや2次元コンテンツ(文字や図柄など)を重畳的に表示させる。例えば、下記非特許文献1には、現実世界に重畳させる3次元コンテンツを現実世界に存在する現実オブジェクトを実写した画像で生成する手法が提案されている。また、当該3次元コンテンツには、実写画像ではなく、コンピュータグラフィック(CG)技術を用いて生成される仮想3次元モデルが利用される形態もある。
以降、現実世界に3次元コンテンツや2次元データが重畳された合成画像はAR画像と表記される場合もある。また、3次元コンテンツや2次元コンテンツが重畳される現実世界を写す画像が背景画像と表記される場合もある。また、この背景画像に重畳される3次元コンテンツや2次元コンテンツがARコンテンツと表記される場合もある。
下記非特許文献2は、AR技術を用いた、移動ロボットの遠隔操縦システムを提案する。この提案手法では、ロボットの3次元モデルがAR技術を用いて拡張自由視点画像に重畳された画像がHMDを介して操縦者に提示される。この拡張自由視点画像は、移動ロボットにより複数地点で取得された全方位画像群および距離画像群、並びに、当該取得時のロボットの位置及び姿勢に基づいて、生成される。また、下記特許文献1には、重畳する3次元コンテンツの生成手法として、注目物体の3次元表示をするための変換画像を加速度センサ等の専用の機材を用いることなく単一のカメラで生成する手法が提案されている。この提案手法では、注目物体を含む複数の画像についてカメラの回転軸を構成する複数の画像座標をユーザに指定させ、指定された画像座標が一致するように変換対象画像が幾何変換される。
国際公開第2011/148595号
宇野祐介、「拡張現実感のための視点依存テクスチャ・ジオメトリに基づく仮想化実物体の提示」、奈良先端科学技術大学院大学 情報科学研究科 情報科学専攻 修士論文、2013年3月15日 上田優子他、「拡張自由視点画像生成を用いた遠隔移動ロボット操縦インタフェース」、信学技報、vol.112, no.386、pp.217-222、2013年1月
上述の提案手法や既存のアプリケーションでは、3次元コンテンツや2次元コンテンツが重畳される背景画像には、リアルタイムに撮像装置から得られるリアルタイム映像が利用される。これにより、ユーザは、撮像装置がリアルタイムに写す現実世界にあたかもARコンテンツが存在するようなAR画像を視認することができる。
しかしながら、上述のような手法では、ARコンテンツを重畳させたい現実世界が、そのときの撮像装置の存在場所に制限されてしまう。例えば、ユーザが、所持するカメラ付き携帯端末で、自身の部屋にARコンテンツが重畳されたAR画像を見ることができるのは、ユーザがその携帯端末を持って自身の部屋にいるときだけであり、電車の中等のようなユーザの部屋以外の場所では、そのAR画像を見ることはできない。
本発明は、このような事情に鑑みてなされたものであり、場所や時間の制限なく、所望の背景画像にARコンテンツが重畳されたAR画像を提示する技術を提供することにある。
本発明の各側面では、上述した課題を解決するために、それぞれ以下の構成を採用する。
第1の側面は、画像処理装置に関する。第1の側面に係る画像処理装置は、画像ファイルの選択操作を受け付ける操作受付部と、マーカが写る背景画像を保存する画像ファイルを保持する背景保持部から、操作受付部により受け付けられる選択操作で選択された画像ファイルの画像を背景画像として取得する背景取得部と、背景取得部で取得される背景画像からマーカを検出するマーカ検出部と、検出されたマーカに関する現実情報及び画像情報に基づいて、3次元座標空間を設定し、かつ、背景撮影位置及び背景撮影方向を算出する基準算出部と、表示対象のARコンテンツを仮想的に配置する3次元座標空間上の位置を決定する位置決定部と、3次元座標空間の決定された位置に配置されるARコンテンツの背景撮影位置及び背景撮影方向からの視認画像が背景画像に重畳された合成画像を表示部に表示させる表示処理部と、を有する。
第2の側面は、画像処理方法に関する。第2の側面に係る画像処理方法は、画像ファイルの選択操作を受け付け、マーカが写る背景画像を保存する画像ファイルを保持する背景保持部から、当該受け付けられた選択操作で選択された画像ファイルの画像を背景画像として取得し、取得された背景画像からマーカを検出し、検出されたマーカに関する現実情報及び画像情報に基づいて、3次元座標空間を設定し、検出されたマーカに関する現実情報及び画像情報に基づいて、背景撮影位置及び背景撮影方向を算出し、表示対象のARコンテンツを仮想的に配置する3次元座標空間上の位置を決定し、3次元座標空間の決定された位置に配置されるARコンテンツの背景撮影位置及び背景撮影方向からの視認画像が背景画像に重畳された合成画像を表示部に表示させる、ことを含む。
なお、本発明の他の側面としては、上記第2の側面の方法を少なくとも1つのコンピュータに実行させるプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。
上記各側面によれば、場所や時間の制限なく、所望の背景画像にARコンテンツが重畳されたAR画像を提示する技術を提供することができる。
本実施形態における画像処理装置の処理構成例を概念的に示す図である。 本実施形態における画像処理装置の動作例を示すフローチャートである。 第1実施形態における画像処理装置のハードウェア構成例を概念的に示す図である。 第1実施形態における画像処理装置の処理構成例を概念的に示す図である。 コンテンツ保持部に保持される各コンテンツ撮影方向に対応付けられた複数のコンテンツ画像の例を概念的に示す図である。 第1実施形態における画像処理装置の動作例を示すフローチャートである。 第2実施形態における画像処理装置のハードウェア構成例を概念的に示す図である。 第2実施形態における画像処理装置の動作例の一部を示すフローチャートである。 第2変形例における画像処理装置の処理構成例を概念的に示す図である。 画像ファイルに保存される背景画像の例を示す図である。 画像ファイルに保存される背景画像の例を示す図である。 画像ファイルに保存される背景画像の例を示す図である。 図10Aに示される背景画像にコンテンツ画像が重畳された合成画像(AR画像)の例を示す図である。 図10Bに示される背景画像にコンテンツ画像が重畳された合成画像(AR画像)の例を示す図である。 図10Cに示される背景画像にコンテンツ画像が重畳された合成画像(AR画像)の例を示す図である。 AR画像上でのARコンテンツの移動を示す図である。 AR画像上でのARコンテンツの移動を示す図である。 AR画像上でのARコンテンツの移動を示す図である。
以下、本発明の実施の形態について説明する。なお、以下に挙げる実施形態は例示であり、本発明は以下の実施形態の構成に限定されない。
図1は、本実施形態における画像処理装置の処理構成例を概念的に示す図である。図1に示されるように、画像処理装置100は、操作受付部101、背景取得部102、マーカ検出部103、基準算出部104、位置決定部105、表示処理部106等を有する。画像処理装置100は、後述する詳細実施形態における画像処理装置10と同様のハードウェア構成を有し、その画像処理装置10と同様にプログラムが処理されることで、上述の各処理部が実現される。また、画像処理装置100は、背景保持部107及び表示部108を有してもよい。但し、背景保持部107及び表示部108は、画像処理装置100と通信可能に接続される他のコンピュータ(図示せず)が有していてもよい。表示部108は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)ディスプレイ等のような、描画データに対応する画面を表示する装置である。
操作受付部101は、画像ファイルの選択操作を受け付ける。
背景取得部102は、マーカが写る背景画像を保存する画像ファイルを保持する背景保持部107から、操作受付部101により受け付けられる選択操作で選択された画像ファイルの画像を背景画像として取得する。ここで、画像ファイルには、動画データ又は静止画データが保存され、背景取得部102は、動画データ又は静止画データから静止画情報としての背景画像を取得する。
マーカ検出部103は、背景取得部102で取得される背景画像からマーカを検出する。ここで、マーカとは、現実世界に配置された画像や物であり、ARマーカ等と呼ばれる。但し、本実施形態は、このマーカから、参照方向によらず、或る基準点及びその基準点からの相互に直交する3つの方向を一定に得ることができるのであれば、このマーカの具体的形態を制限しない。例えば、マーカ検出部103は、マーカの現実情報(形状情報等)を予め保持しており、この現実情報に基づいて、背景画像からマーカを検出する。
基準算出部104は、検出されたマーカに関する現実情報及び画像情報に基づいて、3次元座標空間を設定し、かつ、背景撮影位置及び背景撮影方向を算出する。マーカに関する現実情報とは、マーカの現実世界における既知の情報を意味し、例えば、マーカの実際の形状を示す。また、マーカに関する画像情報とは、マーカの背景画像内における情報を意味し、マーカの背景画像内の形状を示す。基準算出部104は、検出されたマーカから認識される基準点に応じた位置に3次元座標空間を設定する。3次元座標空間の設定位置については、特に制限されない。また、基準算出部104は、マーカに関する現実情報と画像情報との比較により、背景撮影位置及び背景撮影方向を算出する。背景撮影位置及び背景撮影方向は、その画像ファイルの背景画像を撮影した撮像装置の位置及び向き(姿勢)を意味する。
位置決定部105は、表示対象のARコンテンツを仮想的に配置する上記3次元座標空間上の位置を決定する。位置決定部105は、この位置を任意に又は固定的に決定することができる。表示対象のARコンテンツは、上記非特許文献1及び2で提案される3次元モデルであってもよいし、現実オブジェクトを複数の方向から撮影して得られた複数のコンテンツ画像を切り替え表示することで模擬される3次元コンテンツであってもよいし、平面的な2次元コンテンツであってもよい。
表示処理部106は、3次元座標空間における上記決定された位置に配置されるARコンテンツの背景撮影位置及び背景撮影方向からの視認画像が上記背景画像に重畳された合成画像を表示部108に表示させる。ARコンテンツが上述の3次元モデル又は2次元コンテンツである場合には、表示処理部106は、3次元モデル又は2次元コンテンツの持つ情報に基づいて、周知の手法を用いて当該視認画像を得ることができる。一方で、ARコンテンツが、現実オブジェクトを複数の方向から撮影して得られた複数のコンテンツ画像を切り替え表示することで模擬される3次元コンテンツである場合の当該視認画像の取得手法は、詳細実施形態として後述する。
図2は、本実施形態における画像処理装置100の動作例を示すフローチャートである。本実施形態における画像処理方法は、図2に示されるように、画像処理装置100のような少なくとも1つのコンピュータにより実行され、(S21)から(S27)の処理工程を含む。
(S21)では、当該コンピュータは、画像ファイルの選択操作を受け付ける。
(S22)では、当該コンピュータは、マーカがそれぞれ背景画像を保存する画像ファイルを保持する背景保持部から、(S21)で受け付けられた選択操作で選択された画像ファイルの画像を背景画像として取得する。マーカ及び画像ファイルについては上述したとおりである。(S22)の内容は、背景取得部102の処理内容と同様である。
(S23)では、当該コンピュータは、(S22)で取得された背景画像からマーカを検出する。(S23)の内容は、マーカ検出部103の処理内容と同様である。
(S24)では、当該コンピュータは、(S23)で検出されたマーカに関する現実情報及び画像情報に基づいて、3次元座標空間を設定する。
(S25)では、当該コンピュータは、(S23)で検出されたマーカに関する現実情報及び画像情報に基づいて、背景撮影位置及び背景撮影方向を算出する。(S24)及び(S25)の内容は、基準算出部104の処理内容と同様である。
(S26)では、当該コンピュータは、表示対象のARコンテンツを仮想的に配置する上記3次元座標空間上の位置を決定する。(S26)の内容は、位置決定部105の処理内容と同様である。
(S27)では、当該コンピュータは、(S24)で設定された3次元座標空間の(S26)で決定された位置に配置されるARコンテンツの、(S25)で算出された背景撮影位置及び背景撮影方向からの視認画像が、(S22)で取得された背景画像に重畳された合成画像を表示部に表示させる。(S27)の内容は、表示処理部106の処理内容と同様である。
上記表示部及び上記背景保持部は、画像処理方法の実行主体である少なくとも1つのコンピュータが有していてもよいし、この少なくとも1つのコンピュータと通信可能に接続される他のコンピュータ(図示せず)が有していてもよい。また、本発明の実施形態は、上述の画像処理方法を少なくとも1つのコンピュータに実行させるプログラムであってもよいし、このようなプログラムを記録した当該コンピュータが読み取り可能な記録媒体であってもよい。
また、本実施形態における画像処理方法の処理工程の実行順は、図2に示される順番に制限されない。例えば、(S26)は、(S24)より後であれば、(S25)の前に実行されてもよいし、(S25)と並列に実行されてもよい。
このように、本実施形態では、背景保持部に保持される画像ファイルの中からユーザによる選択操作で選択された画像ファイルの画像が背景画像(被重畳画像)として取得され、この背景画像に対してARコンテンツの視認画像が重畳された合成画像が表示される。従って、本実施形態によれば、ユーザは、保持される画像ファイルの中から所望の背景画像を保存する画像ファイルを選択する操作を行うことで、所望の背景画像にARコンテンツが重畳された合成画像(AR画像)を見ることができる。ひいては、ユーザは、いつでもどこでも、所望の背景画像のAR画像を見ることができる。
このように、本発明者らは、ARコンテンツを重畳させる背景画像の制限を解消し、場所や時間の制限なく、所望の背景画像にARコンテンツが重畳されたAR画像を提示するという新たな発想を見出した。そして、上述のように、被重畳画像となり得るように、マーカがそれぞれ写る複数の背景画像を複数の画像ファイルとして保存しておき、AR画像を見たいときに、ユーザに、その中から所望の背景画像を保存する画像ファイルを選択させるという、新たなユーザインタフェースを見出した。このようなユーザインタフェースは、リアルタイム映像にARコンテンツを重畳させることを前提とする既存のARアプリケーションのユーザインタフェースとはその発想が全く異なるものである。
本実施形態におけるこのようなユーザインタフェースによれば、既存のARアプリケーションにおける次のような問題点も解消することができる。AR画像を撮影及び表示する装置としてカメラ付きの携帯端末が用いられる場合、ユーザは、その携帯端末でARコンテンツが重畳される現実世界を常に撮影しなければならない。これでは、AR画像を見るために、ユーザは、常に腕を上げている必要があり、楽な姿勢でAR画像を見ることができない。更に、携帯端末はユーザの手で保持されるため、携帯端末の位置を完全に固定することは困難であり、背景画像がぶれてしまう。
本実施形態によれば、ユーザによる選択操作で選択された画像ファイルの画像が背景画像(被重畳画像)として用いられるため、ユーザは、手振れを気にすることなく、かつ、楽な姿勢でAR画像を見ることができる。
また、ARコンテンツの視認画像は、その背景画像から検出されたマーカに基づいて設定される3次元座標空間上の或る位置に置かれたARコンテンツが、そのマーカに基づいて算出される背景画像の背景撮影位置及び背景撮影方向から視認される形態となる。よって、ユーザは、表示されるAR画像を見ることにより、所望の背景画像に写る現実世界にあたかもそのARコンテンツが存在していたかのような状況を認識することができる。
以下、上述の実施形態について更に詳細を説明する。以下には、詳細実施形態として第1実施形態及び第2実施形態を例示する。以下では、上述の実施形態と同じ内容については適宜省略し、上述の実施形態と異なる内容を中心に説明する。
[第1実施形態]
第1実施形態における画像処理装置は、現実オブジェクトを複数の方向から撮影して得られた複数のコンテンツ画像の中の1つのコンテンツ画像をARコンテンツの視認画像として用いて、AR画像(合成画像)を生成する。
〔装置構成〕
図3は、第1実施形態における画像処理装置10のハードウェア構成例を概念的に示す図である。画像処理装置10は、いわゆるコンピュータである。携帯型、据え置き型等、画像処理装置10の形態は制限されない。画像処理装置10は、例えば、バスで相互に接続される、CPU(Central Processing Unit)11、メモリ12、入出力インタフェース(I/F)13、通信装置14等を有する。メモリ12は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク等である。通信ユニット14は、他のコンピュータや機器と信号のやりとりを行う。通信ユニット14には、可搬型記録媒体等も接続され得る。
入出力I/F13は、表示装置15、入力装置16等のユーザインタフェース装置と接続可能である。表示装置15は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)ディスプレイのような、CPU11やGPU(Graphics Processing Unit)(図示せず)等により処理された描画データに対応する画面を表示する装置である。表示装置15は、上述の表示部108に相当する。入力装置16は、キーボード、マウス等のようなユーザ操作の入力を受け付ける装置である。表示装置15及び入力装置16は一体化され、タッチパネルとして実現されてもよい。また、表示装置15及び入力装置16は、画像処理装置10と通信ユニット14を介して通信可能に接続される他のコンピュータに接続されていてもよい。
また、画像処理装置10は、図3には示されない他のハードウェア要素を有していてもよい。例えば、画像処理装置10は、撮像部に相当するカメラを有していてもよい。この場合、画像処理装置10は、そのカメラで撮像された背景画像の画像ファイルを背景保持部31に保持させることができるし、後述する現実オブジェクトのコンテンツ画像をそのカメラで撮像することができる。画像処理装置10のハードウェア構成は制限されない。
〔処理構成〕
図4は、第1実施形態における画像処理装置10の処理構成例を概念的に示す図である。第1実施形態における画像処理装置10は、操作受付部21、背景取得部22、マーカ検出部23、基準算出部24、位置決定部25、画像抽出部26、サイズ調整部27、合成処理部28、表示処理部29、背景保持部31、コンテンツ保持部32等を有する。これら各処理部は、例えば、CPU11によりメモリ12に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F13又は通信ユニット14を介してインストールされ、メモリ12に格納されてもよい。
操作受付部21は、上述の操作受付部101に相当する。操作受付部21は、表示装置15に表示される画面に対する入力装置16を用いたユーザ操作を受け付ける。操作受付部21は、画像ファイルの選択操作に加えて、合成画像に対するコンテンツ画像の移動操作を更に受け付ける。当該選択操作は、例えば、表示装置15に表示される複数の画像ファイルのリストから1つの画像ファイルを選択する操作と、その操作を確定するボタン操作とから構成される。また、その移動操作は、例えば、表示装置15に表示される合成画像上のコンテンツ画像をドラッグアンドドロップ又はスワイプする操作である。但し、本実施形態は、具体的な操作内容自体を制限しない。コンテンツ画像とは、背景画像にARコンテンツの視認画像として重畳される画像であり、その詳細については後述する。
更に、操作受付部21は、複数の現実オブジェクトの中から表示対象とする1つの現実オブジェクトを選択する操作を受け付けることもできる。現実オブジェクトとは、背景画像に重畳するARコンテンツの元となる現実世界に存在する物や人である。操作受付部21は、後述するコンテンツ保持部32に保持されるコンテンツ画像に対応する複数の現実オブジェクトのリストを表示装置15に表示させ、そのリストに対する入力装置16を用いた選択操作を受け付けることができる。
背景取得部22、背景保持部31、マーカ検出部23及び基準算出部24は、上述の実施形態における、背景取得部102、背景保持部107、マーカ検出部103及び基準算出部104と同様である。
位置決定部25は、上述の位置決定部105のように、表示対象のARコンテンツを仮想的に配置する3次元座標空間上の位置を決定する。更に、位置決定部25は、操作受付部21で移動操作が受け付けられた場合に、その移動操作が示す3次元座標空間上のARコンテンツの移動後の位置を決定する。具体的には、位置決定部25は、マーカの現実情報及び画像情報に基づいて、合成画像上における移動操作が示す移動後の位置を3次元座標空間上の位置に変換し、その変換された位置をARコンテンツの移動後の位置に決定する。
コンテンツ保持部32は、ARコンテンツに相当する現実オブジェクトを複数の方向から撮影して得られた複数のコンテンツ画像を各コンテンツ撮影方向に対応付けて保持する。第1実施形態では、当該複数のコンテンツ画像がARコンテンツの視認画像として用いられるため、コンテンツ保持部32は、細かい角度幅で全方向から撮影された多数のコンテンツ画像を保持することが望ましい。背景画像に重畳するコンテンツ画像を、背景画像の背景撮影方向及び背景撮影位置からの現実オブジェクトの視認画像に近似させることができるからである。
図5は、コンテンツ保持部32に保持される各コンテンツ撮影方向に対応付けられた複数のコンテンツ画像の例を概念的に示す図である。図5では、コンテンツ撮影方向が、水平方向と垂直方向との2軸の座標空間に並べられて表記されている。図5に示されるように、コンテンツ保持部32は、各コンテンツ画像をコンテンツ撮影方向を示す位置座標と関連付けて保持することもできる。
また、図5の例では、各コンテンツ画像には、現実オブジェクトと共にマーカ及びその他の背景がそれぞれ写っている。第1実施形態では、コンテンツ保持部32は、現実オブジェクト以外のものが写るコンテンツ画像を保持するようにしてもよい。但し、コンテンツ保持部32は、現実オブジェクト以外の画像領域が透明化されたコンテンツ画像を保持することが望ましい。現実オブジェクトの視認画像のみを表すコンテンツ画像を背景画像に重畳させた合成画像を生成し易いからである。
コンテンツ保持部32は、保持するコンテンツ画像にマーカが写る場合には、そのマーカの現実世界のサイズ及び形状の情報を保持する。コンテンツ保持部32は、保持するコンテンツ画像にマーカが写らない場合には、現実オブジェクトの現実世界のサイズの情報を保持する。
また、コンテンツ保持部32は、各コンテンツ撮影方向に対応付けられる複数のコンテンツ画像を複数の現実オブジェクトの各々についてそれぞれ保持することもできる。この場合、操作受付部21は、複数の現実オブジェクトの中から表示対象とする1つの現実オブジェクトを選択する操作を受け付けることができる。
画像抽出部26は、コンテンツ保持部32から、位置決定部25で決定された位置から基準算出部24で算出された背景撮影位置への方向と近いコンテンツ撮影方向に対応付けられて保持されるコンテンツ画像を抽出する。ARコンテンツの3次元座標空間における位置から背景撮影位置への方向と一致するコンテンツ撮影方向に対応付けられているコンテンツ画像がコンテンツ保持部32に保持されていることが望ましい。そのコンテンツ画像が、背景画像の撮影位置からの現実オブジェクトの視認画像に一致するからである。そのように一致するコンテンツ画像がコンテンツ保持部32に保持されていない場合に、画像抽出部26は、最も近似するコンテンツ撮影方向に対応付けられて保持されるコンテンツ画像を抽出する。
コンテンツ保持部32に複数の現実オブジェクトのコンテンツ画像が保持されている場合には、画像抽出部26は、操作受付部21により受け付けられた操作により選択された現実オブジェクトに対応してコンテンツ保持部32に保持される複数のコンテンツ画像の中から1つのコンテンツ画像を抽出する。
また、画像抽出部26は、操作受付部21で移動操作が受け付けられた場合には、位置決定部25により決定される移動後の位置から基準算出部24で算出された背景撮影位置への方向と近いコンテンツ撮影方向に対応付けられてコンテンツ保持部32に保持されるコンテンツ画像を新たに抽出する。新たに抽出されるコンテンツ画像は、背景画像の撮影位置からの移動後の位置に存在する現実オブジェクトの視認画像となる。
サイズ調整部27は、現実オブジェクトの現実サイズと、マーカ検出部23で検出されたマーカに関する現実情報及び画像情報と、位置決定部25により決定される位置とに基づいて、画像抽出部26により抽出されたコンテンツ画像を拡大又は縮小する。サイズ調整部27は、コンテンツ画像に写る現実オブジェクトが現実世界のサイズで背景画像に写る現実世界と重畳されるように、コンテンツ画像の拡大率又は縮小率を決定する。例えば、サイズ調整部27は、マーカに関する現実情報及び画像情報を用いることで、背景画像における現実世界の縮小率を得ることができ、現実オブジェクトの現実サイズとコンテンツ画像での画像サイズと背景画像における現実世界の縮小率と、背景撮影位置とARコンテンツの位置との間の距離とを用いて、コンテンツ画像の拡大率又は縮小率を決定することができる。
合成処理部28は、3次元座標空間における位置決定部25により決定された位置に配置されるARコンテンツの背景撮影位置及び背景撮影方向からの視認画像が背景画像に重畳された合成画像(AR画像)を生成する。具体的には、合成処理部28は、画像抽出部26により抽出されたコンテンツ画像を現実オブジェクト(ARコンテンツ)の視認画像として、背景取得部22により取得された背景画像に重畳する。
合成処理部28は、背景画像に重畳するコンテンツ画像を、操作受付部21による移動操作の受け付けに応じて画像抽出部26により新たに抽出されたコンテンツ画像に切り換える。また、合成処理部28は、サイズ調整部27によりコンテンツ画像が拡大又は縮小された場合には、その拡大又は縮小されたコンテンツ画像を背景画像に重畳する。
表示処理部29は、合成処理部28により生成された合成画像を表示装置15に表示させる。
〔動作例〕
以下、第1実施形態における画像処理方法について図6を用いて説明する。図6は、第1実施形態における画像処理装置10の動作例を示すフローチャートである。以下の説明では、画像処理装置10が各方法の実行主体となるが、画像処理装置10に含まれる上述の各処理部が実行主体となってもよい。図6では、図2に示される処理工程と同じものには、図2と同じ符号が付されている。
画像処理装置10は、入力装置16を用いたユーザ操作を受け付ける(S61)。(S61)の内容は、操作受付部21の処理内容と同様である。
画像処理装置10は、選択操作が受け付けられた場合には(S62;選択)、図2と同様に、(S22)から(S26)を実行する。
この場合、画像処理装置10は、コンテンツ保持部32から、(S26)で決定された位置から(S25)で算出された背景撮影位置への方向と近いコンテンツ撮影方向に対応付けられて保持されるコンテンツ画像を抽出する(S63)。(S63)の内容は、画像抽出部26の処理内容と同様である。
続いて、画像処理装置10は、現実オブジェクトが現実世界におけるサイズで背景画像に写る現実世界に重畳されるように、(S63)で抽出されたコンテンツ画像を拡大又は縮小する(S64)。(S64)の内容は、サイズ調整部27の処理内容と同様である。
画像処理装置10は、(S64)で拡大又は縮小されたコンテンツ画像を(S22)で取得された背景画像に重畳して合成画像性を生成する(S65)。(S65)の内容は、合成処理部28の処理内容と同様である。
画像処理装置10は、(S65)で生成された合成画像を表示装置15に表示させる(S66)。
一方で、画像処理装置10は、移動操作が受け付けられた場合には(S62;移動)、(S61)で受け付けられた移動操作が示す3次元座標空間上のARコンテンツの移動後の位置を決定する(S67)。(S67)の内容は、位置決定部25の処理内容と同様である。
画像処理装置10は、(S67)で決定された移動後の位置から(S25)で算出された背景撮影位置への方向と近いコンテンツ撮影方向に対応付けられてコンテンツ保持部32に保持されるコンテンツ画像を新たに抽出する(S63)。以降、画像処理装置10は、この新たに抽出されたコンテンツ画像に対して、(S64)以降を実行する。
また、図6には図示されていないが、コンテンツ保持部32に複数の現実オブジェクトのコンテンツ画像が保持されている場合には、画像処理装置10は、(S61)で、複数の現実オブジェクトの中から表示対象とする1つの現実オブジェクトを選択する操作を受け付けることもできる。この場合、画像処理装置10は、(S63)で、その操作により選択された現実オブジェクトに対応してコンテンツ保持部32に保持される複数のコンテンツ画像の中から1つのコンテンツ画像を抽出する。
〔第1実施形態の作用及び効果〕
上述したように第1実施形態では、複数の画像ファイルの中からユーザによる選択操作で選択された画像ファイルの画像が背景画像(被重畳画像)として用いられるため、ユーザに、場所や時間の制限なく、所望の背景画像にARコンテンツが重畳されたAR画像を見せることができる。
更に、第1実施形態では、現実オブジェクトを複数の方向から撮影して得られた複数のコンテンツ画像が各コンテンツ撮影方向と対応付けられて予め保持されており、保持される複数のコンテンツ画像の中の1つのコンテンツ画像をARコンテンツの視認画像として用いて、AR画像(合成画像)が生成される。このように、第1実施形態によれば、各コンテンツ撮影方向と対応付けられた複数のコンテンツ画像を準備すればよいため、専門的なCG技術が必要となる3次元モデルを生成する形態に較べ、ARコンテンツを容易に作成することができる。従って、第1実施形態によれば、AR技術を用いるプラットフォームの開発及び利用の敷居を低くすることができ、それを一般ユーザに利用し易くすることができる。
更に、第1実施形態では、3次元座標空間上のARコンテンツの位置から背景画像の撮影位置への方向と近いコンテンツ撮影方向に対応付けられて保持されるコンテンツ画像が、現実オブジェクトの視認画像として背景画像に重畳される。よって、第1実施形態によれば、背景画像に重畳するコンテンツ画像を、背景画像の撮影位置及び撮影方向からの現実オブジェクトの視認画像に近似させることができ、背景画像に写る現実世界に現実オブジェクトが重畳された空間の現実感を増強させることができる。
更に、第1実施形態では、移動操作が示す3次元座標空間上の移動後の位置が決定され、この移動後の位置から背景画像の撮影位置への方向と近いコンテンツ撮影方向に対応付けられて保持されるコンテンツ画像が新たに抽出され、背景画像に重畳するコンテンツ画像がその新たに抽出されたコンテンツ画像に切り換えられる。よって、AR画像上でコンテンツ画像に対して移動操作が行われると、その移動後の位置に応じて、AR画像上での現実オブジェクトの見え方が変わる。このように、第1実施形態によれば、AR画像上でのARコンテンツとしての現実オブジェクトを現実感を維持しつつユーザに移動させることができる。
更に、第1実施形態では、現実オブジェクトが現実世界でのサイズで背景画像に写る現実世界に重畳されるように、重畳するコンテンツ画像が拡大又は縮小される。従って、第1実施形態によれば、現実オブジェクトと背景画像に写る背景との現実世界でのサイズ関係をユーザに適切に視認させることができる。
また、第1実施形態では、各コンテンツ撮影方向に対応付けられる複数のコンテンツ画像を複数の現実オブジェクトの各々についてそれぞれ保持するようにすれば、ユーザに、背景画像のみでなく、重畳するARコンテンツとして所望の現実オブジェクトを選択させることができる。
[第2実施形態]
第2実施形態における画像処理装置は、画像ファイルの画像を背景画像として取得する手法と、リアルタイム映像の画像フレームを背景画像として取得する手法とを選択的に実行する。以下、第2実施形態における画像処理装置10について、第1実施形態と異なる内容を中心に説明する。以下の説明では、第1実施形態と同様の内容については適宜省略する。
〔装置構成〕
図7は、第2実施形態における画像処理装置10のハードウェア構成例を概念的に示す図である。第2実施形態における画像処理装置10は、第1実施形態の構成に加えて、撮像部に相当するカメラ17を更に有する。カメラ17は、入出力I/F13又は通信ユニット14に接続される。
〔処理構成〕
第2実施形態における画像処理装置10は、図4に示される第1実施形態と同様の処理構成を有する。
操作受付部21は、カメラ17からのリアルタイム映像の取得を要求する操作も受け付けることができる。この操作受け付けに応じて、操作受付部21は、カメラ17を起動させることもできる。
背景取得部22は、操作受付部21で上記要求操作が受け付けられた場合、その受け付けられた上記要求操作に応じて、カメラ17から得られるリアルタイム映像の画像フレームを背景画像として逐次取得する。これにより、被重畳画像としての背景画像が画像ファイルの画像からリアルタイム映像の画像フレームに切り換えられる。
表示処理部29は、上述のようなコンテンツ画像が視認画像として重畳されたリアルタイム映像を表示装置15に表示させる。
〔動作例〕
以下、第2実施形態における画像処理方法について図8を用いて説明する。図8は、第2実施形態における画像処理装置10の動作例の一部を示すフローチャートである。以下の説明では、画像処理装置10が各方法の実行主体となるが、画像処理装置10に含まれる上述の各処理部が実行主体となってもよい。図8では、図6に示される処理工程と同じものには、図6と同じ符号が付されている。
第2実施形態における画像処理装置10は、図6に示される(S61)でリアルタイム映像の取得を要求する操作を受け付けると、図8に示される動作を実行する。
画像処理装置10は、カメラ17から得られるリアルタイム映像の画像フレームを背景画像として取得する(S81)。以降、(S81)で取得された背景画像に対して、上述の第1実施形態と同様に、(S23)以降を実行する。
画像処理装置10は、カメラ17から得られるリアルタイム映像の画像フレーム毎に図8に示される動作を繰り返し実行することで、コンテンツ画像が視認画像として重畳されたリアルタイム映像を表示装置15に表示させることができる。画像処理装置10は、背景画像として利用する画像フレームをリアルタイム映像を構成する全画像フレームから間引いてもよい。また、画像処理装置10は、隣接する画像フレーム間でマーカの配置が変わらない場合には、(S23)から(S64)を省くことができる。
〔第2実施形態における作用及び効果〕
第2実施形態では、ユーザによる操作に応じて、ARコンテンツが重畳される背景画像が画像ファイルの画像からリアルタイム映像の画像フレームに切り換えられる。そして、リアルタイム画像の画像フレームに対して、ARコンテンツの位置からその画像フレームの撮影位置への方向と近いコンテンツ撮影方向と対応付けて保持されるコンテンツ画像が現実オブジェクトの視認画像として重畳される。これにより、第2実施形態によれば、コンテンツ画像が視認画像として重畳されたリアルタイム映像を表示装置15に表示させることができる。
[第1変形例]
上述の第1実施形態では、ユーザによる背景画像の選択操作を可能としているため、ユーザが誤ってマーカが写っていない背景画像を保持する画像ファイルを選択する可能性がある。コンピュータに格納される画像ファイルは多数存在し、その中には、適切な背景画像を保存する画像ファイル以外の画像ファイルも多数存在するため、このような誤りは起こり得る。そして、マーカが背景画像に写っていない場合、その背景画像に適切にARコンテンツを重畳することはできない。そこで、第1実施形態における画像処理装置10の各処理部は次のような処理を行ってもよい。
表示処理部29は、マーカ検出部23により背景画像からマーカが検出されない場合に、マーカが検出されないことを表示装置15に表示させる。
操作受付部21は、マーカが検出されなかった画像ファイル以外の画像ファイルを選択し直す操作を受け付ける。
背景取得部22は、選択し直す操作により新たに選択された画像ファイルの画像を背景画像として新たに取得する。
これにより、ユーザは、選択した画像ファイルがARコンテンツを重畳させることができない背景画像を保存するものであるか否かを認識することができ、画像ファイルを選択し直すことができるため、安心して、画像ファイルの選択操作を行うことができる。
[第2変形例]
背景画像を保存する画像ファイルを生成する時間及び場所は任意である。言い換えれば、ユーザは、背景画像に用いるために異なる複数の場所を写した複数の画像ファイルを背景保持部31に保持させることができる。このような状況下では、複数種のマーカを提供した方が利便性が上がる可能性がある。一方、画像処理装置10は、背景画像に写るマーカの現実情報(形状情報、サイズ情報)を知っている必要がある。
図9は、第2変形例における画像処理装置10の処理構成例を概念的に示す図である。第2変形例における画像処理装置10は、第1実施形態及び第2実施形態の構成に加えて、マーカ情報保持部35を更に有する。マーカ情報保持部35についても他の処理部と同様に実現される。マーカ情報保持部35は、画像処理装置10ではなく、画像処理装置10と通信可能に接続される他のコンピュータが有していてもよい。
マーカ情報保持部35は、形状情報及びサイズ情報をそれぞれ含む複数種のマーカの情報を保持する。この場合、マーカ検出部23は、マーカ情報保持部35から、1種のマーカの形状情報及びサイズ情報を取得し、この取得された形状情報及びサイズ情報を用いて、背景取得部22で取得された背景画像からマーカを検出する。1種のマーカを特定する手法は制限されない。例えば、マーカ検出部23は、マーカ情報保持部35に保持されるマーカ種毎に順次、マーカが検出できるか否かを試すことができる。また、マーカ検出部23は、ユーザにマーカ種を選択させるための画面を表示装置15に表示させ、ユーザの選択操作に応じてマーカ種を特定することもできる。
このようにすれば、背景画像を撮影するにあたり、ユーザに複数種のマーカを用いることを許容することができ、ARプラットフォームの利便性を向上させることができる。
[第3変形例]
第2実施形態の画像処理装置10の各処理部は次のような処理を行ってもよい。
操作受付部21は、視認画像が重畳されたリアルタイム映像が表示装置15に表示されている状態におけるスナップショット操作を受け付ける。
背景取得部22は、操作受付部21によるスナップショット操作の受け付けに応じて、画像フレームを背景画像として固定的に保持する。このとき、背景取得部22は、画像フレームを固定的に保持した後、カメラ17を停止することもできる。
表示処理部29は、視認画像が重畳されたリアルタイム映像の表示に替え、固定的に保持される背景画像にコンテンツ画像が視認画像として重畳された合成画像を表示装置15に表示させる。
このようにすれば、ユーザによるスナップショット操作が受け付けられた際に得られた画像フレームを固定的に背景画像として用いて、コンテンツ画像が重畳されたAR画像を表示装置15に表示させることができる。これによれば、ユーザは、リアルタイム映像を好きなタイミングで停止させた画像にコンテンツ画像が重畳されたAR画像を見ることができる。更に、これによれば、手振れ等により重畳されるコンテンツ画像の位置が揺れ、表示されるAR画像が見難くなることを防止することができ、かつ、ユーザに楽な姿勢でAR画像を見させることができる。
[補足]
第2実施形態における画像処理装置10は、画像ファイルの画像を背景画像として取得する手法と、リアルタイム映像の画像フレームを背景画像として取得する手法とを選択的に実行する。しかしながら、画像処理装置10は、画像ファイルの画像を背景画像として取得する手法を持たず、リアルタイム映像の画像フレームを背景画像として取得する手法を実行するようにしてもよい。この場合、画像処理装置10は操作受付部21を持たなくてもよい。
以下に実施例を挙げ、上述の各実施形態を更に詳細に説明する。本発明は以下の実施例から何ら限定を受けない。
図10A、図10B及び図10Cは、画像ファイルに各々保存される背景画像の例をそれぞれ示す図である。これら図に示されるように、各背景画像にはそれぞれマーカが含まれる。これら例によれば、同じマーカが各背景画像に含まれるが、画像処理装置10が知っているマーカであれば、各背景画像に含まれるマーカは同じでなくてもよい。これら例に示されるように、背景保持部31には、異なる各背景画像をそれぞれ保存する複数の画像ファイルが保持される。
以下、図6及び図8で示される(S63)及び(S65)、並びに、画像抽出部26及び合成処理部28の処理内容の更なる具体例を説明する。この場合、コンテンツ保持部32は、コンテンツ撮影方向を示す情報として、現実オブジェクトの撮影時における現実オブジェクトからカメラ方向を示す単位ベクトルを各コンテンツ画像に対応付けて保持する。
画像処理装置10(画像抽出部26)は、3次元座標空間上のARコンテンツの位置から背景画像の撮影位置への方向を示す単位ベクトルを算出する。画像処理装置10(画像抽出部26)は、背景画像から算出された単位ベクトルと、コンテンツ保持部32に保持される各コンテンツ画像の各単位ベクトルとの内積をそれぞれ計算し、内積値が最大となるコンテンツ画像の単位ベクトルを特定する。画像処理装置10(画像抽出部26)は、その特定された単位ベクトルと対応付けられて保持されるコンテンツ画像をコンテンツ保持部32から抽出する。
画像処理装置10(合成処理部28)は、コンテンツ画像と背景画像とを合成する際に、まず、3次元座標空間上に板状の3次元オブジェクトを生成しておく。画像処理装置10(合成処理部28)は、上述のように抽出されたコンテンツ画像を板状の3次元オブジェクトにテクスチャとして貼り付ける。
図11A、図11B及び図11Cは、図10A、図10B及び図10Cに示される背景画像にコンテンツ画像が重畳された合成画像(AR画像)の例をそれぞれ示す図である。これら図に示されるように、重畳するコンテンツ画像は、背景画像の撮影位置及び撮影方向に応じて切り替えられ、現実オブジェクトが背景画像の撮影位置及び撮影方向から視認される形態となる。
図12A、図12B及び図12Cは、AR画像上でのARコンテンツの移動を示す図である。図12Aでは、ARコンテンツがマーカの上に配置されており、図12Bでは、図12Aの状態からARコンテンツがマーカに対して後ろ方向に移動されており、図12Cでは、図12Aの状態からARコンテンツがマーカに対して左方向に移動されている。ユーザは、図12Aに示されるAR画像が表示装置15に表示されている状態で、コンテンツ画像を移動する操作を行うことで、図12B及び図12Cに示されるようなAR画像を見ることができる。また、図12Bでは、コンテンツ画像は、移動後の位置に応じて、図12Aに示されるコンテンツ画像よりもサイズが縮小されている。図12Cでは、コンテンツ画像は、移動後の位置に応じて、図12Aに示されるコンテンツ画像から切り換えられている。
なお、上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、その記載の順番に制限されない。各実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。また、上述の各実施形態及び各変形例は、内容が相反しない範囲で組み合わせることができる。
上記の各実施形態及び各変形例の一部又は全部は、以下の付記のようにも特定され得る。但し、各実施形態及び各変形例が以下の記載に限定されるものではない。
(付記1)
画像ファイルの選択操作を受け付ける操作受付部と、
マーカが写る背景画像を保存する画像ファイルを保持する背景保持部から、前記操作受付部により受け付けられる選択操作で選択された画像ファイルの画像を背景画像として取得する背景取得部と、
前記背景取得部で取得される前記背景画像からマーカを検出するマーカ検出部と、
前記検出されたマーカに関する現実情報及び画像情報に基づいて、3次元座標空間を設定し、かつ、背景撮影位置及び背景撮影方向を算出する基準算出部と、
表示対象のAR(Augmented Reality)コンテンツを仮想的に配置する前記3次元座標空間上の位置を決定する位置決定部と、
前記3次元座標空間の前記決定された位置に配置される前記ARコンテンツの前記背景撮影位置及び前記背景撮影方向からの視認画像が前記背景画像に重畳された合成画像を表示部に表示させる表示処理部と、
を備える画像処理装置。
(付記2)
前記ARコンテンツに相当する現実オブジェクトを複数の方向から撮影して得られた複数のコンテンツ画像を各コンテンツ撮影方向に対応付けて保持するコンテンツ保持部から、前記位置決定部で決定された位置から前記背景撮影位置への方向と近い該コンテンツ撮影方向に対応付けられて保持されるコンテンツ画像を抽出する画像抽出部と、
前記画像抽出部により抽出されるコンテンツ画像を前記視認画像として前記背景画像に重畳する合成処理部と、
を更に備える付記1に記載の画像処理装置。
(付記3)
前記操作受付部は、前記合成画像に対する前記コンテンツ画像の移動操作を更に受け付け、
前記位置決定部は、前記受け付けられた移動操作が示す前記3次元座標空間上の前記ARコンテンツの移動後の位置を決定し、
前記画像抽出部は、前記位置決定部により決定される移動後の位置から前記背景撮影位置への方向と近い前記コンテンツ撮影方向に対応付けられて前記コンテンツ保持部に保持されるコンテンツ画像を新たに抽出し、
前記合成処理部は、前記背景画像に重畳するコンテンツ画像を前記新たに抽出されたコンテンツ画像に切り換える、
付記2に記載の画像処理装置。
(付記4)
前記現実オブジェクトの現実サイズと、前記マーカ検出部で検出されたマーカに関する前記現実情報及び前記画像情報と、前記位置決定部により決定される位置とに基づいて、前記抽出されたコンテンツ画像を拡大又は縮小するサイズ調整部、
を更に備え、
前記合成処理部は、前記サイズ調整部により調整されたコンテンツ画像を前記視認画像として前記背景画像に重畳する、
付記2又は3に記載の画像処理装置。
(付記5)
前記コンテンツ保持部は、前記各コンテンツ撮影方向に対応付けられる前記複数のコンテンツ画像を複数の現実オブジェクトの各々についてそれぞれ保持し、
前記操作受付部は、前記複数の現実オブジェクトの中から前記表示対象とする1つの現実オブジェクトを選択する操作を更に受け付け、
前記画像抽出部は、前記受け付けられた操作により選択された現実オブジェクトに対応して前記コンテンツ保持部に保持される前記複数のコンテンツ画像の中から1つのコンテンツ画像を抽出する、
付記2から4のいずれか1つに記載の画像処理装置。
(付記6)
前記表示処理部は、前記マーカ検出部により前記背景画像から前記マーカが検出されない場合に、マーカが検出されないことを前記表示部に表示させ、
前記操作受付部は、前記マーカが検出されなかった前記画像ファイル以外の画像ファイルを選択し直す操作を受け付け、
前記背景取得部は、前記操作により新たに選択された画像ファイルの画像を前記背景画像として新たに取得する、
付記1から5のいずれか1つに記載の画像処理装置。
(付記7)
前記操作受付部は、撮像部からのリアルタイム映像の取得を要求する操作を受け付け、
前記背景取得部は、前記操作受付部で受け付けられた前記操作に応じて、前記撮像部から得られる前記リアルタイム映像の画像フレームを前記背景画像として逐次取得し、
前記表示処理部は、前記コンテンツ画像が前記視認画像として重畳されたリアルタイム映像を前記表示部に表示させる、
付記2から5のいずれか1つに記載の画像処理装置。
(付記8)
前記操作受付部は、前記視認画像が重畳されたリアルタイム映像が前記表示部に表示されている状態におけるスナップショット操作を受け付け、
前記背景取得部は、前記操作受付部による前記スナップショット操作の受け付けに応じて、前記画像フレームを前記背景画像として固定的に保持し、
前記表示処理部は、前記視認画像が重畳されたリアルタイム映像の表示に替え、前記固定的に保持される背景画像に前記コンテンツ画像が前記視認画像として重畳された前記合成画像を前記表示部に表示させる、
付記7に記載の画像処理装置。
(付記9)
前記マーカ検出部は、形状情報及びサイズ情報をそれぞれ含む複数種のマーカの情報を保持するマーカ情報保持部から、1種のマーカの形状情報及びサイズ情報を取得し、該取得された形状情報及びサイズ情報を用いて、前記マーカを検出する、
付記1から8のいずれか1つに記載の画像処理装置。
(付記10)
少なくとも1つのコンピュータにより実行される画像処理方法において、
画像ファイルの選択操作を受け付け、
マーカが写る背景画像を保存する画像ファイルを保持する背景保持部から、前記受け付けられた選択操作で選択された画像ファイルの画像を背景画像として取得し、
前記取得された背景画像からマーカを検出し、
前記検出されたマーカに関する現実情報及び画像情報に基づいて、3次元座標空間を設定し、
前記検出されたマーカに関する現実情報及び画像情報に基づいて、背景撮影位置及び背景撮影方向を算出し、
表示対象のAR(Augmented Reality)コンテンツを仮想的に配置する前記3次元座標空間上の位置を決定し、
前記3次元座標空間の前記決定された位置に配置される前記ARコンテンツの前記背景撮影位置及び前記背景撮影方向からの視認画像が前記背景画像に重畳された合成画像を表示部に表示させる、
ことを含む画像処理方法。
(付記11)
前記ARコンテンツに相当する現実オブジェクトを複数の方向から撮影して得られた複数のコンテンツ画像を各コンテンツ撮影方向に対応付けて保持するコンテンツ保持部から、前記3次元座標空間上の前記決定された位置から前記背景撮影位置への方向と近い該コンテンツ撮影方向に対応付けられて保持されるコンテンツ画像を抽出し、
前記抽出されたコンテンツ画像を前記視認画像として前記背景画像に重畳する、
ことを更に含む付記10に記載の画像処理方法。
(付記12)
前記合成画像に対する前記コンテンツ画像の移動操作を受け付け、
前記受け付けられた移動操作が示す前記3次元座標空間上の前記ARコンテンツの移動後の位置を決定し、
前記決定された移動後の位置から前記背景撮影位置への方向と近い前記コンテンツ撮影方向に対応付けられて前記コンテンツ保持部に保持されるコンテンツ画像を新たに抽出し、
前記背景画像に重畳するコンテンツ画像を前記新たに抽出されたコンテンツ画像に切り換える、
ことを更に含む付記11に記載の画像処理方法。
(付記13)
前記現実オブジェクトの現実サイズと、前記検出されたマーカに関する前記現実情報及び前記画像情報と、前記3次元座標空間上の前記決定された位置とに基づいて、前記抽出されたコンテンツ画像を拡大又は縮小する、
ことを更に含む付記11又は12に記載の画像処理方法。
(付記14)
複数の現実オブジェクトの中から前記表示対象とする1つの現実オブジェクトを選択する操作を受け付ける、
ことを更に含み、
前記コンテンツ保持部は、前記各コンテンツ撮影方向に対応付けられる前記複数のコンテンツ画像を前記複数の現実オブジェクトの各々についてそれぞれ保持し、
前記コンテンツ画像の抽出は、前記受け付けられた操作により選択された現実オブジェクトに対応して前記コンテンツ保持部に保持される前記複数のコンテンツ画像の中から1つのコンテンツ画像を抽出する、
付記11から13のいずれか1つに記載の画像処理方法。
(付記15)
前記背景画像から前記マーカが検出されない場合に、マーカが検出されないことを前記表示部に表示させ、
前記マーカが検出されなかった前記画像ファイル以外の画像ファイルを選択し直す操作を受け付け、
前記操作により新たに選択された画像ファイルの画像を前記背景画像として新たに取得する、
ことを更に含む付記10から14のいずれか1つに記載の画像処理方法。
(付記16)
撮像部からのリアルタイム映像の取得を要求する操作を受け付け、
前記受け付けられた前記操作に応じて、前記撮像部から得られる前記リアルタイム映像の画像フレームを前記背景画像として逐次取得し、
前記コンテンツ画像が前記視認画像として重畳されたリアルタイム映像を前記表示部に表示させる、
ことを更に含む付記11から14のいずれか1つに記載の画像処理方法。
(付記17)
前記視認画像が重畳されたリアルタイム映像が前記表示部に表示されている状態におけるスナップショット操作を受け付け、
前記スナップショット操作の受け付けに応じて、前記画像フレームを前記背景画像として固定的に保持し、
前記視認画像が重畳されたリアルタイム映像の表示に替え、前記固定的に保持される背景画像に前記コンテンツ画像が前記視認画像として重畳された前記合成画像を前記表示部に表示させる、
ことを更に含む付記16に記載の画像処理方法。
(付記18)
形状情報及びサイズ情報をそれぞれ含む複数種のマーカの情報を保持するマーカ情報保持部から、1種のマーカの形状情報及びサイズ情報を取得する、
ことを更に含み、
前記マーカの検出は、前記取得された形状情報及びサイズ情報を用いて、前記マーカを検出する、
付記10から17のいずれか1つに記載の画像処理方法。
(付記19)
撮像部から得られるリアルタイム映像の画像フレームを背景画像として逐次取得する背景取得部と、
前記背景取得部で取得される前記背景画像からマーカを検出するマーカ検出部と、
前記検出されたマーカに関する現実情報及び画像情報に基づいて、3次元座標空間を設定し、かつ、背景撮影位置及び背景撮影方向を算出する基準算出部と、
表示対象のAR(Augmented Reality)コンテンツを仮想的に配置する前記3次元座標空間上の位置を決定する位置決定部と、
前記ARコンテンツに相当する現実オブジェクトを複数の方向から撮影して得られた複数のコンテンツ画像を各コンテンツ撮影方向に対応付けて保持するコンテンツ保持部から、前記位置決定部で決定された位置から前記背景撮影位置への方向と近い該コンテンツ撮影方向に対応付けられて保持されるコンテンツ画像を抽出する画像抽出部と、
前記画像抽出部により抽出されるコンテンツ画像を前記視認画像として前記背景画像に重畳する合成処理部と、
前記コンテンツ画像が前記視認画像として重畳されたリアルタイム映像を表示部に表示させる表示処理部と、
を備える画像処理装置。
(付記20)
前記視認画像が重畳されたリアルタイム映像が前記表示部に表示されている状態におけるスナップショット操作を受け付ける操作受付部、
を更に備え、
前記背景取得部は、前記操作受付部による前記スナップショット操作の受け付けに応じて、前記画像フレームを前記背景画像として固定的に保持し、
前記表示処理部は、前記視認画像が重畳されたリアルタイム映像の表示に替え、前記固定的に保持される背景画像に前記コンテンツ画像が前記視認画像として重畳された前記合成画像を前記表示部に表示させる、
付記19に記載の画像処理装置。
(付記21)
撮像部から得られるリアルタイム映像の画像フレームを背景画像として逐次取得し、
前記取得された背景画像からマーカを検出し、
前記検出されたマーカに関する現実情報及び画像情報に基づいて、3次元座標空間を設定し、
前記検出されたマーカに関する現実情報及び画像情報に基づいて、前記背景画像の背景撮影位置及び背景撮影方向を算出し、
表示対象のAR(Augmented Reality)コンテンツを仮想的に配置する前記3次元座標空間上の位置を決定し、
前記ARコンテンツに相当する現実オブジェクトを複数の方向から撮影して得られた複数のコンテンツ画像を各コンテンツ撮影方向に対応付けて保持するコンテンツ保持部から、前記3次元座標空間上の前記決定された位置から前記背景撮影位置への方向と近い該コンテンツ撮影方向に対応付けられて保持されるコンテンツ画像を抽出し、
前記抽出されたコンテンツ画像を前記視認画像として前記背景画像に重畳し、
前記コンテンツ画像が前記視認画像として重畳されたリアルタイム映像を表示部に表示させる、
ことを含む画像処理方法。
(付記22)
前記視認画像が重畳されたリアルタイム映像が前記表示部に表示されている状態におけるスナップショット操作を受け付け、
前記スナップショット操作の受け付けに応じて、前記画像フレームを前記背景画像として固定的に保持し、
前記視認画像が重畳されたリアルタイム映像の表示に替え、前記固定的に保持される背景画像に前記コンテンツ画像が前記視認画像として重畳された前記合成画像を前記表示部に表示させる、
ことを更に含む付記21に記載の画像処理方法。
(付記23)
付記10から18、21及び22のいずれか1つに記載の画像処理方法を少なくとも1つのコンピュータに実行させるプログラム。
10、100 画像処理装置
11 CPU
12 メモリ
15 表示装置
16 入力装置
17 カメラ
21、101 操作受付部
22、102 背景取得部
23、103 マーカ検出部
24、104 基準算出部
25、105 位置決定部
26 画像抽出部
27 サイズ調整部
28 合成処理部
29、106 表示処理部
31、107 背景保持部
32 コンテンツ保持部
35 マーカ情報保持部
108 表示部

Claims (11)

  1. 画像ファイルの選択操作を受け付ける操作受付部と、
    マーカが写る背景画像を保存する画像ファイルを保持する背景保持部から、前記操作受付部により受け付けられる選択操作で選択された画像ファイルの画像を背景画像として取得する背景取得部と、
    前記背景取得部で取得される前記背景画像からマーカを検出するマーカ検出部と、
    前記検出されたマーカに関する現実情報及び画像情報に基づいて、3次元座標空間を設定し、かつ、背景撮影位置及び背景撮影方向を算出する基準算出部と、
    表示対象のAR(Augmented Reality)コンテンツを仮想的に配置する前記3次元座標空間上の位置を決定する位置決定部と、
    前記3次元座標空間の前記決定された位置に配置される前記ARコンテンツの前記背景撮影位置及び前記背景撮影方向からの視認画像が前記背景画像に重畳された合成画像を表示部に表示させる表示処理部と、
    を備える画像処理装置。
  2. 前記ARコンテンツに相当する現実オブジェクトを複数の方向から撮影して得られた複数のコンテンツ画像を各コンテンツ撮影方向に対応付けて保持するコンテンツ保持部から、前記位置決定部で決定された位置から前記背景撮影位置への方向と近い該コンテンツ撮影方向に対応付けられて保持されるコンテンツ画像を抽出する画像抽出部と、
    前記画像抽出部により抽出されるコンテンツ画像を前記視認画像として前記背景画像に重畳する合成処理部と、
    を更に備える請求項1に記載の画像処理装置。
  3. 前記操作受付部は、前記合成画像に対する前記コンテンツ画像の移動操作を更に受け付け、
    前記位置決定部は、前記受け付けられた移動操作が示す前記3次元座標空間上の前記ARコンテンツの移動後の位置を決定し、
    前記画像抽出部は、前記位置決定部により決定される移動後の位置から前記背景撮影位置への方向と近い前記コンテンツ撮影方向に対応付けられて前記コンテンツ保持部に保持されるコンテンツ画像を新たに抽出し、
    前記合成処理部は、前記背景画像に重畳するコンテンツ画像を前記新たに抽出されたコンテンツ画像に切り換える、
    請求項2に記載の画像処理装置。
  4. 前記現実オブジェクトの現実サイズと、前記マーカ検出部で検出されたマーカに関する前記現実情報及び前記画像情報と、前記位置決定部により決定される位置とに基づいて、前記抽出されたコンテンツ画像を拡大又は縮小するサイズ調整部、
    を更に備え、
    前記合成処理部は、前記サイズ調整部により調整されたコンテンツ画像を前記視認画像として前記背景画像に重畳する、
    請求項2又は3に記載の画像処理装置。
  5. 前記コンテンツ保持部は、前記各コンテンツ撮影方向に対応付けられる前記複数のコンテンツ画像を複数の現実オブジェクトの各々についてそれぞれ保持し、
    前記操作受付部は、前記複数の現実オブジェクトの中から前記表示対象とする1つの現実オブジェクトを選択する操作を更に受け付け、
    前記画像抽出部は、前記受け付けられた操作により選択された現実オブジェクトに対応して前記コンテンツ保持部に保持される前記複数のコンテンツ画像の中から1つのコンテンツ画像を抽出する、
    請求項2から4のいずれか1項に記載の画像処理装置。
  6. 前記表示処理部は、前記マーカ検出部により前記背景画像から前記マーカが検出されない場合に、マーカが検出されないことを前記表示部に表示させ、
    前記操作受付部は、前記マーカが検出されなかった前記画像ファイル以外の画像ファイルを選択し直す操作を受け付け、
    前記背景取得部は、前記操作により新たに選択された画像ファイルの画像を前記背景画像として新たに取得する、
    請求項1から5のいずれか1項に記載の画像処理装置。
  7. 前記操作受付部は、撮像部からのリアルタイム映像の取得を要求する操作を受け付け、
    前記背景取得部は、前記操作受付部で受け付けられた前記操作に応じて、前記撮像部から得られる前記リアルタイム映像の画像フレームを前記背景画像として逐次取得し、
    前記表示処理部は、前記コンテンツ画像が前記視認画像として重畳されたリアルタイム映像を前記表示部に表示させる、
    請求項2から5のいずれか1項に記載の画像処理装置。
  8. 前記操作受付部は、前記視認画像が重畳されたリアルタイム映像が前記表示部に表示されている状態におけるスナップショット操作を受け付け、
    前記背景取得部は、前記操作受付部による前記スナップショット操作の受け付けに応じて、前記画像フレームを前記背景画像として固定的に保持し、
    前記表示処理部は、前記視認画像が重畳されたリアルタイム映像の表示に替え、前記固定的に保持される背景画像に前記コンテンツ画像が前記視認画像として重畳された前記合成画像を前記表示部に表示させる、
    請求項7に記載の画像処理装置。
  9. 前記マーカ検出部は、形状情報及びサイズ情報をそれぞれ含む複数種のマーカの情報を保持するマーカ情報保持部から、1種のマーカの形状情報及びサイズ情報を取得し、該取得された形状情報及びサイズ情報を用いて、前記マーカを検出する、
    請求項1から8のいずれか1項に記載の画像処理装置。
  10. 少なくとも1つのコンピュータにより実行される画像処理方法において、
    画像ファイルの選択操作を受け付け、
    マーカが写る背景画像を保存する画像ファイルを保持する背景保持部から、前記受け付けられた選択操作で選択された画像ファイルの画像を背景画像として取得し、
    前記取得された背景画像からマーカを検出し、
    前記検出されたマーカに関する現実情報及び画像情報に基づいて、3次元座標空間を設定し、
    前記検出されたマーカに関する現実情報及び画像情報に基づいて、背景撮影位置及び背景撮影方向を算出し、
    表示対象のAR(Augmented Reality)コンテンツを仮想的に配置する前記3次元座標空間上の位置を決定し、
    前記3次元座標空間の前記決定された位置に配置される前記ARコンテンツの前記背景撮影位置及び前記背景撮影方向からの視認画像が前記背景画像に重畳された合成画像を表示部に表示させる、
    ことを含む画像処理方法。
  11. 請求項10に記載の画像処理方法を少なくとも1つのコンピュータに実行させるプログラム。
JP2013233805A 2013-11-12 2013-11-12 画像処理装置及び画像処理方法 Pending JP2017016166A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013233805A JP2017016166A (ja) 2013-11-12 2013-11-12 画像処理装置及び画像処理方法
PCT/JP2014/005387 WO2015072091A1 (ja) 2013-11-12 2014-10-23 画像処理装置、画像処理方法及びプログラム記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013233805A JP2017016166A (ja) 2013-11-12 2013-11-12 画像処理装置及び画像処理方法

Publications (1)

Publication Number Publication Date
JP2017016166A true JP2017016166A (ja) 2017-01-19

Family

ID=53057044

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013233805A Pending JP2017016166A (ja) 2013-11-12 2013-11-12 画像処理装置及び画像処理方法

Country Status (2)

Country Link
JP (1) JP2017016166A (ja)
WO (1) WO2015072091A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020045092A1 (ja) * 2018-08-28 2020-03-05 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
JP2020095602A (ja) * 2018-12-14 2020-06-18 ヤフー株式会社 表示プログラム、表示装置および表示方法
JP2020095645A (ja) * 2018-12-14 2020-06-18 ヤフー株式会社 表示プログラム、表示装置および表示方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112672057B (zh) * 2020-12-25 2022-07-15 维沃移动通信有限公司 拍摄方法及装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4537104B2 (ja) * 2004-03-31 2010-09-01 キヤノン株式会社 マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法
JP2006053694A (ja) * 2004-08-10 2006-02-23 Riyuukoku Univ 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体
JP2012084155A (ja) * 2010-10-13 2012-04-26 Toshiba Corp 画像処理装置、画像処理方法、および、画像処理プログラム
JP2012108711A (ja) * 2010-11-17 2012-06-07 Nec Casio Mobile Communications Ltd 端末装置、端末装置の動作方法、及び拡張現実システム
JP5774524B2 (ja) * 2012-03-02 2015-09-09 アルパイン株式会社 拡張現実システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020045092A1 (ja) * 2018-08-28 2020-03-05 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
US20220122345A1 (en) * 2018-08-28 2022-04-21 Sony Corporation Information processing device, information processing method, and program
US11954804B2 (en) 2018-08-28 2024-04-09 Sony Corporation Information processing device and information processing method to display a virtual object
JP2020095602A (ja) * 2018-12-14 2020-06-18 ヤフー株式会社 表示プログラム、表示装置および表示方法
JP2020095645A (ja) * 2018-12-14 2020-06-18 ヤフー株式会社 表示プログラム、表示装置および表示方法

Also Published As

Publication number Publication date
WO2015072091A1 (ja) 2015-05-21

Similar Documents

Publication Publication Date Title
US10460512B2 (en) 3D skeletonization using truncated epipolar lines
JP5936155B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
US9541997B2 (en) Three-dimensional user interface apparatus and three-dimensional operation method
JP6167703B2 (ja) 表示制御装置、プログラム及び記録媒体
JP6203406B2 (ja) 拡張現実環境内の平面の広がりを判定するためのシステムおよび方法
KR101227255B1 (ko) 마커 크기 기반 인터렉션 방법 및 이를 구현하기 위한 증강 현실 시스템
US9361731B2 (en) Method and apparatus for displaying video on 3D map
JP7026825B2 (ja) 画像処理方法及び装置、電子機器並びに記憶媒体
CN107646109B (zh) 管理电子设备上的环境映射的特征数据
KR101212636B1 (ko) 증강 현실에서 위치 정보를 표시하는 방법 및 장치
JP7353782B2 (ja) 情報処理装置、情報処理方法、及びプログラム
EP3693925B1 (en) Information processing device, information processing method, and recording medium
US10748000B2 (en) Method, electronic device, and recording medium for notifying of surrounding situation information
JP2013050883A (ja) 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法
JP2024026151A (ja) 没入型ビデオコンテンツをフォービエイテッドメッシュを用いてレンダリングするための方法、システム、および媒体
WO2015072091A1 (ja) 画像処理装置、画像処理方法及びプログラム記憶媒体
JP6357412B2 (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム
JP6371547B2 (ja) 画像処理装置、方法、および、プログラム
JP6443505B2 (ja) プログラム、表示制御装置及び表示制御方法
KR101741149B1 (ko) 가상 카메라의 시점 제어 방법 및 장치
US11816785B2 (en) Image processing device and image processing method
CN110827411A (zh) 自适应环境的增强现实模型显示方法、装置、设备及存储介质
JP7118383B1 (ja) 表示システム、表示方法、及び表示プログラム
JP5397245B2 (ja) 情報処理装置および情報処理方法
JP2018129785A (ja) 決定装置、画像処理装置、決定方法及び決定プログラム