JP2012221250A - 画像処理装置、表示制御方法及びプログラム - Google Patents

画像処理装置、表示制御方法及びプログラム Download PDF

Info

Publication number
JP2012221250A
JP2012221250A JP2011086684A JP2011086684A JP2012221250A JP 2012221250 A JP2012221250 A JP 2012221250A JP 2011086684 A JP2011086684 A JP 2011086684A JP 2011086684 A JP2011086684 A JP 2011086684A JP 2012221250 A JP2012221250 A JP 2012221250A
Authority
JP
Japan
Prior art keywords
stability
image processing
processing apparatus
image
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011086684A
Other languages
English (en)
Other versions
JP5732988B2 (ja
Inventor
Shunichi Kasahara
俊一 笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011086684A priority Critical patent/JP5732988B2/ja
Priority to TW101110902A priority patent/TW201243767A/zh
Priority to KR1020137019062A priority patent/KR20140017527A/ko
Priority to EP12767610.4A priority patent/EP2695143B1/en
Priority to BR112013025416A priority patent/BR112013025416A2/pt
Priority to RU2013143978/08A priority patent/RU2013143978A/ru
Priority to PCT/JP2012/002269 priority patent/WO2012137463A1/en
Priority to US14/008,789 priority patent/US9269002B2/en
Priority to CN201210100149.8A priority patent/CN102867169B/zh
Priority to CN201220143819XU priority patent/CN202976122U/zh
Publication of JP2012221250A publication Critical patent/JP2012221250A/ja
Application granted granted Critical
Publication of JP5732988B2 publication Critical patent/JP5732988B2/ja
Priority to US15/015,926 priority patent/US9582938B2/en
Priority to US15/378,444 priority patent/US9836887B2/en
Priority to US15/807,680 priority patent/US10395429B2/en
Priority to US16/511,216 priority patent/US10930083B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/634Warning indications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

【課題】仮想オブジェクトの表示の乱れによってユーザに混乱を与えることを回避すること。
【解決手段】画像に映る物体の位置又は姿勢を認識する認識部と、前記認識部による認識の安定度に応じて、前記物体に関連する仮想オブジェクトの表示を変化させる表示制御部と、を備える画像処理装置を提供する。前記表示制御部は、前記物体の位置又は姿勢に前記仮想オブジェクトが追従するように前記仮想オブジェクトを表示装置に表示させてもよい。また、前記表示制御部は、前記安定度に応じて、前記仮想オブジェクトの前記物体への追従のペースを変化させてもよい。
【選択図】図5

Description

本発明は、画像処理装置、表示制御方法及びプログラムに関する。
近年、実世界に付加的な情報を重畳してユーザに呈示する拡張現実(AR:Augmented Reality)と呼ばれる技術が注目されている。AR技術においてユーザに呈示される情報は、アノテーションとも呼ばれ、テキスト、アイコン又はアニメーションなどの様々な形態の仮想的なオブジェクトを用いて可視化され得る。一般的なARアプリケーションでは、仮想オブジェクトは、画像内で認識される実世界の物体の位置に合わせて配置される。また、位置のみならず物体の姿勢に合わせて仮想オブジェクトをAR空間内に配置することのできるアプリケーションも存在する。例えば、下記特許文献1は、仮想オブジェクトの位置合わせの精度の低下を抑制することを目的とした技術を提案している。
特開2010−134649号公報
しかしながら、画像に映る実世界の物体の位置又は姿勢の認識を常に高い精度で行うことは困難である。即ち、実世界の物体に仮想オブジェクトの位置又は姿勢を合わせようとする場合、認識の精度の一時的な低下を原因として仮想オブジェクトの表示が乱れる可能性は残されている。従って、特に認識が不安定となる場合に仮想オブジェクトの表示を適切に制御し、仮想オブジェクトの表示の乱れによってユーザに混乱を与えないことが望ましい。
本開示によれば、画像に映る物体の位置又は姿勢を認識する認識部と、前記認識部による認識の安定度に応じて、前記物体に関連する仮想オブジェクトの表示を変化させる表示制御部と、を備える画像処理装置が提供される。
また、本開示によれば、画像に映る物体の位置又は姿勢を認識するステップと、前記認識の安定度に応じて、前記物体に関連する仮想オブジェクトの表示を変化させるステップと、を含む表示制御方法が提供される。
また、本開示によれば、画像処理装置を制御するコンピュータを、画像に映る物体の位置又は姿勢を認識する認識部と、前記認識部による認識の安定度に応じて、前記物体に関連する仮想オブジェクトの表示を変化させる表示制御部と、として機能させるためのプログラムが提供される。
以上説明したように、本開示によれば、仮想オブジェクトの表示の乱れによってユーザに混乱を与えることを回避することができる。
一実施形態に係る画像処理装置の概要について説明するための説明図である。 仮想オブジェクトの配置について説明するための説明図である。 仮想オブジェクトの配置に関連する問題点について説明するための説明図である。 一実施形態に係る画像処理装置のハードウェア構成の一例を示すブロック図である。 一実施形態に係る画像処理装置の論理的機能の構成の一例を示すブロック図である。 一実施形態において認識される物体の状態量について説明するための説明図である。 認識の安定度を判定するための判定手法の第1の例について説明するための説明図である。 認識の安定度を判定するための判定手法の第2の例について説明するための説明図である。 認識の安定度を判定するための判定手法の第3の例について説明するための説明図である。 認識の安定度を判定するための判定手法の第4の例について説明するための説明図である。 認識の安定度を判定するための判定手法の第5の例について説明するための説明図である。 仮想オブジェクトの物体への追従のペースの制御の一例について説明するための説明図である。 仮想オブジェクトの鮮明度の制御について説明するための説明図である。 仮想オブジェクトの透明度の制御について説明するための説明図である。 安定度を高めるための行動をユーザに促す表示の一例を示す説明図である。 一実施形態に係る表示制御処理の流れの一例を示すフローチャートである。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、以下の順序で説明を行う。
1.概要
2.一実施形態に係る画像処理装置のハードウェア構成例
3.一実施形態に係る画像処理装置の機能構成例
3−1.画像取得部
3−2.画像認識部
3−3.検出部
3−4.判定部
3−5.データ取得部
3−6.表示制御部
4.一実施形態に係る表示制御処理の流れ
5.まとめ
<1.概要>
図1は、本明細書で開示する技術の一実施形態の概要について説明するための説明図である。図1を参照すると、実空間1内でユーザにより携帯されている画像処理装置100が示されている。
画像処理装置100は、ARアプリケーションをユーザに提供する装置である。画像処理装置100は、例えば、スマートフォン、PDA(Personal Digital Assistant)、ゲーム端末又は携帯用音楽プレーヤなどの端末装置であってもよく、PC(Personal Computer)又はワークステーションなどの情報処理装置であってよい。
実空間1は、ARアプリケーションが利用され得る空間の一例である。実空間1内には、物体12a、12b、12c、12d及び12eが存在する。物体12aは、自動車である。物体12bは、案内板である。物体12cは、広告用の看板である。物体12d及び12eは、建物である。画像処理装置100は、このような様々な物体が存在し得る実空間を撮像した画像を入力画像として取得する。そして、画像処理装置100は、入力画像に映る物体の認識結果に基づいて、ARのための仮想オブジェクトを入力画像に重畳する。仮想オブジェクトを通じてユーザに呈示される情報は、ナビゲーション情報、広告情報、店舗情報、ニュース又は天気予報など、任意の情報であってよい。本実施形態において、画像処理装置100により提供されるARアプリケーションは、実空間内の物体の位置又は姿勢に合わせて、当該物体に関連する仮想オブジェクトを画像内に配置する。
図2は、仮想オブジェクトの配置について説明するための説明図である。図2の左に示す画像Im01は、画像処理装置100により取得される入力画像の一例である。入力画像Im01には、物体12a及び12bが映っている。図2の右には、入力画像Im01に仮想オブジェクトを重畳することにより生成される出力画像Im02が示されている。出力画像Im02では、物体12aに仮想オブジェクト13aが、物体12bに仮想オブジェクト13b及び14bがそれぞれ重畳されている。仮想オブジェクト13a及び13bは、画像処理装置100による物体認識の結果を表現する標識(indicator)としての役割を有する仮想オブジェクトである。一方。仮想オブジェクト14bは、物体12bに関連する情報(図2の例では、製品の広告情報)を表現する情報コンテンツとしての役割を有する仮想オブジェクトである。本明細書において、仮想オブジェクトとは、これら標識及び情報コンテンツの双方を含むものとする。
図2の例において、仮想オブジェクト13aは、物体12aの状態に合わせて配置されている。また、仮想オブジェクト13b及び14bは、物体12bの状態に合わせて配置されている。このような仮想オブジェクトの配置の正確さは、画像に映る物体の状態の認識の精度に依存する。
図3は、仮想オブジェクトの配置に関連する問題点について説明するための説明図である。図3を参照すると、時刻t=n、n+1、n+2の各時点において既存の手法により表示され得るARアプリケーションの出力画像Im02−1、Im02−2、Im02−3がそれぞれ示されている。時刻t=nの出力画像Im02−1では、仮想オブジェクト13aの配置は、物体12aの状態に合っている。同様に、仮想オブジェクト13b及び14bの配置は、物体12bの状態に合っている。これに対し、時刻t=n+1の出力画像Im02−2では、仮想オブジェクト13aの配置が、物体12aの状態からずれている。また、時刻t=n+2の出力画像Im02−3では、仮想オブジェクト13b及び14bの配置が、物体12bの状態からずれている。このようなずれは、物体の状態の認識精度の低下によって引き起こされる。認識精度の低下は、例えば、入力画像内での物体の部分的な欠損、画像のブレ、外観の類似する複数の物体の存在、又は照明条件のばらつきなど、様々な事象を原因として突発的に起こり得る。そして、特別に用意される環境を除けば、認識精度の低下を生じさせる原因を完全に排除することは困難である。
図3に例示したような仮想オブジェクトの配置の突発的なズレは、ユーザに不快感を与えるだけでなく、例えば仮想オブジェクトにより表現される情報の視認性の低下や広告の対象製品の印象の悪化など、望ましくない結果をもたらし得る。例えばローパスフィルタ又は移動平均フィルタを適用することで仮想オブジェクトの位置又は姿勢の急激な変化を抑制する手法も存在するが、これらフィルタを一律的に適用すれば、認識された物体への仮想オブジェクトの追従が常に遅れてしまう。そこで、本実施形態に係る画像処理装置100は、次節より詳しく説明するように、認識の精度がどの程度安定しているかを判定し、その判定結果に応じて仮想オブジェクトの表示を制御する。
<2.一実施形態に係る画像処理装置のハードウェア構成例>
[2−1.ハードウェア構成]
図4は、本実施形態に係る画像処理装置100のハードウェア構成の一例を示すブロック図である。図4を参照すると、画像処理装置100は、撮像部102、センサ部104、入力部106、記憶部108、表示部112、通信部114、バス118及び制御部120を備える。
(撮像部)
撮像部102は、画像を撮像するカメラモジュールである。撮像部102は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて実空間を撮像し、撮像画像を生成する。撮像部102により生成される撮像画像は、映像入力の各フレームを構成する。
(センサ部)
センサ部104は、撮像部102の動きを計測する動きセンサ群を含む。動きセンサは、例えば、撮像部102の加速度を測定する加速度センサ、傾き角を測定するジャイロセンサ、又は撮像部102の向けられた方位を測定する地磁気センサなどであってよい。また、センサ部104は、GPS(Global Positioning System)信号を受信して装置の緯度、経度及び高度を測定するGPSセンサを含んでもよい。
(入力部)
入力部106は、ユーザが画像処理装置100を操作し又は画像処理装置100へ情報を入力するために使用される入力デバイスである。入力部106は、典型的には、表示部112の画面上へのユーザによるタッチを検出するタッチセンサを含む。その代わりに(又はそれに加えて)、入力部106は、マウス若しくはタッチパッドなどのポインティングデバイス、画像に映るユーザのジェスチャを認識するジェスチャ認識モジュール、又はHMD(Head Mounted Display)を装着したユーザの視線方向を検出する視線検出モジュールを含んでもよい。さらに、入力部106は、キーボード、キーパッド、ボタン又はスイッチなどのその他の種類の入力デバイスを含んでもよい。
(記憶部)
記憶部108は、半導体メモリ又はハードディスクなどの記憶媒体により構成され、画像処理装置100による処理のためのプログラム及びデータを記憶する。記憶部108により記憶されるデータには、例えば、撮像部102により生成される画像データ及びセンサ部104により生成されるセンサデータが含まれ得る。また、記憶部108により記憶されるデータには、例えば、画像処理装置100による物体認識の際に用いられるモデルデータ及び仮想オブジェクトを定義するオブジェクトデータなども含まれ得る。
(表示部)
表示部112は、LCD(Liquid Crystal Display)、OLED(Organic light-Emitting Diode)又はCRT(Cathode Ray Tube)などにより構成される表示モジュールである。表示部112は、例えば、撮像部102により撮像される画像、又は制御部120により実現されるARアプリケーションの画像を画面上に表示する。表示部112は、ユーザにより把持される画像処理装置100の画面であってもよく、又はユーザにより装着されるシースルー型若しくは非シースルー型のHMDであってもよい。
(通信部)
通信部114は、画像処理装置100による他の装置との間の通信を仲介する通信インタフェースである。通信部114は、任意の無線通信プロトコル又は有線通信プロトコルをサポートし、他の装置との間の通信接続を確立する。
(バス)
バス118は、撮像部102、センサ部104、入力部106、記憶部108、表示部112、通信部114及び制御部120を相互に接続する。
(制御部)
制御部120は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などのプロセッサに相当する。制御部120は、記憶部108又は他の記憶媒体に記憶されるプログラムを実行することにより、後に説明する画像処理装置100の様々な機能を動作させる。
<3.一実施形態に係る画像処理装置の機能構成例>
図5は、図4に示した画像処理装置100の記憶部108及び制御部120により実現される論理的機能の構成の一例を示すブロック図である。図5を参照すると、画像処理装置100は、画像取得部130、モデルデータベース(DB)138、画像認識部140検出部150、判定部160、データ取得部170、オブジェクトDB172及び表示制御部190を含む。
[3−1.画像取得部]
画像取得部130は、実空間を映した画像を入力画像として取得する。画像取得部130は、例えば、撮像部102からの映像入力の各フレームを入力画像として順次取得してもよい。また、画像取得部130は、記憶部108により記憶されている過去に撮像された映像入力の各フレームを入力画像として取得してもよい。画像取得部130は、取得した入力画像を画像認識部140へ出力する。
[3−2.画像認識部]
画像認識部140は、モデルDB138により記憶されているデータを用いて物体認識を行う。モデルDB138は、画像処理装置100が認識の対象とする物体の形状又は外観に関するモデルデータを予め蓄積しているデータベースである。本実施形態において、画像処理装置100による認識の対象は、図1に例示した物体12a〜12eなど、実空間に存在する任意の物体であってよい。モデルデータは、各物体の形状を定義するデータ、各物体に付される所定のシンボルマーク又はテキストラベルなどの画像データ、又は各物体についての既知の画像から抽出された特徴量セットのデータなどを含み得る。
画像認識部140は、画像取得部130から入力される入力画像にどの物体が映っているか、及び入力画像に映っている物体の状態を認識する。画像認識部140により認識される物体の状態は、物体の位置及び姿勢の少なくとも一方を含む。本実施形態では、画像認識部140は、画像内での物体の位置、姿勢及び大きさを認識するものとする。画像認識部140は、例えば、入力画像から抽出される特徴点のセットをモデルデータにより定義され得る物体の形状と照合してもよい。また、画像認識部140は、モデルデータにより定義され得るシンボルマーク又はテキストラベルなどの画像データを入力画像と照合してもよい。また、画像認識部140は、モデルデータにより定義され得る既知の物体の画像の特徴量を入力画像から抽出される特徴量と照合してもよい。いずれの場合にも、画像認識部140は、所定の閾値よりも良好な照合スコアを示す物体が、当該照合スコアに対応する位置、姿勢及び大きさで入力画像に映っていると認識することができる。
図6は、本実施形態において画像認識部140により認識される物体の状態量について説明するための説明図である。図6を参照すると、入力画像を撮像した撮像装置の光軸方向と直交する平面上のx軸及びy軸、並びに当該光軸方向に沿ったz軸により形成されるグローバル座標系が示されている。画像認識部140により認識される物体12の位置Pは、このようなグローバル座標系での当該物体の基準点の位置座標として与えられる。また、物体12の姿勢Wは、各軸周りの回転角として与えられる。また、物体12の大きさScは、各軸方向への倍率として与えられる。なお、本明細書では、説明の簡明さのために、各物体の位置P、姿勢W及び大きさScを別個の変量(状態量)として説明する。しかしながら、各物体の位置P、姿勢W及び大きさScは、グローバル座標系と各物体のモデル座標系との間の変換を表す4行4列の1つの同次変換行列によって統合的に表現されてもよい。その場合には、各状態量(即ち、位置P、姿勢W及び大きさScの各々)は、1つの同次変換行列から必要に応じて抽出され、用いられる。なお、グローバル座標系は、撮像装置の位置を原点とする相対的な座標を表す座標系であってもよい。その代わりに、グローバル座標系は、実空間内で固定的に定義される絶対的な座標を表す座標系であってもよい。画像認識部140は、このような入力画像に映る各物体の識別子、位置P、姿勢W及び大きさScを、判定部160、データ取得部170及び表示制御部190へ出力する。
[3−3.検出部]
検出部150は、ユーザ入力を検出し、ユーザ入力情報を表示制御部190へ出力する。検出部150により検出されるユーザ入力は、例えば、入力部106のタッチセンサへのタッチ入力、ボタンの押下、センサ部104のセンサ群により測定される装置の動き(例えば、傾き若しくは揺れなど)、ユーザのジェスチャ又はユーザの音声などであってよい。
[3−4.判定部]
判定部160は、入力画像に映る物体の状態の画像認識部140による認識の安定度を判定する。判定部160により判定される安定度は、連続値又は離散値(例えば、3段階以上の段階的な値若しくは「高」/「低」の2値)で表現され得る。以下、図7〜図11を用いて、判定部160による安定度の判定手法の5つの例について説明する。
(1)第1の例
例えば、画像認識部140による認識が不安定である場合には、物体の状態量の変化は激しくなる傾向にある。そこで、判定部160は、画像認識部140により認識される物体の状態量の時間的変化に基づいて、上記安定度を判定してもよい。物体の状態量の時間的変化は、例えば、物体の状態量の周波数特性、状態量の微分(若しくは二次微分)又は所定の期間内の状態量の履歴と状態量の現在値との比較などを通じて把握され得る。
図7は、物体の状態量の時間的変化の一例を示している。図7の横軸は時間t、縦軸は状態量X及びその一次微分(dX/dt)である。状態量Xは、ある物体についての位置P、姿勢W及び大きさScのうちいずれか1つ又は2つ以上の組合せであってよい。
図7の例では、時刻T0からT1までの期間において、状態量Xは緩やかに変化している。この場合、例えばフーリエ変換によって状態量Xの周波数成分を抽出すると、状態量Xの高周波成分は小さくなる。また、状態量Xの一次微分の絶対値は、ある所定のレベル(撮像装置に対して物体が相対的に動く現実的な限界に相当するレベル)を超えることがない。状態量Xの二次微分についても同様である。また、状態量Xの変化が緩やかであることから、状態量Xの過去mサンプルの履歴に対して状態量Xの現在値が大きく異なることもない。状態量Xの履歴とは、過去mサンプルの単純な平均値であってもよく、又は過去mサンプルの重み付け平均値(より直近のサンプルの重みがより大きく設定され得る)であってもよい。
これに対し、時刻T1からT2までの期間において、状態量Xは激しく変化している。この場合、状態量Xの周波数成分を抽出すると、状態量Xの高周波成分はより大きくなる。また、状態量Xの一次微分はゼロの周りで振動している。一次微分の絶対値は、上述した所定のレベルを上回る。また、状態量Xの過去mサンプルの履歴に対して、状態量Xの現在値が大きく変化し得る。
従って、判定部160は、第1の判定手法において、物体の状態量の高周波成分の大きさ、状態量の一次微分(若しくは二次微分)の絶対値(若しくはその積算値)又は状態量の履歴と状態量の現在値との比較を通じて当該状態量の時間的変化を評価する。そして、判定部160は、評価した時間的変化がより激しいほど認識の安定度はより低いと判定する。図7の例では、期間T0〜T1の安定度は「高」、期間T1〜T2の安定度は「低」、期間T2〜T3の安定度は「中」、期間T3〜T4の安定度は「低」と判定されている。
(2)第2の例
画像認識部140による認識が不安定である場合には、現実的な状況では生じる可能性の低い物体の状態の変化が認識結果において示される可能性がある。例えば、実空間内で静止している物体を撮像した場合に、画角の変化に依存して画像内の物体の位置又は大きさが変化することが考えられるが、その際に同時に物体が大きく回転することは稀である。そこで、第2の判定手法において、判定部160は、画像認識部140により認識される物体の複数の状態量の間の整合性に基づいて、上記安定度を判定する。
図8を参照すると、時刻T1から時刻T2にかけて、画像認識部140による認識結果において、物体12が移動すると共に物体12の姿勢が回転している様子が示されている。時刻T1から時刻T2にかけての物体12の移動量は位置Pの差分dP、回転量は姿勢Wの差分dWにより表現され得る。従って、判定部160は、例えば、移動量dPが第1の閾値を上回り、かつ回転量dWが第2の閾値を上回る場合には、物体の状態の変化が不自然であるため、画像認識部140による認識の安定度が低下していると判定することができる。
(3)第3の例
第3の判定手法においては、判定部160は、物体の状態量の変化と動きセンサにより計測される撮像部102の動きとの間の整合性に基づいて、上記安定度を判定する。
図9を参照すると、時刻T1から時刻T2にかけて、ユーザは、撮像部102の画角が変化するように画像処理装置100を動かしている。その結果、入力画像Im11−1の右下に映っていた物体12bは、入力画像Im11−2では画像の左上に移動している。撮像部102の画角の変化は、センサ部104の動きセンサ(例えば、加速度センサ、ジャイロセンサ又は地磁気センサ)からのセンサデータに基づいて認識され得る。このような場合に、物体12bの移動量dP又は回転量dWがセンサデータに基づいて認識される画像処理装置100の動きと整合していなければ、判定部160は、画像認識部140による認識の安定度が低下していると判定することができる。
(4)第4の例
第4の判定手法においては、判定部160は、画像認識部140により認識される物体の状態量の変化と複数の入力画像に現れる実空間の動きの方向との間の整合性に基づいて、上記安定度を判定する。複数の入力画像に現れる実空間の動きの方向は、例えば、複数の入力画像から求められるオプティカルフローを通じて認識されてよい。
図10を参照すると、時刻T1において撮像された入力画像Im12−1から時刻T2において撮像された入力画像Im12−2にかけてのオプティカルフローFが示されている。オプティカルフローFは、画像内で左上に向かう物体の動きを示している。これに対し、画像認識部140による認識結果において、物体12bは上方向へ移動しながら回転している。このように、物体12bの移動量dP又は回転量dWが複数の入力画像にわたるオプティカルフローと整合していなければ、判定部160は、画像認識部140による認識の安定度が低下していると判定することができる。なお、物体12bの周囲のオプティカルフローから予測される物体の動きベクトルと物体認識の結果として認識された物体の動きベクトルとの相関(例えば内積)に基づいて、連続値としての物体の安定度が計算されてもよい(例えば、上記内積がより大きいほど認識はより安定的である)。
(5)第5の例
例えば、物体の一部が入力画像に映らない場合には、認識の精度が低下する蓋然性が高まる。そこで、第5の判定手法において、判定部160は、認識された物体が入力画像に映らない部分を含む場合には、当該物体の全体が入力画像に映る場合よりも認識の安定度が低いと判定する。認識された物体が入力画像に映らない部分を含む場合とは、例えば、物体の一部が画角の外に位置する場合、及び物体の一部が他の物体に隠されている場合(所謂オクルージョンの場合)を含み得る。
図11を参照すると、入力画像Im13に物体12a及び物体12bが映っている。物体12aの一部は、物体12bにより隠されている。物体12bの一部は、画角外にはみ出している。図11に示した多数の三角形の記号は、画像認識部140による物体12aの認識の際に用いられ得る特徴点の位置を表す。判定部160は、例えば、物体12aについて、画像認識部140により認識された特徴点の数の特徴点の総数に対する割合を算出し、算出した割合が所定の閾値を下回る場合には、物体12の一部が入力画像に映っていないと判定することができる。また、判定部160は、例えば、物体の重心が画像の安定検出領域の外側にある場合に、物体の一部が入力画像に映っていない可能性が高いと簡易に判定することもできる。図11の例では、物体12aの重心Paは安定検出領域Rの内側に位置する一方で、物体12bの重心Pbは安定検出領域Rの外側に位置する。安定検出領域Rは、その境界が入力画像の縁部との間に所定のオフセットを有するように、入力画像の中央に設定され得る。
判定部160は、これらのような手法に従って画像認識部140による認識の安定度を判定し、各物体についての安定度を表示制御部190へ出力する。なお、画像処理装置100は、上述した手法のうち2つ以上を判定部160において選択可能とし、判定部160が使用する手法を条件に応じて適応的に切り替えてもよい。例えば、動的な物体についての安定度を判定する場合には第1の手法が選択され、静的な物体についての安定度を判定する場合には第2〜第4のいずれかの手法が選択されてもよい。また、少ない処理コストが求められる場面では、第5の手法が選択されてもよい。
[3−5.データ取得部]
データ取得部170は、表示制御部190により入力画像に重畳される仮想オブジェクトに関するデータを取得する。データ取得部170により取得されるデータは、仮想オブジェクトを定義するオブジェクトデータを含む。オブジェクトデータは、例えば、仮想オブジェクトの種類、関連付けられる物体の識別子、当該物体からの相対的な表示位置、及び情報コンテンツの内容などを定義するデータであってよい。データ取得部170は、オブジェクトDB172により予め記憶されるオブジェクトデータを取得してもよい。その代わりに、データ取得部170は、実空間内に設置されるデータサーバから通信部114を介して最新のオブジェクトデータを取得してもよい。データサーバから提供されるオブジェクトデータは、例えば、センサ部104により測定される画像処理装置100の位置に応じて異なるデータであってもよい。データ取得部170は、このようなオブジェクトデータを表示制御部190へ出力する。
[3−6.表示制御部]
表示制御部190は、画像処理装置100が提供するARアプリケーションによる仮想オブジェクトの表示を制御する。より具体的には、例えば、表示制御部190には、画像認識部140により入力画像に映っていると認識された物体と関連付けられている仮想オブジェクトのオブジェクトデータが、データ取得部170から入力される。表示制御部190は、かかるオブジェクトデータに基づいて、仮想オブジェクトのオブジェクト画像を生成する。表示制御部190により生成されるオブジェクト画像は、典型的には、3次元の実空間内に仮想的に配置される仮想オブジェクトを画像処理装置100の撮像面に投影した画像である。そして、表示制御部190は、生成した出力画像を表示部112へ出力する。その結果、ARアプリケーションの画像がユーザに呈示される。
仮想オブジェクトの配置は、関連付けられる物体の状態に合わせて決定される。即ち、表示制御部190は、各物体の位置、姿勢及び大きさに仮想オブジェクトが追従するように、仮想オブジェクトを表示装置に表示させる。
また、本実施形態において、表示制御部190は、画像認識部140による認識の安定度に応じて、認識された各物体に関連する仮想オブジェクトの表示を変化させる。例えば、表示制御部190は、上記安定度に応じて、仮想オブジェクトの各物体への追従のペースを変化させる。典型的には、表示制御部190は、上記安定度がより高ければ、仮想オブジェクトの各物体への追従のペースをより速くし、上記安定度がより低ければ、仮想オブジェクトの各物体への追従のペースをより緩やかとする。追従のペースは、例えば、次の式(1)における補間係数kによって表現され得る。
Figure 2012221250
式(1)において、Z,Zn+1はそれぞれ時刻t=n,n+1における仮想オブジェクトの状態を表し、Xn+1は時刻t=n+1において認識された物体の状態を表す。補間係数kの値は、0<k≦1の範囲において表示制御部190により制御される。例えば、k=1であれば、Zn+1=Xn+1となり、時刻n+1において仮想オブジェクトの状態は認識された物体の状態をそのまま反映する。一方、k=0.1であれば、Zn+1=0.1Xn+1+0.9Xとなり、時刻n+1において仮想オブジェクトの状態は認識された物体の状態を部分的にのみ反映する。
図12は、上述した仮想オブジェクトの物体への追従のペースの制御の一例について説明するための説明図である。図12の上段には、時刻t=n,n+1,n+2の3つの時点での、追従のペースが一定である(補間係数kが一定である)場合の仮想オブジェクト13aの状態が示されている。仮想オブジェクト13aは、物体12aに関連する仮想オブジェクトである。時刻t=n+1及びn+2の時点では、認識の安定度が低下したことを原因として、仮想オブジェクト13aの状態が物体12aの状態から大きくずれている。
一方、図12の下段には、時刻t=n,n+1,n+2の3つの時点での、追従のペースが動的に制御される場合の仮想オブジェクト13aの状態が示されている。この場合、時刻t=nの時点では安定度が高いことから追従のペースは速く、物体12aの状態に仮想オブジェクト13aの状態がほぼ一致している。その後、時刻t=n+1及びn+2の時点において安定度が低下すると、補間係数kの値が下げられることにより、仮想オブジェクト13aの状態は物体12aの状態に緩やかに追従する。その結果、仮想オブジェクト13aの状態の物体12aの状態からのずれは、見た目上小さく抑えられている。
表示制御部190は、上述したように仮想オブジェクトの各物体への追従のペースを安定度に応じて変化させる代わりに(又はそれに加えて)、仮想オブジェクトの表示属性を安定度に応じて変化させてもよい。仮想オブジェクトの表示属性は、仮想オブジェクトの静的な表示態様に関する属性と動的な表示態様に関する属性とを含み得る。仮想オブジェクトの静的な表示態様に関する属性とは、例えば、仮想オブジェクトの透明度、鮮明度、色、大きさ、形状、数又は残像のパターンなどであってよい。一方、仮想オブジェクトの動的な表示態様に関する属性とは、仮想オブジェクトの点滅のパターン、点滅の周期又はアニメーションの種類などであってよい。これら仮想オブジェクトの表示属性を変化させることにより、物体認識の安定度が低下していることをユーザに直感的に理解させることが可能となる。
一例として、図13を参照すると、仮想オブジェクト13bの鮮明度が、物体認識の安定度が高いと判定された入力画像Im22−2aにおいては高く設定されている。それにより、入力画像Im22−2aの仮想オブジェクト13bの輪郭は明瞭に表示されている。一方、物体認識の安定度が低いと判定された入力画像Im22−2bにおいて、仮想オブジェクト13bの鮮明度は低く設定されている。それにより、入力画像Im22−2bの仮想オブジェクト13bの輪郭はぼやけて表示されている。
他の例として、図14を参照すると、仮想オブジェクト13bの透明度が、物体認識の安定度が高いと判定された入力画像Im23−2aにおいては低く設定されている。それにより、入力画像Im22−3aの仮想オブジェクト13bの輪郭は透過していない。一方、物体認識の安定度が低いと判定された入力画像Im23−2bにおいて、仮想オブジェクト13bの透明度は高く設定されている。それにより、入力画像Im23−2bの仮想オブジェクト13bの輪郭は透過している。
図14の例では、物体認識の結果を表現する標識である仮想オブジェクト13bの透明度は認識の安定度に応じて変化する一方で、情報コンテンツである仮想オブジェクト14bの透明度は一定に保たれている。このように、表示制御部190は、標識及び情報コンテンツのうち一方の表示のみを変化させてもよい。標識のみの表示を変化させる場合には、物体認識の安定度が低下した際、情報コンテンツの視認性を下げることなく安定度の低下をユーザに理解させることができる。それに対し、情報コンテンツのみの表示を変化させる場合には、物体認識の安定度が低下した際、物体がどのように認識されたかをユーザに知らせつつも、情報コンテンツについての印象の悪化を防止することができる。
表示制御部190は、さらに、画像認識部140による認識の安定度が低い場合に、安定度を高めるための行動をユーザに促す情報を表示装置に表示させてもよい。この場合に表示される情報は、例えば、画角外にはみだした物体が画角内に入るように装置を動かすことを促すメッセージなどであってよい(図15の画像Im30のメッセージ15参照)。かかる情報を参照したユーザが安定度を高めるための行動をとることで、仮想オブジェクトの表示の乱れが回避され得る。
また、表示制御部190は、検出部150により所定のユーザ入力が検出された場合には、判定部160により判定される認識の安定度に関わらず、安定度が高いと仮定した場合の仮想オブジェクトの表示を表示装置に行わせてもよい。所定のユーザ入力とは、タッチセンサへの入力、モーションセンサにより感知される入力、画像処理装置100に設けられるボタンの押下、ユーザのジェスチャ又は音声などの任意のユーザ入力であってよい。それにより、ユーザが仮想オブジェクトの表示の乱れを許容する場合に、安定度に応じた表示の制御を一時的に停止することが可能となる。
<4.一実施形態に係る表示制御処理の流れ>
図16は、本実施形態に係る画像処理装置100による表示制御処理の流れの一例を示すフローチャートである。
図16を参照すると、まず、画像取得部130は、実空間を映した画像を入力画像として取得する(ステップS102)。次に、画像認識部140は、画像取得部130から入力される入力画像にどの物体が映っているか、及び入力画像に映っている各物体の状態を認識する(ステップS104)。ここで認識される物体の状態とは、例えば、当該物体の位置、姿勢及び大きさを含み得る。次に、判定部160は、入力画像に映っていると画像認識部140により認識された物体が存在するか否かを判定する(ステップS106)。ここで、認識された物体が存在しない場合には、処理はステップS102へ戻る。一方、認識された物体が存在する場合には、処理はステップS108へ進む。
ステップS108において、判定部160は、入力画像に映る物体の状態の画像認識部140による認識の安定度を判定する(ステップS108)。次に、データ取得部170は、画像認識部140により認識された各物体に関連する仮想オブジェクトのオブジェクトデータを取得する(ステップS110)。また、表示制御部190は、判定部160により判定された認識の安定度に応じて、認識された各物体に関連する仮想オブジェクトの表示属性を決定する(ステップS112)。ここでの表示属性とは、上述した補間係数kであってもよく、又は仮想オブジェクトの透明度、鮮明度、点滅のパターン、点滅の周期若しくは残像の大きさなどであってもよい。次に、表示制御部190は、決定した表示属性に従って、各物体に関連する仮想オブジェクトの画像を生成する(ステップS114)。そして、表示制御部190は、生成した仮想オブジェクトの画像を入力画像に重畳する(ステップS116)。
<5.まとめ>
ここまで、図1〜図16を用いて、一実施形態に係る画像処理装置100について詳細に説明した。本実施形態によれば、画像に映る物体の状態の認識の安定度に応じて、当該物体に関連する仮想オブジェクトの表示が動的に変化する。それにより、認識の精度の低下に伴う仮想オブジェクトの表示の乱れによってユーザに混乱を与えることを回避することが可能となる。
また、本実施形態によれば、物体の位置又は姿勢に仮想オブジェクトが追従するようなアプリケーションにおいて、上記安定度に応じて仮想オブジェクトの物体への追従のペースが制御される。それにより、認識の精度が高い間には追従の遅れを小さく維持しつつ、認識の精度が低下した場合の仮想オブジェクトの配置の突発的なズレを効果的に軽減することができる。
また、本実施形態によれば、仮想オブジェクトの透明度、鮮明度、点滅のパターン、点滅の周期又は残像の大きさなどといった仮想オブジェクトの表示属性もまた、上記安定度に応じて制御され得る。それにより、物体認識の安定度が低下していることをユーザが直感的に理解できるため、仮想オブジェクトの表示が乱れたとしてもユーザに混乱を与えることが回避され得る。
また、上記安定度は、物体の状態量の時間的変化に基づいて判定され得る。この場合には、モーションセンサなどの補助的な入力を要することなく、また対象の物体が動的な物体及び静的な物体のいずれであるかを問わず、安定度を的確に判定することができる。また、上記安定度は、認識される状態量間の整合性、又は状態量と装置の動き若しくは入力画像に現れる実空間の動きの方向との間の整合性に基づいて判定されてもよい。この場合には、物体の状態量の周波数の解析又は微分などの複雑な演算を要することなく安定度を判定することができる。また、物体が入力画像に映らない部分を含むか否かに応じて上記安定度を簡易に判定することも可能である。
本明細書において説明した画像処理装置100による処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。ソフトウェアを構成するプログラムは、例えば、各装置の内部又は外部に設けられる記憶媒体に予め格納される。そして、各プログラムは、例えば、実行時にRAM(Random Access Memory)に読み込まれ、CPUなどのプロセッサにより実行される。
なお、本実施形態では、主に画像処理装置100の表示部112の画面上に画像が表示される例について説明した。しかしながら、他の実施形態として、ユーザにより携帯される端末装置から入力画像を受信する画像処理装置において、入力画像に映る物体の位置又は姿勢が認識され、その認識の安定度に応じて当該物体に関連する仮想オブジェクトの表示が制御されてもよい。その場合には、仮想オブジェクトを表示するための画像が当該画像処理装置から端末装置へ送信され、端末装置の画面上に表示され得る。
また、本明細書では、認識の精度の低下を識別するための指標を「安定度」との用語で説明したが、実質的に同等の技術的意義を有する指標が「不安定度」などの他の用語で表現されてもよい。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
画像に映る物体の位置又は姿勢を認識する認識部と、
前記認識部による認識の安定度に応じて、前記物体に関連する仮想オブジェクトの表示を変化させる表示制御部と、
を備える画像処理装置。
(2)
前記表示制御部は、前記物体の位置又は姿勢に前記仮想オブジェクトが追従するように前記仮想オブジェクトを表示装置に表示させる、前記(1)に記載の画像処理装置。
(3)
前記表示制御部は、前記安定度に応じて、前記仮想オブジェクトの前記物体への追従のペースを変化させる、前記(2)に記載の画像処理装置。
(4)
前記表示制御部は、前記安定度がより高い場合に、前記仮想オブジェクトの前記物体への追従のペースをより速くする、前記(3)に記載の画像処理装置。
(5)
前記表示制御部は、前記安定度に応じて、前記仮想オブジェクトの静的な表示態様に関する属性及び動的な表示態様に関する属性のいずれか一方又は双方を変化させる、前記(1)〜(4)のいずれか1項に記載の画像処理装置。
(6)
前記画像処理装置は、前記安定度を判定する判定部、をさらに備える、前記(1)〜(5)のいずれか1項に記載の画像処理装置。
(7)
前記判定部は、前記認識部により認識される前記物体の状態量の時間的変化に基づいて前記安定度を判定し、
前記物体の前記状態量は、前記物体の位置、姿勢及び大きさのうちの少なくとも1つに関連する、
前記(6)に記載の画像処理装置。
(8)
前記判定部は、前記認識部により認識される前記物体の第1の状態量と第2の状態量との間の整合性に基づいて前記安定度を判定し、
前記物体の前記第1の状態量及び前記第2の状態量は、それぞれ、前記物体の位置、姿勢及び大きさのうち少なくとも1つに関連する、
前記(6)に記載の画像処理装置。
(9)
前記判定部は、前記認識部により認識される前記物体が前記画像に映らない部分を含む場合には、前記物体の全体が前記画像に映る場合よりも前記安定度が低いと判定する、前記(6)に記載の画像処理装置。
(10)
前記画像処理装置は、
前記画像を撮像する撮像部と、
前記撮像部の動きを計測する動きセンサと、
をさらに備え、
前記判定部は、前記認識部により認識される前記物体の状態量の変化と前記動きセンサにより計測される前記撮像部の動きとの間の整合性に基づいて前記安定度を判定し、
前記物体の前記状態量は、前記物体の位置、姿勢及び大きさのうち少なくとも1つに関連する、
前記(6)に記載の画像処理装置。
(11)
前記判定部は、前記認識部により認識される前記物体の状態量の変化と複数の入力画像に現れる実空間の動きの方向との間の整合性に基づいて前記安定度を判定し、
前記物体の前記状態量は、前記物体の位置、姿勢及び大きさのうち少なくとも1つに関連する、
前記(6)に記載の画像処理装置。
(12)
前記表示制御部は、前記安定度が低い場合に、前記安定度を高めるための行動をユーザに促す情報を表示する、前記(1)〜(11)のいずれか1項に記載の画像処理装置。
(13)
前記表示制御部は、所定のユーザ入力が検出された場合には、前記認識部による認識の前記安定度に関わらず、前記安定度が高いと仮定した場合の前記仮想オブジェクトの表示を表示装置に行わせる、前記(1)〜(12)のいずれか1項に記載の画像処理装置。
(14)
前記仮想オブジェクトは、物体が認識されたことを示す標識である、前記(1)〜(13)のいずれか1項に記載の画像処理装置。
(15)
前記仮想オブジェクトは、認識された物体に関連する情報コンテンツである、前記(1)〜(13)のいずれか1項に記載の画像処理装置。
(16)
前記表示制御部は、物体が認識されたことを示す標識と認識された物体に関連する情報コンテンツとを前記仮想オブジェクトとして表示装置に表示させ、前記安定度に応じて前記標識又は前記情報コンテンツの一方の表示を変化させる、
前記(1)〜(13)のいずれか1項に記載の画像処理装置。
(17)
画像に映る物体の位置又は姿勢を認識するステップと、
前記認識の安定度に応じて、前記物体に関連する仮想オブジェクトの表示を変化させるステップと、
を含む表示制御方法。
(18)
画像処理装置を制御するコンピュータを、
画像に映る物体の位置又は姿勢を認識する認識部と、
前記認識部による認識の安定度に応じて、前記物体に関連する仮想オブジェクトの表示を変化させる表示制御部と、
として機能させるためのプログラム。
100 画像処理装置
102 撮像部
104 センサ部
140 画像認識部
160 判定部
190 表示制御部

Claims (18)

  1. 画像に映る物体の位置又は姿勢を認識する認識部と、
    前記認識部による認識の安定度に応じて、前記物体に関連する仮想オブジェクトの表示を変化させる表示制御部と、
    を備える画像処理装置。
  2. 前記表示制御部は、前記物体の位置又は姿勢に前記仮想オブジェクトが追従するように前記仮想オブジェクトを表示装置に表示させる、請求項1に記載の画像処理装置。
  3. 前記表示制御部は、前記安定度に応じて、前記仮想オブジェクトの前記物体への追従のペースを変化させる、請求項2に記載の画像処理装置。
  4. 前記表示制御部は、前記安定度がより高い場合に、前記仮想オブジェクトの前記物体への追従のペースをより速くする、請求項3に記載の画像処理装置。
  5. 前記表示制御部は、前記安定度に応じて、前記仮想オブジェクトの静的な表示態様に関する属性及び動的な表示態様に関する属性のいずれか一方又は双方を変化させる、請求項1に記載の画像処理装置。
  6. 前記画像処理装置は、前記安定度を判定する判定部、をさらに備える、請求項1に記載の画像処理装置。
  7. 前記判定部は、前記認識部により認識される前記物体の状態量の時間的変化に基づいて前記安定度を判定し、
    前記物体の前記状態量は、前記物体の位置、姿勢及び大きさのうちの少なくとも1つに関連する、
    請求項6に記載の画像処理装置。
  8. 前記判定部は、前記認識部により認識される前記物体の第1の状態量と第2の状態量との間の整合性に基づいて前記安定度を判定し、
    前記物体の前記第1の状態量及び前記第2の状態量は、それぞれ、前記物体の位置、姿勢及び大きさのうち少なくとも1つに関連する、
    請求項6に記載の画像処理装置。
  9. 前記判定部は、前記認識部により認識される前記物体が前記画像に映らない部分を含む場合には、前記物体の全体が前記画像に映る場合よりも前記安定度が低いと判定する、請求項6に記載の画像処理装置。
  10. 前記画像処理装置は、
    前記画像を撮像する撮像部と、
    前記撮像部の動きを計測する動きセンサと、
    をさらに備え、
    前記判定部は、前記認識部により認識される前記物体の状態量の変化と前記動きセンサにより計測される前記撮像部の動きとの間の整合性に基づいて前記安定度を判定し、
    前記物体の前記状態量は、前記物体の位置、姿勢及び大きさのうち少なくとも1つに関連する、
    請求項6に記載の画像処理装置。
  11. 前記判定部は、前記認識部により認識される前記物体の状態量の変化と複数の入力画像に現れる実空間の動きの方向との間の整合性に基づいて前記安定度を判定し、
    前記物体の前記状態量は、前記物体の位置、姿勢及び大きさのうち少なくとも1つに関連する、
    請求項6に記載の画像処理装置。
  12. 前記表示制御部は、前記安定度が低い場合に、前記安定度を高めるための行動をユーザに促す情報を表示する、請求項1に記載の画像処理装置。
  13. 前記表示制御部は、所定のユーザ入力が検出された場合には、前記認識部による認識の前記安定度に関わらず、前記安定度が高いと仮定した場合の前記仮想オブジェクトの表示を表示装置に行わせる、請求項1に記載の画像処理装置。
  14. 前記仮想オブジェクトは、物体が認識されたことを示す標識である、請求項1に記載の画像処理装置。
  15. 前記仮想オブジェクトは、認識された物体に関連する情報コンテンツである、請求項1に記載の画像処理装置。
  16. 前記表示制御部は、物体が認識されたことを示す標識と認識された物体に関連する情報コンテンツとを前記仮想オブジェクトとして表示装置に表示させ、前記安定度に応じて前記標識又は前記情報コンテンツの一方の表示を変化させる、
    請求項1に記載の画像処理装置。
  17. 画像に映る物体の位置又は姿勢を認識するステップと、
    前記認識の安定度に応じて、前記物体に関連する仮想オブジェクトの表示を変化させるステップと、
    を含む表示制御方法。
  18. 画像処理装置を制御するコンピュータを、
    画像に映る物体の位置又は姿勢を認識する認識部と、
    前記認識部による認識の安定度に応じて、前記物体に関連する仮想オブジェクトの表示を変化させる表示制御部と、
    として機能させるためのプログラム。
JP2011086684A 2011-04-08 2011-04-08 画像処理装置、表示制御方法及びプログラム Active JP5732988B2 (ja)

Priority Applications (14)

Application Number Priority Date Filing Date Title
JP2011086684A JP5732988B2 (ja) 2011-04-08 2011-04-08 画像処理装置、表示制御方法及びプログラム
TW101110902A TW201243767A (en) 2011-04-08 2012-03-28 Image processing apparatus, display control method and program
EP12767610.4A EP2695143B1 (en) 2011-04-08 2012-04-02 Image processing apparatus, display control method and program
BR112013025416A BR112013025416A2 (pt) 2011-04-08 2012-04-02 aparelho, método, e, meio legível por computador
RU2013143978/08A RU2013143978A (ru) 2011-04-08 2012-04-02 Устройство обработки изображений, способ управления отображением и программа
PCT/JP2012/002269 WO2012137463A1 (en) 2011-04-08 2012-04-02 Image processing apparatus, display control method and program
US14/008,789 US9269002B2 (en) 2011-04-08 2012-04-02 Image processing apparatus, display control method and program
KR1020137019062A KR20140017527A (ko) 2011-04-08 2012-04-02 화상 처리 장치, 표시 제어 방법 및 프로그램
CN201210100149.8A CN102867169B (zh) 2011-04-08 2012-04-06 图像处理设备和显示控制方法
CN201220143819XU CN202976122U (zh) 2011-04-08 2012-04-06 图像处理设备
US15/015,926 US9582938B2 (en) 2011-04-08 2016-02-04 Image processing apparatus, display control method and program
US15/378,444 US9836887B2 (en) 2011-04-08 2016-12-14 Image processing apparatus and method to control display of a virtual object
US15/807,680 US10395429B2 (en) 2011-04-08 2017-11-09 Image processing apparatus and display control method
US16/511,216 US10930083B2 (en) 2011-04-08 2019-07-15 Image processing apparatus and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011086684A JP5732988B2 (ja) 2011-04-08 2011-04-08 画像処理装置、表示制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2012221250A true JP2012221250A (ja) 2012-11-12
JP5732988B2 JP5732988B2 (ja) 2015-06-10

Family

ID=46968874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011086684A Active JP5732988B2 (ja) 2011-04-08 2011-04-08 画像処理装置、表示制御方法及びプログラム

Country Status (9)

Country Link
US (5) US9269002B2 (ja)
EP (1) EP2695143B1 (ja)
JP (1) JP5732988B2 (ja)
KR (1) KR20140017527A (ja)
CN (2) CN102867169B (ja)
BR (1) BR112013025416A2 (ja)
RU (1) RU2013143978A (ja)
TW (1) TW201243767A (ja)
WO (1) WO2012137463A1 (ja)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014192418A1 (ja) 2013-05-27 2014-12-04 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP2016018367A (ja) * 2014-07-08 2016-02-01 沖電気工業株式会社 情報処理装置、情報処理方法、及びプログラム
JP2016504611A (ja) * 2012-11-02 2016-02-12 クアルコム,インコーポレイテッド 地図作成と自己位置推定とのための複数のセンサの使用
JP2016507746A (ja) * 2013-01-28 2016-03-10 ▲華▼▲為▼▲終▼端有限公司 拡張現実オブジェクトを発見するための方法および端末
JP2016519377A (ja) * 2013-05-09 2016-06-30 アマゾン・テクノロジーズ、インコーポレイテッド コンピューティングデバイスのための認識インターフェース
JP2017053724A (ja) * 2015-09-09 2017-03-16 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
WO2017047178A1 (ja) * 2015-09-16 2017-03-23 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2017120558A (ja) * 2015-12-28 2017-07-06 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP2017199381A (ja) * 2017-05-24 2017-11-02 カシオ計算機株式会社 表示制御装置、表示制御方法及びプログラム
WO2021010342A1 (ja) * 2019-07-12 2021-01-21 日本電信電話株式会社 行動認識装置、行動認識方法、及び行動認識プログラム
US11263456B2 (en) 2017-10-31 2022-03-01 Sony Corporation Virtual object repositioning versus motion of user and perceived or expected delay
KR20220043106A (ko) 2019-07-29 2022-04-05 소니그룹주식회사 정보 처리 장치, 정보 처리 방법, 및 프로그램
US11297296B2 (en) 2018-05-30 2022-04-05 Sony Corporation Display control apparatus, program, and display control method
WO2022168515A1 (ja) 2021-02-05 2022-08-11 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、並びにプログラム
WO2023021757A1 (ja) * 2021-08-20 2023-02-23 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
WO2023026546A1 (ja) 2021-08-25 2023-03-02 ソニーセミコンダクタソリューションズ株式会社 情報処理装置
JP7465067B2 (ja) 2018-06-22 2024-04-10 株式会社ソニー・インタラクティブエンタテインメント 仮想オブジェクトを表示するための方法およびシステム
WO2024106317A1 (en) 2022-11-17 2024-05-23 Sony Semiconductor Solutions Corporation Information processing device and information processing method for presenting virtual content to a user
JP7506135B2 (ja) 2022-11-15 2024-06-25 ソフトバンク株式会社 情報処理装置、プログラム、及び表示方法

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2014073345A1 (ja) * 2012-11-09 2016-09-08 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータ読み取り可能な記録媒体
US10453259B2 (en) 2013-02-01 2019-10-22 Sony Corporation Information processing device, client device, information processing method, and program
CN103455969B (zh) 2013-08-28 2019-06-04 腾讯科技(成都)有限公司 图像处理的方法及装置
US9569892B2 (en) * 2013-09-26 2017-02-14 Qualcomm Incorporated Image capture input and projection output
US10671766B2 (en) * 2013-10-21 2020-06-02 Autodesk, Inc. Evaluating the stability of three-dimensional models
EP3070681A4 (en) * 2013-11-13 2017-07-12 Sony Corporation Display control device, display control method and program
TWI529663B (zh) * 2013-12-10 2016-04-11 財團法人金屬工業研究發展中心 虛擬影像定位方法及其裝置
US9652893B2 (en) * 2014-04-29 2017-05-16 Microsoft Technology Licensing, Llc Stabilization plane determination based on gaze location
KR101430614B1 (ko) * 2014-05-30 2014-08-18 주식회사 모리아타운 웨어러블 안경을 이용한 디스플레이 장치 및 그 동작 방법
CN104090973B (zh) * 2014-07-18 2018-09-07 百度在线网络技术(北京)有限公司 一种信息呈现方法及装置
US10943395B1 (en) * 2014-10-03 2021-03-09 Virtex Apps, Llc Dynamic integration of a virtual environment with a physical environment
US20180176483A1 (en) * 2014-12-29 2018-06-21 Metaio Gmbh Method and sytem for generating at least one image of a real environment
EP3113159A1 (en) * 2015-06-30 2017-01-04 Thomson Licensing Method and device for processing a part of an immersive video content according to the position of reference parts
TWI574223B (zh) * 2015-10-26 2017-03-11 行政院原子能委員會核能研究所 運用擴增實境技術之導航系統
US9858707B2 (en) * 2015-12-30 2018-01-02 Daqri, Llc 3D video reconstruction system
JP2017123050A (ja) * 2016-01-07 2017-07-13 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及びサーバ
KR102649197B1 (ko) 2016-07-29 2024-03-20 삼성전자주식회사 그래픽 객체를 표시하기 위한 전자 장치 및 컴퓨터 판독 가능한 기록 매체
US11563895B2 (en) * 2016-12-21 2023-01-24 Motorola Solutions, Inc. System and method for displaying objects of interest at an incident scene
CN110199324B (zh) * 2017-01-31 2023-12-29 株式会社和冠 显示装置及其控制方法
CN109189210A (zh) * 2018-08-06 2019-01-11 百度在线网络技术(北京)有限公司 混合现实交互方法、装置及存储介质
CN109241385A (zh) * 2018-08-08 2019-01-18 百度在线网络技术(北京)有限公司 搜索方法、设备以及存储介质
KR102091217B1 (ko) * 2018-12-12 2020-03-19 주식회사 하이쓰리디 모바일 증강현실 영상 편집 시스템
KR20210030147A (ko) * 2019-09-09 2021-03-17 삼성전자주식회사 3d 렌더링 방법 및 장치
TWI759764B (zh) * 2020-06-12 2022-04-01 光時代科技有限公司 基於光通信裝置疊加虛擬物件的方法、電子設備以及電腦可讀取記錄媒體

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003046842A (ja) * 2001-07-31 2003-02-14 Nippon Hoso Kyokai <Nhk> 仮想シーン撮影方法及びその装置
JP2005020559A (ja) * 2003-06-27 2005-01-20 Univ Waseda 立体映像呈示装置
JP2007156561A (ja) * 2005-11-30 2007-06-21 Canon Inc 複合現実感提示方法および複合現実感提示システム
JP2009289035A (ja) * 2008-05-29 2009-12-10 Jiro Makino 画像表示システム、携帯型表示装置、サーバコンピュータ、および遺跡観光システム
JP2010231459A (ja) * 2009-03-26 2010-10-14 Kyocera Corp 画像合成装置
JP2012129731A (ja) * 2010-12-14 2012-07-05 Ntt Docomo Inc 携帯端末および画像処理方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6469660B1 (en) * 2000-04-13 2002-10-22 United Parcel Service Inc Method and system for displaying target icons correlated to target data integrity
US6765569B2 (en) * 2001-03-07 2004-07-20 University Of Southern California Augmented-reality tool employing scene-feature autocalibration during camera motion
US6867753B2 (en) * 2002-10-28 2005-03-15 University Of Washington Virtual image registration in augmented display field
US7466650B2 (en) 2004-09-08 2008-12-16 Visualgate Systems, Inc. System, method and apparatus for adaptive video surveillance over power lines
JP4726194B2 (ja) * 2005-04-01 2011-07-20 キヤノン株式会社 キャリブレーション方法及び装置
JP4976756B2 (ja) * 2006-06-23 2012-07-18 キヤノン株式会社 情報処理方法および装置
JP4804256B2 (ja) * 2006-07-27 2011-11-02 キヤノン株式会社 情報処理方法
TW200843989A (en) * 2007-05-02 2008-11-16 Automotive Res & Testing Ct Automobile lateral collision warning system
JP4894741B2 (ja) * 2007-12-03 2012-03-14 ソニー株式会社 情報処理装置および情報処理方法、プログラム、並びに記録媒体
KR101188588B1 (ko) * 2008-03-27 2012-10-08 주식회사 만도 모노큘러 모션 스테레오 기반의 주차 공간 검출 장치 및방법
JP5111210B2 (ja) * 2008-04-09 2013-01-09 キヤノン株式会社 画像処理装置、画像処理方法
JP2010134649A (ja) 2008-12-03 2010-06-17 Canon Inc 情報処理装置、その処理方法及びプログラム
CN101551732A (zh) * 2009-03-24 2009-10-07 上海水晶石信息技术有限公司 带有交互功能的增强现实的方法及其***
CN101520904B (zh) * 2009-03-24 2011-12-28 上海水晶石信息技术有限公司 带有现实环境估算的增强现实的方法及其***
US8384770B2 (en) * 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003046842A (ja) * 2001-07-31 2003-02-14 Nippon Hoso Kyokai <Nhk> 仮想シーン撮影方法及びその装置
JP2005020559A (ja) * 2003-06-27 2005-01-20 Univ Waseda 立体映像呈示装置
JP2007156561A (ja) * 2005-11-30 2007-06-21 Canon Inc 複合現実感提示方法および複合現実感提示システム
JP2009289035A (ja) * 2008-05-29 2009-12-10 Jiro Makino 画像表示システム、携帯型表示装置、サーバコンピュータ、および遺跡観光システム
JP2010231459A (ja) * 2009-03-26 2010-10-14 Kyocera Corp 画像合成装置
JP2012129731A (ja) * 2010-12-14 2012-07-05 Ntt Docomo Inc 携帯端末および画像処理方法

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016504611A (ja) * 2012-11-02 2016-02-12 クアルコム,インコーポレイテッド 地図作成と自己位置推定とのための複数のセンサの使用
US9953618B2 (en) 2012-11-02 2018-04-24 Qualcomm Incorporated Using a plurality of sensors for mapping and localization
JP2016507746A (ja) * 2013-01-28 2016-03-10 ▲華▼▲為▼▲終▼端有限公司 拡張現実オブジェクトを発見するための方法および端末
US9436874B2 (en) 2013-01-28 2016-09-06 Huawei Device Co., Ltd. Method for discovering augmented reality object, and terminal
US9927949B2 (en) 2013-05-09 2018-03-27 Amazon Technologies, Inc. Recognition interfaces for computing devices
JP2016519377A (ja) * 2013-05-09 2016-06-30 アマゾン・テクノロジーズ、インコーポレイテッド コンピューティングデバイスのための認識インターフェース
JPWO2014192418A1 (ja) * 2013-05-27 2017-02-23 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
WO2014192418A1 (ja) 2013-05-27 2014-12-04 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
US10169916B2 (en) 2013-05-27 2019-01-01 Sony Corporation Image processing device and image processing method
JP2016018367A (ja) * 2014-07-08 2016-02-01 沖電気工業株式会社 情報処理装置、情報処理方法、及びプログラム
JP2017053724A (ja) * 2015-09-09 2017-03-16 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
US10977774B2 (en) 2015-09-16 2021-04-13 Sony Corporation Information processing apparatus, information processing method, and program for estimating prediction accuracy
JPWO2017047178A1 (ja) * 2015-09-16 2018-07-05 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2017047178A1 (ja) * 2015-09-16 2017-03-23 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2017120558A (ja) * 2015-12-28 2017-07-06 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
US10573073B2 (en) 2015-12-28 2020-02-25 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
JP2017199381A (ja) * 2017-05-24 2017-11-02 カシオ計算機株式会社 表示制御装置、表示制御方法及びプログラム
US11263456B2 (en) 2017-10-31 2022-03-01 Sony Corporation Virtual object repositioning versus motion of user and perceived or expected delay
US11297296B2 (en) 2018-05-30 2022-04-05 Sony Corporation Display control apparatus, program, and display control method
JP7465067B2 (ja) 2018-06-22 2024-04-10 株式会社ソニー・インタラクティブエンタテインメント 仮想オブジェクトを表示するための方法およびシステム
JP2021015479A (ja) * 2019-07-12 2021-02-12 日本電信電話株式会社 行動認識装置、行動認識方法、及び行動認識プログラム
WO2021010342A1 (ja) * 2019-07-12 2021-01-21 日本電信電話株式会社 行動認識装置、行動認識方法、及び行動認識プログラム
JP7207210B2 (ja) 2019-07-12 2023-01-18 日本電信電話株式会社 行動認識装置、行動認識方法、及び行動認識プログラム
KR20220043106A (ko) 2019-07-29 2022-04-05 소니그룹주식회사 정보 처리 장치, 정보 처리 방법, 및 프로그램
US11908090B2 (en) 2019-07-29 2024-02-20 Sony Group Corporation Information processing device, information processing method, and program
WO2022168515A1 (ja) 2021-02-05 2022-08-11 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、並びにプログラム
WO2023021757A1 (ja) * 2021-08-20 2023-02-23 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
WO2023026546A1 (ja) 2021-08-25 2023-03-02 ソニーセミコンダクタソリューションズ株式会社 情報処理装置
JP7506135B2 (ja) 2022-11-15 2024-06-25 ソフトバンク株式会社 情報処理装置、プログラム、及び表示方法
WO2024106317A1 (en) 2022-11-17 2024-05-23 Sony Semiconductor Solutions Corporation Information processing device and information processing method for presenting virtual content to a user

Also Published As

Publication number Publication date
CN102867169B (zh) 2017-07-11
US10930083B2 (en) 2021-02-23
WO2012137463A1 (en) 2012-10-11
US9269002B2 (en) 2016-02-23
US10395429B2 (en) 2019-08-27
US20170157513A1 (en) 2017-06-08
CN102867169A (zh) 2013-01-09
RU2013143978A (ru) 2015-04-10
KR20140017527A (ko) 2014-02-11
CN202976122U (zh) 2013-06-05
BR112013025416A2 (pt) 2016-12-27
US9582938B2 (en) 2017-02-28
US20190340826A1 (en) 2019-11-07
US9836887B2 (en) 2017-12-05
EP2695143A1 (en) 2014-02-12
JP5732988B2 (ja) 2015-06-10
US20160217622A1 (en) 2016-07-28
TW201243767A (en) 2012-11-01
EP2695143A4 (en) 2016-01-13
EP2695143B1 (en) 2020-02-26
US20140016825A1 (en) 2014-01-16
US20180068491A1 (en) 2018-03-08

Similar Documents

Publication Publication Date Title
JP5732988B2 (ja) 画像処理装置、表示制御方法及びプログラム
US11195307B2 (en) Image processing apparatus, image processing method, and program
US9761054B2 (en) Augmented reality computing with inertial sensors
JP5724543B2 (ja) 端末装置、オブジェクト制御方法及びプログラム
US9823821B2 (en) Information processing apparatus, display control method, and program for superimposing virtual objects on input image and selecting an interested object
US9996982B2 (en) Information processing device, authoring method, and program
CN108885497B (zh) 信息处理装置、信息处理方法和计算机可读介质
JP2012226529A (ja) 画像処理装置、画像処理方法及びプログラム
KR20190049784A (ko) 무주의 조건 동안 그래픽 사용자 인터페이스에 영향을 미치는 정보의 상태 변화 연기

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150330

R151 Written notification of patent or utility model registration

Ref document number: 5732988

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250