JP6768933B2 - 情報処理装置、情報処理システム、および画像処理方法 - Google Patents

情報処理装置、情報処理システム、および画像処理方法 Download PDF

Info

Publication number
JP6768933B2
JP6768933B2 JP2019512143A JP2019512143A JP6768933B2 JP 6768933 B2 JP6768933 B2 JP 6768933B2 JP 2019512143 A JP2019512143 A JP 2019512143A JP 2019512143 A JP2019512143 A JP 2019512143A JP 6768933 B2 JP6768933 B2 JP 6768933B2
Authority
JP
Japan
Prior art keywords
image
subject
information processing
frame
current frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019512143A
Other languages
English (en)
Other versions
JPWO2018189880A1 (ja
Inventor
良徳 大橋
良徳 大橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2018189880A1 publication Critical patent/JPWO2018189880A1/ja
Priority to JP2020158686A priority Critical patent/JP6930011B2/ja
Application granted granted Critical
Publication of JP6768933B2 publication Critical patent/JP6768933B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮影画像を用いた処理を行う情報処理装置および当該装置でなされる画像処理方法に関する。
ユーザの頭部など体の一部をビデオカメラで撮影し、目、口、手などの所定の領域を抽出して、その領域を別の画像で置換してディスプレイに表示するゲームが知られている(例えば、特許文献1参照)。また、ビデオカメラで撮影された口や手の動きをアプリケーションの操作指示として受け取るユーザインタフェースシステムも知られている。このように、実世界を撮影しその動きに反応する仮想世界を表示させたり、何らかの情報処理を行ったりする技術は、小型の携帯端末からレジャー施設まで、その規模によらず幅広い分野で利用されている。
撮影画像を用いて実物体の状態に係る情報を特定する技術として、左右の異なる視点から同じ空間を撮影するステレオカメラを導入し、撮影されたステレオ画像における同じ被写体の像の視差に基づき、被写体までの距離を取得するステレオ画像法が知られている。この技術では、環境光の反射を検出した一般的なカラー画像を用いる場合のほか、被写空間に赤外線など特定の波長帯の光を照射し、その反射を検出した画像を用いる場合もある。
一方、近年では、テレビジョン放送や配信動画などの映像表示において画質を向上させるための様々な技術開発の結果、解像度や色域を向上させる技術に加え、輝度のレンジを拡大した信号を処理する技術が普及しつつある。例えばHDR(High Dynamic Range)は、従来のSDR(Standard Dynamic Range)と比較し輝度の許容範囲が100倍程になるため、実世界で眩しいと感じるような対象をよりリアルに表現することができる。
欧州特許出願公開第0999518号明細書
撮影画像の輝度レンジは、被写体の位置、数、色、模様、光の状態など、被写空間の状況と、撮影条件や画像の補正パラメータなど撮像装置側の設定との組み合わせによって様々に変化し得る。このため、撮影画像を用いて被写体に係る情報を得たり表示画像を生成したりする場合、そのような不確定要素に起因して、必要な精度が得られなかったり、表示装置の性能を生かしきれなかったりすることが考えられる。
本発明はこうした課題に鑑みてなされたものであり、その目的は、撮影画像を用いた実物体の情報を安定した精度で取得する技術を提供することにある。本発明の別の目的は、撮影画像を用いて、好適な輝度レンジでの画像表現を実現できる技術を提供することにある。
本発明のある態様は情報処理装置に関する。この情報処理装置は、撮影される動画像のフレームの画像データを順次取得する画像データ取得部と、新たに取得した現フレームの画像の画素値に、それより前に取得した過去フレームの画像の画素値を、対応する位置で加算した加算画像を生成する画像加算部と、加算画像を用いて所定の処理を実施した結果を表すデータを出力する出力部と、を備えたことを特徴とする。
ここで「フレームの画像」は、1つのカメラで周期的に撮影された動画像を構成するフレームの画像でもよいし、複数のカメラで同時かつ周期的に撮影された動画像を構成するフレームの画像でもよい。また加算画像を用いて行われる「所定の処理」は、撮影画像を用いて何らかの出力を行うための一般的な処理のいずれでもよい。例えば撮影画像から特徴点を検出する処理を含む、位置および姿勢の取得、物体認識、動き検出、視覚追跡解析など各種画像解析、撮影画像を表示用の画像に整形する処理などが挙げられる。
本発明の別の態様は情報処理システムに関する。この情報処理システムは、ユーザの視線に対応する視野で動画像を撮影する撮像装置を備えたヘッドマウントディスプレイと、当該動画像に基づき、ヘッドマウントディスプレイに表示させる表示画像のデータを生成する情報処理装置と、を備え、情報処理装置は、撮影された動画像のフレームの画像データを順次取得する画像データ取得部と、新たに取得した現フレームの画像の画素値に、それより前に取得した過去フレームの画像の画素値を、対応する位置で加算した加算画像を生成する画像加算部と、加算画像を用いて所定の処理を実施した結果を表す表示画像のデータを出力する出力部と、を備えたことを特徴とする。
本発明のさらに別の態様は画像処理方法に関する。この画像処理方法は撮影される動画像のフレームの画像データを順次取得しメモリに格納するステップと、新たに取得した現フレームの画像の画素値に、メモリより読み出した、それより前に取得した過去フレームの画像の画素値を、対応する位置で加算した加算画像を生成するステップと、加算画像を用いて所定の処理を実施した結果を表すデータを出力するステップと、を含むことを特徴とする。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを記録した記録媒体などの間で変換したものもまた、本発明の態様として有効である。
本発明によると、撮影画像を用いた実物体の位置情報取得や画像表示において、好適な結果を安定的に得ることができる。
実施の形態1の情報処理システムの構成例を示す図である。 実施の形態1の表示装置をヘッドマウントディスプレイとしたときの外観形状の例を示す図である。 実施の形態1における情報処理装置の内部回路構成を示す図である。 実施の形態1における情報処理装置の機能ブロックの構成を示す図である。 実施の形態1において、赤外線をパターン照射し、その反射光の撮影画像を用いて被写体の距離を取得する手法を説明するための図である。 実施の形態1においてフレームを加算することによる作用を説明するための図である。 実施の形態1において複数のデプス画像を統合する様子を示す図である。 実施の形態1において、情報処理装置が撮影画像を用いて位置情報を取得しデータ出力を行う処理手順を示すフローチャートである。 実施の形態2における情報処理装置の機能ブロックの構成を示す図である。 実施の形態2における画像加算部が、過去フレームの画像を補正したうえで現フレームの画像と加算する様子を模式的に示す図である。 実施の形態2における情報処理装置が、撮影画像の輝度レンジを拡張して表示させる処理手順を示すフローチャートである。 実施の形態2における加算部が、画素領域をずらして画像を加算する様子を模式的に示す図である。
実施の形態1
本実施の形態は、撮影画像から被写体の位置情報を取得する技術に関する。このような技術では多くの場合、撮影画像から特徴点を検出することがなされる。ところが被写空間の明るさや被写体の実際の位置など実空間での状況に応じて、画像上での特徴点の表れ方は様々に変化する。特に輝度が低い領域では特徴点が検出できず、位置情報が不定となったり誤差を多く含んだりすることが考えられる。
本実施の形態では、複数フレームの撮影画像を加算することにより輝度レンジを制御し、特徴点の検出精度を向上させる。なお以後の説明では、左右の視点から同じ空間を撮影したステレオ画像を用いて被写体の位置情報を取得する手法に主眼を置くが、本実施の形態は、撮影画像から特徴点を検出する処理を含めば同様に適用でき、その対象はステレオ画像に限らない。また特徴点を検出する目的は被写体の位置情報取得に限らず、顔検出、顔認識、物体検出、視覚追跡など各種画像解析のいずれでもよい。
図1は、本実施の形態の情報処理システムの構成例を示す。情報処理システム1は、実空間を撮影する撮像装置12、撮影画像に基づき情報処理を行う情報処理装置10、情報処理装置10が出力した画像を表示する表示装置16を含む。情報処理装置10はインターネットなどのネットワーク18と接続可能としてもよい。
情報処理装置10と、撮像装置12、表示装置16、ネットワーク18とは、有線ケーブルで接続されてよく、また無線LAN(Local Area Network)などにより無線接続されてもよい。撮像装置12、情報処理装置10、表示装置16のうちいずれか2つ、または全てが組み合わされて一体的に装備されてもよい。例えばそれらを装備した携帯端末やヘッドマウントディスプレイなどで情報処理システム1を実現してもよい。いずれにしろ撮像装置12、情報処理装置10、表示装置16の外観形状は図示するものに限らない。また、情報処理の内容によって画像表示を必要としない場合は、表示装置16はなくてもよい。
撮像装置12は、既知の間隔を有する左右の位置から被写空間を所定のフレームレートで撮影する一対のカメラを含む。撮像装置12が左右の視点から撮影した一対の画像、すなわちステレオ画像のデータは、情報処理装置10へ順次送信される。情報処理装置10は当該ステレオ画像を解析することにより、撮像面からの距離を含む3次元実空間における被写体の位置情報を取得する。ステレオ画像から被写体の位置情報を取得する技術は従来知られている。
すなわち一対の画像から同じ被写体の像を表す対応点を求め、その位置ずれを視差として、三角測量の原理によりカメラから被写体までの距離が求められる。画像平面における像の位置と当該距離とから、被写体の3次元空間での位置座標が得られる。情報処理装置10は例えば、解析により求めた被写体までの距離を、画像平面における像の画素値として表したデプス画像を位置情報として生成する。
このような目的において、撮像装置12が撮影する画像の種類は限定されない。例えば撮像装置12は、CMOS(Complementary Metal Oxide Semiconductor)センサなど一般的な撮像素子を有するカメラにより、可視光のカラー画像を撮影してもよい。あるいは、赤外線など特定の波長帯の光を検出して当該光の強度分布を表す画像を撮影してもよい。
この場合、撮像装置12には、検出対象の波長帯の光を被写空間に照射する機構を設けてよい。スポット状、スリット状、あるいはパターン状の光を照射し、その反射光を撮影することにより被写体の距離を得る手法は、アクティブステレオ法として知られている。アクティブステレオ法は、環境光のカラーステレオ画像から距離を得る、いわゆるパッシブステレオ法と比較し、特徴点の乏しい被写体でも、画像における対応点を抽出しやすい、という特性を有する。
なお位置情報を得るために不可視光を利用する場合、撮像装置12には一般的なカラー画像を撮影するカメラを別途設け、表示画像の生成など別の目的に用いてもよい。以後、検出する光の波長帯によらず、撮像装置12が検出した光の輝度の2次元データを「画像」と総称する。情報処理装置10は、撮像装置12から送信された画像のデータを用いて上述のとおり被写体の位置情報を所定のレートで取得し、それに基づき適宜情報処理を行い、出力データを生成する。
ここで出力データの内容は特に限定されず、ユーザがシステムに求める機能や起動させたアプリケーションの内容などによって様々でよい。例えば情報処理装置10は、被写体の位置情報に基づき、撮影画像に何らかの加工を施したり電子ゲームを進捗させてゲーム画面を生成したりしてもよい。このような態様の代表的なものとして、仮想現実(VR:Virtual Reality)や拡張現実(AR:Augmented Reality)が挙げられる。
表示装置16は、画像を出力する液晶、プラズマ、有機ELなどのディスプレイと、音声を出力するスピーカーを備え、情報処理装置10から供給された出力データを画像や音声として出力する。表示装置16は、テレビ受像器、各種モニター、携帯端末の表示画面などでもよいし、ユーザの頭に装着してその眼前に画像を表示するヘッドマウントディスプレイでもよい。
図2は表示装置16をヘッドマウントディスプレイとしたときの外観形状の例を示している。この例においてヘッドマウントディスプレイ100は、出力機構部102および装着機構部104で構成される。装着機構部104は、ユーザが被ることにより頭部を一周し装置の固定を実現する装着バンド106を含む。
出力機構部102は、ヘッドマウントディスプレイ100をユーザが装着した状態において左右の目を覆うような形状の筐体108を含み、内部には装着時に目に正対するように表示パネルを備える。筐体108内部にはさらに、ヘッドマウントディスプレイ100の装着時に表示パネルとユーザの目との間に位置し、ユーザの視野角を拡大するレンズを備えてよい。またヘッドマウントディスプレイ100はさらに、装着時にユーザの耳に対応する位置にスピーカーやイヤホンを備えてよい。さらにヘッドマウントディスプレイ100には、ユーザの頭部の位置や姿勢を取得するため、加速度センサなどの各種モーションセンサを内蔵させてもよい。
この例でヘッドマウントディスプレイ100は、撮像装置12として、筐体108の前面にステレオカメラ110を備え、ユーザの視線に対応する視野で周囲の実空間を所定のフレームレートで撮影する。このようなヘッドマウントディスプレイ100によれば、ユーザの視野にある実物体の見かけの形状や位置情報を取得できる。SLAM(Simultaneous Localization and Mapping)の技術を導入すれば、それらの情報に基づきユーザの頭部の位置や姿勢を取得することもできる。
このような情報を用いて仮想世界に対する視野を決定し、左眼視用、右眼視用の表示画像を生成して、ヘッドマウントディスプレイの左右の領域に表示させれば、あたかも眼前に仮想世界が広がっているような仮想現実を実現できる。また、左右の視点から撮影したカラー画像に、被写体である実物体とインタラクションする仮想オブジェクトを重畳描画し表示すれば、拡張現実を実現できる。表示にカラー画像を用い、被写体の情報を得るのに特定の波長帯の画像を用いる場合、ヘッドマントディスプレイ100には、検出する波長帯ごとにステレオカメラ110を複数セット備えてもよい。
なお情報処理装置10は、ヘッドマウントディスプレイ100と通信を確立できる外部装置としてもよいし、ヘッドマウントディスプレイ100に内蔵してもよい。このように本実施の形態の情報処理システム1は、様々な態様への適用が可能であるため、各装置の構成や外観形状もそれに応じて適宜決定してよい。このような態様において、被写体の位置や被写空間の状態が変化すると、撮影画像における像の表れ方も変化する。
例えば特徴点が多い表面形状の被写体であっても、照度が低い環境では、撮影画像において像が鮮明に得られない場合がある。また特定の波長帯の光を照射し、その反射光を観測する態様では、光の照射強度によっては遠くにある被写体からの反射光が十分な輝度で得られない場合がある。結果として、ステレオ画像における対応点の抽出に失敗し、位置情報が得られなかったり精度が低くなったりすることが考えられる。
それらの対策として、露光時間やゲイン値など撮影条件や画像補正パラメータを調整したり、照射光の強度を調整したりすることが考えられる。ところが被写体の位置や光の当たり具合は様々に変化し、また同じ被写空間でも最適条件は一つとは限らない。例えば光の照射強度を調整する場合、遠くの被写体に合わせて強度を高めることにより、近くの被写体では反射光が強すぎて像が不鮮明になることがあり得る。カラー画像においても同様に、露光時間を長くしたりゲイン値を増加させたりすることにより、元々高輝度であった領域全体が白っぽくなってしまう場合がある。そもそも撮影条件、補正パラメータ、照射強度などの組み合わせを、状況が変化する都度、最適化するのは困難である。
そこで本実施の形態ではそれらの条件を一定としたうえで、得られた撮影画像に、直前のフレームの画像を加算することで、画素値のレンジを増幅させる。すなわち撮像装置がΔtの周期でフレームを動画撮影しているとすると、時刻tの現フレームの各画素値に、t−Δt、t−2Δt、・・・、t−NΔtの時刻のフレームの同じ位置の画素値を加算する。ここでNは加算する過去フレームの数を表す自然数である。例えばN=3とすると、現フレームを含め4フレームの画像を加算することになる。
このようにすると、加算後の画像の画素値は元の画像のおよそN+1倍の値となる。これにより、照射光の反射位置や特徴点など、周囲の画素との差が大きく表れるべき部分で輝度が増幅され検出が容易になる。また別のフレームの画像を加算することにより、ノイズについては平均化されSN比が高くなる。結果として被写体までの距離が遠かったり、光の強度が低かったりしても、解析に足る輝度の画像を得ることができ、被写体の位置情報を正確に取得できる。
このようにして反射光の強度が低い被写体でも像の輝度を保障できるため、露光時間やゲイン値を増加させたり、照射光の強度を高めたりする必要がなくなる。つまり撮影側で光の強度を上げずに高精度な解析が可能になる。一方、元々輝度が得られている被写体がある場合、当該被写体については過去フレームの加算は必要ない。そこで、過去フレームを加算して位置情報を取得する処理経路と、過去フレームを加算せずに現フレームのみで位置情報を取得する処理経路とを設けることにより、様々な被写体の状態を網羅しつつ各位置情報を正確に取得できる。また加算する過去フレームの数を2通り以上とすることで、輝度の増幅率を3段階以上としてもよい。
図3は情報処理装置10の内部回路構成を示している。情報処理装置10は、CPU(Central Processing Unit)23、GPU(Graphics Processing Unit)24、メインメモリ26を含む。これらの各部は、バス30を介して相互に接続されている。バス30にはさらに入出力インターフェース28が接続されている。入出力インターフェース28には、USBやIEEE1394などの周辺機器インターフェースや、有線又は無線LANのネットワークインターフェースからなる通信部32、ハードディスクドライブや不揮発性メモリなどの記憶部34、表示装置16へデータを出力する出力部36、撮像装置12や図示しない入力装置からデータを入力する入力部38、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部40が接続される。
CPU23は、記憶部34に記憶されているオペレーティングシステムを実行することにより情報処理装置10の全体を制御する。CPU23はまた、リムーバブル記録媒体から読み出されてメインメモリ26にロードされた、あるいは通信部32を介してダウンロードされた各種プログラムを実行する。GPU24は、ジオメトリエンジンの機能とレンダリングプロセッサの機能とを有し、CPU23からの描画命令に従って描画処理を行い、出力部36に出力する。メインメモリ26はRAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。
図4は情報処理装置10の機能ブロックの構成を示している。図4および後述する図9に示す装置の各機能ブロックは、ハードウェア的には、図3で示した各種回路によりで実現でき、ソフトウェア的には、記録媒体からメインメモリにロードした、画像解析機能、情報処理機能、画像描画機能、データ入出力機能などの諸機能を発揮するプログラムで実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
情報処理装置10は、撮像装置12から画像のデータを取得する画像データ取得部52、取得した画像のデータを格納する画像データ格納部54、所定数の過去フレームの画像を足し合わせる画像加算部56、画像を解析して被写体の位置情報を得る画像解析部58、位置情報など解析結果を利用して情報処理を行う情報処理部60、および、出力すべきデータを出力する出力部62を含む。
画像データ取得部52は、図3の入力部38、CPU23、メインメモリ26などで実現され、撮像装置12が所定のフレームレートで撮影する画像のデータを順次取得する。当該データには、可視光のカラーステレオ画像、赤外線など特定の波長帯の光を照射した結果得られた反射光のステレオ画像など、特徴点検出の対象とする画像のデータが含まれる。画像データ取得部52は、所定のフレームレートで送られる画像のデータを順次、画像データ格納部54に格納する。画像データ格納部54には少なくとも、現フレームおよび過去の所定数のフレームの画像データが格納される。
画像加算部56は、図3のCPU23、GPU24、メインメモリ26などで実現され、画像データ格納部54に格納された現フレームの画像データと、その直前に格納された、所定数の過去フレームの画像データを読み出す。そして同じ位置の画素同士で画素値を加算した加算画像を、ステレオ画像の左右の視点それぞれについて生成する。上述のとおり、加算するフレーム数を異ならせた複数の加算画像の対を生成してもよい。加算画像を生成する頻度は、位置情報に求められる時間分解能に基づき決定され、撮像装置12が画像を撮影するフレームレートと同じでもよいし、それより小さくてもよい。
画像解析部58は、図3のCPU23、GPU24、メインメモリ26などで実現され、画像加算部56が加算画像のステレオ画像を生成する都度、それらから対応点を特定し、その視差に基づき三角測量の原理で被写体までの距離を取得する。画像解析部58はそれと並行して、加算前の現フレームのステレオ画像から対応点を特定し、それに基づいても被写体の距離を取得する。そして画像解析部58は両者の結果を統合し、被写体の状態によらず精度が均一な、最終的な位置情報を所定の頻度で生成する。
情報処理部60は、図3のCPU23、メインメモリ26などで実現され、画像解析部58が生成した位置情報を順次取得して、それを用いて所定の情報処理を実施する。上述のとおりここで実施する情報処理の内容は特に限定されない。情報処理部60は当該情報処理の結果として、表示画像や音声などの出力データを所定の頻度で生成する。この際、必要に応じて画像データ格納部54に格納された現フレームの画像データを読み出し、出力データの生成に用いる。出力部62は、図3のCPU23、出力部36などで構成され、生成された出力データを順次、表示装置16に適したタイミングで出力する。
図5は、本実施の形態の一例として、赤外線をパターン照射し、その反射光の撮影画像を用いて被写体の距離を取得する手法を説明するための図である。図5の(a)、(b)はそれぞれ、左視点および右視点の撮影画像を模式的に示している。各撮影画像には被写体である2人の人物70、72が写っている。人物70は人物72より撮像装置12に近い位置にいる。また(a)に示す左視点の画像は、(b)に示す右視点の画像より、被写体の像が右に寄っている。
このような状況において、スポット状の赤外線を所定の分布で被写空間に照射すると、人物70、72の表面での反射光が撮影画像にスポット状に表れる(例えば像74a、74b、76a、76b)。照射した赤外線の分布パターンは既知のため、撮影画像における反射光の像の分布パターンに基づき、左右の視点の画像における対応点が求められる。例えば(a)の左視点の画像における像74a、76aはそれぞれ、(b)の右視点の画像における像74b、76bに対応することがわかる。
ここで、人物70での同じ反射を表す像74a、74bがそれぞれの画像の横方向の位置x1_L、x1_Rで検出されたとすると、視差はx1_L−x1_Rである。同様に、人物72での同じ反射を表す像76a、76bがそれぞれの画像の横方向の位置x2_L、x2_Rで検出されたとすると、視差はx2_L−x2_Rである。定性的に被写体までの距離は視差に反比例するため、キャリブレーションにより反比例の定数を求めておけば、視差に基づき距離を導出できる。
図示する例では人物70の方が近くにいるため、その視差x1_L−x1_Rは人物72の視差x2_L−x2_Rより大きくなっている。このような系において、撮像装置12の近くにいる人物70における反射光の像、例えば像74a、74bの輝度が適切に得られるような強度で赤外線を照射した場合、人物72における反射光の像、例えば像76a、76bの輝度が得られず、場合によってはノイズとの差がなくなってしまうことが考えられる。この場合、画像から像76a、76bを検出できず、人物72の位置情報が得られなくなってしまう。
図6は、図5と同様の状況において、フレームを加算することによる作用を説明するための図である。図6の(a)は、現フレームのみを用いて位置情報を生成する処理経路、(b)は加算画像を用いて位置情報を生成する処理経路を模式的に示している。ここで位置情報は、被写体までの距離を画素値とするデプス画像とし、距離が小さいほど高い輝度としている。ただし位置情報をこれに限る主旨ではない。(a)の処理経路では、現フレームのステレオ画像78a、78bのみを用いて対応点を検出し、その視差から被写体の距離を導出する。
ところが後方にいる人物72で反射する光の強度が弱く、図示するように本来あるべき反射光の像が画像に明確に表れなかった場合、正確な視差が求められず距離の精度が低下する。その結果、位置情報取得部58が生成するデプス画像80において、前方の人物70の距離値が正確に表される一方、後方の人物72の距離値は不定となり表されなかったり、誤差を多く含む距離値が表されたりする。
(b)の処理経路ではまず画像加算部56が、現フレームのステレオ画像78a、78bのそれぞれに、直前の3フレームの画像82a、82bを加算し、加算ステレオ画像84a、84bを生成する。この加算ステレオ画像では、輝度値が元の画像のおよそ4倍となるため、加算前では明確でなかった人物72での反射光の像(例えば像86)が明確になる。一方、加算前の画像で適度な輝度が得られていた人物70での反射光の像は、加算することにより演算に想定されている輝度の上限を超えてしまうことがあり得る。
同図では、そのような反射光の像(例えば像88)を星形で示している。その結果、位置情報取得部58が生成するデプス画像90において、後方の人物72の距離値が正確に表され、前方の人物70の距離値は不定となり表されなかったり、誤差を多く含む距離値が表されたりする。このように加算の必要性や適切な加算フレーム数は、被写体の位置、被写体にあたる光の強度、撮影露光時間などの撮影条件、画像補正パラメータなどによって様々となる。
図示するように複数の処理経路を設け、独立して解析を行いそれぞれに対し位置情報を生成すれば、被写空間がどのような状態であっても、また照射強度、撮影条件、補正パラメータなどを調整せずとも、いずれかに精度の高い情報が含まれていることになる。そこで位置情報取得部58は、各位置情報から精度が高いと見込まれる情報を抽出して合成し、最終的な位置情報を1つ生成する。
図7は、図6で示した2つのデプス画像80、90を統合する様子を示している。図示する例では、デプス画像によって距離値が表されている被写体が明確に分かれている。このような場合、双方のデプス画像を比較し、一方のみに距離値が表されている領域を抽出して、他方のデプス画像における対応する領域の画素値を置き換えればよい。
例えば基準となるデプス画像80をラスタ順などで走査していき、距離値として有効な値が格納されていない画素を検出したら、他方のデプス画像90の同じ画素を参照する。当該画素に有効な値が格納されていれば、その値で元のデプス画像80の画素値を更新する。この処理をデプス画像80の全ての画素で行うことにより、2つのデプス画像80、90を統合したデプス画像92を生成できる。
なお元のデプス画像80、90を生成する際、距離値の信頼度を画素ごとに取得しておき、統合時には信頼度の高い方の距離値を採用するようにしてもよい。例えばステレオ画像の一方に定めた微小ブロックに対し、他方の微小ブロックを水平方向に移動させて最も高い類似度が得られる位置を対応点として求めるブロックマッチングの手法では、対応点を決定した際のブロックの類似度の大きさに基づき信頼度を決定できる。距離値の信頼度はこのほか、様々な基準で取得できることは当業者には理解されるところである。
図6、図7は、ステレオ画像から複数の処理経路でデプス画像を生成する例を示しているが、上述のとおり本実施の形態は特徴点を検出する処理を含めば出力する情報は限定されず同様の効果を得ることができる。すなわち輝度レンジが異なる複数の被写体のそれぞれについて、異なる処理経路で独立に解析結果を取得し、それらを統合すれば、被写体の状況に関わらず精度が保障された解析結果を出力できる。
次に、以上の構成によって実現される、本実施の形態における情報処理装置の動作を説明する。図8は、情報処理装置10が撮影画像を用いて位置情報を取得しデータ出力を行う処理手順を示すフローチャートである。このフローチャートは、被写体の位置情報を必要とする電子コンテンツをユーザが選択し、撮像装置12において撮影がなされている状態での情報処理装置10の動作を示している。このとき表示装置16には必要に応じて初期画像が表示されている。
まず情報処理装置10の画像データ取得部52は、撮像装置12から現在時刻tのフレームのステレオ画像データを取得し、画像データ格納部54に格納する(S10)。上述のとおり、特定の波長帯を検出したステレオ画像から位置情報を取得する場合、さらにカラー画像のデータを取得してもよい。位置情報取得部58は、当該時刻tのフレームのステレオ画像を画像データ格納部54から読み出し、それらの対応点を検出して被写体の距離値を求めることにより、デプス画像を生成する(S12)。
一方、画像加算部56は、現フレームの直前に取得した所定数の過去フレームのステレオ画像のデータを画像データ格納部54から読み出し、現フレームの画像とともに同じ位置の画素同士で画素値を足し合わせることにより、加算ステレオ画像のデータを生成する(S14)。ただしこの処理は当然、過去フレームの画像が所定数、画像データ格納部54に格納された時点から実施する。加算する過去フレームの数は、論理的あるいは実験などにより最適値を求めておく。例えば被写体の距離の想定範囲と、照射光の強度や環境光の照度の想定範囲との組み合わせから、ステレオ画像において得られる輝度の想定範囲が判明する。
その想定範囲のうち最低値近傍の輝度値が、対応点の検出に十分な値となり、かつ対応点取得処理に想定される上限値を十分下回るような倍率を計算することにより、適切な加算フレーム数を求めることができる。典型的には3つの過去フレームを加算することにより輝度レンジを4倍とし、輝度の階調を2ビット分、増加させる。加算数を2、4、8、・・・などと複数種類とし、S14、S16の処理をそれぞれの加算数で実施してもよい。
図6の加算ステレオ画像84a、84bで示したように、元から十分な輝度が得られている像は、加算することにより演算に想定される上限を超えることがあり得る。そのためあらかじめ輝度の上限値を設定しておき、加算結果が上限値を超える場合、画像加算部56は得られた輝度を当該上限値に置き換える。これにより、対応点の検出に係る演算プログラムを変更することなく、本実施の形態を容易に導入できる。位置情報取得部58は、過去フレームが加算されたステレオ画像を画像加算部56から取得し、それらの対応点を検出して被写体の距離値を求めることにより、加算画像に基づくデプス画像を生成する(S16)。
次に位置情報取得部58は、S12で生成した現フレームの画像に基づくデプス画像と、加算画像に基づくデプス画像とを統合し、被写体の様々な状態を網羅した1つのデプス画像を生成する(S18)。情報処理部60は、当該デプス画像を用いて所定の情報処理を実施する(S20)。上述のとおり情報処理の内容は特に限定されず、ユーザが選択したアプリケーションなどによって異なってよい。情報処理部60は情報処理の結果として表示画像や音声などの出力データを生成し、出力部62がそれを表示装置16などに出力することで、時刻tでの実空間の状況に対応した出力がなされる(S22)。
ゲームの進捗やユーザ操作などにより処理を終了させる必要が生じない間は(S24のN)、次の時刻t=t+Δtのフレームの画像データを取得し(S26、S10)、S12〜S22の処理を繰り返す。処理を終了させる必要が生じたら、全ての処理を終了させる(S24のY)。
以上述べた本実施の形態によれば、撮影画像を解析して特徴点を検出し、被写体の位置情報を取得する技術において、現フレームの直前に撮影された所定数の過去フレームの画像を加算したうえで解析を実施する。これにより、輝度が乏しく特徴点として検出が困難な画素の輝度レンジを増幅できるとともに、相対的にノイズのレベルを下げることができる。結果として反射光の像や特徴点の検出精度が向上し、ひいては位置情報を正確に求めることができる。
また、元から適切な輝度が得られている場合にも対応するように、過去フレームを加算せずに解析する処理経路を設ける。あるいは加算する過去フレームの数を異ならせてそれぞれについて画像解析する処理経路を設ける。これらの一方、あるいは組み合わせにより、元の撮影画像における反射光の像や特徴点の輝度レベルによらず、それらの検出精度を保証できる。結果として、光の照射強度や撮影条件を調整せずとも、幅広い距離範囲の被写体の位置を精度よく取得できる。
また、異なる処理経路で取得した複数の位置情報を統合し、1つのデプス画像を生成する。これにより同じ視野に距離や状態の大きく異なる被写体が混在していても、最終的に生成される位置情報の精度は均一となり、それを用いた情報処理において精度のばらつきを考慮する必要がなくなる。結果として、被写体の状況によらず情報処理の精度を容易に維持することができる。
実施の形態2
実施の形態1では、特徴点を抽出する対象として撮影画像を用い、抽出精度を向上させることを主な目的として過去フレームを加算した。本実施の形態では、撮影画像をそのまま表示させたり、撮影画像を加工して表示させたりする態様において、表示画像の輝度レンジを拡張させる目的で画像を加算する。
この際、撮像面の動きや被写体の動きを考慮して過去フレームの像を補正し、現フレームの時刻の像を生成したうえで加算することにより、加算画像の像が鮮明になるようにする。本実施の形態の情報処理システムの構成や情報処理装置の内部回路構成は、実施の形態1で説明したのと同様でよい。また撮像装置12および表示装置16を、図2で示したようなヘッドマウントディスプレイ100で構成してもよい。
図9は本実施の形態における情報処理装置の機能ブロックの構成を示している。情報処理装置150は、撮像装置12から画像のデータを取得する画像データ取得部152、取得した画像のデータを格納する画像データ格納部154、所定数の過去フレームの画像を足し合わせる画像加算部156、被写体の状態に係る情報を取得する状態情報取得部158、および、出力すべきデータを出力する出力部62を含む。
画像データ取得部152は、実施の形態1の画像データ取得部52と同様の機能を有する。ただし本実施の形態における画像データ取得部152は、少なくとも表示画像に用いるデータを取得すればよい。画像データ取得部152はさらに、撮像面と被写体との相対的な位置や姿勢の変化を得るためのデータを、撮影画像と対応づけて取得する。例えば図2で示したヘッドマウントディスプレイ100を導入し、筐体108の前面に設けたカメラで撮影した画像を用いた表示を行う場合、ヘッドマウントディスプレイ100に内蔵したジャイロセンサ、加速度センサなどのモーションセンサから計測値を取得することにより、ユーザ頭部の動きが求められる。
これにより撮影画像平面に対する被写体の相対的な動きを特定できるため、過去フレームの画像に写る被写体の像を、現フレームと同時刻における像に補正できる。なお撮影画像平面に対する被写体の相対的な動きを特定できれば、その根拠とするデータはモーションセンサの計測値に限らず、ひいては本実施の形態の撮像装置12および表示装置16をヘッドマウントディスプレイ100に限る主旨ではない。
例えば被写体が既知の形状やサイズを有する場合、その実空間での位置や姿勢は、テンプレート画像やオブジェクトモデルとのマッチングにより、撮影画像を用いて求められる。その他、撮影画像を用いて被写体の実空間での位置や姿勢の変化を追跡したり推定したりする技術には様々なものが提案されており、そのいずれを適用してもよい。
画像データ取得部152は、所定のフレームレートで送られる画像のデータを順次、画像データ格納部154に格納する。画像データ格納部154には、現フレームおよび過去の所定数のフレームの画像データが格納される。ヘッドマウントディスプレイ100からモーションセンサの計測値を取得する場合、画像データ取得部152は、当該データも各時刻の撮影画像と対応づけて画像データ格納部154に順次格納する。
状態情報取得部158は、図3のCPU23、GPU24、メインメモリ26などで実現され、画像データ格納部154に格納されたモーションセンサの計測値または撮影画像のデータを順次読み出し、上述のとおり3次元実空間での被写体の位置や姿勢を各時刻に対し取得する。取得した情報は、各時刻の撮影画像と対応づけて画像データ格納部154に順次格納する。画像加算部156は、図3のCPU23、GPU24、メインメモリ26などで実現され、補正部164および加算部166を含む。
補正部164は、状態情報取得部158が取得した、各フレームにおける被写体の位置や姿勢の情報に基づき、過去フレームから現フレームまでに生じた回転角や並進量を被写体ごとに取得する。そして3次元空間において仮想的に被写体の位置や姿勢を操作することで、過去フレームの画像における被写体を現フレームの時刻まで進ませたときの像を求める。
加算部166は、そのように補正した過去フレームの画像を、現フレームの画像に加算することにより、表示に用いる加算画像を生成する。加算するフレーム数は、元の撮影画像の輝度レンジと、表示装置16が対応している輝度レンジあるいは画像表現に望まれる輝度レンジと、に基づき決定する。接続された表示装置16に応じて、加算するフレーム数を適応的に決定してもよい。
出力部162は、図3のCPU23、出力部36などで構成され、画像加算部156が生成した加算画像のデータを順次、表示装置16に適したタイミングで出力する。出力部162は、加算された画像上に仮想オブジェクトを描画するなど所定の加工を行ったうえでデータを出力してもよい。このような加工において、状態情報取得部158が取得した被写体の位置や姿勢に係る情報を利用してもよい。出力部162はさらに音声のデータも出力してよい。
図10は、本実施の形態における画像加算部156が、過去フレームの画像を補正したうえで現フレームの画像と加算する様子を模式的に示している。同図上段は、各フレームの撮影周期をΔt、現フレームの撮影時刻をtとしたときに、加算の対象となる4フレーム分の撮影時刻と各撮影画像の内容を例示している。同図の例では、時刻t−3Δtにおいて被写体である円板状の物の側面が見えている状態から、時刻t−2Δt、t−Δt、t、と時間が経過するにつれ、徐々に円板上面が見えるように変化している。また当該被写体は、視野の左から右に移動している。
このとき状態情報取得部158は、各撮影画像の下に示すように、各時刻における被写体の3次元空間での位置および姿勢、またはそれらの変化量に係る情報を取得する。補正部164は、過去フレームと現フレームの位置および姿勢の差分、すなわち3軸での回転角と並進量に基づき、過去フレームにおける被写体の像を現フレームの時刻の状態に補正する。被写体の回転角をロールφ、ピッチθ、ヨーψとし、並進量を(T,T,T)とすると、3次元空間において位置座標(x,y,z)にあった被写体表面の点は、下式により、回転、並進後の位置座標(x’,y’,z’)に移動する。
Figure 0006768933
上式により求めた位置座標(x’,y’,z’)を、透視変換により画像平面に射影すれば、元の撮影画像における画素の移動先が求められる。この補正処理を、被写体を構成する全ての画素について実施することにより、同図中段に示すように、時刻t−3Δt、t−2Δt、t−Δtの各フレームにおける被写体の像から、現フレームの時刻tの像を生成できる。加算部166は、時刻t−3Δt、t−2Δt、t−Δtの過去フレームの像を補正した画像と、時刻tの現フレームの撮影画像とを加算することにより、同図下段に示す加算後の画像を生成できる。この画像の色深度は、元の撮影画像から2ビット分、増加している。したがって、これに対応する表示装置16を用いて表示すれば、よりダイナミックな画像表現が可能となる。
次に、以上の構成によって実現される、本実施の形態における情報処理装置の動作を説明する。図11は、情報処理装置150が撮影画像の輝度レンジを拡張して表示させる処理手順を示すフローチャートである。このフローチャートは、撮影画像を用いた表示を伴う電子コンテンツをユーザが選択し、撮像装置12において撮影がなされている状態での情報処理装置150の動作を示している。このとき表示装置16には必要に応じて初期画像が表示されている。
まず情報処理装置150の画像データ取得部152は、撮像装置12から現在時刻tのフレームの撮影画像のデータを取得し、画像データ格納部54に格納する(S30)。この際、態様によっては、撮像装置12を兼ねるヘッドマウントディスプレイ100のモーションセンサから、ユーザ頭部の位置や姿勢に係る計測値を取得し、撮影画像のデータに対応づけて画像データ格納部54に格納する。
状態情報取得部158は、現在時刻tのフレームに写る被写体の位置および姿勢を取得する(S32)。当該情報の取得目的は、図10で示したような画像平面における像の補正にあるため、状態情報取得部158は、撮像面と被写体との相対的な位置や角度の関係を導出できる情報を取得する。その限りにおいて当該情報は、ワールド座標系における被写体およびスクリーンの位置および姿勢であっても、カメラ座標系における被写体の位置および姿勢であってもよい。
このような情報は上述のとおり、ヘッドマウントディスプレイ100のモーションセンサによる計測値から取得してもよいし、撮影画像に写る被写体の像の形状やサイズに基づき取得してもよい。撮像装置12からステレオ画像のデータを取得し、それに基づき被写体の3次元空間での位置を特定してもよい。この場合、実施の形態1で説明したように、過去フレームの撮影画像を加算した画像を用いて対応点を検出してもよい。モーションセンサに基づく情報と、撮影画像に基づく情報とを統合して、最終的な位置や姿勢の情報を求めてもよい。
取得した情報は、時刻tのフレームの撮影画像のデータと対応づけて画像データ格納部154に格納する。続いて画像加算部156の補正部164は、現フレームの直前に取得した所定数の過去フレームの撮影画像のデータ、およびそれらに対応づけられた、被写体の位置および姿勢の情報を画像データ格納部54から読み出し、被写体の像を現時刻tの状態に補正した画像を生成する(S34)。
具体的には過去フレームの撮影時刻t−nΔt(1≦n≦N、Nは加算する過去フレームの数)から現フレームの撮影時刻tまでに生じた被写体の回転角および並進量から、被写体を構成する各画素の移動先の位置座標を、上式および透視変換により求める。そして補正前の像の画素を移動させることにより、補正後の像を形成する。なお数フレーム分での物体の並進量に対し誤差の割合が大きいと考えられる場合、上式における並進量の成分(T,T,T)は演算に含めなくてもよい。
また補正部164は、画質をより向上させるためにさらなる補正処理を行ってもよい。具体的には、過去フレームおよび現フレームの画像の画素を既存の手法により補間し、解像度を上げてもよい。またノイズ除去フィルタなど、各種補正フィルタを施してもよい。加算部166は、そのようにして補正された画像を、現フレームの画像とともに同じ位置の画素同士で加算することにより加算画像を生成する(S36)。ここで後述するように、加算する画素の領域をサブピクセル単位でずらすことにより、加算画像の高精細高解像度化を実現してもよい。
なお実施の形態1と同様、加算することにより輝度値が所定の上限を超える画素が生じた場合、その画素値を当該上限値に置き換える。出力部162は、生成された加算画像のデータを表示装置16などに出力する(S38)。これにより時刻tの表示画像が高精細に表示される。出力部162は適宜音声データも出力してよい。また上述のように、出力部162は加算画像に所定の加工を施してもよい。
ゲームの進捗やユーザ操作などにより処理を終了させる必要が生じない間は(S40のN)、次の時刻t=t+Δtのフレームの撮影画像データを取得し(S42、S30)、S32〜S38の処理を繰り返す。処理を終了させる必要が生じたら、全ての処理を終了させる(S40のY)。
図12は、図11のS36において、加算部166が画素領域をずらして画像を加算する様子を模式的に示している。この例では2つの画像170、172を加算する際の、2行3列分の画素の位置ずれを例示しており、画像170の画素の境界線を実線、画像172の画素の境界線を破線で示している。例えば画像170における画素174が、画像172における画素176に対応する。図示するように画素の境界を縦横双方向に半画素分ずらすと、一方の画像の画素領域は、他方の画像の画素領域の境界によって4分割される。
例えば画素176は、「A」、「B」、「C」、「D」の4つの領域に分割される。領域「A」は他方の画像170の画素174の画素値と加算される。その他の領域はそれぞれ、画像170の、画素174に隣接する異なる画素の画素値と加算される。その結果、両者を加算した画像の解像度は、元の画像の4倍となる。この処理により、画素間を線形補間するのと比較し、より高い精度の高解像度画像を生成できる。
図示する例では縦方向と横方向のずらし量を同じとしているが、本実施の形態では被写体の回転角や並進量が得られているため、それに応じてずらし量に異方性を持たせてもよい。例えば補正前後の画素の移動量が大きい方向により大きくずらすようにしてもよい。また3フレーム以上の画像を加算する場合は特に、ずらし量は半画素分に限らず、それより小さい単位としてもよい。すなわち加算に際して各画像をずらす方向と量との組み合わせを、加算するフレーム数や被写体の位置および姿勢から導出できるように、あらかじめ規則を設定してもよい。
以上述べた本実施の形態によれば、撮影画像を用いて表示を行う技術において、現フレームの直前に撮影された所定数の過去フレームの画像を加算して表示画像を生成する。これにより、被写体の像の輝度を、ノイズを増幅させることなく制御できるため、表示装置が対応可能な輝度レンジに応じて、より表現力のある高精細な画像を表示できる。
また被写体の3次元空間での位置や姿勢を各時刻で取得しておき、加算前の過去フレームの画像における像を、現フレームの時刻に合わせて補正する。これにより、過去フレームからの時間経過によって撮像面や被写体が動いていても、当該微小な動きをも影響させずに鮮明な画像を表示できる。これにより表示画像への影響を最小限としつつ、加算する過去フレームの数を自由に設定でき、望ましい輝度レンジへの変換を容易に実現できる。
なお本実施の形態の補正部164の機能を、実施の形態1の画像加算部56に設けてもよい。この場合、モーションセンサの計測値などに基づき被写体の3次元空間での回転角および並進量を取得する状態情報取得部158を、情報処理装置10にさらに設けてもよいし、画像解析部58が当該処理を実施し、その結果を画像加算部56に供給するようにしてもよい。これにより、被写体の微小な動きをも加味して加算画像を生成でき、特徴点の検出、ひいては位置情報を高精度に取得できる。また加算する過去フレーム数に対する自由度が増えるため、より多様な状況にある被写体の特徴点を正確に取得できる。
以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
例えば実施の形態1において画像解析部58は、撮影画像を加算しない処理経路と加算する処理経路でそれぞれ独立に位置情報の取得を実施し、それらの結果を統合した。一方画像解析部58は、それ以外の観点でも処理経路を分離してそれぞれで位置情報を取得し、結果を統合してもよい。例えば環境光を撮影したカラーステレオ画像を用いて位置情報を取得する経路と、特定の波長帯の光を撮影したステレオ画像を用いて位置情報を取得する経路を設けてもよい。
そして各処理経路において、撮影画像の加算/非加算や加算数が異なる処理経路にさらに分岐させてもよい。処理経路が増加するほど、被写体の状況変化に対しより高い頑健性で特徴点検出や位置情報取得を行える。処理経路の設定は、取得する情報に求められる精度や時間分解能、情報処理装置の処理性能、許容される通信帯域などに応じて適宜決定する。
1 情報処理システム、 10 情報処理装置、 12 撮像装置、 16 表示装置、 52 画像データ取得部、 54 画像データ格納部、 56 画像加算部、 58 画像解析部、 60 情報処理部、 62 出力部、 152 画像データ取得部、 154 画像データ格納部、 156 画像加算部、 158 状態情報取得部、 162 出力部、 164 補正部、 166 加算部。
以上のように本発明は、ゲーム装置、画像処理装置、携帯端末、電子コンテンツ処理装置など各種情報処理装置と、それらを含む情報処理システムなどに利用可能である。

Claims (10)

  1. 撮影される動画像のフレームの画像データを順次取得する画像データ取得部と、
    3次元空間での被写体の位置および姿勢を各時刻に対し取得する状態情報取得部と、
    過去フレームから現フレームまでの時間に生じた前記位置および姿勢の変化を取得することにより、当該過去フレームにおける被写体の像を前記現フレームの撮影時刻における像に補正したうえ、前記現フレームの画像の画素値に、補正後の前記過去フレームの画像の画素値を、対応する位置で加算した加算画像を生成する画像加算部と、
    前記加算画像を用いて所定の処理を実施した結果を表すデータを出力する出力部と、
    を備えることを特徴とする情報処理装置。
  2. 前記画像加算部は、前記被写体の3次元空間での位置および姿勢の変化を用いて導出した、前記現フレームの撮影時刻における位置および姿勢の被写体を画像平面に射影することにより、前記過去フレームの画像における被写体の像を補正することを特徴とする請求項1に記載の情報処理装置。
  3. 前記状態情報取得部は、前記動画像を撮影する撮像装置が備えるモーションセンサの計測値に基づく情報、前記撮影される動画像に基づく情報と、を統合して、前記被写体の3次元空間での位置および姿勢を取得することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記画像データ取得部は、前記画像データとして、左右の視点から同じ空間を撮影したステレオ画像のデータを取得し、
    前記加算画像のステレオ画像および前記現フレームのステレオ画像から抽出した特徴点に基づき、被写体までの距離を表すデプス画像をそれぞれ求めたうえ、両者を統合して異なる距離の被写体に係るデプス画像を生成する画像解析部をさらに備えたことを特徴とする請求項3に記載の情報処理装置。
  5. 前記出力部は、前記加算画像を含む表示画像のデータを出力することを特徴とする請求項1からのいずれかに記載の情報処理装置。
  6. 前記画像加算部は、加算対象の複数のフレームを一画素の領域より小さい単位でずらして対応づけることにより、あるフレームの画素領域を他方のフレームの画素境界で分割してなる領域を生成し、当該分割してなる領域の単位で画素値を加算することを特徴とする請求項に記載の情報処理装置。
  7. 前記画像加算部は、加算対象の複数のフレームをずらす方向を、被写体の3次元空間での位置および姿勢の変化に基づき決定することを特徴とする請求項に記載の情報処理装置。
  8. ユーザの視線に対応する視野で動画像を撮影する撮像装置を備えたヘッドマウントディスプレイと、
    前記動画像に基づき、前記ヘッドマウントディスプレイに表示させる表示画像のデータを生成する情報処理装置と、
    を備え、
    前記情報処理装置は、
    前記動画像のフレームの画像データを順次取得する画像データ取得部と、
    3次元空間での被写体の位置および姿勢を各時刻に対し取得する状態情報取得部と、
    過去フレームから現フレームまでに生じた前記位置および姿勢の変化を取得することにより、当該過去フレームにおける被写体の像を前記現フレームの撮影時刻における像に補正したうえ、前記現フレームの画像の画素値に、補正後の前記過去フレームの画像の画素値を、対応する位置で加算した加算画像を生成する画像加算部と、
    前記加算画像を用いて前記表示画像のデータを生成し出力する出力部と、
    を備えることを特徴とする情報処理システム。
  9. 撮影される動画像のフレームの画像データを順次取得しメモリに格納するステップと、
    3次元空間での被写体の位置および姿勢を各時刻に対し取得するステップと、
    過去フレームから現フレームまでの時間に生じた前記位置および姿勢の変化を取得することにより、前記メモリより読み出した、当該過去フレームにおける被写体の像を前記現フレームの撮影時刻における像に補正したうえ、前記現フレームの画像の画素値に、補正後の前記過去フレームの画像の画素値を、対応する位置で加算した加算画像を生成するステップと、
    前記加算画像を用いて所定の処理を実施した結果を表すデータを出力するステップと、
    を含ことを特徴とする、情報処理装置による画像処理方法。
  10. 撮影される動画像のフレームの画像データを順次取得する機能と、
    3次元空間での被写体の位置および姿勢を各時刻に対し取得する機能と、
    過去フレームから現フレームまでの時間に生じた前記位置および姿勢の変化を取得することにより、当該過去フレームにおける被写体の像を前記現フレームの撮影時刻における像に補正したうえ、前記現フレームの画像の画素値に、補正後の前記過去フレームの画像の画素値を、対応する位置で加算した加算画像を生成する機能と、
    前記加算画像を用いて所定の処理を実施した結果を表すデータを出力する機能と、
    をコンピュータに実現させることを特徴とするコンピュータプログラム。
JP2019512143A 2017-04-14 2017-04-14 情報処理装置、情報処理システム、および画像処理方法 Active JP6768933B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020158686A JP6930011B2 (ja) 2017-04-14 2020-09-23 情報処理装置、情報処理システム、および画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/015249 WO2018189880A1 (ja) 2017-04-14 2017-04-14 情報処理装置、情報処理システム、および画像処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020158686A Division JP6930011B2 (ja) 2017-04-14 2020-09-23 情報処理装置、情報処理システム、および画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2018189880A1 JPWO2018189880A1 (ja) 2019-11-07
JP6768933B2 true JP6768933B2 (ja) 2020-10-14

Family

ID=63793327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019512143A Active JP6768933B2 (ja) 2017-04-14 2017-04-14 情報処理装置、情報処理システム、および画像処理方法

Country Status (3)

Country Link
US (1) US11030732B2 (ja)
JP (1) JP6768933B2 (ja)
WO (1) WO2018189880A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018033137A1 (zh) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 在视频图像中展示业务对象的方法、装置和电子设备
JP7435330B2 (ja) 2020-07-14 2024-02-21 株式会社島津製作所 ヘッドモーショントラッカ装置および航空機用ヘッドモーショントラッカ装置
CN112669415A (zh) * 2020-12-22 2021-04-16 北京像素软件科技股份有限公司 具有闪动效果的显示画面实现方法、装置、电子设备和可读存储介质

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR9906453A (pt) * 1998-05-19 2000-09-19 Sony Computer Entertainment Inc Dispositivo e método do processamento de imagem, e meio de distribuição.
JP2001357396A (ja) * 2000-06-16 2001-12-26 Matsushita Electric Ind Co Ltd 画像処理装置および画像認識装置
JP4046973B2 (ja) * 2001-10-31 2008-02-13 キヤノン株式会社 情報処理方法および画像混合装置
JP4151422B2 (ja) * 2003-01-23 2008-09-17 セイコーエプソン株式会社 画像生成装置、画像生成方法および画像生成プログラム
JP4253271B2 (ja) 2003-08-11 2009-04-08 株式会社日立製作所 画像処理システム及び車両制御システム
US8497914B2 (en) * 2009-08-10 2013-07-30 Wisconsin Alumni Research Foundation Vision system and method for motion adaptive integration of image frames
WO2014134175A2 (en) * 2013-02-26 2014-09-04 Butterfly Network, Inc. Transmissive imaging and related apparatus and methods
JP6104680B2 (ja) * 2013-03-21 2017-03-29 株式会社日立国際電気 画像処理装置、撮像装置、監視システム、符号化装置、画像処理方法
KR102223308B1 (ko) * 2014-05-29 2021-03-08 삼성전자 주식회사 영상처리 방법 및 이를 구현한 전자 장치
US9846815B2 (en) * 2015-07-16 2017-12-19 Google Inc. Image production from video
US20160086350A1 (en) * 2014-09-22 2016-03-24 Foundation for Research and Technology - Hellas (FORTH) (acting through its Institute of Computer Apparatuses, methods and systems for recovering a 3-dimensional skeletal model of the human body
IL235359A0 (en) * 2014-10-27 2015-11-30 Ofer David Wide-dynamic-range simulation of an environment with a high intensity radiating/reflecting source
US9594980B1 (en) * 2015-01-19 2017-03-14 Ricoh Co., Ltd. Image acquisition user interface for linear panoramic image stitching
KR101741433B1 (ko) * 2015-06-09 2017-05-30 엘지전자 주식회사 운전자 보조 장치 및 그 제어방법
JP6787075B2 (ja) * 2016-11-22 2020-11-18 富士通株式会社 画像処理システム、画像処理装置および画像処理方法
US10957068B2 (en) * 2017-01-06 2021-03-23 Canon Kabushiki Kaisha Information processing apparatus and method of controlling the same
JP2018148257A (ja) * 2017-03-01 2018-09-20 セイコーエプソン株式会社 頭部装着型表示装置およびその制御方法
US10775804B1 (en) * 2018-04-10 2020-09-15 Aurora Innovation, Inc. Optical array sensor for use with autonomous vehicle control systems

Also Published As

Publication number Publication date
US20200118258A1 (en) 2020-04-16
US11030732B2 (en) 2021-06-08
WO2018189880A1 (ja) 2018-10-18
JPWO2018189880A1 (ja) 2019-11-07

Similar Documents

Publication Publication Date Title
CN108885799B (zh) 信息处理设备,信息处理***以及信息处理方法
CN109615703B (zh) 增强现实的图像展示方法、装置及设备
JP6764533B2 (ja) キャリブレーション装置、キャリブレーション用チャート、チャートパターン生成装置、およびキャリブレーション方法
JP5843751B2 (ja) 情報処理装置、情報処理システム、および情報処理方法
JP6677098B2 (ja) 全天球動画の撮影システム、及びプログラム
JP7248490B2 (ja) 情報処理装置、デバイスの位置および姿勢の推定方法
US20190045125A1 (en) Virtual reality video processing
JP7358448B2 (ja) 画像生成装置、ヘッドマウントディスプレイ、および画像生成方法
US10410372B1 (en) Methods, systems, and computer-readable media for utilizing radial distortion to estimate a pose configuration
JP6768933B2 (ja) 情報処理装置、情報処理システム、および画像処理方法
WO2020170455A1 (ja) ヘッドマウントディスプレイおよび画像表示方法
JP2019032599A (ja) 情報処理装置および位置情報取得方法
JP2019020333A (ja) 情報処理装置および位置情報取得方法
TWI810233B (zh) 用於產生視圖影像之設備及方法
WO2020170456A1 (ja) 表示装置および画像表示方法
US20180143523A1 (en) Spherical omnipolar imaging
JP2016052114A (ja) 画像処理システム、画像処理方法、及び、プログラム
JP6930011B2 (ja) 情報処理装置、情報処理システム、および画像処理方法
JP7446320B2 (ja) 画像処理装置、ヘッドマウントディスプレイ、および空間情報取得方法
CN115616776A (zh) 虚拟现实模拟器以及计算机可读取记录介质
JP7288792B2 (ja) 情報処理装置およびデバイス情報導出方法
JP2005174148A (ja) 撮像装置及び方法、撮像システム
JP6544719B2 (ja) 動画像生成システム、動画像生成装置、動画像生成方法、及びコンピュータプログラム
JP6645949B2 (ja) 情報処理装置、情報処理システム、および情報処理方法
WO2023153093A1 (ja) 情報処理装置および代表座標導出方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190614

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200923

R150 Certificate of patent or registration of utility model

Ref document number: 6768933

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150