JP6514089B2 - 情報処理装置、情報処理システム、および情報処理方法 - Google Patents

情報処理装置、情報処理システム、および情報処理方法 Download PDF

Info

Publication number
JP6514089B2
JP6514089B2 JP2015216128A JP2015216128A JP6514089B2 JP 6514089 B2 JP6514089 B2 JP 6514089B2 JP 2015216128 A JP2015216128 A JP 2015216128A JP 2015216128 A JP2015216128 A JP 2015216128A JP 6514089 B2 JP6514089 B2 JP 6514089B2
Authority
JP
Japan
Prior art keywords
acceleration sensor
posture
information
information processing
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015216128A
Other languages
English (en)
Other versions
JP2017090979A (ja
Inventor
竜雄 土江
竜雄 土江
渉一 池上
渉一 池上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2015216128A priority Critical patent/JP6514089B2/ja
Priority to PCT/JP2016/081745 priority patent/WO2017077918A1/ja
Priority to US15/758,155 priority patent/US10416758B2/en
Priority to EP16861980.7A priority patent/EP3343320B1/en
Priority to CN201680062535.9A priority patent/CN108351690B/zh
Publication of JP2017090979A publication Critical patent/JP2017090979A/ja
Application granted granted Critical
Publication of JP6514089B2 publication Critical patent/JP6514089B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、実世界での動きに応じた情報処理を行う情報処理技術に関する。
ユーザの体やマーカーをカメラで撮影し、その像の領域を別の画像で置換してディスプレイに表示するゲームが知られている(例えば、特許文献1参照)。撮影画像のみならず、各種センサをユーザに装着させたり把持させたりしてその計測値を解析し、ゲームなどの情報処理に反映させる技術は、小型のゲーム機からレジャー施設まで、その規模によらず幅広い分野で利用されている。
欧州特許出願公開第0999518号明細書
上記のような技術において、対象物の姿勢や動きに係る情報をいかに正確に取得するかは常に重要な課題である。例えばユーザが頭部に装着したヘッドマウントディスプレイにより、ユーザの頭部の動き、ひいては視野の変化と対応するような仮想世界を表示させる場合、より臨場感や没入感のある表現を実現するためには、頭部の姿勢や動きを精度よく検出することが課題となる。表現上の問題ばかりでなく、頭部の姿勢の検出値が僅かにずれているのみでも、それを反映させた表示画像を見続けることにより平衡感覚が失われ、体調に悪影響を及ぼす危険性もある。
本発明はこうした課題に鑑みてなされたものであり、その目的は、対象物の姿勢に係る情報を、高精度かつ容易に取得できる技術を提供することにある。
本発明のある態様は情報処理装置に関する。この情報処理装置は、対象物に搭載された加速度センサからの出力値を取得する入力情報取得部と、出力値に基づき加速度センサの軸方向の加速度を算出し、それに基づき当該軸の傾き角を求めることにより対象物の姿勢情報を取得する姿勢データ取得部と、姿勢情報を用いて情報処理を実施しその結果として生成した出力データを出力する情報処理部と、を備え、姿勢データ取得部は、加速度センサの軸と対象物に与えた基準の軸との角度誤差に基づき、加速度センサの姿勢情報を対象物の姿勢情報に補正することを特徴とする。
本発明の別の態様は情報処理方システムに関する。この情報処理システムは、ヘッドマウントディスプレイと、当該ヘッドマウントディスプレイと通信を確立し表示画像のデータを生成する情報処理装置と、を含み、情報処理装置は、ヘッドマウントディスプレイに搭載された加速度センサからの出力値を取得する入力情報取得部と、出力値に基づき加速度センサの軸方向の加速度を算出し、それに基づき当該軸の傾き角を求めることによりヘッドマウントディスプレイの姿勢情報を取得する姿勢データ取得部と、姿勢情報を用いて、姿勢に応じて変化する視野を有する表示画像のデータを生成しヘッドマウントディスプレイに出力する情報処理部と、を備え、姿勢データ取得部は、加速度センサの軸とヘッドマウントディスプレイに与えた基準の軸との角度誤差に基づき、加速度センサの姿勢情報をヘッドマウントディスプレイの姿勢情報に補正することを特徴とする。
本発明の別の態様は情報処理方法に関する。この情報処理方法は、対象物に搭載された加速度センサからの出力値を取得するステップと、出力値に基づき加速度センサの軸方向の加速度を算出し、それに基づき当該軸の傾き角を求めることにより対象物の姿勢情報を取得するステップと、姿勢情報を用いて情報処理を実施しその結果として生成した出力データを他の装置へ出力するステップと、を含み、姿勢情報を取得するステップは、加速度センサの軸と対象物に与えた基準の軸との角度誤差に基づき、加速度センサの姿勢情報を対象物の姿勢情報に補正することを特徴とする。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを記録した記録媒体などの間で変換したものもまた、本発明の態様として有効である。
本発明によると、対象物の姿勢に係る情報を高精度かつ容易に取得できる。
本実施の形態を適用できる情報処理システムの構成例を示す図である。 本実施の形態における情報処理装置の内部回路構成を示す図である。 本実施の形態におけるHMDの内部回路構成を示す図である。 本実施の形態におけるHMDの外観形状の例を示す図である。 本実施の形態における情報処理装置とHMDの機能ブロックの構成を示す図である。 本実施の形態において加速度センサが計測対象とする加速度と表示画像との関係性の一例を説明するための図である。 本実施の形態においてキャリブレーションにより補正式を求める手法を説明するための図である。 本実施の形態における回転補正を行うための原理を説明するための図である。 本実施の形態における姿勢データ取得部の姿勢取得処理の手順を示すフローチャートである。
図1は本実施の形態を適用できる情報処理システムの構成例を示す。情報処理システム8は、対象物を撮影する撮像装置12、撮影した画像に基づき情報処理を行う情報処理装置10、情報処理の結果として得られた画像を表示する平板型ディスプレイ16およびヘッドマウントディスプレイ(以下、「HMD」と呼ぶ)18、ユーザが操作する入力装置14を含む。
情報処理装置10と、撮像装置12、入力装置14、平板型ディスプレイ16、HMD18とは、有線ケーブルで接続されても、Bluetooth(登録商標)など既知の無線通信技術により接続されてもよい。また情報処理装置10が実施する情報処理によっては、入力装置14および平板型ディスプレイ16は選択的に導入してもよい。またこれらの装置の外観形状は図示するものに限らない。さらにこれらのうち2つ以上の装置を一体的に備えた装置としてもよい。例えば情報処理装置10、入力装置14、平板型ディスプレイ16を、それらを備えた携帯端末などで実現してもよい。
HMD18は、ユーザが頭に装着することによりその眼前に位置する有機ELパネルなどの表示パネルに画像を表示する表示装置である。例えば左右の視点から見た視差画像を生成し、表示画面を2分割してなる左右の領域にそれぞれ表示させることにより、画像を立体視させてもよい。またHMD18には、加速度センサ、ジャイロセンサなどのモーションセンサが内蔵または外付けされ、ユーザの頭部の姿勢や動きに係る物理量を計測して情報処理装置10に逐次送信する。HMD18はさらに、ユーザの耳に対応する位置に音声を出力するスピーカーやイヤホンを内蔵していてもよい。
撮像装置12は、ユーザなどの対象物を所定のフレームレートで撮影するカメラと、その出力信号にデモザイク処理など一般的な処理を施すことにより撮影画像の出力データを生成し、情報処理装置10に送出する機構とを有する。カメラはCCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなど、一般的な可視光センサを既知の間隔で左右に配置したステレオカメラである。
情報処理装置10は、HMD18から送信されたモーションセンサによる計測値や、撮像装置12から送信された撮影画像のデータを用いて必要な情報処理を行い、画像や音声などの出力データを生成する。ここで情報処理装置10が行う処理の内容は特に限定されず、ユーザが求める機能やアプリケーションの内容などによって適宜決定してよい。例えばユーザの動きや入力に従いゲームを進捗させるとともに、頭部の動きに応じて視野が変化するように仮想世界の表示画像を生成したり、ユーザの動きをコマンド入力に変換して情報処理を行ったりする。
情報処理装置10は、入力装置14に設けたマーカーを利用して入力装置14の動きを取得してもよい。またHMD18の外面に設けた複数のマーカーを追跡することにより、ユーザの頭部の姿勢や動きをモーションセンサ以外の手段でも取得してよい。このときモーションセンサによる計測値と相補完的に利用することにより、姿勢や動きの検出精度を高めてもよい。あるいは後述するように、撮影画像におけるマーカーの像に基づき取得した頭部の姿勢の情報を、モーションセンサによる計測値の補正に利用してもよい。情報処理装置10が生成した出力データは、HMD18および平板型ディスプレイ16の少なくとも一方に送信される。
平板型ディスプレイ16は、2次元の画像を出力するディスプレイおよび音声を出力するスピーカーを有するテレビでよく、例えば液晶テレビ、有機ELテレビ、プラズマテレビ、PCディスプレイ等である。あるいはタブレット端末や携帯端末のディスプレイおよびスピーカーであってもよい。入力装置14は、ユーザが操作することにより、処理の開始、終了、機能の選択、各種コマンド入力などの要求を受け付け、情報処理装置10に電気信号として供給する。
入力装置14は、ゲームコントローラ、キーボード、マウス、ジョイスティック、平板型ディスプレイ16の表示画面上に設けたタッチパッドなど、一般的な入力装置のいずれか、またはそれらの組み合わせによって実現してよい。入力装置14はさらに、所定の色で発光する素子またはその集合からなる発光マーカーを備えていてもよい。この場合、情報処理装置10が撮影画像を用いてマーカーの動きを追跡することにより、入力装置14自体の動きをユーザ操作とすることができる。なお入力装置14を、発光マーカーとそれを把持する機構のみで構成してもよい。
図2は情報処理装置10の内部回路構成を示している。情報処理装置10は、CPU(Central Processing Unit)22、GPU(Graphics Processing Unit)24、メインメモリ26を含む。これらの各部は、バス30を介して相互に接続されている。バス30にはさらに入出力インターフェース28が接続されている。入出力インターフェース28には、USBやIEEE1394などの周辺機器インターフェースや、有線又は無線LANのネットワークインターフェースからなる通信部32、ハードディスクドライブや不揮発性メモリなどの記憶部34、平板型ディスプレイ16やHMD18へデータを出力する出力部36、撮像装置12、入力装置14、およびHMD18からデータを入力する入力部38、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部40が接続される。
CPU22は、記憶部34に記憶されているオペレーティングシステムを実行することにより情報処理装置10の全体を制御する。CPU22はまた、リムーバブル記録媒体から読み出されてメインメモリ26にロードされた、あるいは通信部32を介してダウンロードされた各種プログラムを実行する。GPU24は、ジオメトリエンジンの機能とレンダリングプロセッサの機能とを有し、CPU22からの描画命令に従って描画処理を行い、表示画像を図示しないフレームバッファに格納する。そしてフレームバッファに格納された表示画像をビデオ信号に変換して出力部36に出力する。メインメモリ26はRAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。
図3はHMD18の内部回路構成を示している。HMD18は、CPU50、メインメモリ52、表示部54、音声出力部56を含む。これらの各部はバス58を介して相互に接続されている。バス58にはさらに入出力インターフェース60が接続されている。入出力インターフェース60には、有線又は無線LANのネットワークインターフェースからなる通信部62、モーションセンサ64、発光部66が接続される。
CPU50は、バス58を介してHMD18の各部から取得した情報を処理し、出力データを表示部54や音声出力部56に供給する。メインメモリ52はCPU50における処理に必要なプログラムやデータを格納する。ただし実行するアプリケーションや装置の設計によっては、情報処理装置10がほぼ全ての処理を行い、HMD18では情報処理装置10から送信されたデータを出力するのみで十分な場合がある。この場合、CPU50やメインメモリ52は、より簡易なデバイスで置き換えることができる。
表示部54は、液晶パネルや有機ELパネルなどの表示パネルで構成され、HMD18を装着したユーザの眼前に画像を表示する。上述したように左右の目に対応する領域に一対の視差画像を表示することにより立体視を実現してもよい。表示部54はさらに、HMD18装着時に表示パネルとユーザの目との間に位置し、ユーザの視野角を拡大する一対のレンズを含んでもよい。この場合、表示画像には、情報処理装置10またはHMD18のいずれかにおいて、レンズを介して見たときに正常な状態で見えるような歪み補正の処理を施しておく。
音声出力部56は、HMD18の装着時にユーザの耳に対応する位置に設けたスピーカーやイヤホンで構成され、ユーザに音声を聞かせる。出力される音声のチャンネル数は特に限定されず、モノラル、ステレオ、サラウンドのいずれでもよい。通信部62は、情報処理装置10や平板型ディスプレイ16との間でデータを送受するためのインターフェースであり、例えばBluetooth(登録商標)などの既知の無線通信技術を用いて実現できる。
モーションセンサ64は、例えば加速度センサやジャイロセンサなどの組み合わせで実現し、HMD18の姿勢や動きを検出する。検出結果は通信部62を介して情報処理装置10に送信される。発光部66は、所定の色で発光する素子またはその集合であり、HMD18の外面の複数箇所に設ける。これをマーカーとして追跡することによりHMD18の位置を取得するほか、撮影画像におけるその像の数や位置関係からHMD18の姿勢を取得する。
図4はHMD18の外観形状の例を示している。この例においてHMD18は、出力機構部102および装着機構部104で構成される。装着機構部104は、ユーザが被ることにより頭部を一周し装置の固定を実現する装着バンド106を含む。装着バンド106は各ユーザの頭囲に合わせて長さの調節が可能な素材または構造とする。例えばゴムなどの弾性体としてもよいし、バックルや歯車などを利用してもよい。
出力機構部102は、HMD18をユーザが装着した状態において左右の目を覆うような形状の筐体108を含み、内部には装着時に目に正対するように表示パネルを備える。そして筐体108の外面には、発光マーカー110a、110b、110c、110d、などを設ける。発光マーカーの数や配置は特に限定されないが、本実施の形態では出力機構部102の筐体前面の4隅に設ける。さらに、装着バンド106後方の両側面にも発光マーカー110e、110fを設けてよい。なお発光マーカー110c、110dは出力機構部102の下側、発光マーカー110e、110fは装着バンド106の外側にあり、図4の視点からは本来は見えないため、外周を点線で表している。
発光マーカーは、撮影画像の平面におけるユーザの位置を示すとともに、HMD18において図示するような配置とすることにより、頭部の姿勢を取得するのにも利用できる。例えば、ユーザが撮像装置12に正対しているときは4つの発光マーカー110a、110b、110c、110dが、横を向いているときは3つの発光マーカー(例えば発光マーカー110b、110d、110e)が、後ろを向いているときは2つの発光マーカー110e、110fが撮影される。
その間の向きであっても、HMD18の3次元モデルの姿勢と、マーカーの撮像面への射影との関係性を、コンピュータグラフィックスと同様に取得すれば、撮影画像におけるマーカーの像の位置関係などからHMD18の3次元空間での姿勢を推定することができる。HMD18にはさらに、モーションセンサ64が外付けまたは内蔵されているが、ここでは図示を省略している。本実施の形態では、モーションセンサ64を構成する加速度センサにより、重力ベクトルからの角度を求め、ジャイロセンサにより顔の向きを求め、それらに基づき頭部の姿勢を取得することを基本とする。
3次元空間における頭部の位置は、ステレオカメラが左右の視点から撮影したステレオ画像におけるマーカーの像の位置に基づき取得する。このように頭部の位置と姿勢を取得し、HMD18に表示させた仮想世界の画像の視野をそれらに応じて変化させれば、あたかも仮想世界の中にいるような状況を演出できる。ただし姿勢を得る際は、撮影画像におけるマーカーの像から得られる情報を統合して精度を向上させてもよい。なおHMD18とモーションセンサ64は一体的でなくてもよい。例えばモーションセンサ64をユーザの体の一部に装着させて姿勢や動きを検出し、その結果として生成した画像を平板型ディスプレイ16に表示するような態様でも本実施の形態を適用できる。
いずれの態様においても、モーションセンサ64の計測値は、微小なずれであっても情報処理や表示結果に大きな影響を及ぼすことがあり得る。例えば表示された仮想世界を進んでいくようなゲームにおいて、ユーザが直進しているつもりが進行方向が微妙にずれていったり、首をかしげていないのに表示画像の視野に微少量の傾斜があり違和感を与えたりすることが考えられる。水平がずれた状態の画像を見続けることにより、平衡感覚を損なって体調に異常を来すことも考えられる。そこで本実施の形態では、加速度センサ、およびジャイロセンサなど同梱の他のセンサの出力値から頭部の姿勢を取得するまでの間の補正を適正に行うことにより、角度の検出誤差を最小限とし、そのような問題を起こりにくくする。
図5は情報処理装置10とHMD18の機能ブロックの構成を示している。図5に示す各機能ブロックは、ハードウェア的には、図2、3に示したCPU、GPU、各種メモリ、ディスプレイ、スピーカー、発光素子、センサなどの構成で実現でき、ソフトウェア的には、記録媒体などからメモリにロードした、データ入力機能、データ保持機能、画像処理機能、通信機能などの諸機能を発揮するプログラムで実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
情報処理装置10は、入力装置14およびHMD18からの入力情報を取得する入力情報取得部72、撮像装置12から撮影画像のデータを取得する撮影画像取得部74、ユーザの頭部の姿勢を表すデータを取得する姿勢データ取得部76、撮影画像を解析し対象物の追跡等を行う画像解析部78、ゲームなど実行するアプリケーションに応じた情報処理を行う情報処理部80、および、出力すべきデータをHMD18および平板型ディスプレイ16に送信する出力データ送信部82を含む。
HMD18は、情報処理装置10から送信された出力データを受信する出力データ受信部94、モーションセンサおよび通信機構からなる計測部90、発光素子とその発光を制御する機構からなる発光部92、出力データ受信部94が受信した出力データのうち画像の表示を実現する表示処理部98、出力データのうち音声の出力を実現する音声処理部96を含む。
情報処理装置10の入力情報取得部72は、ユーザ操作の内容を入力装置14から取得する。ここでユーザ操作とは、実行するアプリケーションの選択、処理の開始/終了、コマンド入力など、一般的な情報処理でなされるものでよい。入力情報取得部72は入力装置14から取得した情報を、その内容に応じて撮影画像取得部74または情報処理部80に供給する。入力情報取得部72はさらに、HMD18の計測部90からモーションセンサの出力値を受信し、姿勢データ取得部76に供給する。
撮影画像取得部74はステレオ画像など、撮像装置12が動画撮影して得られる撮影画像のデータを所定のフレームレートで取得する。撮影画像取得部74はさらに、入力情報取得部72が取得したユーザからの処理開始/終了要求に従い、撮像装置12における撮影の開始/終了を制御したり、情報処理部80における処理の結果に応じて、撮像装置12から取得するデータの種類を制御したりしてもよい。
姿勢データ取得部76は、HMD18の計測部90からのセンサ出力値に基づき、ユーザの頭部の姿勢や動きを所定のレートで求め、情報処理部80に供給する。ここで姿勢データ取得部76は、センサ出力値から姿勢を求める際の補正に必要なデータ(以後、「補正データ」と呼ぶ)を格納する記憶領域である補正データ記憶部84、当該データを用いてセンサ出力値から頭部の姿勢を算出する姿勢算出部86、および補正データを必要に応じて更新する補正データ更新部88を含む。具体的な補正手法については後述するが、本実施の形態では(1)モーションセンサの取り付け状態等に起因して初期に発生する誤差、(2)モーションセンサの経時変化に起因し徐々に発生する誤差、の双方に対し補正を実施する。
(1)を補正するためのデータは、HMD18を製造した段階で取得できるため、出荷時などに補正データ記憶部84に格納しておく。(2)を補正するためのデータは、元から補正データ記憶部84に格納されている補正データを、補正データ更新部88が必要に応じて更新する。このとき補正データ更新部88は、画像解析部78が撮影画像における複数のマーカーの像から上述のように取得したHMD18自体の姿勢と、姿勢算出部86が算出した姿勢とを比較することにより補正データの更新の必要性を判定する。両者の差が大きければ、画像解析により得られた姿勢と合致する姿勢が、モーションセンサの出力値からも得られるように補正データを更新する。
そして姿勢算出部86は、以後の補正においては更新された補正データを用いる。なお情報処理装置10に複数のHMD18を接続する可能性がある場合、補正データ記憶部84には、HMD18の個体識別情報と対応づけて補正データを格納しておくことにより、HMDごとに補正データを管理する。また補正データの初期値をHMD18の内部メモリ等に格納しておく場合、姿勢データ取得部76は初回の接続時等に入力情報取得部72を介してそれを読み出し、補正データ記憶部84に格納しておく。
画像解析部78は、撮影画像の各フレームからHMD18のマーカーの像を検出し、それに基づきユーザの頭部の実空間における位置や姿勢を取得する。頭部の実空間における位置は、ステレオ画像における対応するマーカーの像の位置関係に基づき算出した撮像面からマーカーまでの距離と、画像平面におけるマーカーの像の位置により特定できる。このようなステレオ画像を用いた対象物の位置特定や追跡処理には既存の技術を適用できる。画像解析部78は取得した位置や姿勢の情報を、順次、情報処理部80に供給する。
画像解析部78はさらに、所定のタイミング、あるいは姿勢データ取得部76の補正データ更新部88から要求された時点で、撮影画像における複数のマーカーの像の数や位置関係から取得したHMD18の姿勢に係る情報を補正データ更新部88に供給する。これにより補正データ更新部88は、必要に応じて補正データ記憶部84に格納された補正データを更新する。
情報処理部80は、姿勢データ取得部76か取得した、頭部の姿勢に係るデータ、画像解析部78が取得したユーザの位置や姿勢に係るデータを適宜統合して、所定の情報処理を実施する。最も代表的には、上述のとおりユーザの頭部の動きに応じてゲームを進捗させたり視野を変化させながら仮想世界を表現したりすることが考えられるが、頭部の姿勢を利用する限りにおいては情報処理の内容は特に限定されない。情報処理部80はそのようにして実施した情報処理の結果を、画像や音声等の出力データとして生成する。出力データ送信部82は、情報処理部80が生成した出力データを順次取得し、必要に応じて成形したうえ、HMD18および平板型ディスプレイ16の少なくともいずれかに供給する。
HMD18の出力データ受信部94は、情報処理装置10から送信された出力データを受信する。出力データ受信部94は受信した出力データのうち、画像のデータを表示処理部98に、音声のデータを音声処理部96に供給する。これにより、表示処理部98に含まれる表示パネルからは画像が、音声処理部96に含まれるスピーカーなどからは音声が出力される。表示処理部98は、そのようにして生成した画像の一部を切り出すなどして、そのデータを平板型ディスプレイ16に送信してもよい。
計測部90は図3のモーションセンサ64および通信部62を含み、モーションセンサ64の出力値を所定のレートで情報処理装置10に送信する。この出力値には、加速度センサが計測した、所定数の軸における加速度や、ジャイロセンサが計測した角速度などの情報が含まれる。発光部92は図3の発光部66を含み、それを所定の色で発光させることにより発光マーカーとして機能させる。なお発光色は情報処理装置10が指定してもよい。この場合、出力データ受信部94は、発光色の指定に係るデータを情報処理装置10から取得し、発光部92に通知する。例えばユーザの識別情報に応じて発光色を変えることにより、複数のユーザの頭部を発光色によって区別できる。同様に、情報処理装置10は入力装置14が備えるマーカーの発光色も指定してよい。
図6は、加速度センサが計測対象とする加速度と表示画像との関係性の一例を説明するための図である。この例では、ユーザ150が3軸加速度センサを搭載したHMD18を装着し、その頭部の姿勢に応じて仮想世界152に対する視野を変化させる態様を想定している。重力ベクトルgを垂直下向きとしたときの基準の直交座標系(X軸およびY軸を水平面、Z軸を垂直方向とする)から、加速度センサのX軸、Y軸、Z軸がそれぞれ角度θ、ψ、φだけ傾いていた場合、計測される加速度A(X)、A(Y)、A(Z)と角度との関係は次のようになる。
式1のように各軸について計測された加速度を用いて加速度センサの姿勢を求め、顔の向きをジャイロセンサから求めることにより、ユーザ150の頭部の姿勢、ひいては顔面が向いている方向ベクトルvが判明する。これによりスクリーン座標系を決定し、対応して設定したスクリーン154に仮想世界152を投影することにより、ユーザの向く方向によって視野が変化する仮想世界の画像を表示させることができる。
ただし加速度センサの出力値には、センサの個体差や基板の取り付け精度に起因して誤差が生じる。そこで一般的には、加速度センサが製造された時点で初期キャリブレーションを実施し、出力値から有効な加速度を得るための補正式を決定しておく。各軸に対する加速度センサの出力値をAout(X)、Aout(Y)、Aout(Z)とすると、補正式は次のように与えられる。
A(X)=S×Aout(X)+B
A(Y)=S×Aout(Y)+B
A(Z)=S×Aout(Z)+B
ここでS、S、Sはスケール値、B、B、Bはバイアス値と呼ばれ、補正データの一部を構成する。
図7は、キャリブレーションにより補正式を求める手法を説明するための図である。キャリブレーションでは、図示するような6方向で加速度センサを治具により固定し、その出力値を取得する。具体的には、X軸の正方向を垂直上向きおよび下向きとした(a)および(b)の状態で、X軸の出力値Aout(X+)、Aout(X−)を取得する。Y軸の正方向を垂直上向きおよび下向きとした(c)および(d)の状態でY軸の出力値Aout(Y+)、Aout(Y−)を計測する。Z軸の正方向を垂直上向きおよび下向きとした(e)および(f)の状態でZ軸の出力値Aout(Z+)、Aout(Z−)を計測する。
例えばX軸の加速度A(X)は、(a)の状態において−g、(b)の状態において+gを示すべきであるから、それらの状態について次の式が成り立つ。
−g=S×Aout(X+)+B
+g=S×Aout(X−)+B
この連立方程式を解くことにより、スケール値Sおよびバイアス値Bを求めることができる。Y軸およびZ軸についても同様である。結果として各軸に対し、スケール値S、S、S、バイアス値B、B、Bが与えられる。
原理的には、このようなキャリブレーションにより姿勢の取得精度を高めることができる。しかしながら本実施形態のように、当該姿勢を表示画像に反映させる場合、1°程度の僅かな誤差であってもユーザには上述のような違和感を与えることがあり得る。HMDのような没入感のある表示形態では特に、人体に影響を及ぼすことも考えられる。上記のような初期キャリブレーションを行ってもなお、キャリブレーション時に用いた治具の精度や測定誤差、HMD18への取り付け精度など様々な要因で、そのような僅かな誤差が発生し得る。
そこで、加速度センサをHMD18に取り付けた状態においてさらなる補正データを取得しておくことにより、誤差を最小限に抑えるようにする。具体的には加速度センサの取り付け角度に微小な誤差があることを想定し、加速度から得られた姿勢に対し、当該誤差分を相殺するような回転補正を施す。これにより加速度センサの姿勢から、HMD18、ひいては頭部の姿勢を正確に取得する。なお取り付け後の上記要因による誤差は、ジャイロセンサなどモーションセンサ64に搭載された他のセンサについても同様に生じるため、同じ補正データを用いてそれらの出力値も同様に補正することができる。これにより、顔面が向いている方向ベクトルv等をより高精度に取得できる。図8は、回転補正を行うための原理を説明するための図である。まず加速度センサをHMD18に搭載した状態で、図7の(a)〜(f)の各方向に対応するようにHMD18を固定したうえで、加速度センサの3方向の軸の出力値を取得する。
それらの出力値を上述のスケール値S、S、Sおよびバイアス値B、B、Bを用いて補正する。加速度センサの取り付けに誤差がなければ、上記初期キャリブレーションと同様の状態であるため、補正後の加速度A(X)、A(Y)、A(Z)は、図7の(a)、(b)の状態ではX軸方向、(c)、(d)の状態ではY軸方向、(e)、(f)ではZ軸方向で、+gまたは−gのいずれかを示し、それ以外の軸方向では0を示す。一方、誤差があれば、HMD18を図7の(a)〜(f)に対応するように固定していても加速度センサが微少量傾いていることにより軸が垂直方向から角度を有し、結果として加速度はそれ以外の値を示す。
すなわち当該加速度から、HMD18の本来の座標軸を重力ベクトルに合わせたときの6態様における、加速度センサの軸の傾きが加速度ベクトルとして得られることになる。当該軸の傾き角は、各態様で得られた加速度A(X)、A(Y)、A(Z)と、上記(式1)の関係を有する。ここで、HMD18を図7の(a)〜(f)に対応するように固定したときの6態様における、加速度センサが示す加速度ベクトルをそれぞれ、V(X+)、V(X−)、V(Y+)、V(Y−)、V(Z+)、(Z−)とする。図8ではそれらの状態を統合し、HMD18の座標軸であるX軸、Y軸、Z軸に対する各加速度ベクトルの傾きを同時に示している。ここで、図7の(a)と(b)はθが180°の差を有するため、原理的には、加速度ベクトルV(X+)と加速度ベクトルV(X−)は逆方向で同一の直線上に乗ることになる。これが加速度センサのX軸を構成する。
同様に、加速度ベクトルV(Y+)と加速度ベクトルV(Y−)が加速度センサのY軸を、加速度ベクトルV(Z+)と加速度ベクトルV(Z−)が加速度センサのZ軸を構成する。加速度センサに取り付け誤差がなければ、そのX軸、Y軸、Z軸は、HMD18の座標軸とそれぞれ一致するが、加速度センサが僅かに傾いているなどした場合、X軸、Y軸、Z軸の直交座標は、HMD18の直交座標に対し、その傾き分だけ回転した状態となる。そこでこの誤差角度σθ、σψ、σφをあらかじめ求めておき補正データ記憶部84に格納しておく。
運用時には、姿勢算出部86が、加速度センサの出力値に基づく加速度から式1により姿勢を求め、さらに各角度から当該誤差分を差し引くことにより、HMD18、ひいては頭部を主体とした姿勢を正確に算出する。その他のセンサが示す角度情報も同様に補正する。ただし取り付け誤差以外の要因により、加速度センサの同一軸を構成する加速度ベクトルの直線性や軸相互の直交性が得られない場合がある。例えば加速度ベクトルV(Z+)と加速度ベクトルV(Z−)が直線を構成していなかったり、どちらかのベクトルがX軸やY軸と明らかに直交していなかったりすることがあり得る。
この場合、加速度ベクトルをそのまま回転させても、HMD18の直交する座標軸と一致しないことになる。これに対する方策として、このような加速度ベクトルを誤差角度σθ、σψ、σφの算出から除いてもよい。例えば精度が悪いと見込まれる1軸を直線性、直交性より特定し、除く2軸のみを回転させてHMD18の対応する軸と一致するように2つの誤差角度を求めてもよい。ゲームなどの情報処理の内容によって、角度変化が大きい軸が限定的である場合は、そのような軸を優先してHMD18の軸と合わせるように誤差角度を求めておくことにより、姿勢検出精度を実効的に向上させることができる。
あるいは加速度ベクトルごとに、HMD18の対応する軸とのなす角度を取得し、軸ごとの平均値を誤差角度としてもよい。HMD18の軸と最も近くなるときの回転量から誤差角度を算出してもよい。なお同じ軸上に乗るべき加速度ベクトルの直線性や軸相互の直交性から明らかに外れている加速度が得られる軸については、運用時においても姿勢の計算から除外するようにしてもよい。
次にこれまで述べた構成によって実現される動作について説明する。図9は、補正データ更新部88による補正データの更新処理を含めた、姿勢データ取得部76の姿勢取得処理の手順を示すフローチャートである。なお姿勢データ取得部76は、HMD18に搭載されるモーションセンサに含まれる加速度センサ以外のセンサによる計測値から、頭部の角速度などに係る情報を適宜生成したり情報を統合したりしてよいが、ここでは図示を省略している。
まず姿勢算出部86は、HMD18の加速度センサからの出力値を取得すると(S10)、補正データ記憶部84に格納された補正データを参照して当該出力値を補正する(S12)。具体的には各軸に対する出力値を、あらかじめ準備されたスケール値およびバイアス値を含む補正式に代入することで有効な加速度を算出する。この際、情報処理装置10に複数のHMD18を接続可能な環境においては、先にHMD18の個体識別情報を取得し、それに対応づけられた補正データを参照する。このことは、スケール値およびバイアス値のみならず角度誤差についても同様である。
次に姿勢算出部86は、式1を用いて、基準の直交座標系からの傾き角度θ、ψ、φ、すなわち姿勢を算出する(S14)。このとき補正データ記憶部84に格納された誤差角度σθ、σψ、σφ分だけ回転補正をかけることにより、加速度センサ自体の姿勢から頭部の姿勢を正確に導出する。またその他のセンサの角度に係る出力値も同様に回転補正を施す。このようにして算出した姿勢の情報は情報処理部80に出力する(S16)。一方、補正データ更新部88は、撮影画像の解析結果として得られたHMD18の姿勢に係る情報を画像解析部78から取得する(S18)。この情報は上述のとおり、撮影画像におけるHMD18のマーカーの像の個数および位置関係に基づき、コンピュータグラフィックスの技術を応用した幾何計算などにより得られる。
次に補正データ更新部88は、S14で得られたモーションセンサに基づく姿勢と、画像解析の結果として得られた姿勢とを比較し、その差が所定のしきい値以上か否かを判定する(S20)。例えば軸ごとに角度を比較し、しきい値以上の差を有する軸があればそれを特定する。そのような軸がなければ処理を終了する(S20のN)。差がしきい値以上の軸がある場合(S20のY)、画像解析から得られた姿勢に合致する角度が得られるように補正データ記憶部84に格納された補正データを更新する(S22)。例えば式1の逆算により、画像解析に基づく角度が得られる加速度の値を求め、加速度センサの出力値から当該加速度が得られるようにバイアス値を更新する。ただし補正対象はバイアス値に限らず、スケール値や回転補正に用いる誤差角度を含めてもよい。
S10からS22の処理を所定の頻度で繰り返すことにより、継続的にHMD18、ひいては頭部の姿勢が得られ、それを表示画像など情報処理の結果に反映させることができる。また運用している段階で補正データが経時変化しても、その影響を最小限にすることができる。なお図示する例では、姿勢の算出および出力処理と補正データの更新処理を直列的に行ったが、実際には両者を独立したタイミングで行ってもよい。例えば画像解析に基づく姿勢情報を所定期間、蓄積し、加速度センサに基づく姿勢との差がしきい値以上となる状態が所定時間以上続いたら補正データを更新するようにしてもよい。
このように、画像解析の結果に基づき姿勢情報を補正する場合に、補正後の姿勢が得られるような補正データを導出して記憶しておき、次回の処理時にはそのデータを採用することにより、姿勢取得の精度を維持できる。また画像解析に基づく姿勢情報との差を短期間で修正するため、経時変化が持続しても1回の補正量が少なくてすみ、時間をかけて大がかりな補正を実施する必要がなくなる。なおこのような経時変化は、加速度センサの製造工程等の影響で、所定の軸に限定して発現する場合がある。
このように他の軸より経時変化の大きい、あるいは測定精度の悪い軸の情報を、モーションセンサの特性として製品情報等から得た場合、または実測により検出した場合、HMD18への取り付け時には、人の認知しやすさを考慮して、当該軸を特定の方向に取り付ける。例えば当該軸を垂直方向とし、水平面に対する角度検出については経時変化を起こりにくくすることにより、最も敏感に認知される水平方向の角度を安定化でき、違和感のない画像表示を長期的に実現できる。
3軸の経時変化量や精度に順序がある場合は、変化量の大きい順や精度の低い順に、垂直方向、前後方向、左右方向など、認知されにくい順に取り付けることにより、加速度センサの特性がもたらす影響を最小限にできる。認知のされにくさ以外に、ゲームなど情報処理の内容によって特定方向の傾きは結果に反映させない、ユーザの動きとして変化が小さい、といった影響の少なさを考慮して取り付け方向を決定してもよい。
以上述べた本実施の形態によれば、モーションセンサを用いて対象物の姿勢を検出する技術において、加速度センサの出力値を加速度に変換するためのスケール値およびバイアス値のほかに、回転誤差を取得し、記憶させておく。運用時にはそれを用いて加速度センサやその他のセンサから得られる角度情報に回転補正をかけることにより、対象物自体の姿勢を正確に取得する。これにより、センサの個体差、取り付け精度、キャリブレーションのための治具の精度など様々な要因によって生じる誤差の影響を最小限に抑えることができる。
HMDにモーションセンサを取り付け、頭部の動きに応じて視野を変化させて画像を表示させる態様においては、1°程度の誤差でも表示される世界に違和感を覚えやすく、体調にも影響しやすいため、上記のような構成が特に有効となる。また運用時においては、モーションセンサ以外の手段で取得した同じ対象物の姿勢情報と比較して、必要に応じて補正に用いるデータを更新する。例えばモーションセンサをHMDに取り付ける態様においては、HMDに複数のマーカーを設け、撮影画像におけるそれらの像の個数や位置関係から別途、頭部の姿勢を取得する。
これを用いて補正データを随時、更新することにより、センサ自体の経年変化の影響を抑えることができ、良好な状態を容易に持続させることができる。さらに、他の軸より経時変化が大きかったり測定精度が低かったりする軸があらかじめ判明している場合は、当該軸を垂直方向など、認知のされにくさによって選択した特定方向に配置して取り付ける。これにより、姿勢を反映した視野で表示させた画像への違和感など人への影響を最小限にできる。また比較的安価な加速度センサも利用できるため、システムの製造コストを抑えることもできる。
以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
例えば本実施の形態では、角度誤差に基づく回転補正、画像解析結果を利用した補正データの更新、センサの軸の特性に応じた取り付け方向の決定、を組み合わせて実施する場合を説明したが、それぞれは独立して実施することも可能である。そのようにしても、それぞれの態様により、姿勢情報を安定的かつ高精度に得られる。
8 情報処理システム、 10 情報処理装置、 12 撮像装置、 14 入力装置、 16 平板型ディスプレイ、 18 HMD、 22 CPU、 24 GPU、 32 通信部、 54 表示部、 56 音声出力部、 62 通信部、 64 モーションセンサ、 66 発光部、 72 入力情報取得部、 74 撮影画像取得部、 76 姿勢データ取得部、 78 画像解析部、 80 情報処理部、 82 出力データ送信部、 84 補正データ記憶部、 86 姿勢算出部、 90 計測部、 92 発光部、 94 出力データ受信部、 96 音声処理部、 98 表示処理部。

Claims (12)

  1. 対象物に搭載された加速度センサからの出力値を取得する入力情報取得部と、
    前記出力値に基づき前記加速度センサの軸方向の加速度を算出し、それに基づき当該軸の傾き角を求めることにより対象物の姿勢情報を取得する姿勢データ取得部と、
    前記姿勢情報を用いて情報処理を実施しその結果として生成した出力データを出力する情報処理部と、
    前記対象物に与えた複数の基準の軸と、それぞれに対応する、前記加速度センサの軸との角度誤差を格納する補正データ記憶部と、
    を備え、
    前記姿勢データ取得部は、前記補正データ記憶部に格納された、前記加速度センサの軸ごとの前記角度誤差に基づき、前記加速度センサの姿勢情報を対象物の姿勢情報に補正することを特徴とする情報処理装置。
  2. 前記補正データ記憶部は、前記加速度センサの複数の軸を同時に回転させたときに、前記対象物に与えた複数の基準の軸のうち対応する軸とそれぞれ合致するまでの角度の変化量を前記角度誤差として格納することを特徴とする請求項1に記載の情報処理装置。
  3. 前記補正データ記憶部は、前記加速度センサを搭載した対象物である装置の個体識別情報に対応づけて前記角度誤差を格納し、
    前記姿勢データ取得部は、前記出力値の取得元の加速度センサを搭載した装置の個体識別情報を取得し、それに基づき対応する前記角度誤差を参照することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記加速度センサ以外の手段により生成された、同一の対象物の姿勢情報を取得し、前記姿勢データ取得部が取得した姿勢情報と比較することにより、当該姿勢データ取得部が前記出力値から姿勢情報を取得するまでに用いる補正のためのデータを更新し、前記補正データ記憶部に更新後のデータを格納する補正データ更新部をさらに備えたことを特徴とする請求項1からのいずれかに記載の情報処理装置。
  5. 前記補正データ更新部は、前記出力値に基づき前記加速度を算出する補正式に用いるパラメータの少なくともいずれかを更新することを特徴とする請求項4に記載の情報処理装置。
  6. 前記姿勢データ取得部は、前記対象物に与えた基準の軸を、重力ベクトルの正および負の方向で一致させた状態における前記加速度センサが示す2つの加速度ベクトルを接続してなる線を、前記加速度センサの軸とすることによってあらかじめ算出された前記角度誤差を用いて、姿勢情報の補正を行うことを特徴とする請求項1から5のいずれかに記載の情報処理装置。
  7. 前記姿勢データ取得部は、前記加速度センサと同梱された、角度に係る値を計測する別のセンサの出力値を、前記角度誤差に基づき補正したうえ、前記姿勢情報と統合することを特徴とする請求項1から6のいずれかに記載の情報処理装置。
  8. ヘッドマウントディスプレイと、当該ヘッドマウントディスプレイと通信を確立し表示画像のデータを生成する情報処理装置と、を含み、
    前記情報処理装置は、
    前記ヘッドマウントディスプレイに搭載された加速度センサからの出力値を取得する入力情報取得部と、
    前記出力値に基づき前記加速度センサの軸方向の加速度を算出し、それに基づき当該軸の傾き角を求めることにより前記ヘッドマウントディスプレイの姿勢情報を取得する姿勢データ取得部と、
    前記姿勢情報を用いて、姿勢に応じて変化する視野を有する表示画像のデータを生成し前記ヘッドマウントディスプレイに出力する情報処理部と、
    前記ヘッドマウントディスプレイに与えた複数の基準の軸と、それぞれに対応する、前記加速度センサの軸との角度誤差を格納する補正データ記憶部と、
    を備え、
    前記姿勢データ取得部は、前記補正データ記憶部に格納された、前記加速度センサの軸ごとの前記角度誤差に基づき、前記加速度センサの姿勢情報を前記ヘッドマウントディスプレイの姿勢情報に補正することを特徴とする情報処理システム。
  9. 前記加速度センサは、軸ごとに得られた特性に応じた向きで前記ヘッドマウントディスプレイに取り付けられていることを特徴とする請求項8に記載の情報処理システム。
  10. 前記加速度センサは、出力値の経時変化が他の軸より大きい軸が、ユーザが装着した状態における前記ヘッドマウントディスプレイの垂直方向となるように取り付けられていることを特徴とする請求項9に記載の情報処理システム。
  11. 対象物に搭載された加速度センサからの出力値を取得するステップと、
    前記出力値に基づき前記加速度センサの軸方向の加速度を算出し、それに基づき当該軸の傾き角を求めることにより対象物の姿勢情報を取得するステップと、
    前記姿勢情報を用いて情報処理を実施しその結果として生成した出力データを他の装置へ出力するステップと、
    を含み、
    前記姿勢情報を取得するステップは、前記対象物に与えた複数の基準の軸と、それぞれに対応する、前記加速度センサの軸との角度誤差をメモリから読み出し、前記加速度センサの軸ごとの前記角度誤差に基づき、前記加速度センサの姿勢情報を対象物の姿勢情報に補正することを特徴とする情報処理装置による情報処理方法。
  12. 対象物に搭載された加速度センサからの出力値を取得する機能と、
    前記出力値に基づき前記加速度センサの軸方向の加速度を算出し、それに基づき当該軸の傾き角を求めることにより対象物の姿勢情報を取得する機能と、
    前記姿勢情報を用いて情報処理を実施しその結果として生成した出力データを出力する機能と、
    をコンピュータに実現させ、
    前記姿勢情報を取得する機能は、前記対象物に与えた複数の基準の軸と、それぞれに対応する、前記加速度センサの軸との角度誤差をメモリから読み出し、前記加速度センサの軸ごとの前記角度誤差に基づき、前記加速度センサの姿勢情報を対象物の姿勢情報に補正することを特徴とするコンピュータプログラム。
JP2015216128A 2015-11-02 2015-11-02 情報処理装置、情報処理システム、および情報処理方法 Active JP6514089B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015216128A JP6514089B2 (ja) 2015-11-02 2015-11-02 情報処理装置、情報処理システム、および情報処理方法
PCT/JP2016/081745 WO2017077918A1 (ja) 2015-11-02 2016-10-26 情報処理装置、情報処理システム、および情報処理方法
US15/758,155 US10416758B2 (en) 2015-11-02 2016-10-26 Information processing apparatus, information processing system, and information processing method
EP16861980.7A EP3343320B1 (en) 2015-11-02 2016-10-26 Information processing apparatus, information processing system, and information processing method
CN201680062535.9A CN108351690B (zh) 2015-11-02 2016-10-26 信息处理装置、信息处理***和信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015216128A JP6514089B2 (ja) 2015-11-02 2015-11-02 情報処理装置、情報処理システム、および情報処理方法

Publications (2)

Publication Number Publication Date
JP2017090979A JP2017090979A (ja) 2017-05-25
JP6514089B2 true JP6514089B2 (ja) 2019-05-15

Family

ID=58662563

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015216128A Active JP6514089B2 (ja) 2015-11-02 2015-11-02 情報処理装置、情報処理システム、および情報処理方法

Country Status (5)

Country Link
US (1) US10416758B2 (ja)
EP (1) EP3343320B1 (ja)
JP (1) JP6514089B2 (ja)
CN (1) CN108351690B (ja)
WO (1) WO2017077918A1 (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017156547A1 (en) 2016-03-11 2017-09-14 Magic Leap, Inc. Structure learning in convolutional neural networks
US10509469B2 (en) 2016-04-21 2019-12-17 Finch Technologies Ltd. Devices for controlling computers based on motions and positions of hands
EP3545497B1 (en) * 2016-11-22 2021-04-21 Lego A/S System for acquiring a 3d digital representation of a physical object
US10705113B2 (en) 2017-04-28 2020-07-07 Finch Technologies Ltd. Calibration of inertial measurement units attached to arms of a user to generate inputs for computer systems
US10379613B2 (en) 2017-05-16 2019-08-13 Finch Technologies Ltd. Tracking arm movements to generate inputs for computer systems
US10540006B2 (en) 2017-05-16 2020-01-21 Finch Technologies Ltd. Tracking torso orientation to generate inputs for computer systems
DE102017208365A1 (de) * 2017-05-18 2018-11-22 Robert Bosch Gmbh Verfahren zur Orientierungsschätzung eines tragbaren Gerätes
CN107976205A (zh) * 2017-10-10 2018-05-01 深圳市虚拟现实科技有限公司 姿态测量装置自动图形校正的方法及***
JP6890524B2 (ja) * 2017-10-31 2021-06-18 株式会社ソニー・インタラクティブエンタテインメント 姿勢制御システム
US10521011B2 (en) * 2017-12-19 2019-12-31 Finch Technologies Ltd. Calibration of inertial measurement units attached to arms of a user and to a head mounted device
US10509464B2 (en) 2018-01-08 2019-12-17 Finch Technologies Ltd. Tracking torso leaning to generate inputs for computer systems
US11016116B2 (en) 2018-01-11 2021-05-25 Finch Technologies Ltd. Correction of accumulated errors in inertial measurement units attached to a user
DE112018006985A5 (de) * 2018-01-31 2020-10-08 Oelschläger Metalltechnik GmbH Elektrisch höhenverstellbarer tisch sowie verfahren zum steuern desselben
US20190324283A1 (en) * 2018-04-19 2019-10-24 Htc Corporation Display device and display method
US10416755B1 (en) 2018-06-01 2019-09-17 Finch Technologies Ltd. Motion predictions of overlapping kinematic chains of a skeleton model used to control a computer system
US11474593B2 (en) 2018-05-07 2022-10-18 Finch Technologies Ltd. Tracking user movements to control a skeleton model in a computer system
US11009941B2 (en) 2018-07-25 2021-05-18 Finch Technologies Ltd. Calibration of measurement units in alignment with a skeleton model to control a computer system
CN110968087B (zh) * 2018-09-30 2023-05-23 百度(美国)有限责任公司 车辆控制参数的标定方法、装置、车载控制器和无人车
KR102361148B1 (ko) * 2018-10-30 2022-02-10 에이케이시스 주식회사 응용프로그램 구동 환경을 제공하는 가상 안드로이드 장치를 이용한 제어 시스템
JP7222226B2 (ja) * 2018-11-28 2023-02-15 富士通株式会社 表示方法、表示プログラムおよび情報処理装置
EP3907721A4 (en) * 2019-01-02 2022-03-09 Panasonic Intellectual Property Corporation of America INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
JP7353773B2 (ja) * 2019-03-18 2023-10-02 株式会社ソニー・インタラクティブエンタテインメント 複数のマーカを備えたデバイス
CN109919141A (zh) * 2019-04-09 2019-06-21 广东省智能制造研究所 一种基于骨架姿态的行人再识别方法
US11886650B2 (en) * 2019-04-19 2024-01-30 Apple Inc. Stylus-based input system for a head-mounted device
WO2020236993A1 (en) 2019-05-21 2020-11-26 Magic Leap, Inc. Hand pose estimation
US10809797B1 (en) 2019-08-07 2020-10-20 Finch Technologies Ltd. Calibration of multiple sensor modules related to an orientation of a user of the sensor modules
CN111643887B (zh) * 2020-06-08 2023-07-14 歌尔科技有限公司 头戴设备及其数据处理方法、计算机可读存储介质
CN114979615A (zh) * 2022-05-11 2022-08-30 闪耀现实(无锡)科技有限公司 用于在头戴显示设备显示画面的方法、装置及电子设备
CN117064375B (zh) * 2023-07-18 2024-03-22 江西瑞声电子有限公司 头部姿态监测方法、主控设备以及智能穿戴设备

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100812903B1 (ko) 1998-05-19 2008-03-11 가부시키가이샤 소니 컴퓨터 엔터테인먼트 화상 처리 장치와 방법 및 프로그램 기록 매체
JP3530772B2 (ja) * 1999-06-11 2004-05-24 キヤノン株式会社 複合現実感装置及び複合現実空間画像の生成方法
US7084887B1 (en) 1999-06-11 2006-08-01 Canon Kabushiki Kaisha Marker layout method, mixed reality apparatus, and mixed reality space image generation method
US20030062675A1 (en) * 2001-09-28 2003-04-03 Canon Kabushiki Kaisha Image experiencing system and information processing method
JP3584229B2 (ja) * 2001-09-28 2004-11-04 キヤノン株式会社 映像体験システムおよび情報処理方法
JP3837533B2 (ja) * 2003-01-15 2006-10-25 独立行政法人産業技術総合研究所 姿勢角処理装置および姿勢角処理方法
JP4693552B2 (ja) * 2005-08-30 2011-06-01 キヤノン株式会社 表示装置、制御装置、及び制御方法
JP2007310840A (ja) * 2006-05-22 2007-11-29 Sony Computer Entertainment Inc 情報処理装置、情報処理装置の制御方法及びプログラム
JP4861357B2 (ja) * 2008-02-28 2012-01-25 京セラ株式会社 傾斜センサ内蔵小型電子機器及び補正方法
JP2010117260A (ja) * 2008-11-13 2010-05-27 Epson Toyocom Corp 姿勢検出装置の補正パラメーター作成方法、姿勢検出装置の補正パラメーター作成用装置及び姿勢検出装置
CN103593044A (zh) * 2012-08-13 2014-02-19 鸿富锦精密工业(深圳)有限公司 电子装置校正***及方法
WO2014034378A1 (ja) * 2012-08-27 2014-03-06 ソニー株式会社 画像表示装置及び画像表示方法、情報通信端末及び情報通信方法、並びに画像表示システム
JP6366240B2 (ja) * 2013-08-21 2018-08-01 株式会社Where 頭部装着型画像表示装置、検出方法、検出プログラム、および、画像表示システム
IN2014MU00117A (ja) * 2014-01-13 2015-08-28 Tata Consultancy Services Ltd
WO2015139005A1 (en) * 2014-03-14 2015-09-17 Sony Computer Entertainment Inc. Methods and systems tracking head mounted display (hmd) and calibrations for hmd headband adjustments

Also Published As

Publication number Publication date
CN108351690A (zh) 2018-07-31
EP3343320A4 (en) 2019-04-17
JP2017090979A (ja) 2017-05-25
EP3343320A1 (en) 2018-07-04
US20180253142A1 (en) 2018-09-06
EP3343320B1 (en) 2021-06-23
US10416758B2 (en) 2019-09-17
WO2017077918A1 (ja) 2017-05-11
CN108351690B (zh) 2021-04-06

Similar Documents

Publication Publication Date Title
JP6514089B2 (ja) 情報処理装置、情報処理システム、および情報処理方法
US10848745B2 (en) Head-mounted display tracking system
US11523213B2 (en) Audio system for dynamic determination of personalized acoustic transfer functions
US10269139B2 (en) Computer program, head-mounted display device, and calibration method
US9794722B2 (en) Head-related transfer function recording using positional tracking
CN111696213B (zh) 图像生成装置、图像生成方法以及计算机可读介质
US10504243B2 (en) Calibration system for a head-mounted display tracking system
CN108156441A (zh) 视觉视频稳定
US11914762B2 (en) Controller position tracking using inertial measurement units and machine learning
JP2016139375A (ja) 情報処理装置および情報処理方法
JP6859447B2 (ja) 情報処理システムおよび対象物情報取得方法
JP6345627B2 (ja) 情報処理装置および情報処理方法
JP2017224984A (ja) プログラム、装置、キャリブレーション方法
JP2019032599A (ja) 情報処理装置および位置情報取得方法
JP2019020333A (ja) 情報処理装置および位置情報取得方法
TW202104974A (zh) 視角校正方法、虛擬實境顯示系統與運算裝置
JP2016140017A (ja) 情報処理装置、表示装置、および情報処理方法
WO2022146858A1 (en) Controller position tracking using inertial measurement units and machine learning
WO2023157498A1 (ja) 情報処理装置、デバイス速度推定方法およびデバイス位置推定方法
CN118104223A (zh) 头戴式显示器、信息处理装置和信息处理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190411

R150 Certificate of patent or registration of utility model

Ref document number: 6514089

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250