JP7242229B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP7242229B2
JP7242229B2 JP2018182092A JP2018182092A JP7242229B2 JP 7242229 B2 JP7242229 B2 JP 7242229B2 JP 2018182092 A JP2018182092 A JP 2018182092A JP 2018182092 A JP2018182092 A JP 2018182092A JP 7242229 B2 JP7242229 B2 JP 7242229B2
Authority
JP
Japan
Prior art keywords
coordinate system
sensor
information processing
display
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018182092A
Other languages
English (en)
Other versions
JP2020052789A (ja
Inventor
博之 渡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018182092A priority Critical patent/JP7242229B2/ja
Priority to US16/570,850 priority patent/US11127155B2/en
Publication of JP2020052789A publication Critical patent/JP2020052789A/ja
Application granted granted Critical
Publication of JP7242229B2 publication Critical patent/JP7242229B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、位置センサーが取り付けられた表示手段に画像を表示させる情報処理装置、情報処理方法、およびプログラムに関する。
現実世界と仮想世界とをリアルタイムに融合させる技術として、複合現実感(MR:Mixed Reality)技術や拡張現実感(AR:Augmented Reality)技術が知られている。これらの技術は、現実空間とコンピュータによって作られる仮想空間を繋ぎ目なく融合する技術である。これらは、組み立て作業時に作業手順や配線の様子を重畳表示する組み立て支援、患者の体表面に体内の様子を重畳表示する手術支援等、様々な分野への応用が期待される。
MR技術を実現する上で解決しなければならない大きな問題の一つとして、現実空間と仮想空間の位置合わせをいかに正確に行うかということがあり、従来から多くの取り組みが行われている。複合現実感における位置合わせの問題は、現実空間に設定した世界座標系(以後、単に世界座標系と呼ぶ)における、物体の3次元位置姿勢を求める問題に帰結される。これらの問題を解決する方法として、磁気式センサーや光学式センサーなどの位置姿勢センサーを利用することが一般に行われている。一般的に位置姿勢センサーが出力する値はセンサーが独自に定義するセンサー座標系における計測された点の位置姿勢であって、世界座標系における物体の位置姿勢ではない。そのため、センサー出力値を世界座標系における物体の位置姿勢に変換する座標変換が必要になる。本発明ではこの座標変換のための情報を較正情報と呼ぶ。
特許文献1では較正情報を特別な較正用器具を用いることなく取得している。具体的には撮影した画像から検出できる特徴点を現実空間に手動で設定し、それを世界座標系の既知の座標として利用して較正情報を取得する。この特徴点は紙などに印刷した平面の指標であり、この指標を床面などにおいて床面を世界座標系の平面として利用することがある。
また、世界座標系における物体の位置姿勢を較正によって算出するソフトウェアが出力した位置姿勢を受け取るのとは別に独自にセンサーの座標系におけるセンサー出力値を用いて、複合現実空間を構築するソフトウェアがある。これを複合システムと呼ぶ。この複合システムにおいて、センサー座標系に統一された座標系を使う必要がある。そこで特許文献2では世界座標系とセンサー座標系を統一で使うための指標を作成している。
特許04095320号公報 特許06295296号公報
紙に印刷された指標を基に較正されて決定した世界座標系は、紙であるために歪み、現実空間との床面に対して傾きが出る場合がある。世界座標系に傾きがあると、仮想現実空間では床面にずれなく配置したCGが複合現実空間で見ると現実空間の床面に食い込んでいるように見えたり、床面から浮いて見えたりしてしまうことがある。そのため、現実空間と誤差がない座標系が世界座標系である必要がある。この微妙な傾きを手動で調整することは時間がかかり、正確に調整することも難しいという課題がある。
また、特許文献2においては特別な較正用器具が必要になり、較正用器具が紙などに印刷された場合には、上記のように世界座標系が現実空間との床面に対して傾いてしまうという課題がある。
上記課題を鑑みて、本発明は、位置センサーが取り付けられた表示手段に画像を表示させる情報処理装置であって、位置センサーの出力に基づく画像を表示手段に表示させる際に、座標系の設定に起因する不具合を低減させることを目的とする。
本発明は、位置センサーが取り付けられた表示手段に画像を表示させる情報処理装置であって、前記位置センサーのセンサー座標系と前記センサー座標系とは異なる座標系とのいずれかを選択する選択手段と、前記選択手段で選択された座標系で、前記位置センサーが出力した位置に関する情報を取得する取得手段と、前記取得手段で取得された位置に関する情報に基づく画像を、前記表示手段に表示させる制御手段と、を有することを特徴とする。
本発明によれば、位置センサーが取り付けられた表示手段に画像を表示させる情報処理装置であって、位置センサーの出力に基づく画像を表示手段に表示させる際に、座標系の設定に起因する不具合を低減させることが出来る。
第1の実施形態に係る情報処理装置の構成を示す機能ブロック図 第1の実施形態に係る較正情報を示す図 第1の実施形態に係るユーザーインターフェースを示す図 情報処理装置1000の各機能部の動作を示すフローチャート 第1の実施形態におけるハードウェア構成例を示す図。 第2の実施形態に係る情報処理装置の構成を示す機能ブロック図 第2の実施形態に係る情報処理装置6000の処理手順を示すフローチャート 第3の実施形態に係る情報処理装置1000の処理手順を示すフローチャート 第4の実施形態に係る情報処理装置1000の処理手順を示すフローチャート
(第一の実施形態)
以下、添付図面を参照して本実施形態について説明する。
本実施形態においては、ユーザーがディスプレイでCGを観察する場合において、位置姿勢センサーもしくは位置センサーを装着したディスプレイの位置姿勢または位置を、予め計算された較正情報とユーザーによって設定された座標系を基に推定する。推定された位置姿勢または位置をユーザーの視点としてCGを描画する。また、ディスプレイはただの物体であってもよい。その場合、仮想的な視点を用意し、推定された物体の位置姿勢または位置に基づいてCGを描画してもよい。そして、CGが描画された画像をディスプレイに表示させるようにしてもよい。さらに、ディスプレイは撮像装置を備えており、ディスプレイの位置姿勢で撮像された画像とCGの画像と合成して合成画像を表示してユーザーが複合現実空間を体験できるようにしてもよい。本実施形態において、位置姿勢とは位置を表す3個のパラメーターと、その姿勢(向き)を表す3個のパラメーターとを合わせた6個のパラメーターのセットをいう。また特別に記載しない限り、位置姿勢は位置だけでもよい。
第1の実施形態に係る情報処理装置は、位置姿勢センサーが装着されたディスプレイの位置姿勢推定を行う手法において、センサーから出力されるセンサー座標系における位置姿勢値を取得する。その後、前もって算出されたセンサー座標系から世界座標系へと変換する較正情報を用いる。そして、ユーザーの設定に応じてセンサー座標系もしくは世界座標系のいずれか一方を切り替えて位置姿勢を推定し、CGを描画した画像をディプレイに表示する。
図5は、本実施形態における情報装置1000のハードウェア構成図である。同図において、CPU4001は、バス4010を介して接続する各デバイスを統括的に制御する。CPU4001は、読み出し専用メモリ(ROM)4003に記憶された処理ステップやプログラムを読み出して実行する。オペレーティングシステム(OS)をはじめ、本実施形態に係る各処理プログラム、デバイスドライバ等はROM4003に記憶されており、ランダムアクセスメモリ(RAM)4002に一時記憶され、CPU4001によって適宜実行される。また、入力I/Fとしてキーボード4004やマウス4005は、外部の装置(表示装置や操作装置など)から情報処理装置1000で処理可能な形式で入力信号として入力する。また、出力I/F4009は、外部の装置(表示装置)へ表示装置が処理可能な形式で出力信号として出力する。
図1は、本実施形態に係る情報処理装置1000の構成図である。
情報処理装置1000は、較正情報取得部1010、センサー値取得部1020、座標変換設定部1030、位置姿勢推定部1040、CGデータ描画部1050、によって構成される。情報処理装置1000は、ディスプレイ200と位置姿勢センサーシステム3000に接続されている。本実施形態ではディスプレイ200に有線または無線で接続されている。ディスプレイ200は、HMD(ヘッドマウントディスプレイ)であり、CGデータ描画部1050で描画されたCGデータを表示する。ディスプレイ200は、液晶ディスプレイであっても有機ELディスプレイであってもよく、CGが描画された画像を表示できるものであればどのような形態であってもかまわない。また前述のようにHMDにはセンサー3020が装着され、センサー3020の位置姿勢と、後述する較正情報を基にディスプレイ200の位置姿勢を推定する。推定されたディスプレイ200の位置姿勢を仮想的な視点として、CGを描画しディスプレイに表示することで仮想現実空間をユーザーが体験できるようにする。さらにHMDは撮像装置を備え、CGが描画された画像と撮像装置で撮像された画像を合成した合成画像を生成し、ディスプレイ200に表示することで複合現実空間をユーザーが体験できるようにしてもよい。
較正情報保持部400は、較正情報を保持している。この較正情報に関して、図2を用いて説明する。まず、環境中の一点を原点として定義し、互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系を世界座標系7010と呼ぶ。また、ディスプレイ200の中心を原点とし、互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系をディスプレイ座標系7030と呼ぶ。較正情報は世界座標系7010における後述するセンサー座標系7020の位置姿勢の変換行列であるMTWと、センサーの測点7040からみたディスプレイ座標系7030の位置姿勢の変換行列であるMCSで構成される。センサーの測点7040をディスプレイ座標系7030として用いる場合はセンサーの測点7040からみたディスプレイ座標系7030の位置姿勢MCSの情報は不要である。これらの較正情報は特許文献1の方法を用いて算出することができる。特許文献1の方法を用いて算出するためには前述したセンサーが装着されたディスプレイ200は撮像装置を備える必要がある。この較正情報は特許文献1の手法を用いてもよいし、それ以外の方法で算出されてもよい。
較正情報取得部1010は、予め校正された情報を較正情報保持部400から取得する。この較正情報は位置姿勢推定部1040に出力する。
センサー値取得部1020は位置姿勢センサーシステム3000から計測されたセンサー座標系におけるセンサーの測点7040の位置姿勢MSTを計測対象として連続的に取得する。位置姿勢センサーシステム3000は位置センサーシステムでもよい。例えば、位置姿勢センサーシステム3000が磁界センサーシステムの場合、磁界センサーシステムにおけるセンサー3020は計測対象として、位置姿勢を推定するディスプレイ200に装着され、自身の位置姿勢を計測する。トランスミッター3010は、磁界センサーシステムにおけるトランスミッターとして機能するもので、現実空間中の所定の位置に固定して配置されており、自身の周囲に磁界を発生させる。トランスミッター3010の動作制御はコントローラー3030によって行われ、コントローラー3030の動作制御は情報処理装置1000によって行われる。センサー3020は、トランスミッター3010が発生する磁界中における自身の位置姿勢に応じた磁界の変化を計測し、その計測結果をコントローラー3030に対して送出する。コントローラー3030は、この計測結果から、センサー座標系7020におけるセンサー3020の位置姿勢を示す信号値を生成して情報処理装置1000に送出する。センサー座標系7020とは、トランスミッター3010の位置を原点とし、その原点でもって互いに直交する3軸をそれぞれ、X軸、Y軸、Z軸とする座標系である。なお、磁界センサーシステムの代わりに、超音波センサーシステムや光学式センサーシステムを用いても構わないし、これらのシステムを組み合わせて使用しても構わない。光学式センサーの場合には、上記センサーは計測対象として球状の反射マーカーでもよい。その他にも、上記センサーはセンサー座標系で定義された測点の位置姿勢を取得できればなんでもよい。取得されたセンサー座標系におけるセンサーの測点7040の位置姿勢MSTは位置姿勢推定部1040に出力する。
操作入力部600はユーザーからの操作を受け付けるボタンである。ボタンでなくても、マイクによって音声を取得してもよいし、ジェスチャーを認識するなどユーザーからの操作を受け付けることができればなんでもよい。
座標変換設定部1030は位置姿勢推定部1040が出力するディプレイ200の位置姿勢をセンサー座標系で出力するか、世界座標系で出力するかを決定する。決定方法は操作入力部600からの入力でユーザーがグラフィカルユーザーインターフェースを利用して設定できるようにする。ユーザーは世界座標系が現実空間に合っておらず傾いていて、その傾きが調整できない場合、より現実空間に適している座標系を選択する必要がある。または、ソフトウェアの構成によりセンサー座標系におけるディスプレイ座標系7030の位置姿勢が取得できるように設定したい場合もある。そのため、ユーザーが設定できるようにユーザーインターフェースを設ける。例えばユーザーインターフェースはグラフィカルユーザーインターフェースでもよい。例えばグラフィカルユーザーインターフェースは図3に示すようにトグルボタン4010を持ち、そのトグルボタン4010を押下すると文章が切り代わるようにしてもよい。トグルボタン4010の文章は一例であり、どの座標系が設定されているかがわかればどのような文章でもよい。また文章に限らずアイコンなどで表現したボタンでもよい。また、ユーザーインターフェースはグラフィカルユーザーインターフェース4000に限らずユーザーが音声で設定できるようにしてもよいし、HMDにボタンを設けてそのボタンによって切り替えられるようにしてもよい。ユーザーの設定に応じて世界座標系かセンサー座標系が切り替わり、ディスプレイ座標系7030の位置姿勢は設定した座標系で位置姿勢推定部1040が位置姿勢を求め、出力する。切り替えした座標系情報を位置姿勢推定部1040に出力する。
位置姿勢推定部1040はディスプレイ座標系7030の位置姿勢が世界座標系7010で出力する設定の場合は式(A)を用いて世界座標系7010におけるディスプレイ座標系7030の位置姿勢MCWを求めることができる。
CW = MCS・MST・MTW 式(A)
また、座標変換設定部1030がディスプレイ座標系7030の位置姿勢をセンサー座標系7020で出力する設定をした場合は式(B)もしくは式(C)を用いてセンサー座標系7020でディスプレイ座標系7030の位置姿勢を求めることができる。
CT = MCW・MTW -1 式(B)
CT = MCS・MST 式(C)
上記式(A)、式(B)もしくは式(C)を用いて求められたディスプレイ座標系7030の位置姿勢はCGデータ描画部1050に出力する。
CGデータ保持部500は、描画するCGデータを保持している。CGデータの形式はCG画像としてレンダリングできるものであれば何でもよく形式は問わない。
CGデータ描画部1050は、CGデータ保持部500から描画するべきCGデータを取得し、位置姿勢推定部1040によって出力されたディスプレイ座標系7030の位置姿勢を仮想カメラの位置姿勢としてセットし、CGデータを描画する。CGデータの位置姿勢が世界座標系で保持されていた場合で、位置姿勢推定部1040の位置姿勢がセンサー座標系で出力されている場合には、CGデータの位置姿勢もセンサー座標系に変換する必要がある。これはCGデータの位置姿勢MCGデータに前述のMTWをかけるMTW・MCGデータを求めればよい。このCGデータを描画し、仮想現実空間画像を生成してユーザーに提示することで、仮想現実感(Virtual Reality)を実現することができる。また、ディスプレイ200が撮像装置を備え、取得した画像の上にCGデータを合成して描画し合成画像をユーザーに提示することで、複合現実感(Mixed Reality)を実現することができる。このように生成された画像をディスプレイ200に出力する。
次に、第1の実施形態に係る情報処理装置1000の処理手順について説明する。図4は、第1の実施形態に係る情報処理装置1000の処理手順を示すフローチャートである。
ステップS8010において、センサー値取得部1020は、センサー座標系におけるセンサーの測点7040の位置姿勢MSTを取得する。取得した情報を位置姿勢推定部1040に出力する。
ステップS8020において、較正情報取得部1010は、較正情報である世界座標系7010におけるセンサー座標系7020の位置姿勢MTWと、センサーの測点7040からみたディスプレイ座標系7030の位置姿勢MCSを取得する。取得した情報を位置姿勢推定部1040に出力する。
ステップS8030において、座標変換設定部1030はユーザーが設定した世界座標系における位置姿勢を推定するか、センサー座標系における位置姿勢を推定するかのどちらかを位置姿勢推定部1040に出力する。
ステップS8040において、ステップS8030で設定された座標系におけるディスプレイ座標系7030の位置姿勢MCWかMCTをCGデータ描画部1050に出力する。
ステップS8050において、CGデータ保持部500から描画するべきCGデータを取得し、位置姿勢推定部1040によって出力されたディスプレイ座標系7030の位置姿勢を仮想カメラの位置姿勢としてセットし、CGデータを描画する。CGデータのみを描画する場合には、仮想現実感(Virtual Reality)を実現することができる。またディスプレイ200が撮像装置を備え、撮像装置が取得した画像の上にCGデータを合成して描画し合成画像をユーザーに提示することで、複合現実感(Mixed Reality)を実現することもできる。
ステップS8060で、処理を終了する場合には本フローを終了し、継続する場合には、ステップS8010に処理を戻す。
以上のように、ユーザーがディスプレイでCGを観察する場合において、位置姿勢センサーもしくは位置センサーを装着したディスプレイの位置姿勢を、予め計算された較正情報とユーザーが設定した座標系を基に推定する。これにより、ユーザーはより現実空間に合った座標系を用いることができる。
(第二の実施形態)
第一の実施形態では、推定されたディスプレイの位置姿勢を用いてCGを描画し仮想現実感を実現した。しかし、ディスプレイの位置姿勢を用いて実現できることはCG描画に限らない。本実施形態では、ディスプレイの位置姿勢を用いて、危険場所にユーザーが近づいたら警告を表示する。
以下では、第一の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第一の実施形態と同様であるものとする。
本実施形態に係るシステムの構成例について、図6のブロック図を用いて説明する。情報処理装置6000は、図1の情報処理装置1000に警告判定部6010と警告データ保持部700を加えた構成を有する。警告データ保持部700は警告データである世界座標系7010における座標点と危険範囲が定義されたデータを複数保持している。
警告判定部6010は警告データ保持部700から警告データを複数取得する。また、位置姿勢推定部1040から出力されたディスプレイ座標系7030の位置姿勢を取得する。この世界座標系におけるディスプレイ座標系7030の位置姿勢が警告データから算出される警告範囲に入っている場合は警告を表示することをCGデータ描画部6020に出力する。警告範囲は警告データの座標点W(x、y、z、1)と座標点を中心に半径r[m]以内で定義される。この範囲にディスプレイ座標系7030の位置姿勢が入っている場合はCGデータ描画部6020に警告を表示することを出力する。
ディスプレイ座標系7030の位置姿勢がセンサー座標系における位置姿勢の場合は座標点W(x、y、z、1)にMTWをかけた後で、計算後の座標点Wを中心に半径r[m]以内に位置姿勢が入っているかを判定する。入っている場合はCGデータ描画部6020に警告を表示することを出力する。
CGデータ描画部6020は、CGデータ描画部1050と同様にCGデータ保持部500から描画するべきCGデータを取得する。その後、位置姿勢推定部1040によって出力されたディスプレイ座標系7030の位置姿勢を仮想カメラの位置姿勢としてセットし、CGデータを描画する。さらに警告判定部6010から警告を表示することが出力されている場合は、ディスプレイに警告を表す文章やアイコンを表示する。これにより、ユーザーは危険場所に近づいていることがすぐにわかるようになる。警告は文章やアイコン表示だけではなく、音や音声、振動などで伝えてもよい。
本実施形態では、図7は、第2の実施形態に係る情報処理装置6000の処理手順を示すフローチャートである。S9010では、警告判定部6010でディスプレイ座標系7030が警告範囲に入っているかどうかを判定する。入っている場合はS9020に移動する。入っていない場合はS8050に移動する。S9020では、CGデータ描画部6020はCGデータと警告を表す文言やアイコンを表示する。以上のように、ディスプレイが警告範囲に入っていた場合にはユーザーに危険を知らせることができる。ディスプレイがHMDの場合には視野が狭く、ユーザーが危険に気付かない可能性が高い。これにより、HMDを装着した状態でもユーザーが危険な状態になることを避けることができる。
(第三の実施形態)
第一および第二の実施形態では、ユーザーが設定することによってディスプレイの位置姿勢を世界座標系で推定するか、センサー座標系で推定するかを決定して、仮想現実空間を体験できるようにした。しかし、ユーザーが座標系を意識して設定しなければならないのは手間である。本実施形態では設定されている座標系が現実空間に合っていない可能性がある場合はユーザーに通知する。
以下では、第一の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第一の実施形態と同様であるものとする。
位置姿勢推定部1040は第1の実施形態と同様にユーザー設定に応じて座標系におけるディスプレイ座標系7030の位置姿勢を推定する。さらに、本実施形態ではユーザーが設定した座標系が現実空間に合っているかを判定して、合っていない場合はCGデータ描画部1050に合っていない可能性があることを出力する。現実空間に合っているかの判定について以下に記述する。まず世界座標系もしくはセンサー座標系は現実空間の床面や壁面などに設定されることを仮定する。そのような中で世界座標系7010におけるセンサー座標系7020の位置姿勢MTWのX軸、Y軸、Z軸周りのどれかの回転が90×Z度±閾値(Zは整数)以上の場合、世界座標系、センサー座標系のどちらかが現実空間の面に対して誤差があると考えられる。そのため、CGデータ描画部1050に現在の座標系が現実空間に合っていない可能性があることを出力する。前述の閾値はユーザーが前もって設定する。
また、現実空間に合っているかどうかを判定する方法は上記以外の方法でもよい。例えば、被写体の距離情報を取得可能な深度カメラによって平面推定を行い、その平面に対して現在設定されている座標系の面がずれているかどうかを判定することによって現実空間に合っているかどうかを決定してもよい。この判定には深度カメラも位置姿勢センサーを装着し、特許文献1の手法を用いて深度カメラの較正情報を算出する必要がある。深度カメラの世界座標における位置姿勢を求めた後で、世界座標系における平面を推定し、設定されている座標系のXY面、YZ面、XZ面とのずれを判定する。このずれは平面と垂直なベクトルと設定された座標系のX軸、Y軸、Z軸夫々のなす角が閾値以上かどうかを判定することでずれを判定する。閾値以上であれば、CGデータ描画部1050に現在設定されている座標系が現実空間に合っていない可能性があることを出力する。
CGデータ描画部1050は第1の実施形態と同様にCGデータの描画を行う。さらに、本実施形態では位置姿勢推定部10010が現実空間に現在の座標系が合っていないと判定したことを出力している場合は、ディスプレイに出力するCGデータを描画した画像に「現在の座標系を確認してください。」という文言を合成して出力する。この文言はユーザーが座標系を確認するよう促すことであればどのようなものであって良い。例えば、アイコンなどの画像を表示してもよいし、音や音声で通知してもよい。ここで、一度ユーザーが確認したことを操作入力部600により入力済みの場合には文言を出力しなくてもよい。
本実施形態では、図8は、第3の実施形態に係る情報処理装置1000の処理手順を示すフローチャートである。
S10010では位置姿勢推定部1040はユーザーが設定した座標系が現実空間に合っているか判定する。現実空間に合っていないと判定された場合にはS10020に移動する。そうでない場合はS8050に移動する。
S10020ではCGデータ描画部1050はCGデータと座標系を確認することを促す文言やアイコンを描画する。
以上のように、設定されている座標系が現実空間と誤差がある可能性がある場合はユーザーに通知することができる。これにより、ユーザーは設定された座標系が正しいかどうかを気にせずに、ユーザーがディスプレイを通してCGの観察を開始できる。問題があった場合には通知されるため、ユーザーはその時に設定を確認するだけでよい。
(第四の実施形態)
第三の実施形態では、設定されている世界座標系が現実空間に合っていない可能性がある場合はユーザーに通知した。しかし、ユーザーが座標系を設定しなければならないのは手間である。本実施形態では設定されている座標系が現実空間に合っていない場合は自動で切り替える。
以下では、第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。
位置姿勢推定部1040は前述の方法でユーザーが設定した座標系が現実空間に合っているかを判定する。合っていない場合は自動的に座標系を現在の設定以外の座標系に切り替える。例えば、世界座標系が設定されている場合には世界座標系からセンサー座標系に切り替える。反対にセンサー座標系が設定されている場合には世界座標系に切り替える。その際にすでに自動切換え済みの場合は、現実空間に合っているかの判定に関わらず切り替えなくてもよい。その後、決定した座標系に基づくディスプレイ座標系7030の位置姿勢をCGデータ描画部1050に出力する。また自動で座標系の切り替えが実施されている場合には切替済みであることもCGデータ描画部1050に通知する。
CGデータ描画部1050は第1の実施形態と同様にCGデータの描画を行う。さらに、位置姿勢推定部1040が自動で座標系を切り替えたことを出力している場合は、ディスプレイに「設定した座標系(世界座標系)がセンサー座標系に切り替わりました。」という文言を合成して出力する。この文言は座標系が自動的に切り替わったことをユーザーが理解できるようになっていればどのようなものであって良い。例えば、アイコンなどの画像を表示してもよいし、音や、音声、振動で通知してもよい。ここで、一度ユーザーが確認したことを操作入力部600により入力済みの場合には文言を出力しなくてもよい。
本実施形態では、図9は、第4の実施形態に係る情報処理装置1000の処理手順を示すフローチャートである。
S11010では位置姿勢推定部1040はユーザーが設定した座標系が現実空間に合っているか判定する。現実空間に合っていないと判定された場合にはS11020に移動する。そうでない場合はS8040に移動する。
S11020では位置姿勢推定部1040は現在設定されている座標系とは異なる座標系に自動的に切り替える。
S11030ではCGデータ描画部1050が位置姿勢推定部1040から座標系が自動で切り替わったかどうかを受け取る。自動で切り替わっていた場合にはS11040に移動する。そうでない場合はS8050に移動する。
S11040ではCGデータ描画部1050が自動で座標系が切り替わったこととCGデータの描画を行う。
以上のように、設定されている座標系が現実空間と誤差がある場合には、自動的に座標系を切り替えることができる。これにより、ユーザーは座標系の設定を意識することなく、CGの観察をすることができる。
(他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。

Claims (17)

  1. 位置センサーが取り付けられた表示手段に画像を表示させる情報処理装置であって、
    前記位置センサーのセンサー座標系と前記センサー座標系とは異なる座標系とのいずれかを選択する選択手段と、
    前記選択手段で選択された座標系で、前記位置センサーが出力した位置に関する情報を取得する取得手段と、
    前記取得手段で取得された位置に関する情報に基づく画像を、前記表示手段に表示させる制御手段と、を有することを特徴とする情報処理装置。
  2. 前記取得手段は、
    前記センサー座標系と前記センサー座標系とは異なる座標系との間の変換を行うための第一の行列と、前記センサー座標系と前記表示手段の座標系との間の変換を行うための第二の行列と、の少なくともいずれかを用いた変換を行い、前記位置センサーが出力した位置に関する情報を取得することを特徴とする請求項1に記載の情報処理装置。
  3. 前記取得手段は、
    前記選択手段で前記センサー座標系が選択された場合は、前記第一の行列を用いた変換を行い、前記位置センサーが出力した位置に関する情報を取得することを特徴とする請求項に記載の情報処理装置。
  4. 前記情報処理装置は、前記表示手段にユーザーインターフェースを表示させ、
    前記選択手段は、前記ユーザーインターフェースで設定された設定の情報に基づき、前記選択を行うことを特徴とする請求項1に記載の情報処理装置。
  5. 前記ユーザーインターフェースはトグルボタンを有し、前記トグルボタンが押下される度に、前記センサー座標系と前記センサー座標系とは異なる座標系とが切り替わることを特徴とする請求項4に記載の情報処理装置。
  6. 前記選択手段は、音声の情報に基づき、前記選択を行うことを特徴とする請求項1に記載の情報処理装置。
  7. 前記選択手段は、ジェスチャーの認識の結果に基づき、前記選択を行うことを特徴とする請求項1に記載の情報処理装置。
  8. 前記第一の行列のX軸、Y軸、Z軸周りの回転が閾値以上か判定する判定手段と、
    前記判定手段が閾値以上と判定した場合は、ユーザーに通知する通知手段と、を有することを特徴とする請求項に記載の情報処理装置。
  9. 前記判定手段が閾値以上と判定した場合は、前記センサー座標系と前記センサー座標系とは異なる座標系とが切り替わることを特徴とする請求項8に記載の情報処理装置。
  10. 前記判定手段は、平面を推定し、
    前記センサー座標系と前記センサー座標系とは異なる座標系との少なくともいずれかのXY面、YZ面、XZ面と、前記推定された平面とのずれを判定することを特徴とする請求項8に記載の情報処理装置。
  11. 前記平面のずれは、前記センサー座標系と前記センサー座標系とは異なる座標系との少なくともいずれかのX軸、Y軸、Z軸と前記推定された平面と垂直なベクトルのなす角とが、閾値以上か否かを判定することを特徴とする請求項10に記載の情報処理装置。
  12. 前記情報処理装置は前記表示手段を有し、
    前記表示手段の位置姿勢をCGデータの位置姿勢として描画し、仮想的な視点から仮想現実空間の画像を生成して、表示装置に表示することを特徴とする請求項1に記載の情報処理装置。
  13. 前記表示手段はHMDであり、
    前記HMDは、前記HMDの位置を仮想的な視点としたCGの画像を表示することを特徴とする請求項1に記載の情報処理装置。
  14. 前記HMDは撮像装置を有し、
    前記HMDは、前記HMDの位置を仮想的な視点としたCGの画像と、前記撮像装置から得られた画像とを合成して、表示することを特徴とする請求項13に記載の情報処理装置。
  15. 前記情報処理装置は、警告の範囲を設定し、
    前記表示手段の位置を用いて、前記表示手段が警告の範囲に入ったかどうかを判定する判定手段と、
    前記判定手段が前記警告の範囲に前記表示手段が入ったと判定した場合は、ユーザーに警告を通知する通知手段とを有することを特徴とする請求項1に記載の情報処理装置。
  16. 位置センサーが取り付けられた表示手段に画像を表示させる情報処理方法であって、
    前記位置センサーのセンサー座標系と前記センサー座標系とは異なる座標系とのいずれかを選択する選択工程と、
    前記選択工程で選択された座標系で、前記位置センサーが出力した位置に関する情報を取得する取得工程と、
    前記取得工程で取得された位置に関する情報に基づく画像を、前記表示手段に表示させる制御工程と、を有することを特徴とする情報処理方法。
  17. コンピュータを、
    位置センサーが取り付けられた表示手段に画像を表示させる情報処理装置であって、
    前記位置センサーのセンサー座標系と前記センサー座標系とは異なる座標系とのいずれかを選択する選択手段と、
    前記選択手段で選択された座標系で、前記位置センサーが出力した位置に関する情報を取得する取得手段と、
    前記取得手段で取得された位置に関する情報に基づく画像を、前記表示手段に表示させる制御手段と、を有することを特徴とする情報処理装置として機能させるためのプログラム。
JP2018182092A 2018-09-27 2018-09-27 情報処理装置、情報処理方法、およびプログラム Active JP7242229B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018182092A JP7242229B2 (ja) 2018-09-27 2018-09-27 情報処理装置、情報処理方法、およびプログラム
US16/570,850 US11127155B2 (en) 2018-09-27 2019-09-13 Information processing apparatus, information processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018182092A JP7242229B2 (ja) 2018-09-27 2018-09-27 情報処理装置、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020052789A JP2020052789A (ja) 2020-04-02
JP7242229B2 true JP7242229B2 (ja) 2023-03-20

Family

ID=69946335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018182092A Active JP7242229B2 (ja) 2018-09-27 2018-09-27 情報処理装置、情報処理方法、およびプログラム

Country Status (2)

Country Link
US (1) US11127155B2 (ja)
JP (1) JP7242229B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11874959B2 (en) * 2021-09-15 2024-01-16 Sony Interactive Entertainment Inc. Dynamic notification surfacing in virtual or augmented reality scenes

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004118734A (ja) 2002-09-27 2004-04-15 Canon Inc 情報処理方法及び情報処理装置
JP2012053631A (ja) 2010-08-31 2012-03-15 Canon Inc 情報処理装置、情報処理方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4095320B2 (ja) 2002-03-19 2008-06-04 キヤノン株式会社 センサ較正装置、センサ較正方法、プログラム、記憶媒体
US7477236B2 (en) * 2005-04-29 2009-01-13 Microsoft Corporation Remote control of on-screen interactions
JP5230114B2 (ja) * 2007-03-13 2013-07-10 キヤノン株式会社 情報処理装置、情報処理方法
EP2960867A4 (en) * 2013-02-21 2016-08-03 Fujitsu Ltd DISPLAY DEVICE, DISPLAY PROCEDURE, DISPLAY PROGRAM AND POSITION SETTING SYSTEM
US9996221B2 (en) * 2013-12-01 2018-06-12 Upskill, Inc. Systems and methods for look-initiated communication
JP2016218268A (ja) * 2015-05-21 2016-12-22 セイコーエプソン株式会社 可搬型表示装置、表示システム、表示方法
US10393827B2 (en) * 2016-06-03 2019-08-27 Texas Tech University System Magnetic field vector imaging array
JP6295296B2 (ja) 2016-08-01 2018-03-14 大豊精機株式会社 複合システム及びターゲットマーカ

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004118734A (ja) 2002-09-27 2004-04-15 Canon Inc 情報処理方法及び情報処理装置
JP2012053631A (ja) 2010-08-31 2012-03-15 Canon Inc 情報処理装置、情報処理方法

Also Published As

Publication number Publication date
JP2020052789A (ja) 2020-04-02
US11127155B2 (en) 2021-09-21
US20200105011A1 (en) 2020-04-02

Similar Documents

Publication Publication Date Title
JP6586824B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
EP2548495B1 (en) System and program for supporting endoscopic observation
JP6598617B2 (ja) 情報処理装置、情報処理方法およびプログラム
US9784972B2 (en) Information processing apparatus, information processing method, and storage medium
KR20150085797A (ko) 정보처리장치 및 정보처리방법
US11508150B2 (en) Image processing apparatus and method of controlling the same
JP6742760B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US20190156118A1 (en) Information processing apparatus, control method, and program
JP2017004356A (ja) 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
WO2020157984A1 (ja) 合成画像生成システム及び位置情報補正システム
US20210272329A1 (en) Information processing apparatus, information processing method, and storage medium
JP7242229B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2022058753A (ja) 情報処理装置、情報処理方法及びプログラム
JP2015104447A (ja) 顕微鏡用映像処理装置、および医療用顕微鏡システム
JP6549066B2 (ja) 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
JP2005147894A (ja) 計測方法、計測装置
JP2019185475A (ja) 特定プログラム、特定方法及び情報処理装置
JP2003079637A (ja) 手術ナビゲーションシステム
WO2020157985A1 (ja) 合成画像生成システム及び初期条件リセットシステム
JP6436872B2 (ja) 情報処理装置、情報処理方法、プログラム
US11475642B2 (en) Methods and systems for selection of objects
JP2024089324A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2017004539A (ja) 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
JP6598565B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6430340B2 (ja) 位置入力装置および位置入力方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230308

R151 Written notification of patent or utility model registration

Ref document number: 7242229

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151