JP2013124972A - 位置推定装置及び方法、並びにテレビジョン受信機 - Google Patents

位置推定装置及び方法、並びにテレビジョン受信機 Download PDF

Info

Publication number
JP2013124972A
JP2013124972A JP2011274552A JP2011274552A JP2013124972A JP 2013124972 A JP2013124972 A JP 2013124972A JP 2011274552 A JP2011274552 A JP 2011274552A JP 2011274552 A JP2011274552 A JP 2011274552A JP 2013124972 A JP2013124972 A JP 2013124972A
Authority
JP
Japan
Prior art keywords
marker
coordinates
position estimation
distance
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011274552A
Other languages
English (en)
Inventor
Yoshiaki Okuno
好章 奥野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung R&D Institute Japan Co Ltd
Original Assignee
Samsung Yokohama Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Yokohama Research Institute filed Critical Samsung Yokohama Research Institute
Priority to JP2011274552A priority Critical patent/JP2013124972A/ja
Publication of JP2013124972A publication Critical patent/JP2013124972A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

【課題】コンパクトなマーカを用いて対象物の位置を求める。
【解決手段】マーカを有する対象物の位置を求める位置推定装置は、前記対象物が撮影されている赤外画像内で前記マーカの座標を求めるマーカ検出部と、前記マーカ検出部で求められた座標に基づいて、前記対象物の、前記マーカ以外の部分に対応する座標を求める対象位置決定部と、前記対象位置決定部で求められた、前記マーカ以外の部分の座標に対応する距離を、前記対象物が撮影されている距離画像の対応する点の値から取得し、前記距離を用いて、前記対象物の3次元空間内の座標を算出する3次元位置出力部とを有する。
【選択図】図2

Description

本開示は、3次元空間内の位置の推定を行う位置推定装置に関する。
ユーザが手に持ったコントローラの位置や姿勢を認識し、その結果をユーザインタフェースの1つとして利用する装置が知られている。
例えば特許文献1には、ディスプレイが2個のマーカを有し、コントローラが有するカメラでこれらのマーカを撮影することによって、コントローラとディスプレイとの間の距離を推定する技術が記載されている。
特許文献2には、コントローラに貼り付けられた2次元コードをディスプレイ側のカメラで撮影することによって、コントローラの位置と姿勢とを推定する技術が記載されている。
特開2007−80002号公報 特開2007−296248号公報
しかしながら、特許文献1の技術では、ユーザが手に持つコントローラにカメラが内蔵されており、映像をコントローラから送信する必要もあるので、コントローラのコストや重量が大きくなる。特許文献2の技術では、比較的広い面積を必要とする2次元コードをコントローラに貼り付ける必要があり、小さなコントローラには適用が難しい。
本発明は、コンパクトなマーカを用いて対象物の位置を求めることを目的とする。
本開示による位置推定装置は、マーカを有する対象物の位置を求める位置推定装置であって、前記対象物が撮影されている赤外画像内で前記マーカの座標を求めるマーカ検出部と、前記マーカ検出部で求められた座標に基づいて、前記対象物の、前記マーカ以外の部分に対応する座標を求める対象位置決定部と、前記対象位置決定部で求められた、前記マーカ以外の部分の座標に対応する距離を、前記対象物が撮影されている距離画像の対応する点の値から取得し、前記距離を用いて、前記対象物の3次元空間内の座標を算出する3次元位置出力部とを有する。
これによると、コントローラ等の対象物の、マーカ以外の部分に対応する座標を求め、求められた座標に対応する距離を距離画像から取得するので、コンパクトなマーカを用いて対象物の位置を求めることが可能となる。
本開示によるテレビジョン受信機は、前記位置推定装置と、前記位置推定装置で求められた3次元空間内の座標に基づいて、前記対象物によってポイントされた位置をオブジェクト制御情報として出力するオブジェクト制御部と、前記オブジェクト制御情報に基づいて、3次元空間に配置されたオブジェクトを描画する描画部と、前記描画部で得られた画像データに基づいて画像の表示を行う表示部とを有する。
本開示による位置推定方法は、マーカを有する対象物の位置を求める位置推定方法であって、前記対象物が撮影されている赤外画像内で前記マーカの座標を求め、前記求められた座標に基づいて、前記対象物の、前記マーカ以外の部分に対応する座標を求め、前記マーカ以外の部分の座標に対応する距離を、前記対象物が撮影されている距離画像の対応する点の値から取得し、前記距離を用いて、前記対象物の3次元空間内の座標を算出する。
本開示によれば、コンパクトなマーカを用いて対象物の位置を求めることが可能となる。このため、比較的小さなコントローラ等の対象物についても、位置を求めることができる。
本発明の実施形態に係る位置推定装置を含むシステムの概要を示す説明図である。 本発明の実施形態に係る位置推定装置の構成例を示すブロック図である。 図2のコントローラの概要図である。 赤外画像の例を示す説明図である。 距離画像の例を示す説明図である。 図2の位置推定装置による処理の流れの例を示すフローチャートである。 図4の赤外画像に対応する2値化画像の例を示す説明図である。 マーカ検出用のテンプレートの例を示す説明図である。 図3のコントローラのマーカ領域が検出された状態を示す説明図である。 図1の対象位置決定部の処理を説明する説明図である。 距離画像において、図10の中点PMに対応する点を示す説明図である。 距離画像から3次元空間内の座標への変換についての説明図である。 図3のコントローラの他の例を示す概要図である。 図13のコントローラのマーカ領域が検出された状態を示す説明図である。 図14のマーカ領域の周囲の点の例を示す説明図である。 本発明の実施形態に係る他の位置推定装置の構成例を示すブロック図である。 図16のコントローラの概要図である。 図18は、本発明の実施形態に係るテレビジョン受信機を含むシステムの構成例を示すブロック図である。 図18のコントローラによる操作前のメニュー画面の例を示す説明図である。 図18のコントローラによる操作後のメニュー画面の例を示す説明図である。
以下、本発明の実施の形態について、図面を参照しながら説明する。
図面において下2桁が同じ参照番号で示された構成要素は、互いに対応しており、同一の又は類似の構成要素である。
図1は、本発明の実施形態に係る位置推定装置を含むシステムの概要を示す説明図である。図1のシステムは、距離画像カメラ22と、位置推定の対象物であるコントローラ30と、テレビジョン受信機40とを有する。
図2は、本発明の実施形態に係る位置推定装置100の構成例を示すブロック図である。図2の位置推定装置100は、マーカ検出部12と、対象位置決定部14と、3次元位置出力部16とを有する。位置推定装置100は、図1のテレビジョン受信機40に含まれている。位置推定装置100は、コントローラ30の3次元空間内の位置を求める。テレビジョン受信機40は、求められたコントローラ30の位置を用いて、例えば、ユーザインタフェース用の画像を生成して表示する。
距離画像カメラ22は、例えばTOF(time of flight)型の距離画像カメラである。距離画像カメラ22は、赤外光源として例えば赤外線LED(light emitting diode)を有し、赤外光が、赤外光源を出てから対象物で反射して距離画像カメラ22に戻るまでの飛行時間(遅れ時間)に基づいて、対象物までの距離を、距離画像IMDとして出力する。距離画像IMDでは、各画素が対応する点までの距離が、その画素の明るさで表現される。距離画像カメラ22は、距離画像の他、赤外光の明暗を示す赤外画像IMRも出力する。距離画像カメラ22は、例えば、コントローラ30を手に持ったユーザを撮影し、撮影された赤外画像IMR及び距離画像IMDを、一定のフレームレートで出力する。
図3は、図2のコントローラ30の概要図である。コントローラ30は、例えば図1のテレビジョン受信機40のリモートコントローラであって、1つの面にマーカ32A及び32Bを有する。マーカ32A及び32Bは、例えば再帰性反射素材を有する。マーカ32A及び32Bは、距離画像カメラ22の赤外光源から放射された赤外光を反射するので、距離画像カメラ22からはマーカ32A及び32Bが発光しているように観察される。また、マーカ32A及び32Bは、赤外線LEDのような発光素子であってもよい。
図4は、赤外画像IMRの例を示す説明図である。赤外画像IMRでは、距離画像カメラ22に入射する赤外光の強さが、画素の明るさに対応付けられている。図4では、人物がコントローラを持って操作している場面が示されている。背景、人物、及びコントローラ30のマーカ32A及び32B以外の部分は、それぞれの素材に応じて赤外光を反射するので、極端に明るく表示されることはない。一方、マーカ32A及び32Bは赤外光を強く反射するので、周囲よりも明るく表示される。
図5は、距離画像IMDの例を示す説明図である。ここでは、距離画像カメラ22から近い部分は明るく、遠い部分は暗く表示されるものとする。コントローラ、人物、背景の順に距離が遠くなるので、コントローラが最も明るく、背景が最も暗く表示される。マーカ32A及び32Bからは、距離画像カメラ22にその想定範囲以上の強い赤外光が入射される。このため、距離画像IMDで示されるマーカ32A及び32Bまでの距離は信頼できない。位置推定装置100では、距離画像IMDに示されたマーカ32A及び32Bまでの距離は用いられないので、距離画像カメラ22は、想定範囲以上の強い赤外光を発する部分を、距離画像IMDにおいて例えば黒で表示してもよい。
図6は、図2の位置推定装置100による処理の流れの例を示すフローチャートである。以下では図6を参照して、位置推定装置100の処理について説明する。S12では、マーカ検出部12は、コントローラ30が撮影されている赤外画像IMRを距離画像カメラ22から取り込み、3次元位置出力部16は、コントローラ30が撮影されている距離画像IMDを距離画像カメラ22から取り込む。
図7は、図4の赤外画像IMRに対応する2値化画像の例を示す説明図である。図8は、マーカ検出用のテンプレートの例を示す説明図である。図9は、図3のコントローラ30のマーカ領域が検出された状態を示す説明図である。
S14では、マーカ検出部12は、赤外画像IMR内でマーカ32A及び32Bの座標を求め、求められた座標MKを対象位置決定部14に出力する。具体的には、マーカ検出部12は、まず、赤外画像IMRの各画素の値が所定の閾値以上であるか否かを判定し、赤外画像IMRの2値化画像を求める。マーカ検出部12は、例えば画素値が閾値以上の画素を白、その他の画素を黒にし、更に、ノイズ成分を抑制するために、白の領域に収縮処理や膨張処理を行ってもよい。
マーカ検出部12は、図8に示されているようなマーカのテンプレート画像TP1,TP2,及びTP3を予め有している。次に、マーカ検出部12は、これらのテンプレート画像を用いて、テンプレートマッチングによって、図7の2値画像からマーカ領域を検出する。このようにサイズの異なる複数のテンプレートを用いることによって、マーカまでの距離が近いときでも遠いときでも良好にマーカ領域を検出することができる。
図8のテンプレートのいずれかが図7のマーカ領域に一致すると、すなわち、図9のようにマーカ領域が検出されると、マーカ検出部12は、例えば、各マーカ領域の中心座標(テンプレートの中心座標)を、マーカ検出情報MKとして対象位置決定部14に出力する。
図10は、図1の対象位置決定部14の処理を説明する説明図である。S16では、対象位置決定部14は、マーカ検出部12で求められた座標に基づいて、コントローラ30の、マーカ以外の部分に対応する座標を求める。具体的には、対象位置決定部14は、マーカ検出情報MKに基づいて、マーカ領域の中心座標PL及びPRから、これらの中点PMの座標を求め、求められた座標を対象位置情報PSとして3次元位置出力部16に出力する。
コントローラ30において中点PMに対応する点は、マーカ32Aとマーカ32Bとの中点であり、マーカ以外の部分にある。この点は、マーカ32A及び32Bとほぼ同一の平面上にあり、この点までの距離は、マーカ32A及び32Bまでの距離とほぼ同じであるとみなすことができる。このような処理を行うのは、前述のように距離画像IMDに示されるマーカ32A及び32Bまでの距離、つまり、距離画像IMDに示される座標PL及びPRに対応する距離は信頼できないが、これらの座標の中点PMの座標に対応する距離は信頼できると考えられるからである。
図11は、距離画像IMDにおいて、図10の中点PMに対応する点を示す説明図である。S18では、3次元位置出力部16は、対象位置決定部14で求められた、マーカ以外の部分の座標に対応する距離を、図11のように距離画像IMDの対応する点の値から取得する。
図12は、距離画像IMDから3次元空間内の座標への変換についての説明図である。S20では、3次元位置出力部16は、S16で求められた座標に対応する距離を用いて、コントローラ30の3次元空間内の座標を算出する。図12では、中点PMに対応する3次元空間内の点Pと距離画像IMDの撮像平面IPとの関係が示されている。
点PD(XD,YD)は撮像平面上の点、点P(XP,YP,ZP)は点PDに対応する3次元空間内の点、点Fは焦点、距離FDは焦点距離、距離DDは点PDと焦点Fとの間の距離、距離Dは焦点Fと点Pとの間の距離である。座標XP,YP,ZPは、
XP=XD・D/DD
YP=YD・D/DD
ZP=FD・D/DD
によって計算される。DDやFDは距離画像カメラの設計値として定められる値である。距離画像IMDの距離データZDが対象物の点Pから焦点Fまでの距離を示す場合には、D=ZDとして考えればよい。距離データZDが対象物の点Pから撮像平面上の点PDまでの距離を示す場合には、D=ZD−DDとして考えればよい。いずれにしても、距離画像カメラの仕様に応じて計算することによって、対象物の3次元空間内の位置を取得することができる。3次元位置出力部16は、座標XP,YP,ZPを3次元位置PTとして出力する。
S22では、位置推定装置100の制御部(図示せず)は、処理を終了すべきか否かを判断する。3次元位置が必要ない場合には、図6の処理を終了する。新たな3次元位置が必要である場合には、S12に戻る。
このように、図2の位置推定装置100によると、コントローラ30の、マーカ以外の部分に対応する座標を求め、この座標に対応する距離を距離画像IMDから求めるので、距離画像IMDの信頼できる部分の情報を用いることができ、コントローラ30までの距離及びその3次元空間内の座標を確実に求めることができる。マーカの変形やサイズを考慮する必要がないので、マーカをコンパクトに作成しても、コントローラ30の3次元空間内の位置を良好に推定することができる。マーカをコンパクトにできるので、コントローラ30に搭載しても違和感がない。また、複雑な演算を必要としないので、リアルタイムの処理に適している。
図2の位置推定装置100は、以下のように動作してもよい。図13は、図3のコントローラの他の例を示す概要図である。図13のコントローラ230は、マーカ32A及び32Bに代えて、マーカ32のみを有している。マーカ32は、例えば再帰性反射素材を有する。図14は、図13のコントローラ230のマーカ領域が検出された状態を示す説明図である。位置推定装置100は、図6のS12及びS14と同様の処理を行い、図14のようにマーカ領域を検出する。マーカ検出部12は、例えば、マーカ領域の中心座標を、マーカ検出情報MKとして対象位置決定部14に出力する。
S16では、対象位置決定部14は、マーカ検出情報MKに基づいて、マーカ領域の中心座標からの距離が所定の長さであるような周囲の点を求める。この際、対象位置決定部14は、そのような点を、マーカ領域の中心座標から例えば複数の所定の方向について求める。
図15は、図14のマーカ領域の周囲の点の例を示す説明図である。具体的には、例えば、対象位置決定部14は、マーカ領域の中心座標Qを中点とするような複数の線分を考える。ここでは、水平方向、垂直方向、2種の斜め方向の計4方向の線分を考える。対象位置決定部14は、これらの線分の端点の座標を、対象位置情報PSとして3次元位置出力部16に出力する。
S18では、3次元位置出力部16は、対象位置決定部14で求められた座標に対応する距離を、距離画像IMDの対応する点の値から取得する。3次元位置出力部16は、各線分について、2つの端点に対応する距離の平均値を求める。3次元位置出力部16は、4つの線分のそれぞれについて求められた平均値のうち、最小の平均値をマーカ32の距離として選択する。S20では、3次元位置出力部16は、S18で求められた距離と中心座標Qの座標とを用いて、前述のように3次元空間内の座標を算出する。このように、マーカを1つにしても(図13)、コントローラの3次元空間内の位置を良好に推定することができる。
図16は、本発明の実施形態に係る他の位置推定装置300の構成例を示すブロック図である。図16の位置推定装置300は、図2の位置推定装置100に加えて、3次元姿勢出力部18を更に有する。
図17は、図16のコントローラ330の概要図である。ここでは、位置推定の対象物として、コントローラ330がコントローラ30に代えて用いられる。コントローラ330は、図3のコントローラ30内に、ジャイロセンサ334と、送信部336とを更に有するものである。ジャイロセンサ334は、コントローラ330の3軸の角速度を測定し、送信部336に出力する。送信部336は、測定された角速度を、例えば赤外線や電波によって受信部24に送信する。
受信部24は、コントローラ330から送信された角速度を受信し、角速度AGとして3次元姿勢出力部18に出力する。3次元姿勢出力部18は、角速度AGに基づいてコントローラ330の3次元空間内での姿勢ATを求め、出力する。位置推定装置300及び受信部24は、位置推定装置100に代えて、図1のテレビジョン受信機40に含まれる。既に説明した構成要素については、説明を省略する。
3次元姿勢出力部18は、次の式から、コントローラ330の姿勢を求める。角速度AGに含まれるX軸、Y軸、及びZ軸の角速度を、それぞれGx、Gy、及びGzとする。ジャイロセンサ334から角速度を取得する時間間隔をΔtとすると、X軸、Y軸、及びZ軸の角度変化量gx、gy、及びgzを、
gx=Gx・Δt
gy=Gy・Δt
gz=Gz・Δt
から得ることができる。gx、gy、gzはオイラー角の3成分を表す。
このとき、姿勢変化分は次のような回転行列Rで表すことができる。ここでは、例として左手系座標を採用している。
Figure 2013124972
回転行列を再帰的に合成していくので、n回目の姿勢を示す姿勢行列Rは、前回のn−1回目の姿勢行列Rn−1に今回の姿勢変化分を示す行列Rを乗算することによって、すなわち、
=Rn−1
によって得ることができる。
3次元姿勢出力部18は、この姿勢行列Rを3次元姿勢ATとして出力する。また、既に位置推定装置100について説明したように3次元位置PTを得ることができるので、3次元位置PTと3次元姿勢ATとを共に用いることによって、コントローラ330の3次元空間内の位置及び姿勢を知ることができる。
このように、位置推定装置300によると、角速度の演算によって3次元姿勢を推定するので、マーカの変形やサイズを考慮する必要がない。このため、マーカをコンパクトに作成しても、コントローラの3次元空間内の位置及び姿勢を良好に推定することができる。
図16の位置推定装置300を用いたテレビジョン受信機について説明する。図18は、本発明の実施形態に係るテレビジョン受信機440を含むシステムの構成例を示すブロック図である。図16のシステムは、距離画像カメラ22と、コントローラ330と、テレビジョン受信機440とを有する。
テレビジョン受信機440は、受信部24と、位置推定装置300と、オブジェクト制御部442と、描画部444と、表示部446とを有する。距離画像カメラ22、受信部24、位置推定装置300、及びコントローラ330については、既に説明したので、ここでは説明を省略する。
オブジェクト制御部442は、位置推定装置300で求められた3次元位置PT及び3次元姿勢ATに基づいて、3次元空間に配置されたオブジェクトを操作するための、コントローラ330によってポイントされたポインティング位置やオブジェクトの移動量を計算して、計算結果をオブジェクト制御情報として出力する。
描画部444は、オブジェクト制御情報に基づいて、3次元空間に配置されたオブジェクトを、ポインティング状態や移動量に応じてメモリ上に描画し、得られた画像データを出力する。表示部430は、描画部444で得られた画像データに基づいて画像の表示を行う。
図19は、図18のコントローラ330による操作前のメニュー画面の例を示す説明図である。図20は、図18のコントローラ330による操作後のメニュー画面の例を示す説明図である。図19及び図20には、3次元的に配置されたアイコンのオブジェクトB1,B2,B3,B4,B5,B6と、オブジェクトをポインティングするポインタPRが示されている。図19は、ユーザがコントローラ330によってアイコンB4を3次元的にポインティングしている状態を示す。
一般にドラッグ&ドロップと呼ばれる操作によって、アイコンを移動することができる。例えば、ユーザは、目的のアイコンをポインティングした状態でコントローラ330のボタンを押すことによってアイコンを選択し、ボタンを押したままコントローラを移動して、目的の位置でボタンを離して、アイコンを目的の位置に移動する。2次元的な操作はPC(personal computer)等で一般的に行われている操作と同様である。
図19のように、ユーザは、アイコンB4を3次元的にポインティングした状態で、コントローラ330のボタンを押して、アイコンB4を選択する。次に、ユーザは、コントローラ330を3次元的に移動させる。ここでは、ユーザは、図20のように、コントローラ330を右手前に移動させる。オブジェクト制御部442は、コントローラの3次元的な移動量に基づいて、アイコンB4の3次元的な移動量を制御する。このようにして、上下左右だけでなく、奥行方向にもアイコンを移動させることができる。
更に、オブジェクト制御部442は、コントローラの3次元的な移動量に対して係数を乗じることによって、コントローラを操作する空間を広くしたり狭くしたりすることができる。例えば、オブジェクト制御部442は、上下方向及び左右方向に対して奥行方向の係数を大きく設定する。すると、上下左右方向には画面サイズに見合ったコントローラ330の操作空間を保ちつつ、奥行方向にはコントローラの少しの動きで、アイコンを大きく前後に移動するように制御することができる。これにより、奥行方向のコントローラ操作空間を狭く設計しても、メニュー空間においては十分広い範囲で奥行方向に操作することができる。
本明細書における各機能ブロックは、典型的にはハードウェアで実現され得る。例えば各機能ブロックは、IC(集積回路)の一部として半導体基板上に形成され得る。ここでICは、LSI(large-scale integrated circuit)、ASIC(application-specific integrated circuit)、ゲートアレイ、FPGA(field programmable gate array)等を含む。代替としては各機能ブロックの一部又は全ては、ソフトウェアで実現され得る。例えばそのような機能ブロックは、プロセッサ及びプロセッサ上で実行されるプログラムによって実現され得る。換言すれば、本明細書で説明される各機能ブロックは、ハードウェアで実現されてもよいし、ソフトウェアで実現されてもよいし、ハードウェアとソフトウェアとの任意の組合せで実現され得る。
本発明の多くの特徴及び優位性は、記載された説明から明らかであり、よって添付の特許請求の範囲によって、本発明のそのような特徴及び優位性の全てをカバーすることが意図される。更に、多くの変更及び改変が当業者には容易に可能であるので、本発明は、図示され記載されたものと全く同じ構成及び動作に限定されるべきではない。したがって、全ての適切な改変物及び等価物は本発明の範囲に入るものとされる。
12 マーカ検出部
14 対象位置決定部
16 3次元位置出力部
18 3次元姿勢出力部
22 距離画像カメラ
30,230,330 コントローラ
40,440 テレビジョン受信機
100,300 位置推定装置
440 テレビジョン受信機
442 オブジェクト制御部
444 描画部
446 表示部

Claims (6)

  1. マーカを有する対象物の位置を求める位置推定装置であって、
    前記対象物が撮影されている赤外画像内で前記マーカの座標を求めるマーカ検出部と、
    前記マーカ検出部で求められた座標に基づいて、前記対象物の、前記マーカ以外の部分に対応する座標を求める対象位置決定部と、
    前記対象位置決定部で求められた、前記マーカ以外の部分の座標に対応する距離を、前記対象物が撮影されている距離画像の対応する点の値から取得し、前記距離を用いて、前記対象物の3次元空間内の座標を算出する3次元位置出力部とを備える
    位置推定装置。
  2. 請求項1に記載の位置推定装置において、
    前記対象物は、2つのマーカを有し、
    前記対象位置決定部は、前記赤外画像内における前記2つのマーカの中点の座標を、前記マーカ以外の部分に対応する座標として求める
    位置推定装置。
  3. 請求項1に記載の位置推定装置において、
    前記対象位置決定部は、前記赤外画像内において前記マーカを中点とする複数の線分の両端の点を前記マーカ以外の部分に対応する座標として求め、
    前記3次元位置出力部は、前記線分のそれぞれについて、同一の線分の両端の点に対応する前記距離の平均値を求め、求められた平均値の最小値を用いて、前記対象物の3次元空間内の座標を算出する
    位置推定装置。
  4. 請求項1に記載の位置推定装置において、
    前記対象物が有し、前記対象物の角速度を測定するジャイロセンサの出力に基づいて、前記対象物の姿勢を求めて出力する3次元姿勢出力部を更に備える
    位置推定装置。
  5. 請求項1に記載の位置推定装置と、
    前記位置推定装置で求められた3次元空間内の座標に基づいて、前記対象物によってポイントされた位置をオブジェクト制御情報として出力するオブジェクト制御部と、
    前記オブジェクト制御情報に基づいて、3次元空間に配置されたオブジェクトを描画する描画部と、
    前記描画部で得られた画像データに基づいて画像の表示を行う表示部とを備える
    テレビジョン受信機。
  6. マーカを有する対象物の位置を求める位置推定方法であって、
    前記対象物が撮影されている赤外画像内で前記マーカの座標を求め、
    前記求められた座標に基づいて、前記対象物の、前記マーカ以外の部分に対応する座標を求め、
    前記マーカ以外の部分の座標に対応する距離を、前記対象物が撮影されている距離画像の対応する点の値から取得し、前記距離を用いて、前記対象物の3次元空間内の座標を算出する
    位置推定方法。
JP2011274552A 2011-12-15 2011-12-15 位置推定装置及び方法、並びにテレビジョン受信機 Pending JP2013124972A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011274552A JP2013124972A (ja) 2011-12-15 2011-12-15 位置推定装置及び方法、並びにテレビジョン受信機

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011274552A JP2013124972A (ja) 2011-12-15 2011-12-15 位置推定装置及び方法、並びにテレビジョン受信機

Publications (1)

Publication Number Publication Date
JP2013124972A true JP2013124972A (ja) 2013-06-24

Family

ID=48776296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011274552A Pending JP2013124972A (ja) 2011-12-15 2011-12-15 位置推定装置及び方法、並びにテレビジョン受信機

Country Status (1)

Country Link
JP (1) JP2013124972A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015206651A (ja) * 2014-04-18 2015-11-19 浜松ホトニクス株式会社 距離計測方法及び距離計測システム
JP2016071663A (ja) * 2014-09-30 2016-05-09 株式会社Nttドコモ 情報通信システムおよび情報読取方法
US9870119B2 (en) 2014-11-25 2018-01-16 Samsung Electronics Co., Ltd. Computing apparatus and method for providing three-dimensional (3D) interaction
JP2019074362A (ja) * 2017-10-13 2019-05-16 任天堂株式会社 姿勢位置推測システム、姿勢位置推測方法、および姿勢位置推測装置
JP2019219238A (ja) * 2018-06-19 2019-12-26 株式会社トプコン 反射***置算出装置、反射***置算出方法および反射***置算出用プログラム
WO2020031659A1 (ja) * 2018-08-06 2020-02-13 国立研究開発法人産業技術総合研究所 位置姿勢推定システム及び位置姿勢推定装置と位置姿勢推定方法
WO2021075090A1 (ja) * 2019-10-17 2021-04-22 パナソニックIpマネジメント株式会社 補正パラメータ算出方法、変位量算出方法、補正パラメータ算出装置、及び、変位量算出装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015206651A (ja) * 2014-04-18 2015-11-19 浜松ホトニクス株式会社 距離計測方法及び距離計測システム
JP2016071663A (ja) * 2014-09-30 2016-05-09 株式会社Nttドコモ 情報通信システムおよび情報読取方法
US9870119B2 (en) 2014-11-25 2018-01-16 Samsung Electronics Co., Ltd. Computing apparatus and method for providing three-dimensional (3D) interaction
JP2019074362A (ja) * 2017-10-13 2019-05-16 任天堂株式会社 姿勢位置推測システム、姿勢位置推測方法、および姿勢位置推測装置
JP7027109B2 (ja) 2017-10-13 2022-03-01 任天堂株式会社 姿勢位置推測システム、姿勢位置推測方法、および姿勢位置推測装置
US11272152B2 (en) 2017-10-13 2022-03-08 Nintendo Co., Ltd. Orientation and/or position estimation system, orientation and/or position estimation method, and orientation and/or position estimation apparatus
JP2019219238A (ja) * 2018-06-19 2019-12-26 株式会社トプコン 反射***置算出装置、反射***置算出方法および反射***置算出用プログラム
JP7173762B2 (ja) 2018-06-19 2022-11-16 株式会社トプコン 反射***置算出装置、反射***置算出方法および反射***置算出用プログラム
WO2020031659A1 (ja) * 2018-08-06 2020-02-13 国立研究開発法人産業技術総合研究所 位置姿勢推定システム及び位置姿勢推定装置と位置姿勢推定方法
WO2021075090A1 (ja) * 2019-10-17 2021-04-22 パナソニックIpマネジメント株式会社 補正パラメータ算出方法、変位量算出方法、補正パラメータ算出装置、及び、変位量算出装置
JP7489671B2 (ja) 2019-10-17 2024-05-24 パナソニックIpマネジメント株式会社 補正パラメータ算出方法、変位量算出方法、補正パラメータ算出装置、及び、変位量算出装置

Similar Documents

Publication Publication Date Title
JP2013124972A (ja) 位置推定装置及び方法、並びにテレビジョン受信機
US10235928B2 (en) Wearable display device
US10242454B2 (en) System for depth data filtering based on amplitude energy values
US9470792B2 (en) Method and handheld distance measuring device for creating a spatial model
EP3182157B1 (en) Method for creating a spatial model with a hand-held distance measuring device
US20150009119A1 (en) Built-in design of camera system for imaging and gesture processing applications
Lourenço et al. Intel RealSense SR305, D415 and L515: Experimental Evaluation and Comparison of Depth Estimation.
JP6526955B2 (ja) センサ情報統合方法、及びその装置
WO2019019819A1 (zh) 一种用于处理任务区域的任务的移动电子设备以及方法
JP2008269616A (ja) 画像表示装置のカーソル制御装置及び制御方法、ならびに画像システム
US10298858B2 (en) Methods to combine radiation-based temperature sensor and inertial sensor and/or camera output in a handheld/mobile device
WO2015068470A1 (ja) 3次元形状計測装置、3次元形状計測方法及び3次元形状計測プログラム
EP3371780A1 (en) System and methods for imaging three-dimensional objects
US9606639B2 (en) Pointing system and display having improved operable range
JP2017091063A (ja) 物体検知装置、情報処理装置およびその方法
JP2007011776A (ja) 監視システム及び設定装置
JP5230354B2 (ja) 位置特定装置及び異動建物検出装置
JP2017041125A (ja) 情報処理装置、情報処理方法、およびプログラム
JP6670682B2 (ja) 位置検出方法及び位置検出システム
JP2006153506A (ja) 位置検出装置及び位置検出方法
JP6670681B2 (ja) 位置検出方法及び位置検出システム
WO2024034469A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2020182201A (ja) ポーズ変化通知方法及び関連する対話型画像処理システム
JP6689679B2 (ja) 表示装置、情報表示システム、及びプログラム
JP6689678B2 (ja) 検出方法、被検出物、及びシステム