JP2012008998A - 3次元の制御ポイントを認識するための方法、及び、それらを用いるコンピュータ読み取り可能な記録媒体 - Google Patents

3次元の制御ポイントを認識するための方法、及び、それらを用いるコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
JP2012008998A
JP2012008998A JP2010165056A JP2010165056A JP2012008998A JP 2012008998 A JP2012008998 A JP 2012008998A JP 2010165056 A JP2010165056 A JP 2010165056A JP 2010165056 A JP2010165056 A JP 2010165056A JP 2012008998 A JP2012008998 A JP 2012008998A
Authority
JP
Japan
Prior art keywords
dimensional
connection
information element
generating
blocks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010165056A
Other languages
English (en)
Other versions
JP5238766B2 (ja
Inventor
Lyao Chipin
リヤオ チ−ピン
Phan Jay
フアン ジェイ
Yang Zhai Yao
ツァイ ヤオ−ヤン
Chuan Wang Ko
ワン コー−シュアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial Technology Research Institute ITRI
Original Assignee
Industrial Technology Research Institute ITRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial Technology Research Institute ITRI filed Critical Industrial Technology Research Institute ITRI
Publication of JP2012008998A publication Critical patent/JP2012008998A/ja
Application granted granted Critical
Publication of JP5238766B2 publication Critical patent/JP5238766B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Digital Computer Display Output (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】より正確に制御ポイントを認識するための3次元制御ポイントを認識する方法、及び、当該方法を用いるコンピュータ読み取り可能な記録媒体を提供することを目的とする。
【解決手段】3次元制御ポイントを認識するための方法、または、当該方法を実行するための複数のプログラムコマンドを有するコンピュータ読み取り可能な記録媒体であって、当該方法は、画像取得装置によって取得された画像に対応する深さ情報要素を取得し、前記深さ情報要素に応じて、複数の3次元ブロックに対応する複数の3次元ブロック情報要素を生成し、前記深さ情報要素に応じて、少なくとも1の参照平面を生成し、前記3次元ブロック情報要素及び前記参照平面に応じて、少なくとも1の接続グループを生成し、前記接続グループから、前記画像取得装置に最も近い3次元ブロックを、制御ポイントとして、選択する、ことを特徴とする。
【選択図】図2

Description

本願は、2010年6月23日に出願された台湾出願第99120495号を基礎出願とする優先権主張出願であって、当該台湾出願の主題は、参照することにより本願に組み入れられるものとする。
本発明は、一般に制御ポイントを認識する方法、より具体的には、3次元の制御ポイントを認識するための方法、及び、それらを用いるコンピュータ読み取り可能な記録媒体に関する。
マルチタッチ(multi-touch)は、タッチスクリーンインターフェイスによって提供される非常に便利なものである。マルチタッチの目的は、ユーザーが、ユーザーの動作の習慣により適応した方法でシステムを操作できるようにし、マンマシーンインターフェイスを改善することにある。第1の一般的な従来例によれば、まず、その対象の特徴、例えば、色、形、手(fist)のパターン、が定義される。次に、画像が取得される。それから、対象の特徴が、制御ポイントを定義するために、画像の特徴ブロックと比較される。第2の一般的な従来例によれば、深さについての特徴(depth feature)が、背景(background)についての情報を、判断の誤りとなる複雑な背景情報を避けるよう、フィルタ処理するために用いられる。第3の一般的な従来例によれば、3次元制御領域が設置され、深さ情報(depth information)と手についての特徴(hand feature)に応じて、カメラに一番近い制御ポイント(control point)が、3次元制御領域から設置される。
例えば、下記特許文献は、ハンドポインティング装置(hand pointing apparatus)を開示している。展開法(perspective method)を用いて仮想3次元空間を表す画像が、ディスプレイに表示され、情報入力者の画像が、異なる方向からの複数のビデオカメラによって取得される。情報入力者が、表示された画像によって表される仮想3次元空間の中で、ある点をさす一方で、情報入力者の画像の背景に対応する参照点(reference point)、及び、指先(finger tip)に対応する特徴点がそれぞれ、各ビデオカメラによって取得される複数の画像から取得され、仮想3次元空間におけるこれらの点の座標が決定される。情報入力者によって指摘される点が仮想3次元空間内に設置される方向は、参照点から特徴点への方向に基づいて決定され、情報入力者と仮想3次元空間内で情報入力者によって指される位置との間の距離は、参照点と特徴点との間の距離に基づいて決定される。結果として、仮想3次元空間内で情報入力者によって指される3次元座標を決定することができる。
米国特許第6434255号明細書
より正確に制御ポイントを認識するための3次元制御ポイントを認識する方法、及び、当該方法を用いるコンピュータ読み取り可能な記録媒体を提供することを目的とする。
本発明は、3次元制御ポイントを認識する方法及び当該方法を用いるコンピュータ読み取り可能な記録媒体に関する。
本発明の第1の側面は、3次元制御ポイント(three-dimensional control points)を認識するための方法であって、画像取得装置によって取得された画像に対応する深さ情報要素(depth information item)を取得し、前記深さ情報要素に応じて、複数の3次元ブロックに対応する複数の3次元ブロック情報要素(three-dimensional block information item)を生成し、前記深さ情報(depth information)に応じて、少なくとも1の参照平面(reference plane)を生成し、前記3次元ブロック情報(three-dimensional block information)及び前記参照平面に応じて、少なくとも1の接続グループ(connection group)を生成し、前記接続グループから、前記画像取得装置に最も近い3次元ブロックを、制御ポイント(control point)として、選択する、ことを特徴とする。
本発明の第2の側面は、3次元制御ポイントを認識するための方法を実行するための複数のプログラムコマンドを有するコンピュータ読み取り可能な記録媒体であって、当該方法は、画像取得装置によって取得された画像に対応する深さ情報要素を取得し、前記深さ情報要素に応じて、複数の3次元ブロックに対応する複数の3次元ブロック情報要素を生成し、前記深さ情報要素に応じて、少なくとも1の参照平面を生成し、前記3次元ブロック情報要素及び前記参照平面に応じて、少なくとも1の接続グループを生成し、前記接続グループから、前記画像取得装置に最も近い3次元ブロックを、制御ポイントとして、選択することを特徴とする。
本発明の上記及びその他の側面は、下記のより好ましいが限定するものではない実施形態の記載により、より詳細に理解される。なお、下記の記載は、添付図面を参照するものである。
より正確に制御ポイントを認識するための3次元制御ポイントを認識する方法、及び、当該方法を用いるコンピュータ読み取り可能な記録媒体を提供することができる。
3次元制御ポイントを認識するシステムを示す。 3次元制御ポイントを認識する方法のフローチャートを示す。 3次元ブロック情報要素を生成する詳細なフローチャートを示す。 突起を示す。 ノイズブロックがフィルタ処理される状態を示す ノイズブロックがフィルタ処理された後の状態を示す。 画像中の全ての突起を示す。 画像中の全ての3次元ブロックを示す。 参照平面を生成するための詳細なフローチャートである。 空間配分の統計を示す。 接続グループを生成する詳細なフローチャートである。 第1の接続形式の3次元ブロックの結果を示す。 第2の接続形式の3次元ブロックの結果を示す。 第3の接続形式の3次元ブロックの結果を示す。 2の3次元ブロック間の接続から決定される参照ポイントを示す。 第1の形式の3次元ブロックを示す。 第2の接続形式の3次元ブロックの結果を示す。 第3の接続形式の3次元ブロックの結果を示す。 接続グループの例を示す。
より正確に制御ポイントを認識するための3次元制御ポイントを認識する方法、及び、当該方法を用いるコンピュータ読み取り可能な記録媒体が、下記に記載される。コンピュータ読み取り可能な記録媒体は、3次元制御ポイントを認識するための方法を実施するための複数のプログラムコマンドを有する。3次元制御ポイントを認識するための方法は、次のステップを有する。画像取得装置によって取得される画像に対応する深さ情報要素が取得される。3次元ブロックに対応する3次元ブロック情報要素が、当該深さ情報に応じて生成される。少なくとも1の参照平面が、当該深さ情報に応じて、生成される。少なくとも1の接続グループが、3次元ブロック情報及び参照平面に応じて、生成される。画像取得装置に一番近い3次元ブロックが、接続グループから制御ポイントとして選択される。
[3次元制御ポイント及びコンピュータ読み取り可能な記録媒体]
図1及び図2を参照しつつ説明する。図1は、3次元制御ポイントを認識するシステムを示す。図2は、3次元制御ポイントを認識する方法のフローチャートを示す。3次元制御ポイントを認識するためのシステム10は、コンピュータ110と、コンピュータ読み取り可能な記録媒体120と、を有する。コンピュータ読み取り可能な記録媒体120は、コンピュータ110へ、3次元制御ポイントを認識するための方法をロード(load)するための複数のプログラムコマンドを有する。コンピュータ読み取り可能な記録媒体120は、例えば、磁気ディスク、光ディスク、磁気テープ、またはハードディスクドライブを含む。3次元制御ポイントを認識する方法は、次のステップを有する。まず、当該方法は、ステップ21で始まり、画像取得装置、例えば、赤外線カメラや一対のカメラ、によって取得される画像に対応する深さ情報要素が取得される。
次に、当該方法は、ステップ22に進み、3次元ブロックに対応する3次元ブロック情報要素が、当該深さ情報に応じて生成される。次に、当該方法は、ステップ23に進み、少なくとも1の参照平面が、当該深さ情報に応じて、生成される。その後、当該方法は、ステップ24に進み、少なくとも1の接続グループが、当該3次元ブロック情報と参照平面に応じて生成される。最後に、当該方法は、ステップ25に進み、画像取得装置に最も近い3次元ブロックが、接続グループから、制御ポイントとして選択される。3次元ブロック情報、参照平面、接続グループを生成するステップを、それぞれ下記に説明する。
[3次元ブロック情報要素の生成]
図3乃至図8を参照しつつ説明する。図3は、3次元ブロック情報要素を生成する詳細なフローチャートを示す。図4は、突起を示す。図5は、ノイズブロックがフィルタ処理される状態を示す。図6は、ノイズブロックがフィルタ処理された後の状態を示す。図7は、画像中の全ての突起を示す。図8は、画像中の全ての3次元ブロックを示す。ステップ22は、更に、サブステップ221乃至225を含む。
まず、ステップ22は、サブステップ221で始まり、画像取得装置によって取得された画像の突起410(protrusion)が、水平及び垂直方向にそった深さ情報に応じて探知される。突起410は、特徴画素(図4に示す)(characteristic pixel)に相当し、当該特徴画素は、画像中に存在し、周辺画素(surrounding pixels)に対してある高さ分、突出している。
次に、ステップ22は、サブステップ222に進み、図7に示した突起410は、突起410とその周辺画素との間の深さの差に応じて、図8に示した3次元ブロック420に展開(expand)される。サブステップ222では、突起410周辺の画素の深さ情報が確認(check)される。突起410周辺の画素は、突起410とその周辺画素との間の深さ情報が所定の範囲内にある場合には、展開領域(expansion range)に含まれる。このように、突起410は、3次元ブロック420に展開される。
次に、ステップ22は、サブステップ223に進み、ノイズブロック(noise block)が、3次元ブロック420から、深さの変位(depth change)に応じて、フィルタで除去される。なお、サブステップ223と222は、同時に行われてもよい。例えば、図5に示した突起410(1)を展開する際、他の突起410(2)に接触(touch)する。サブステップ223においては、突起410(2)の深さ情報は、410(1)の深さ情報と比較される。一方、突起410(2)の深さ情報が所定の範囲内である場合、突起410(2)は、突起410(1)の展開領域に含まれ、突起410(2)の展開の段階(expansion authority)は、(図6に示されるように)上げられ(lifted)、突起410(1)は、3次元ブロック420(a)に展開される。同様に、突起410(4)の深さ情報が所定の範囲内にある場合には、突起410(4)は、突起410(3)の展開領域に含まれ、突起410(4)の展開の段階は、上げられ、突起410(3)は、3次元ブロック420(b)に展開される。したがって、サブステップ222の計算処理は軽減され、計算速度を、正確性に影響することなく、増加させることができる。
その後、ステップ22は、サブステップ224に進み、画像の突起410が全て確認(check)されたかが決定される。全ての画像の突起410が確認されていない場合には、サブステップ222及び223が繰り返される。しかしながら、サブステップ223で展開の段階が上げられた突起(例えば、図5及び図6にそれぞれ示される突起410(2)及び突起410(4))は、計算に含められない。サブステップ224においては、当該確認が、サブステップ221で探知された突起410が、全て確認されるまで繰り返される。
次に、ステップ22は、サブステップ225に進み、3次元ブロック420に対応する3次元ブロック情報要素が生成される。更に、全ての3次元ブロック420がサブステップ224で決定された後、代表ポイント(representative point)が、3次元ブロック420から設置される。当該代表ポイントは、例えば、3次元ブロック420の重点(gravity point)である。3次元ブロック420の重点が設置された後、代表ポイントに対応する3次元ブロック情報要素が生成される。
[参照平面の生成]
図9乃至図10を参照しつつ説明する。図9は、参照平面を生成するための詳細なフローチャートである。図10は、空間配分の統計(statistics of space distribution)を示す。ステップ23は、更に、サブステップ231乃至233を含む。まず、ステップ23は、サブステップ231で始まり、空間配分の統計が、深さ情報に応じて計算される。更に、サブステップ231においては、画像の各画素の3次元空間における対応する位置が、3次元シーン(three-dimensional scene)を再構築(re-construct)するために、深さ情報を用いて評価される。図10に示した空間配分の統計は、3次元シーンで取得することができる。図10において、始点(original point)は、画像取得装置の位置に相当し、x軸は、画像取得装置への距離を示し、y軸は画素の数に相当し、x軸は、画像取得装置への距離に相当することから、図10の空間配分の統計は、異なる深さにおける画素の数を示す。
次に、ステップ23は、サブステップ232に進み、間隔平滑化(interval smoothing)と全体の重み付け(overall weighting)が、図10に示した空間配分の統計に適用される。更に、空間配分の統計処理で生じた些細なノイズ(minute noises)による影響を除去するために、最初の空間配分の統計は、些細なノイズにより生じる影響を軽減する(mitigate)ために、サブステップ232において、ファジフィケーション(fuzzification)によって、平滑化される。例えば、サブステップ232においては、深さ要素のある範囲(例えば、y軸におけるある範囲)が選択され、深さ要素の対応する画素が追加され、深さ要素の代表値(representative value)として、平均化される。次に、深さ要素を徐々に移動し、上記計算処理が繰り返され、結果として、後の処理は、ノイズによって影響されない。次に、全体の空間配分の統計が、重み付けされ、カメラ距離(camera distance)との関係を通じて、評価される。
次に、ステップ23は、サブステップ233へ進み、ノイズ平面(noise plane)は、参照平面(reference plane)を生成するように、フィルタ処理(filtered)される。更に、図10に示した空間配分の統計から適切な参照平面を設置するために、サブステップ233においては、まず、最も高いピーク値(highest peak value)、ymaxが空間配分の統計から設置(located)され、次に、最も高いピーク値、ymaxが、評価の参照(reference)として使用される。最も高いピーク値、ymaxのうちの30%が決定の基本(basis of determination)として用いられると想定する。参照値(reference value)を超えないピーク値の画素値は、適切な参照平面としては選択されず、フィルタで除去されるノイズ平面と決定される。フィルタ処理の後、図10に示した空間配分の統計のy1が要求(requirement)に合致することが分かる。サブステップ233においては、最も高いピーク値、ymax、及び、ピーク値y1が、参照として、用いされ、ピーク値領域内のx軸の空間画素配分(space pixel distribution)が分析され、更に、異なるユーザーについて、同様の深さ(similar depth)を有する参照平面に分割される。
[接続グループの生成]
図11乃至図19を参照しつつ説明する。図11は、接続グループ(connection group)を生成する詳細なフローチャートである。図12は、第1の接続形式(connection type)の3次元ブロックの結果を示す。図13は、第2の接続形式の3次元ブロックの結果を示す。図14は、第3の接続形式の3次元ブロックの結果を示す。図15は、2の3次元ブロック間の接続から決定される参照ポイントを示す。図16は、第1の形式(type)の3次元ブロックを示す。図17は、第2の接続形式の3次元ブロックの結果を示す。図18は、第3の接続形式の3次元ブロックの結果を示す。図19は、接続グループの例を示す。ステップ24においては、3次元ブロック情報が生成された後、3次元ブロックの間の接続が、3次元ブロック情報及び参照平面に応じて分析され、接続グループが、3次元ブロックの間の接続に応じて生成される。ステップ24は、更に、サブステップ241乃至243を含む。
まず、ステップ24は、サブステップ241で始まり、付近の3次元ブロック(nearby three-dimensional blocks)が、3次元ブロック間の距離に応じて接続される。更に、ステップ241においては、同様の3次元ブロック(similar three-dimensional blocks)が3次元ブロックの間の距離に応じて接続(connect)され、3次元ブロック間の距離が、ユークリッド距離(Euclidean distance)に応じて、計算され得る。一般に、正しい3次元ブロック420(1)乃至420(3)の接続方向(connection direction)は、図12に示すように、参照平面50(reference plane)に向かうべきであり、正しい3次元ブロック420(4)乃至420(6)の接続方向もまた、図12に示すように参照平面50に向かうべきである。しかしながら、2の3次元ブロックが接続されるか否かが、単にユークリッド距離に基づくものであるなら、図13または図14に示すような接続の誤りが起こり得る。当該接続の誤りを避けるために、最も近い3次元ブロックがサブステップ241において設置された後、3次元ブロック間の接続が正しいか否かを次のステップ242で確認する。3次元ブロックの接続がサブステップ242の確認をパス(pass)しない場合、ステップ24は、サブステップ241に戻り、2番目に最も近い3次元ブロックが設置され、3次元ブロックの接続が正しいか否かがサブステップ242で再度確認される。
次に、当該方法は、サブステップ242に進み、最も底に位置するポイント(bottommost point)が、2の接続された3次元ブロックの間の接続から、参照ポイント430として、選択され、参照ポイント430に応じて、接続が所定の接続状態(predetermined connection state)に合致しているか否かが確認される。接続が、所定の接続状態に合致していない場合には、サブステップ241が繰り返される。更に、図15に示すように、3次元ブロック420(7)及び420(8)の間の接続ライン(connection line)上のポイントの深さが計算され、最も底のポイントが接続ライン上のポイントから設置され、当該最も底のポイントが参照ポイントとして定義される。最も底のポイントと参照ポイント430との間の関係が、図16に示したような場合である場合、これは、参照ポイント430が、3次元ブロック420(7)と420(8)の間の接続ライン上で比較的低い位置にないことを示唆する。このような接続は、矢印で示す方向(hand)にそって参照平面へ向き、その結果、図16に示した3次元ブロック420(7)と420(8)の接続は、所定の接続状態に合致しない。
最も底のポイントと参照ポイント430の間の関係が、図17に示したような場合、これは、参照ポイント430が3次元ブロック420(7)と420(8)より低い位置にもかかわらず、参照ポイント430と3次元ブロック420(7)と420(8)がある限界以内(within a certain limit)であることを示唆している。全体の接続の観点から、図17に示した接続方向は、参照平面に向いており、図17に示した3次元ブロック420(7)と420(8)の接続は、所定の接続状態に合致していない。
最も底のポイントと参照ポイント430の間の関係が、図18に示したような場合、これは、参照ポイント430が3次元ブロック420(7)と420(8)よりもずっと低い位置にあることを示唆している。3次元ブロック420(7)と420(8)がそれぞれ2の先端(fingertips)である場合、参照ポイント430は、参照平面上にあり、3次元ブロック420(7)と420(8)の間の接続は、3次元ブロック420(7)と420(8)がどれだけ近くても、所定の接続状態に合致することはない。したがって、3次元ブロック420(7)と420(8)は接続されない。次に、ステップ24は、2番目に最も近い3次元ブロックを設置するために、サブステップ241に戻る。
同様に、如何に2の人物が近くても、ピットした(pitted)参照ポイント430が、先端(fingertips)の3次元ブロックの接続ライン上に存在する限り、その3次元ブロックは、接続されない。したがって、多数の人物が同時に操作する際に起こるマルチポイント対応(multi-point correspondence)の相互干渉(mutual interference)の問題が解決され、3次元ブロックの間の接続が、所定の接続状況に合致しないことが保証される。
次に、ステップ24は、サブステップ243に進み、3次元ブロックが、接続グループを生成するために集められる(collected)。ここで、3次元ブロックは接続され、参照平面にリンク(link)される。更に、図19に示すように、3次元ブロック420(1)と420(4)が参照平面50に正しく接続され得る場合、3次元ブロック420(1)と420(4)は、論理的制御ポイント(logical control point)となる。逆に、3次元ブロック420(9)が参照平面50に正しく接続できない場合、3次元ブロック420(9)は論理的制御ポイントとして使用されることはできず、空間内でノイズとなる。したがって、サブステップ243においては、相互に接続され参照平面にリンクされる3次元ブロック420(1)乃至420(3)は、接続グループ60(1)を生成するために集められ、相互に接続され参照平面にリンクされる3次元ブロック420(4)乃至420(6)は、接続グループ60(2)を生成するために集められる。次に、当該方法は、ステップ25に進み、画像取得装置に最も近い3次元ブロック420(1)及び420(4)が、接続グループ60(1)及び60(2)から、制御ポイント(control point)として選択される。
本発明は、実施形態やより好適な例により記載されているが、本発明はそれに限定されるものではない。むしろ、様々な変形や同様の配置及び手順を含むように意図されたものであり、請求項に記載された発明は、そのような全ての変形や同様の配置及び手順を含むように最大限に解釈されるべきである。
50 参照平面、60 接続グループ、110 コンピュータ、120 コンピュータ読み取り可能な記録媒体、410 突起、420 3次元ブロック、430 参照ポイント。

Claims (10)

  1. 画像取得装置によって取得された画像に対応する深さ情報要素を取得し、
    前記深さ情報要素に応じて、複数の3次元ブロックに対応する複数の3次元ブロック情報要素を生成し、
    前記深さ情報要素に応じて、少なくとも1の参照平面を生成し、
    前記3次元ブロック情報要素及び前記参照平面に応じて、少なくとも1の接続グループを生成し、
    前記接続グループから、前記画像取得装置に最も近い3次元ブロックを、制御ポイントとして、選択する、
    ことを特徴とする3次元制御ポイントを認識するための方法。
  2. 前記複数の3次元ブロック情報要素を生成するステップは、
    前記深さ情報要素に応じて、複数の突起を探知し、
    前記複数の突起と前記複数の突起周辺の画素との間の深さの相違に応じて、前記突起を前記3次元ブロックに展開し、
    前記3次元ブロックに対応する前記3次元ブロック情報要素を生成し、
    前記深さの変位に応じて、前記3次元ブロック情報要素からノイズブロックを除去し、
    前記突起が全て確認されたか否かを決定し、全て確認されていない場合には、前記突起を3次元ブロックに展開するステップを繰り返し、
    前記3次元ブロックから複数の代表ポイントを決定し、
    前記代表ポイントから3次元ブロック情報要素を生成する、
    ことを特徴とする請求項1に記載の3次元制御ポイントを認識するための方法。
  3. 前記代表ポイントはそれぞれ、前記3次元ブロック情報の重点であることを特徴とする請求項2に記載の3次元制御ポイントを認識するための方法。
  4. 前記少なくとも1の参照平面を生成するステップは、
    前記深さ情報要素に応じて、空間配分の統計を計算し、
    間隔平滑化及び全体重み付けを前記空間配分の統計に適用し、
    前記参照平面を生成するために、ノイズ平面をフィルタで除去することを特徴とし、
    前記空間配分の統計は異なる深さに対応する画素であって、
    前記ノイズ平面をフィルタで除去するステップにおいて、前記参照平面は、前記空間配分の統計の最も高いピーク値に応じて生成されることを特徴とする請求項1に記載の3次元制御ポイントを認識するための方法。
  5. 前記少なくとも1の接続グループを生成するステップは、
    3次元ブロック間の距離に応じて、周辺の3次元ブロックを接続し、
    前記2の接続された3次元ブロックの間の接続から、参照ポイントとして、最も底のポイントを選択し、前記参照ポイントに応じて、前記接続が所定の接続状態に合致するか否かを決定し、前記接続が前記所定の接続状態に合致していない場合には、前記接続ステップを繰り返し、
    前記接続グループを生成するために、相互に接続されかつ前記参照平面にリンクされた前記3次元ブロックを集めることを特徴とし、
    前記接続ステップにおいては、2の最も近い3次元ブロックを接続し、前記2の最も近い3次元ブロックの間の接続が前記所定の接続状態に合致しない場合には、2番目に最も近い3次元ブロックを接続することを特徴とする請求項1に記載の3次元制御ポイントを認識するための方法。
  6. 画像取得装置によって取得された画像に対応する深さ情報要素を取得する手段、
    前記深さ情報要素に応じて、複数の3次元ブロックに対応する複数の3次元ブロック情報要素を生成する手段、
    前記深さ情報要素に応じて、少なくとも1の参照平面を生成する手段、
    前記3次元ブロック情報要素及び前記参照平面に応じて、少なくとも1の接続グループを生成する手段、
    前記接続グループから、前記画像取得装置に最も近い3次元ブロックを、制御ポイントとして、選択する手段
    としてコンピュータを機能させるためのプログラムを記憶したコンピュータ読み取り可能な記録媒体。
  7. 前記複数の3次元ブロック情報要素を生成する手段は、
    前記深さ情報要素に応じて、複数の突起を探知し、
    前記複数の突起と前記複数の突起周辺の画素との間の深さの相違に応じて、前記突起を前記3次元ブロックに展開し、
    前記3次元ブロックに対応する前記3次元ブロック情報要素を生成し、
    前記深さの変位に応じて、前記3次元ブロック情報要素からノイズブロックを除去し、
    突起が全て確認されたか否かを決定し、全て確認されていない場合には、前記突起を3次元ブロックに展開することを繰り返し、
    前記3次元ブロックから複数の代表ポイントを決定し、
    前記代表ポイントから3次元ブロック情報要素を生成する
    ことを特徴とする請求項6に記載のコンピュータ読み取り可能な記録媒体。
  8. 前記代表ポイントはそれぞれ、3次元ブロック情報の重点であることを特徴とする請求項7に記載のコンピュータ読み取り可能な記録媒体。
  9. 前記少なくとも1の参照平面を生成する手段は、
    前記深さ情報要素に応じて、空間配分の統計を計算し、
    間隔平滑化及び全体重み付けを前記空間配分の統計に適用し、
    前記参照平面を生成するために、ノイズ平面をフィルタで除去することを特徴とし、
    前記空間配分の統計は異なる深さに対応する画素であって、
    前記ノイズ平面をフィルタで除去する手段において、前記参照平面は、前記空間配分の統計の最も高いピーク値に応じて生成されることを特徴とする請求項6に記載のコンピュータ読み取り可能な記録媒体。
  10. 前記少なくとも1の接続グループを生成する手段は、
    3次元ブロック間の距離に応じて、周辺の3次元ブロックを接続し、
    前記2の接続された3次元ブロックの間の接続から、参照ポイントとして、最も底のポイントを選択し、前記参照ポイントに応じて、前記接続が所定の接続状態に合致するか否かを決定し、前記接続が前記所定の接続状態に合致していない場合には、前記接続を繰り返し、
    前記接続グループを生成するために、相互に接続されかつ前記参照平面にリンクされた前記3次元ブロックを集めることを特徴とし、
    前記接続においては、2の最も近い3次元ブロックを接続し、前記2の最も近い3次元ブロックの間の接続が前記所定の接続状態に合致しない場合には、2番目に最も近い3次元ブロックを接続することを特徴とする請求項6に記載のコンピュータ読み取り可能な記録媒体。
JP2010165056A 2010-06-23 2010-07-22 3次元の制御ポイントを認識するための方法、及び、それらを用いるコンピュータ読み取り可能な記録媒体 Active JP5238766B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW099120495 2010-06-23
TW099120495A TWI431512B (zh) 2010-06-23 2010-06-23 三維控制端點之辨識方法及應用其之電腦可讀取媒體

Publications (2)

Publication Number Publication Date
JP2012008998A true JP2012008998A (ja) 2012-01-12
JP5238766B2 JP5238766B2 (ja) 2013-07-17

Family

ID=45352616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010165056A Active JP5238766B2 (ja) 2010-06-23 2010-07-22 3次元の制御ポイントを認識するための方法、及び、それらを用いるコンピュータ読み取り可能な記録媒体

Country Status (3)

Country Link
US (1) US8433131B2 (ja)
JP (1) JP5238766B2 (ja)
TW (1) TWI431512B (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07334299A (ja) * 1994-04-13 1995-12-22 Toshiba Corp 情報入力装置
JPH0829126A (ja) * 1994-07-12 1996-02-02 Canon Inc 対応点マッチング方法および装置
JP2004246856A (ja) * 2002-12-18 2004-09-02 National Institute Of Advanced Industrial & Technology インタフェース装置
JP2006099749A (ja) * 2004-08-31 2006-04-13 Matsushita Electric Works Ltd ジェスチャースイッチ
JP4218963B2 (ja) * 2004-06-28 2009-02-04 株式会社東芝 情報抽出方法、情報抽出装置及び記録媒体
US20100284606A1 (en) * 2009-05-08 2010-11-11 Chunghwa Picture Tubes, Ltd. Image processing device and method thereof

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04218963A (ja) 1990-12-19 1992-08-10 Fujitsu Ltd 光検知器
JP3795647B2 (ja) 1997-10-29 2006-07-12 株式会社竹中工務店 ハンドポインティング装置
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7289658B2 (en) * 2003-06-24 2007-10-30 International Business Machines Corporation Removal of relatively unimportant shapes from a set of shapes
US7317836B2 (en) 2005-03-17 2008-01-08 Honda Motor Co., Ltd. Pose estimation based on critical point analysis
CN101507284B (zh) * 2006-07-17 2012-06-27 汤姆森许可贸易公司 用于对视频颜色增强数据进行编码的方法和设备,以及用于对视频颜色增强数据进行解码的方法和设备
KR100851977B1 (ko) 2006-11-20 2008-08-12 삼성전자주식회사 가상 평면을 이용하여 전자 기기의 사용자 인터페이스를제어하는 방법 및 장치.

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07334299A (ja) * 1994-04-13 1995-12-22 Toshiba Corp 情報入力装置
JPH0829126A (ja) * 1994-07-12 1996-02-02 Canon Inc 対応点マッチング方法および装置
JP2004246856A (ja) * 2002-12-18 2004-09-02 National Institute Of Advanced Industrial & Technology インタフェース装置
JP4218963B2 (ja) * 2004-06-28 2009-02-04 株式会社東芝 情報抽出方法、情報抽出装置及び記録媒体
JP2006099749A (ja) * 2004-08-31 2006-04-13 Matsushita Electric Works Ltd ジェスチャースイッチ
US20100284606A1 (en) * 2009-05-08 2010-11-11 Chunghwa Picture Tubes, Ltd. Image processing device and method thereof

Also Published As

Publication number Publication date
US8433131B2 (en) 2013-04-30
TW201201068A (en) 2012-01-01
TWI431512B (zh) 2014-03-21
JP5238766B2 (ja) 2013-07-17
US20110317925A1 (en) 2011-12-29

Similar Documents

Publication Publication Date Title
US11048333B2 (en) System and method for close-range movement tracking
US9965028B2 (en) Method for suspension sensing in interactive display, method for processing suspension sensing image, and proximity sensing apparatus
CN103929603B (zh) 图像投影设备、图像投影***及控制方法
US9619042B2 (en) Systems and methods for remapping three-dimensional gestures onto a finite-size two-dimensional surface
JP6711817B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
US20100295783A1 (en) Gesture recognition systems and related methods
US9916043B2 (en) Information processing apparatus for recognizing user operation based on an image
US20150002419A1 (en) Recognizing interactions with hot zones
EP2538305A2 (en) System and method for close-range movement tracking
KR20190141748A (ko) 가상 기재로서 사용하기 위한 평면 및/또는 쿼드트리들을 검출하기 위한 방법 및 디바이스
KR20120068253A (ko) 사용자 인터페이스의 반응 제공 방법 및 장치
US11360550B2 (en) IMU for touch detection
CN103761011B (zh) 一种虚拟触摸屏的方法、***及计算设备
CN112088348A (zh) 经由头部姿态远程控制显示设备的方法、***和计算机程序
JP2016525235A (ja) 文字入力のための方法及びデバイス
JP5238766B2 (ja) 3次元の制御ポイントを認識するための方法、及び、それらを用いるコンピュータ読み取り可能な記録媒体
CN111651054A (zh) 音效控制方法、装置、电子设备及存储介质
Zhang et al. Transforming a regular screen into a touch screen using a single webcam
JP6452658B2 (ja) 情報処理装置、およびその制御方法ならびにプログラム
CN102331883B (zh) 三维控制端点的辨识方法及应用其的计算机可读介质
Akagawa et al. Sustainable society with a touchless solution using UbiMouse under the pandemic of COVID-19
US11237671B1 (en) Temporal filter touch detection
CN105334951A (zh) 一种三维图像控制方法、装置及电子设备

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120605

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120905

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130401

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5238766

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160405

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250