TWI659221B - 追蹤系統、追蹤裝置及追蹤方法 - Google Patents

追蹤系統、追蹤裝置及追蹤方法 Download PDF

Info

Publication number
TWI659221B
TWI659221B TW106146608A TW106146608A TWI659221B TW I659221 B TWI659221 B TW I659221B TW 106146608 A TW106146608 A TW 106146608A TW 106146608 A TW106146608 A TW 106146608A TW I659221 B TWI659221 B TW I659221B
Authority
TW
Taiwan
Prior art keywords
detection area
optical
ultrasonic
processor
acoustic
Prior art date
Application number
TW106146608A
Other languages
English (en)
Other versions
TW201830050A (zh
Inventor
陳遠東
Original Assignee
宏達國際電子股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 宏達國際電子股份有限公司 filed Critical 宏達國際電子股份有限公司
Publication of TW201830050A publication Critical patent/TW201830050A/zh
Application granted granted Critical
Publication of TWI659221B publication Critical patent/TWI659221B/zh

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/66Sonar tracking systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/30Determining absolute distances from a plurality of spaced points of known location
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/14Systems for determining distance or velocity not using reflection or reradiation using ultrasonic, sonic, or infrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems
    • G01S15/876Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/20Position of source determined by a plurality of spaced direction-finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/26Position of receiver fixed by co-ordinating a plurality of position lines defined by path-difference measurements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Studio Devices (AREA)

Abstract

一種追蹤系統,包含第一裝置及第二裝置。第二裝置包含光學模組、超音波模組及處理器。光學模組用以擷取第一偵測區域中的影像資訊。超音波模組用以獲取第二偵測區域中的超音波資訊,第二偵測區域不同於第一偵測區域。處理器用以根據影像資訊以及超音波資訊中的至少一者判斷第一裝置相對於第二裝置在第三偵測區域中的相對位置。第三偵測區域廣於第一偵測區域亦廣於第二偵測區域。

Description

追蹤系統、追蹤裝置及追蹤方法
本案涉及一種追蹤系統、追蹤裝置以及追蹤方法,尤為一種利用超音波的追蹤系統、追蹤裝置以及追蹤方法。
現今,已有越來越多的電子裝置可利用攝影鏡頭來進行相對距離的測量。然而,利用攝影鏡頭來進行偵測將受到攝影鏡頭的視角(FOV)限制,尤其,當接近攝影鏡頭的視角邊緣時,偵測的精確度將會降低。另外,利用攝影鏡頭來進行偵測也會產生較高的電量耗損。
顯然地,僅利用攝影鏡頭來進行長時間的距離偵測並非十分理想的技術方案,其亟待加以改良。
為了解決上述問題,本案提供了一種追蹤系統、一種追蹤裝置以及一種追蹤方法。
本案的一實施態樣係涉及一種追蹤系統,包含一第一裝置以及一第二裝置。該第二裝置包含一光學模組、一超音波模組以及一處理器。該光學模組用以擷取一第一偵測區域 中的一影像資訊。該超音波模組用以獲取一第二偵測區域中的一超音波資訊,該第二偵測區域不同於該第一偵測區域。該處理器用以根據該影像資訊以及該超音波資訊判斷該第一裝置相對於該第二裝置在一第三偵測區域中的一相對位置。該第三偵測區域廣於該第一偵測區域亦廣於該第二偵測區域。該光學模組用以擷取一第一偵測區域中的一影像資訊。該超音波模組用以擷取一第二偵測區域中的一超音波資訊,該第二偵測區域不同於該第一偵測區域。該處理器用以根據該影像資訊以及該超音波資訊中的至少一者判斷一目標裝置相對於該追蹤裝置於一第三偵測區域中的一相對位置,其中該第三偵測區域廣於該第一偵測區域亦廣於該第二偵測區域。
本案的另一實施態樣係涉及一種追蹤裝置。該追蹤裝置包含一光學模組、一超音波模組以及一處理器。該光學模組用以擷取一第一偵測區域中的一影像資訊。該超音波模組用以擷取一第二偵測區域中的一超音波資訊,該第二偵測區域不同於該第一偵測區域。該處理器用以根據該影像資訊以及該超音波資訊中的至少一者判斷一目標裝置相對於該追蹤裝置於一第三偵測區域中的一相對位置,其中該第三偵測區域廣於該第一偵測區域亦廣於該第二偵測區域。
本案的另一實施態樣係涉及一種追蹤方法,用於追蹤一第一裝置,且由一第二裝置所執行。所述追蹤方法包含下列步驟:透過該第二裝置的一光學模組擷取一第一偵測區域中的一影像資訊;透過該第二裝置的一超音波模組獲取一第二偵測區域中的一超音波資訊,該第二偵測區域不同於該第一偵 測區域;以及透過該第二裝置的一處理器,根據該影像資訊以及該超音波資訊中的至少一者判斷該第一裝置相對於該第二裝置在一第三偵測區域中的一相對位置,其中該第三偵測區域廣於該第一偵測區域亦廣於該第二偵測區域。
TRS‧‧‧追蹤系統
100‧‧‧第一裝置
110‧‧‧慣性偵測單元
200‧‧‧第二裝置
210‧‧‧光學模組
211‧‧‧第一光學感測器
212‧‧‧第二光學感測器
220‧‧‧超音波模組
221‧‧‧第一超音波收發器
222‧‧‧第二超音波收發器
223‧‧‧第三超音波收發器
224‧‧‧第四超音波收發器
225‧‧‧第五超音波收發器
226‧‧‧第六超音波收發器
230‧‧‧處理器
231‧‧‧光學位置解算器
232‧‧‧聲學位置解算器
233‧‧‧角度權重計算器
234‧‧‧距離權重計算器
235‧‧‧指向計算器
236‧‧‧融合狀態機
240‧‧‧顯示螢幕
ODF‧‧‧光學偵測區域
UDF1‧‧‧第一聲學偵測區域
UDF2‧‧‧第二聲學偵測區域
OLF‧‧‧重疊區域
θ1‧‧‧第一夾角
θ2‧‧‧第二夾角
D1‧‧‧第一距離
D2‧‧‧第二距離
D3‧‧‧第三距離
D4‧‧‧第四距離
D5‧‧‧第五距離
D6‧‧‧第六距離
S301~S302‧‧‧步驟流程
第1圖為根據本案一實施例繪示的追蹤系統之示意圖;第2A圖為根據本案一實施例繪示的追蹤系統中的一第二裝置之示意圖;第2B圖為根據本案一實施例繪示的追蹤系統中的一第二裝置及其偵測區域之示意圖;第3圖為根據本案一實施例繪示的追蹤方法之步驟流程圖;第4圖為根據本案一實施例繪示的追蹤系統中的一處理器之示意圖;第5A圖為根據本案一實施例繪示的追蹤系統運作以偵測某些偵測區域之示意圖;第5B圖為根據本案一實施例繪示的追蹤系統運作以偵測某些偵測區域之示意圖;第6A圖為根據本案第5A圖之實施例繪示的追蹤系統運作以偵測某些偵測區域之示意圖;第6B圖為根據本案第5B圖之實施例繪示的追蹤系統運作以偵測某些偵測區域之示意圖;以及 第7圖為根據本案一實施例繪示的追蹤系統運作以偵測某些偵測區域之示意圖。
以下將以圖式及詳細敘述清楚說明本案之精神,任何所屬技術領域中具有通常知識者在瞭解本案之實施例後,當可由本案所教示之技術,加以改變及修飾,其並不脫離本案之精神與區域。
本文之用語只為描述特定實施例,而無意為本案之限制。單數形式如“一”、“這”、“此”、“本”以及“該”,如本文所用,同樣也包含複數形式。
關於本文中所使用之『第一』、『第二』、...等,並非特別指稱次序或順位的意思,亦非用以限定本案,其僅為了區別以相同技術用語描述的元件或操作。
關於本文中所使用之『耦接』或『連接』,均可指二或多個元件或裝置相互直接作實體接觸,或是相互間接作實體接觸,亦可指二或多個元件或裝置相互操作或動作。
關於本文中所使用之『包含』、『包括』、『具有』、『含有』等等,均為開放性的用語,即意指包含但不限於。
關於本文中所使用之『及/或』,係包括所述事物的任一或全部組合。
關於本文中所使用之方向用語,例如:上、下、左、右、前或後等,僅是參考附加圖式的方向。因此,使用的 方向用語是用來說明並非用來限制本案。
關於本文中所使用之用詞(terms),除有特別註明外,通常具有每個用詞使用在此領域中、在本案之內容中與特殊內容中的平常意義。某些用以描述本案之用詞將於下或在此說明書的別處討論,以提供本領域技術人員在有關本案之描述上額外的引導。
第1圖為根據本案一實施例繪示的追蹤系統之示意圖。在本實施例中繪示一追蹤系統TRS,該追蹤系統TRS包含一第一裝置100以及一第二裝置200。該第一裝置100可為該追蹤系統TRS中的一手持控制器。該第二裝置200可為一頭戴顯示器,當追蹤系統TRS運作時,該第二裝置200係用以追蹤該第一裝置100相對於該第二裝置200的位置。應注意的是,在某些實施例中,該第二裝置200係穿戴於使用者的頭部,而該第一裝置100則握持於使用者的手中。在此配置下,當使用者移動手中的該第一裝置100時,該第二裝置200則可追蹤該第一裝置100的動向,並根據該第一裝置100的動向執行某些程序。
如第1圖所示,在本實施例中,該第一裝置100包含一慣性偵測單元110,該慣性偵測單元110係為包含陀螺儀以及加速計的一裝置,當其運作時,可用以偵測該第一裝置100沿六軸方向的加速度以及角加速度。當該第一裝置100被使用者移動時,該慣性偵測單元110可用以偵測該第一裝置100沿六軸方向的加速度以及角加速度,而被偵測到的加速度以及角加速度可用於產生該第一裝置100的一指向。
如第1圖所示,在本實施例中,該第二裝置200包含一光學模組210、一超音波模組220、一處理器230以及一顯示螢幕240,其中該光學模組210、該超音波模組220以及該顯示螢幕240皆電性耦接於該處理器230。該光學模組210可為複數光學感測器以及微處理器構成的單元,其係用以於一第一偵測區域中擷取一影像資訊。當該第一裝置100位於該第一偵測區域當中時,由該光學模組210擷取的該影像資訊中將包含關於該第一裝置100的資訊。該超音波模組220可為複數超音波收發器以及微處理器構成的單元,該超音波模組220係用以向一第二偵測區域發送超音波,並對應地接收於該第二偵測區域中發生的超音波反射,進而產生該超音波資訊。當該第一裝置100位於該第二偵測區域當中時,由該超音波模組220收集的該超音波資訊中將包含關於該第一裝置100的資訊。
在本實施例中,舉例而言,該處理器230可為由單一處理器構成的單元或由複數微處理器集成的單元,該處理器230透過匯流排等媒介電性耦接於內部或外部的記憶體。前述的內部記憶體或外部記憶體可為揮發性或非揮發性的記憶體。處理器230係用以自前述內部記憶體或外部記憶體獲取複數指令集並執行該些指令集,進而根據該些指令集執行特定既定程序,該些特定既定程序將於後面段落中詳述。
在本實施例中,該光學模組210可將該影像資訊傳送至該處理器230,而該超音波模組220亦可將該超音波資訊傳送至該處理器230。當該處理器230接收到該影像資訊以及該超音波資訊後,該處理器230可對該影像資訊以及該超音 波資訊進行處理。應注意的是,無論該第一裝置100可於該第一偵測區域或該第二偵測區域中被偵測到,該處理器230皆可根據該影像資訊以及該超音波資訊判斷該第一裝置100相對於該第二裝置200的一相對位置。應注意的是,由於該影像資訊當中包含對應該第一偵測區域的資訊,而該超音波資訊當中包含對應該第二偵測區域的資訊,是故,由該影像資訊以及該超音波資訊形成的集合能夠涵蓋一第三偵測區域,該第三偵測區域廣於該第一偵測區域,該第三偵測區域亦廣於該第二偵測區域。
在本實施例中,該顯示螢幕240耦接於該處理器230,該處理器230更用以發送對應一模擬環境的資訊至該顯示螢幕240,根據該資訊,該顯示螢幕240可向使用者顯示該模擬環境當中的部分景象。應注意的是,所述的模擬環境係為一種用於產生擬真影像、音訊或其他感官刺激的電腦技術,可用以向使用者提供如同身歷其境於一虛擬或幻想的環境當中的體驗。所述的模擬環境可包含虛擬實境環境、擴增實境環境以及混合實境環境。在本實施例中,當該使用者穿戴該第二裝置200時,該顯示螢幕240可向使用者顯示該模擬環境當中的部分景象。透過該顯示螢幕240,該使用者可觀賞該模擬環境當中的部分景象以獲得遊歷於該模擬環境當中的沈浸式體驗。
在某些實施例中,該第一裝置100的該慣性偵測單元110可透過設置於該第一裝置100上的一訊號收發器(圖中未示)與該處理器230通訊耦接,其中該訊號收發器可為無線射頻收發器或紅外線收發器,因此,該慣性偵測單元110可將 該第一裝置100的該指向傳送至該處理器230。在此狀況下,根據該相對位置以及該指向,該處理器230可於該模擬環境當中顯示對應該第一裝置100的一虛擬物件。例如,若該使用者係遊玩於冒險類型的虛擬實境遊戲時,被顯示於遊戲環境當中的該虛擬物件可為由一虛擬手掌握持的一虛擬長劍,而該虛擬物件係根據該第一裝置100的該相對位置以及該指向所繪示的。據此,透過追蹤該第一裝置100的該相對位置以及該第一裝置100的該指向,該處理器230可將該虛擬手掌顯示顯示於該第一裝置100所在的位置,並顯示該虛擬長劍指向於該第一裝置100所指向的方向。
第2A圖為根據本案一實施例繪示的追蹤系統中的一第二裝置之示意圖。在該實施例中,第1圖實施例中所述的該追蹤系統TRS當中的該第二裝置200的細部配置繪示於該2圖中。圖中所繪示的係為該第二裝置200的上視圖,其係為一頭戴式顯示裝置。如第2A圖所示,第1圖當中敘述的該光學模組210包含兩個光學感測器,分別為一第一光學感測器211以及一第二光學感測器212,由圖中可見,該第一光學感測器211以及該第二光學感測器212係大致平行地設置於該第二裝置200的前側表面。如第2A圖所示,第1圖當中敘述的該超音波模組220包含六個超音波收發器,該些超音波收發器分別被設置於兩個超音波陣列中,六個超音波收發器當中的三個超音波收發器221-223係構成一第一超音波陣列,該第一超音波陣列設置於該第二裝置200的左側表面,另外的三個超音波收發器224-226係構成一第二超音波陣列,該第二超音波陣列設置 於該第二裝置200的右側表面。
應注意的是,該第一超音波陣列或該第二超音波陣列當中的該些超音波收發器的數量並不限於如第2A圖中所示的數量。在其他實施例中,該第一超音波陣列或該第二超音波陣列各自具有三個以上的超音波收發器,如此將可能提高超音波偵測的準確率。
第2B圖為根據本案一實施例繪示的追蹤系統中的一第二裝置及其偵測區域之示意圖。在本實施例中,該第一光學感測器211以及該第二光學感測器212整體具有一光學偵測區域ODF。意即,該第一光學感測器211以及該第二光學感測器212皆可用以擷取該光學偵測區域ODF中的該影像資訊,無論如第1圖所示的該第一裝置100由該第一光學感測器211所偵測或由該第二光學感測器212所偵測,由該光學模組210所獲取的該影像資訊當中包含關於該第一裝置100位置的資訊。
在上述實施例中當中,該光學模組210包含該第一光學感測器211以及該第二光學感測器212,如圖中所示,該第一光學感測器211以及該第二光學感測器212兩者之組合可於該光學偵測區域ODF當中偵測該第一裝置100。然而,該光學模組210的配置並不限於此。在一些實施例中,該光學模組210可包含單一光學感測器,該單一光學感測器設置於該第二裝置的前側中央,而該單一光學感測器具有一偵測區域。當如第1圖所示的該第一裝置100位於該偵測區域當中時,由該光學模組210獲取的該影像資訊當中將包含關於該第一裝置 100位置的資訊。
在本實施例中,於圖中可見,該第一超音波收發器221、該第二超音波收發器222以及該第三超音波收發器223三者的組合係用以獲取一第一聲學偵測區域UDF1當中的該超音波資訊,另一方面,該第四超音波收發器224、該第五超音波收發器225以及該第六超音波收發器226三者的組合係用以獲取一第二聲學偵測區域UDF2當中的該超音波資訊。在本實施例中,該些聲學偵測區域UDF1-UDF2整體構成了如第1圖的實施例中所述的該第二偵測範圍,無論如第1圖所述的該第一裝置100可於該些聲學偵測區域UDF1-UDF2當中的哪個被偵測到,由該超音波模組220收集的該超音波資訊當中將包含關於該第一裝置100位置的資訊。
應注意的是,如第1圖的實施例所述,該第二裝置200的該處理器230可接收由該超音波模組220獲取的該超音波資訊以及由該光學模組210獲取的該影像資訊。如此一來,如第2B圖所示,當該第一裝置100位於該光學偵測區域ODF當中時,係由該光學模組210追蹤該第一裝置100的位置。當該第一裝置100位於該些聲學偵測區域UDF1-UDF2當中時,係由該超音波模組220追蹤該第一裝置100的位置。當該第一裝置100位於該些聲學偵測區域UDF1-UDF2與該光學偵測區域ODF的重疊區域時,該光學模組210以及該超音波模組220皆可追蹤該第一裝置100的位置。亦即,該光學模組210以及該超音波模組220的組合提供了一種可行技術方案,使該處理器230可於更廣於該光學偵測區域ODF以及該些聲學偵 測區域UDF1-UDF2的範圍當中追蹤該第一裝置100的位置。
應注意的是,即使光學感測器的偵測準確率以及偵測效率較佳,然而其同時會造成巨大的電量消耗以及運算量負擔。此外,光學感測器的可視域(field of view)限制亦為另一問題。因此,透過本案的方式結合光學感測器以及超音波收發器,將可以在電量消耗以及運算量較低的前提下獲得更大的偵測區域。況且,一般來說,若將該第二裝置200作為提供模擬環境的頭戴式顯示裝置,當該第一裝置100位於光學偵測範圍當中時,對應該第一裝置100的該虛擬物件將會出現於使用者可見的模擬環境當中。眾所週知地,當系統於光學偵測範圍中獲取的影像資訊產生變化時,即便變化細微,使用者仍容易注意到差異,是故,當該第一裝置100位於光學偵測範圍當中時,對於準確率的要求較高。相對地,在使用者所無法直接看見的區域當中,本案的系統提供了一種可利用超音波進行偵測的技術方案。如此一來,整體系統的偵測準確率以及效率皆可獲得提升。
第3圖為根據本案一實施例繪示的追蹤方法之步驟流程圖。在本實施例中,該追蹤方法300係由前述實施例中的該追蹤系統TRS所執行的,故請一併參照前述實施例當中的解釋。在本實施例中,該追蹤方法300的細部步驟將在下列段中當中詳述。
步驟S301:透過一裝置的一光學模組擷取一第一偵測區域中的一影像資訊。如第1圖、第2A圖以及第2B圖的實施例所示,該第二裝置200的該光學模組210包含兩個光學感 測器,而該些光學感測器211-212皆用以擷取該光學偵測區域ODF當中的該影像資訊,隨後,由該光學模組210擷取的該影像資訊將被傳送至該第二裝置200的該處理器230。
步驟S302:透過該裝置的一超音波模組獲取一第二偵測區域中的一超音波資訊。如第1圖、第2A圖以及第2B圖的實施例所示,該第二裝置200的超音波模組220包含六個超音波收發器221-226,其中的該些超音波收發器221-223係用以於該第一聲學偵測區域UDF1當中收集該超音波資訊,其中的該些超音波收發器224-226用以於該第二聲學偵測區域UDF2當中收集該超音波資訊,隨後,由該超音波模組220收集的該超音波資訊將被傳送至該第二裝置200的該處理器230。
步驟S303:透過該裝置的一處理器,根據該影像資訊以及該超音波資訊判斷另一裝置相對於該裝置在一第三偵測區域中的一相對位置,其中該第三偵測區域廣於該第一偵測區域亦廣於該第二偵測區域。如第1圖、第2A圖以及第2B圖的實施例所示,當該處理器230接收該影像資訊以及該超音波資訊後,根據該影像資訊以及該超音波資訊,該處理器230可判斷該第一裝置100相對於該第二裝置200的該相對位置。亦即,透過該光學模組210以及該超音波模組220的結合,本案提供了一種有效的技術方案,可於全向的範圍當中追蹤該第一裝置100。其中,該處理器230判斷該相對位置的程序將敘述於下面段落當中。
第4圖為根據本案一實施例繪示的追蹤系統中的 一處理器之示意圖。本圖中繪示了前述實施例當中所敘述的該處理器230當中的配置,是故,請一併參照前述實施例中的解釋。該處理器230包含一光學位置解算器231、一聲學位置解算器232、一角度權重計算器233、一距離權重計算器234、一指向計算器235以及一融合狀態機236,上述的這些解算器、計算器以及狀態機皆為該處理器230當中的運算單元,當該處理器230執行由記憶體中獲取的該些指令集時,這些運算單元將實施下列所述的既定程序。在另一些實施例中,這些解算器、計算器以及狀態機係由該處理器230所執行的應用程序,當該處理器230執行由記憶體中獲取的該些指令集時,這些應用程序將實施下列所述的既定程序。
如前所述,當該第一裝置100於該光學偵測區域ODF中被偵測到時,由該第一光學感測器211或該第二光學感測器212擷取的該影像資訊包含有關於該第一裝置100的資訊。應注意的是,在一些實施例中,該第一光學感測器211以及該第二光學感測器212係用以辨認該第一裝置100上所設置的一光學識別區塊,當該第一裝置100上的該光學識別區塊被偵測到位於該光學偵測區域ODF當中時,由該些光學感測器211-212所獲取的該影像資訊當中將包含該第一裝置100的位置資訊。
在本實施例中,該光學位置解算器231係用以接收由該第一光學感測器211或該第二光學感測器212擷取的該影像資訊,隨後,該光學位置解算器231可根據該影像資訊產生對應該第一裝置100的一光學解算位置。
在本實施例中(filed),該角度權重計算器233係用以對該光學位置解算器231所產生的該光學解算位置實施一權重計算。如前所述,該第一光學感測器211以及該第二光學感測器212涵蓋該光學偵測區域ODF,當該第一裝置100位於該光學偵測區域ODF當中時,該第一裝置100可為該第一光學感測器211或該第二光學感測器212所感知。然而,應注意的是,光學感測器仍具有其限制。一般來說,若該第一裝置100係位於該光學偵測區域ODF的中央時,該第一光學感測器211或該第二光學感測器212偵測該第一裝置100之位置的準確率較高。然而,若該第一裝置100係位於該光學偵測區域ODF的邊緣時,該第一光學感測器211或該第二光學感測器212偵測該第一裝置100之位置的準確率相對地較低。因此,透過對該光學位置解算器231所產生的該光學解算位置實施該權重計算,可以提升所獲取的該光學解算位置的準確率。在本實施例中,於該權重計算中,該角度權重計算器233可為該光學解算位置指派一光學權重值。
第5A圖為根據本案一實施例繪示的追蹤系統運作以偵測某些偵測區域之示意圖。如第5A圖所示,在本實施例中,該第一裝置100於一第一位置被偵測到,該第一位置位於該光學偵測區域ODF以及該第一聲學偵測區域UDF1之間的一重疊區域OLF當中。在本實施例中,該第一光學感測器211以及該第二光學感測器212可擷取一第一影像資訊,而該光學位置解算器231可根據該第一影像資訊產生該第一裝置100的一第一光學解算位置。而該角度權重計算器233則可計算該光 學模組210(包含該第一光學感測器211以及該第二光學感測器212)的一法線軸以及由該光學模組210延伸至該第一裝置100的一假想線之間的一第一夾角θ1。在此狀況下,該角度權重計算器233可根據該第一夾角θ1為該第一光學解算位置指派一第一光學權重值。
第5B圖為根據本案一實施例繪示的追蹤系統運作以偵測某些偵測區域之示意圖。如第5B圖所示,在本實施例中,該第一裝置100於一第二位置被偵測到,該第二位置位於該光學偵測區域ODF以及該第一聲學偵測區域UDF之間的該重疊區域OLF當中。在本實施例中,該第一光學感測器211以及該第二光學感測器212可擷取一第二影像資訊,而該光學位置解算器231可根據該第二影像資訊產生該第一裝置100的一第二光學解算位置。而該角度權重計算器233則可計算該光學模組210(包含該第一光學感測器211以及該第二光學感測器212)的該法線軸以及由該光學模組210延伸至該第一裝置100的另一假想線之間的一第二夾角θ2。在此狀況下,該角度權重計算器233可根據該第二夾角θ2為該第二光學解算位置指派一第二光學權重值。
若對第5A圖以及第5B圖進行比較,由兩圖中明顯的可見,該第一夾角θ1小於該第二夾角θ2,意即,於第5B圖的實施例中,該第一裝置100較鄰近於該光學偵測區域ODF的邊緣部分。在此狀況下,當實施該權重計算時,該角度權重計算器233於第5A圖的實施例中所指派的該第一光學權重值將大於該角度權重計算器233於第5B圖的實施例中所指派的 該第二光學權重值。舉例而言,被指派予該第一光學解算位置的該第一光學權重值可為0.70,而被指派予該第二光學解算位置的該第二光學權重值可為0.30。在第5A圖的實施例中,當實施該權重計算時,該角度權重計算器233可將該第一光學解算位置乘以該第一光學權重值以產生對應該第一裝置100的一加權後的光學解算位置。在第5B圖的實施例中,當實施該權重計算時,該角度權重計算器233可將該第二光學解算位置乘以該第二光學權重值以產生對應該第一裝置100的另一加權後的光學解算位置。顯然地,由於該第一光學權重值大於該第二光學權重值,在第5A圖的實施例中所產生的該加權後的光學解算位置將大於在第5B圖的實施例中所產生的該另一加權後的光學解算位置。意即,若第一裝置100的位置相對於該光學模組210的該法線軸具有較大偏移時,該角度權重計算器233為該第一裝置100的光學解算位置所指派的光學權重值將相對地較小。
然而,應注意的是,上述實施例中指派予該些光學解算位置的光學權重值僅係範例,應理解,因應不同的系統狀況,該些光學權重值應可對應調整。
請再參照第4圖,在第4圖的實施例當中,當該第一裝置100可於該些聲學偵測區域UDF1-UDF2當中被偵測到時,由該些超音波收發器221-226所獲取的該超音波資訊當中將包含對應該第一裝置100的位置的資訊。在本實施例中,該聲學位置解算器232係用以接收由該些超音波收發器221-226所獲取的該超音波資訊。類似於該光學位置解算器231,該聲 學位置解算器232係用以根據該些超音波收發器221-226所獲取的該超音波資訊產生該第一裝置100的一聲學解算位置。舉舉例而言,當該第一裝置100位於該第二裝置200左側的該第一超音波陣列的偵測區域內,該聲學位置解算器232可對應地根據該些超音波收發器221-223所獲取的該超音波資訊產生一聲學解算位置。
在本實施例中,該距離權重計算器234係用以對該聲學位置解算器232所產生的該聲學解算位置實施一權重計算。由於該些超音波收發器221-223涵蓋了該第一聲學偵測區域UDF1,當該第一裝置100位於該第一聲學偵測區域UDF1當中,該些超音波收發器221-223皆可偵測該第一裝置100。透過該距離權重計算器234對該聲學解算位置實施該權重計算,可以提升所獲取的該聲學解算位置的準確率。在本實施例中,於該權重計算中,該距離權重計算器234可為該聲學解算位置指派一聲學權重值。
第6A圖為根據本案第5A圖之實施例繪示的追蹤系統運作以偵測某些偵測區域之示意圖。本圖係用以解釋由該距離權重計算器234所實施的該權重計算之內容。如第6A圖所示,該第一裝置100於該第一位置(同於第5A圖中的該第一位置)被超音波偵測到,該第一位置位於該光學偵測區域ODF以及該第一聲學偵測區域UDF1之間的該重疊區域OLF當中。在本實施例中,該些超音波收發器221-223可收集該第一聲學偵測區域UDF1當中的一第一超音波資訊,而該第一超音波資訊將被傳送至該聲學位置解算器232。根據該第一超音波資訊, 該聲學位置解算器232可計算該第一裝置100與該第一超音波收發器221之間的一第一距離D1,並計算該第一裝置100與該第二超音波收發器222之間的一第二距離D2,再計算該第一裝置100與該第三超音波收發器223之間的一第三距離D3。根據該些距離D1-D3,該聲學位置解算器232可獲取該第一裝置100的一第一聲學解算位置。然而,超音波收發器亦具有其限制。一般來說,若該第一裝置100係位於距離該些超音波收發器221-223較近的位置,由該聲學位置解算器232偵測的該聲學解算位置的準確率較高。然而,若該第一裝置100係位於距離該些超音波收發器221-223較遠的位置,由該聲學位置解算器232偵測的該聲學解算位置的準確率相對地較低。因此,透過對該聲學位置解算器232所產生的該第一聲學解算位置實施該權重計算,可以提升所獲取的該聲學解算位置的準確率。
如第6A圖所示,該第一距離D1短於該第二距離D2,而該第二距離D2又短於該第三距離D3。而在本實施例中,當實施該權重計算時,該距離權重計算器234將根據該第一裝置100距離該些超音波收發器221-223之間的平均距離為該第一聲學解算位指派一第一聲學權重值。
第6B圖為根據本案第5B圖之實施例繪示的追蹤系統運作以偵測某些偵測區域之示意圖。本圖係用以解釋由該距離權重計算器234所實施的該權重計算之內容。如第6B所示,該第一裝置100於該第二位置(同於第5B圖中的該第二位置)被超音波偵測到,該第二位置位於該光學偵測區域ODF以及該第一聲學偵測區域UDF1之間的該重疊區域OLF當中。在 本實施例中,該些超音波收發器221-223可收集該第一聲學偵測區域UDF1當中的一第二超音波資訊,而該第二超音波資訊將被傳送至該聲學位置解算器232。根據該第二超音波資訊,該聲學位置解算器232可計算該第一裝置100與該第一超音波收發器221之間的一第四距離D4,並計算該第一裝置100與該第二超音波收發器222之間的一第五距離D5,再計算該第一裝置100與該第三超音波收發器223之間的一第六距離D6。根據該些距離D4-D6,該聲學位置解算器232可獲取該第一裝置100的一第二聲學解算位置。如前所述,超音波收發器具有其限制。因此,透過對該聲學位置解算器232所產生的該第二聲學解算位置實施該權重計算,可以提升所獲取的該聲學解算位置的準確率。
如第6B圖所示,該第四距離D4短於該第五距離D5,而該第五距離D5又短於該第六距離D6。而在本實施例中,當實施該權重計算時,該距離權重計算器234亦將根據該第一裝置100距離該些超音波收發器221-223之間的平均距離為該第二聲學解算位指派一第二聲學權重值。
若對第6A圖以及第6B圖進行比較,由兩圖中明顯的可見,該些第一至第三距離D1-D3三者的平均距離將大於該些第四至第六距離D4-D6的平均距離,意即,相較於第6A圖,第6B圖中所示的該第一裝置100較鄰近於該些超音波收發器221-223。在此狀況下,當實施該權重計算時,該距離權重計算器234於第6A圖的實施例中所指派的該第一聲學權重值將小於該角度權重計算器233於第6B圖的實施例中所指派的 該第二聲學權重值。舉例而言,被指派予該第一聲學解算位置的該第一聲學權重值可為0.30,而被指派予該第二聲學解算位置的該第二聲學權重值可為0.70。在第6A圖的實施例中,當實施該權重計算時,該距離權重計算器234可將該第一聲學解算位置乘以該第一聲學權重值以產生對應該第一裝置100的一加權後的聲學解算位置。在第5B圖的實施例中,當實施該權重計算時,該距離權重計算器234可將該第聲光學解算位置乘以該第二聲學權重值以產生對應該第一裝置100的另一加權後的聲學解算位置。顯然地,由於該第一聲學權重值小於該第二聲學權重值,在第6A圖的實施例中所產生的該加權後的聲學解算位置將小於在第6B圖的實施例中所產生的該另一加權後的聲學解算位置。意即,若第一裝置100的位置較遠離該超音波模組220,該距離權重計算器234為該第一裝置100的聲學解算位置所指派的聲學權重值將相對地較小。
應注意的是,上述實施例中指派予該些聲學解算位置的聲學權重值僅係範例,應理解,因應不同的系統狀況,該些光學權重值應可對應調整。
如第1圖的實施例所示,該慣性偵測單元110可用以偵測該第一裝置100的該指向。在第4圖的實施例當中,該處理器230的該指向計算器235可用以獲取由該慣性偵測單元110所偵測的該第一裝置100的該指向,當獲取該第一裝置100的該指向後,該指向計算器235可將該指向傳送至該融合狀態機236。藉此,當該角度權重計算器233產生加權後的該光學解算位置後,加權後的該光學解算位置將被傳送至該融合狀態 機236,而當該距離權重計算器234產生加權後的該聲學解算位置後,加權後的該聲學解算位置將被傳送至該融合狀態機236。
在第4圖的實施例當中,該融合狀態機236係用以計算加權後的該光學解算位置以及加權後的該聲學解算位置以產生一融合位置。由於該光學模組210以及該超音波模組220係基於相同的時間線獲取該影像資訊以及該超音波資訊,是故,由該角度權重計算器233產生的加權後的該光學解算位置以及由該距離權重計算器234產生的加權後的該聲學解算位置可被正確地結合以產生該融合位置。
應注意的是,無論該第一裝置100係位於該光學偵測區域ODF當中或是該些聲學偵測區域UDF1-UDF2當中,只要該些光學感測器211-212或是該些超音波收發器221-226當中的若干者可偵測到該第一裝置100,該融合狀態機236及可對應地產生對應該第一裝置100的該融合位置。詳細地說,在一實施例中,若該第一裝置100僅能於該光學偵測區域ODF中被偵測,由該光學位置解算器231產生的該光學解算位置將直接地被傳送至該融合狀態機236,而不需經加權計算,而該融合狀態機236可根據該光學解算位置以及該第一裝置100的指向產生該融合位置。在另一實施例中,若該第一裝置100僅能於該第一聲學偵測區域UDF1中被偵測,由該聲學位置解算器232產生的該聲學解算位置將直接地被傳送至該融合狀態機236,而不需經加權計算,而該融合狀態機236可根據該聲學解算位置以及該第一裝置100的指向產生該融合位 置。此外,若該第一裝置100可於該重疊區域OLF當中被偵測,該融合狀態機236即可根據上述實施例中所述的技術方案產生該融合位置。
在一些實施例中,對應該第一裝置100的該融合位置可被回授至該光學位置解算器231、該聲學位置解算器232、該角度權重計算器233以及該距離權重計算器234。如此一來,由於該光學位置解算器231以及該聲學位置解算器232可獲取該融合位置,而該融合位置指涉了該第一裝置100先前的位置,是故,根據該融合位置,該光學位置解算器231以及該聲學位置解算器232可接續地產生準確率較高的該光學解算位置以及該聲學解算位置。
第7圖為根據本案一實施例繪示的追蹤系統運作以偵測某些偵測區域之示意圖。本圖係用以詳細解釋一種產生上述實施例中所述的該光學解算位置的技術方案。在本實施例中,該距離權重計算器234可將加權後的該聲學解算位置回授至該光學位置解算器231。舉例而言,如第7圖所示,當該第一裝置100將自該第一聲學偵測區域UDF1進入該第一聲學偵測區域UDF1與該光學偵測區域ODF之間的該重疊區域OLF時,加權後的該聲學解算位置將被回授至該光學位置解算器231,當該光學位置解算器231將根據由該第一光學感測器211以及該第二光學感測器212所獲取的該影像資訊產生該光學解算位置時,該光學位置解算器231可基於一解算範圍以產生該光學解算位置,其中,該解算範圍係為根據該第二加權位置所生成的一可行範圍。應當理解,同理地,若該第一裝置100將 自另一聲學偵測區域進入該聲學偵測區域與其他光學偵測區域的重疊區域時,加權後的該聲學解算位置將被回授至該光學位置解算器231,而該光學位置解算器231亦可基於另一解算範圍以產生該光學解算位置。意即,當該第一裝置100將自該些聲學偵測區域UDF1-UDF2進入該光學偵測區域ODF當中時,透過回授加權後的該聲學解算位置,該第一裝置100的該光學解算位置的可能性將被縮小至特定範圍。
應注意的是,在該些聲學偵測區域UDF1-UDF2與該光學偵測區域ODF的重疊區域當中,該光學解算位置以及該聲學解算位置的準確率應較低落,因此,本案提供了一種將該光學解算位置以及該聲學解算位置結合以產生更佳解的技術方案。一般來說,當該第一裝置100自該些聲學偵測區域UDF1-UDF2移入該光學偵測區域ODF當中時,該第一裝置100將可能自許多可能的方向進入該光學偵測區域ODF當中,因此,該第二裝置200的該光學模組210將很難快速地於該光學偵測區域ODF當中擷取該第一裝置100的位置,有時,將導致使用者可能注意到此種追蹤丟失的狀況。是故,本案提供了一種可行的技術方案,使該光學模組210可基於已獲取的該聲學解算位置縮小該光學解算位置可能出現的位置之範圍,如此一來,當該第一裝置100自該些聲學偵測區域UDF1-UDF2進入該光學偵測區域ODF當中時,透過該聲學解算位置,該光學模組210可迅速地計算出該第一裝置100的該光學解算位置。
如前所述,該追蹤系統以及該追蹤方法結合了光 學感測器以及超音波收發器以涵蓋全向性的偵測區域,當欲偵測的目標被光學感測器或超音波收發器所偵測時,該處理器可實施加權計算以增加所獲取的該光學解算位置以及該聲學解算位置的準確率。此外,當欲偵測的目標自該聲學偵測區域移入該光學偵測區域當中時,本案可透過回授該聲學解算位置以加速該光學解算位置的產生。
雖然本案以實施例揭露如上,然其並非用以限定本案,任何熟習此技藝者,在不脫離本案之精神和區域內,當可作各種之更動與潤飾,因此本案之保護區域當視後附之申請專利區域所界定者為準。

Claims (11)

  1. 一種追蹤系統,包含:一第一裝置;以及一第二裝置,包含:一光學模組,設置於該第二裝置的一第一側表面,並用以自該第一側表面向外偵測一第一偵測區域,以擷取該第一偵測區域中的一影像資訊;一超音波收發模組,設置於該第二裝置的一第二側表面,並用以自該第二側表面向外偵測一第二偵測區域,以用以獲取該第二偵測區域中的一超音波資訊,該第一側表面不同於該第二側表面,且該第二偵測區域以及該第一偵測區域部分重疊;以及一處理器,用以根據該影像資訊以及該超音波資訊中的至少一者判斷該第一裝置相對於該第二裝置於一第三偵測區域中的一相對位置,其中該第三偵測區域係為該第一偵測區域以及該第二偵測區域的整合。
  2. 如請求項1所述之追蹤系統,其中該第一裝置係為一控制器,而該第二裝置係為一頭戴顯示器,該第二裝置用以顯示一模擬環境。
  3. 如請求項2所述之追蹤系統,其中該第一裝置包含:一慣性偵測單元,用以偵測該第一裝置的一指向,其中該第一裝置的該指向將被傳送至該處理器,該處理器根據該第一裝置的該相對位置以及該指向於該模擬環境當中顯示對應該第一裝置的一虛擬物件。
  4. 如請求項1所述之追蹤系統,其中該處理器根據該影像資訊計算一第一加權位置,並根據該超音波資訊計算一第二加權位置,當該第一裝置同時於該第一偵測區域以及該第二偵測區域當中被偵測時,該處理器根據該第一加權位置以及該第二加權位置計算該第一裝置的該相對位置。
  5. 如請求項4所述之追蹤系統,其中該光學模組包含至少二光學感測器,而該處理器包含一光學位置解算器,該光學位置解算器根據該至少二光學感測器所擷取的該影像資訊產生該第一裝置的一光學解算位置,該處理器更透過一第一權重值計算該光學解算位置以產生該第一加權位置。
  6. 如請求項5所述之追蹤系統,其中該處理器更計算該至少二光學感測器的一法線軸與該至少二光學感測器延伸至該第一裝置的一假想線之間的一夾角,該第一權重值與該夾角成反比。
  7. 如請求項4所述之追蹤系統,其中該超音波模組包含至少三超音波收發器,該處理器根據該超音波資訊計算該至少三超音波收發器各自與該第一裝置之間的至少三距離,而該處理器更包含一聲學位置解算器,該聲學位置解算器根據該至少三距離產生該第一裝置的一聲學解算位置,該處理器更透過一第二權重值計算該聲學解算位置以產生該第二加權位置。
  8. 如請求項7所述之追蹤系統,其中該第二權重值與該至少三距離成反比。
  9. 如請求項4所述之追蹤系統,其中該第一偵測區域與該第二偵測區域部分重疊,當該第一裝置的該第二加權位置進入該重疊區域時,該處理器基於一解算範圍以產生該第一加權位置,其中該解算範圍係根據該第二加權位置所生成。
  10. 一種追蹤裝置,包含:一光學模組,設置於一第二裝置的一第一側表面,並用以自該第一側表面向外偵測一第一偵測區域,以擷取該第一偵測區域中的一影像資訊;一超音波收發模組,設置於該第二裝置的一第二側表面,並用以自該第二側表面向外偵測一第二偵測區域,以用以獲取該第二偵測區域中的一超音波資訊,該第一側表面不同於該第二側表面,且該第二偵測區域以及該第一偵測區域部分重疊;以及一處理器,用以根據該影像資訊以及該超音波資訊中的至少一者判斷一目標裝置相對於該追蹤裝置於一第三偵測區域中的一相對位置,其中該第三偵測區域係為該第一偵測區域以及該第二偵測區域的整合。
  11. 一種追蹤方法,用於追蹤一第一裝置,且由一第二裝置所執行,該追蹤方法包含:透過一光學模組擷取一第一偵測區域中的一影像資訊,其中該光學模組設置於該第二裝置的一第一側表面並用以自該第一側表面向外偵測該第一偵測區域;透過一超音波收發模組獲取一第二偵測區域中的一超音波資訊,其中該超音波收發模組設置於該第二裝置的一第二側表面並用以自該第二側表面向外偵測該第二偵測區域,該第一側表面不同於該第二側表面,且該第二偵測區域以及該第一偵測區域部分重疊;以及透過該第二裝置的一處理器,根據該影像資訊以及該超音波資訊中的至少一者判斷該第一裝置相對於該第二裝置於一第三偵測區域中的一相對位置,其中該第三偵測區域係為該第一偵測區域以及該第二偵測區域的整合。
TW106146608A 2016-12-29 2017-12-29 追蹤系統、追蹤裝置及追蹤方法 TWI659221B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201662439902P 2016-12-29 2016-12-29
US62/439,902 2016-12-29

Publications (2)

Publication Number Publication Date
TW201830050A TW201830050A (zh) 2018-08-16
TWI659221B true TWI659221B (zh) 2019-05-11

Family

ID=60937582

Family Applications (1)

Application Number Title Priority Date Filing Date
TW106146608A TWI659221B (zh) 2016-12-29 2017-12-29 追蹤系統、追蹤裝置及追蹤方法

Country Status (4)

Country Link
US (1) US10895628B2 (zh)
EP (1) EP3343242B1 (zh)
CN (1) CN108303698B (zh)
TW (1) TWI659221B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10572024B1 (en) * 2016-09-28 2020-02-25 Facebook Technologies, Llc Hand tracking using an ultrasound sensor on a head-mounted display
EP3602098B1 (de) * 2017-11-29 2021-04-28 Cae Software Und Systems Gmbh Schallquellen-visualisierungssystem
US20200004489A1 (en) * 2018-06-29 2020-01-02 Microsoft Technology Licensing, Llc Ultrasonic discovery protocol for display devices
US11486961B2 (en) * 2019-06-14 2022-11-01 Chirp Microsystems Object-localization and tracking using ultrasonic pulses with reflection rejection
US11054923B2 (en) * 2019-10-11 2021-07-06 Finch Technologies Ltd. Automatic switching between different modes of tracking user motions to control computer applications
US20210157394A1 (en) 2019-11-24 2021-05-27 XRSpace CO., LTD. Motion tracking system and method
DE102020105217B3 (de) * 2020-02-27 2021-02-25 Deutsche Post Ag Verfahren zum Verfolgen von Packstücken auf einer Förderstrecke

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060287086A1 (en) * 2002-07-27 2006-12-21 Sony Computer Entertainment America Inc. Scheme for translating movements of a hand-held controller into inputs for a system
US20090187374A1 (en) * 2008-01-22 2009-07-23 Richard Baxter Wireless position sensing in three dimensions using ultrasound
TW201511803A (zh) * 2013-06-09 2015-04-01 新力電腦娛樂股份有限公司 頭戴式顯示器
WO2015048890A1 (en) * 2013-10-03 2015-04-09 Sulon Technologies Inc. System and method for augmented reality and virtual reality applications
TW201633104A (zh) * 2015-03-06 2016-09-16 新力電腦娛樂股份有限公司 頭戴顯示器之追蹤系統

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1992009904A1 (en) * 1990-11-29 1992-06-11 Vpl Research, Inc. Absolute position tracker
DK0575332T3 (da) * 1990-11-30 2002-05-21 Sun Microsystems Inc Kompakt sporingsindretning for hovedets position i et økonomisk virtual realitysystem
US5645077A (en) * 1994-06-16 1997-07-08 Massachusetts Institute Of Technology Inertial orientation tracker apparatus having automatic drift compensation for tracking human head and other similarly sized body
US5856844A (en) * 1995-09-21 1999-01-05 Omniplanar, Inc. Method and apparatus for determining position and orientation
TW395121B (en) * 1996-02-26 2000-06-21 Seiko Epson Corp Personal wearing information display device and the display method using such device
JP3363837B2 (ja) * 1999-06-11 2003-01-08 キヤノン株式会社 ユーザインタフェース装置および情報処理方法
AU2001233019A1 (en) * 2000-01-28 2001-08-07 Intersense, Inc. Self-referenced tracking
WO2003000367A1 (en) * 2001-06-19 2003-01-03 Faeger Jan G A device and a method for creating an environment for a creature
JP4054585B2 (ja) * 2002-02-18 2008-02-27 キヤノン株式会社 情報処理装置および方法
US8797260B2 (en) * 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US10086282B2 (en) * 2002-07-27 2018-10-02 Sony Interactive Entertainment Inc. Tracking device for use in obtaining information for controlling game program execution
US7034779B2 (en) * 2002-08-06 2006-04-25 Information Decision Technologeis, Llc Advanced ruggedized augmented reality instrumented self contained breathing apparatus
US7002551B2 (en) * 2002-09-25 2006-02-21 Hrl Laboratories, Llc Optical see-through augmented reality modified-scale display
WO2005119356A2 (en) * 2004-05-28 2005-12-15 Erik Jan Banning Interactive direct-pointing system and calibration method
US20100201512A1 (en) * 2006-01-09 2010-08-12 Harold Dan Stirling Apparatus, systems, and methods for evaluating body movements
US7839417B2 (en) * 2006-03-10 2010-11-23 University Of Northern Iowa Research Foundation Virtual coatings application system
JP4151982B2 (ja) * 2006-03-10 2008-09-17 任天堂株式会社 動き判別装置および動き判別プログラム
US9323055B2 (en) * 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
US8320992B2 (en) * 2006-10-05 2012-11-27 Visionsense Ltd. Method and system for superimposing three dimensional medical information on a three dimensional image
JP5127242B2 (ja) * 2007-01-19 2013-01-23 任天堂株式会社 加速度データ処理プログラムおよびゲームプログラム
US20080218331A1 (en) * 2007-03-08 2008-09-11 Itt Manufacturing Enterprises, Inc. Augmented reality-based system and method to show the location of personnel and sensors inside occluded structures and provide increased situation awareness
US8094090B2 (en) * 2007-10-19 2012-01-10 Southwest Research Institute Real-time self-visualization system
GB2491987B (en) * 2008-03-03 2013-03-27 Videoiq Inc Method of searching data for objects identified by object detection
US8427395B2 (en) 2009-04-02 2013-04-23 GM Global Technology Operations LLC Full-windshield hud enhancement: pixelated field of view limited architecture
CN102293709B (zh) * 2011-06-10 2013-02-27 深圳典邦科技有限公司 一种智能导盲装置
US8179604B1 (en) * 2011-07-13 2012-05-15 Google Inc. Wearable marker for passive interaction
EP3116616B1 (en) * 2014-03-14 2019-01-30 Sony Interactive Entertainment Inc. Gaming device with volumetric sensing
US10073516B2 (en) * 2014-12-29 2018-09-11 Sony Interactive Entertainment Inc. Methods and systems for user interaction within virtual reality scene using head mounted display
US10291847B2 (en) * 2015-02-26 2019-05-14 Htc Corporation Portable device and manipulation method
SE539097C2 (en) * 2015-08-20 2017-04-11 Scania Cv Ab Method, control unit and system for avoiding collision with vulnerable road users
CN105785373A (zh) * 2016-04-26 2016-07-20 上海与德通讯技术有限公司 一种虚拟现实位置识别***及方法
CN205809569U (zh) * 2016-06-21 2016-12-14 武汉方格信息技术有限公司 一种基于vr技术的智能家居***
CN109247945A (zh) * 2017-07-12 2019-01-22 松下知识产权经营株式会社 计测装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060287086A1 (en) * 2002-07-27 2006-12-21 Sony Computer Entertainment America Inc. Scheme for translating movements of a hand-held controller into inputs for a system
US20090187374A1 (en) * 2008-01-22 2009-07-23 Richard Baxter Wireless position sensing in three dimensions using ultrasound
TW201511803A (zh) * 2013-06-09 2015-04-01 新力電腦娛樂股份有限公司 頭戴式顯示器
WO2015048890A1 (en) * 2013-10-03 2015-04-09 Sulon Technologies Inc. System and method for augmented reality and virtual reality applications
TW201633104A (zh) * 2015-03-06 2016-09-16 新力電腦娛樂股份有限公司 頭戴顯示器之追蹤系統

Also Published As

Publication number Publication date
US20180188353A1 (en) 2018-07-05
CN108303698A (zh) 2018-07-20
TW201830050A (zh) 2018-08-16
CN108303698B (zh) 2021-05-04
EP3343242B1 (en) 2019-09-04
EP3343242A1 (en) 2018-07-04
US10895628B2 (en) 2021-01-19

Similar Documents

Publication Publication Date Title
TWI659221B (zh) 追蹤系統、追蹤裝置及追蹤方法
US12013979B2 (en) Lightweight and low power cross reality device with high temporal resolution
US11044402B1 (en) Power management for optical position tracking devices
US11889209B2 (en) Lightweight cross reality device with passive depth extraction
CN113454518A (zh) 多相机交叉现实设备
CN106796452B (zh) 头戴式显示装置及其控制方法、计算机可读介质
US11150318B2 (en) System and method of camera-less optical motion capture
US10948994B2 (en) Gesture control method for wearable system and wearable system
CN111108462A (zh) 用于头戴式显示***的测距和附件跟踪
US11537196B2 (en) Drift cancelation for portable object detection and tracking
US20150119159A1 (en) Motion analyzing apparatus, motion analyzing method, and motion analyzing program
KR102574229B1 (ko) 골프 스윙 분석 장치 및 그 방법
KR101587263B1 (ko) 센싱장치 및 이를 구비한 스크린 사격 시뮬레이션 시스템
US11224787B2 (en) Swing measurement device, swing measurement method, and swing measurement program
WO2017163647A1 (ja) 頭部装着装置
WO2022246795A1 (zh) 虚拟现实体验安全区域更新方法及装置
TW202427009A (zh) 頭戴式顯示器及解鎖方法
TWM643746U (zh) 擴增實境眼鏡系統
KR19990073928A (ko) 두부 움직임 감지 장치 및 감지 방법
KR20150106992A (ko) 헤드 트랙킹을 이용한 동작 인식 기반의 게임기 화면제어 장치 및 그 제어 방법
KR19990073925A (ko) 두부 움직임 감지 장치