TWI825004B - 輸入方法、裝置、設備、系統和電腦儲存媒體 - Google Patents
輸入方法、裝置、設備、系統和電腦儲存媒體 Download PDFInfo
- Publication number
- TWI825004B TWI825004B TW106137905A TW106137905A TWI825004B TW I825004 B TWI825004 B TW I825004B TW 106137905 A TW106137905 A TW 106137905A TW 106137905 A TW106137905 A TW 106137905A TW I825004 B TWI825004 B TW I825004B
- Authority
- TW
- Taiwan
- Prior art keywords
- virtual surface
- input object
- input
- recorded
- virtual
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 83
- 238000012545 processing Methods 0.000 claims description 17
- 238000001514 detection method Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 abstract description 10
- 230000008569 process Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 9
- 230000004044 response Effects 0.000 description 4
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 4
- 238000012905 input function Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000010146 3D printing Methods 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/018—Input/output arrangements for oriental characters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0237—Character input methods using prediction or retrieval techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/22—Character recognition characterised by the type of writing
- G06V30/228—Character recognition characterised by the type of writing of three-dimensional handwriting, e.g. writing in the air
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
本發明提供了一種輸入方法、裝置、設備、系統和電腦儲存媒體,其中,輸入方法包括:確定並記錄在三維空間中虛擬面的位置資訊;獲取在三維空間中輸入物體的位置資訊;依據所述輸入物體的位置資訊與所述虛擬面的位置資訊,檢測所述輸入物體是否接觸虛擬面;確定並記錄所述輸入物體接觸虛擬面過程中產生的軌跡;依據記錄的軌跡,確定輸入的內容。本發明能夠實現三維空間內的資訊輸入,適用於虛擬現實技術。
Description
本發明係有關電腦應用技術領域,特別有關一種輸入方法、裝置、設備、系統和電腦儲存媒體。
虛擬現實技術是一種可以創建和體驗虛擬世界的電腦仿真系統,它利用電腦來產生即時動態的三維立體逼真影像,虛擬世界與現實世界的融合。虛擬現實技術本質上就是一場人機對話模式的新革命,而輸入方式則是人機交互的“最後一公里”,因此虛擬現實技術的輸入方法顯得尤為關鍵。虛擬現實技術致力於將虛擬世界與現實世界進行融合,讓用戶在虛擬世界中的感受就像在現實世界中一樣真實。對於虛擬現實技術中的輸入方式而言,最好的方式就是讓用戶在虛擬世界中的輸入就像在現實世界中輸入一樣,但目前尚沒有很好的方式能夠達到該目的。
有鑒於此,本發明提供了一種輸入方法方法、裝置、設備、系統和電腦儲存媒體,提供適用於虛擬現實技術的輸入方式。 具體的技術方案如下: 本發明提供了一種輸入方法,該方法包括: 確定並記錄在三維空間中虛擬面的位置資訊; 獲取在三維空間中輸入物體的位置資訊; 依據所述輸入物體的位置資訊與所述虛擬面的位置資訊,檢測所述輸入物體是否接觸虛擬面; 確定並記錄所述輸入物體接觸虛擬面過程中產生的軌跡; 依據記錄的軌跡,確定輸入的內容。 根據本發明一較佳實施方式,該方法還包括: 按照預設的樣式來展現所述虛擬面。 根據本發明一較佳實施方式,所述獲取在三維空間中輸入物體的位置資訊包括: 獲取空間***檢測到的所述輸入物體的位置資訊。 根據本發明一較佳實施方式,依據所述輸入物體的位置資訊與所述虛擬面的位置資訊,檢測所述輸入物體是否接觸虛擬面包括: 判斷所述輸入物體的位置與所述虛擬面的位置之間的距離是否在預設範圍內,如果是,確定所述輸入物體接觸虛擬面。 根據本發明一較佳實施方式,該方法還包括: 若檢測到所述輸入物體接觸虛擬面,展現觸感回饋資訊。 根據本發明一較佳實施方式,所述展現觸感回饋資訊包括以下至少一種: 改變虛擬面的顏色; 播放指示所述輸入物體接觸虛擬面的提示音; 按照預設樣式,展現所述輸入物體在虛擬面上的接觸點。 根據本發明一較佳實施方式,確定所述輸入物體接觸虛擬面過程中產生的軌跡包括: 在所述輸入物體接觸虛擬面的過程中,獲取所述輸入物體的位置資訊在所述虛擬面上的投影; 所述輸入物體與所述虛擬面分離時,確定並記錄輸入物體接觸虛擬面的過程中各投影點構成的軌跡。 根據本發明一較佳實施方式,依據記錄的軌跡,確定輸入的內容包括: 依據已記錄的軌跡,上屏與已記錄軌跡一致的線條;或者, 依據已記錄的軌跡,上屏與已記錄的軌跡相匹配的字元;或者, 依據已記錄的軌跡,顯示與所述已記錄的軌跡相匹配的候選字元,上屏用戶選擇的候選字元。 根據本發明一較佳實施方式,該方法還包括: 完成上屏操作後,清空已記錄的軌跡;或者, 捕捉到撤銷輸入的手勢後,清空已記錄的軌跡。 根據本發明一較佳實施方式,該方法還包括: 在所述虛擬面上展現所述輸入物體接觸虛擬面過程中產生的軌跡,在完成上屏操作後,清除虛擬面上展現的軌跡。 本發明還提供了一種輸入裝置,該裝置包括: 虛擬面處理單元,用以確定並記錄在三維空間中虛擬面的位置資訊; 位置獲取單元,用以獲取在三維空間中輸入物體的位置資訊; 接觸檢測單元,用以依據所述輸入物體的位置資訊與所述虛擬面的位置資訊,檢測所述輸入物體是否接觸虛擬面; 軌跡處理單元,用以確定並記錄所述輸入物體接觸虛擬面過程中產生的軌跡; 輸入確定單元,用以依據記錄的軌跡,確定輸入的內容。 根據本發明一較佳實施方式,該裝置還包括: 展現單元,用以按照預設的樣式來展現所述虛擬面。 根據本發明一較佳實施方式,所述位置獲取單元,具體上用以獲取空間***檢測到的所述輸入物體的位置資訊。 根據本發明一較佳實施方式,所述接觸檢測單元,具體上用以判斷所述輸入物體的位置與所述虛擬面的位置之間的距離是否在預設範圍內,如果是,確定所述輸入物體接觸虛擬面。 根據本發明一較佳實施方式,該裝置還包括: 展現單元,用以若檢測到所述輸入物體接觸虛擬面,則展現觸感回饋資訊。 根據本發明一較佳實施方式,所述展現單元在展現觸感回饋資訊時,採用以下至少一種方式: 改變虛擬面的顏色; 播放指示所述輸入物體接觸虛擬面的提示音; 按照預設樣式,展現所述輸入物體在虛擬面上的接觸點。 根據本發明一較佳實施方式,所述軌跡處理單元,具體上用以:在所述輸入物體接觸虛擬面的過程中,獲取所述輸入物體的位置資訊在所述虛擬面上的投影;所述輸入物體與所述虛擬面分離時,確定並記錄輸入物體接觸虛擬面的過程中各投影點構成的軌跡。 根據本發明一較佳實施方式,所述輸入確定單元,具體上用以:依據已記錄的軌跡,上屏與已記錄軌跡一致的線條;或者, 依據已記錄的軌跡,上屏與已記錄的軌跡相匹配的字元;或者, 依據已記錄的軌跡,顯示與所述已記錄的軌跡相匹配的候選字元,上屏用戶選擇的候選字元。 根據本發明一較佳實施方式,所述軌跡處理單元,還用以在上屏操作完成後,清空已記錄的軌跡;或者,捕捉到撤銷輸入的手勢後,清空已記錄的軌跡。 根據本發明一較佳實施方式,該裝置還包括: 展現單元,用以在所述虛擬面上展現所述輸入物體接觸虛擬面過程中產生的軌跡,在上屏操作完成後,清除虛擬面上展現的軌跡。 本發明還提供了一種設備,包括 記憶體,包括一個或者多個程式; 一個或者多個處理器,係耦合到所述記憶體,執行所述一個或者多個程式,以實現上述方法中執行的操作。 本發明還提供了一種電腦儲存媒體,所述電腦儲存媒體被編碼有電腦程式,所述程式在被一個或多個電腦執行時,使得所述一個或多個電腦執行上述方法中執行的操作。 本發明還提供了一種虛擬現實系統,該虛擬現實系統包括:輸入物體、空間***和虛擬現實設備; 所述空間***,用以檢測在三維空間中輸入物體的位置,並提供給所述虛擬現實設備; 所述虛擬現實設備,用以確定並記錄在三維空間中虛擬面的位置資訊;依據所述輸入物體的位置資訊與所述虛擬面的位置資訊,檢測所述輸入物體是否接觸虛擬面;確定並記錄所述輸入物體接觸虛擬面過程中產生的軌跡;依據記錄的軌跡,確定輸入的內容。 根據本發明一較佳實施方式,所述虛擬現實設備,還用以按照預設的樣式來展現所述虛擬面。 根據本發明一較佳實施方式,所述虛擬現實設備在依據所述輸入物體的位置資訊與所述虛擬面的位置資訊,檢測所述輸入物體是否接觸虛擬面時,具體上執行: 判斷所述輸入物體的位置與所述虛擬面的位置之間的距離是否在預設範圍內,如果是,確定所述輸入物體接觸虛擬面。 根據本發明一較佳實施方式,所述虛擬現實設備,還用以若檢測到所述輸入物體接觸虛擬面,則展現觸感回饋資訊。 根據本發明一較佳實施方式,所述虛擬現實設備展現觸感回饋資訊的方式包括以下至少一種: 改變虛擬面的顏色; 播放指示所述輸入物體接觸虛擬面的提示音; 按照預設樣式,展現所述輸入物體在虛擬面上的接觸點。 根據本發明一較佳實施方式,所述虛擬現實設備展現觸感回饋資訊的方式包括:向所述輸入物體發送觸發訊息; 所述輸入物體,還用以接收到所述觸發訊息後,提供振動回饋。 根據本發明一較佳實施方式,所述虛擬現實設備在確定所述輸入物體接觸虛擬面過程中產生的軌跡時,具體上執行: 在所述輸入物體接觸虛擬面的過程中,獲取所述輸入物體的位置資訊在所述虛擬面上的投影; 所述輸入物體與所述虛擬面分離時,確定並記錄輸入物體接觸虛擬面的過程中各投影點構成的軌跡。 根據本發明一較佳實施方式,所述虛擬現實設備在依據記錄的軌跡,確定輸入的內容時,具體上執行: 依據已記錄的軌跡,上屏與已記錄軌跡一致的線條;或者, 依據已記錄的軌跡,上屏與已記錄的軌跡相匹配的字元;或者, 依據已記錄的軌跡,顯示與所述已記錄的軌跡相匹配的候選字元,上屏用戶選擇的候選字元。 根據本發明一較佳實施方式,所述虛擬現實設備,還用以完成上屏操作後,清空已記錄的軌跡;或者,捕捉到撤銷輸入的手勢後,清空已記錄的軌跡。 根據本發明一較佳實施方式,所述虛擬現實設備,還用以在所述虛擬面上展現所述輸入物體接觸虛擬面過程中產生的軌跡,在完成上屏操作後,清除虛擬面上展現的軌跡。 由以上技術方案可以看出,本發明透過在三維空間中確定並記錄虛擬面的位置資訊,依據輸入物體的位置資訊與虛擬面的位置資訊,檢測輸入物體是否接觸虛擬面,依據記錄的輸入物體接觸虛擬面過程中產生的軌跡,確定輸入的內容。實現了三維空間內的資訊輸入,適用於虛擬現實技術,使得用戶在虛擬現實中的輸入體驗像是在現實空間中一樣。
為了使本發明的目的、技術方案和優點更加清楚,下面結合附圖和具體實施例而對本發明進行詳細描述。 在本發明實施例中使用的術語是僅僅出於描述特定實施例的目的,而非旨在限制本發明。在本發明實施例和所附申請專利範圍中所使用的單數形式的“一種”、“所述”和“該”也旨在包括多數形式,除非在上下文中清楚地表示其他含義。 應當理解,本文中使用的術語“和/或”僅僅是一種描述關聯物件的關聯關係,表示可以存在三種關係,例如,A和/或B,可以表示:單獨存在A,同時存在A和B,單獨存在B這三種情況。另外,本文中字元“/”,一般表示前後關聯物件是一種“或”的關係。 取決於語境,如在此所使用的詞語“如果”可以被解釋成為“在……時”或“當……時”或“回應於確定”或“回應於檢測”。類似地,取決於語境,短語“如果確定”或“如果檢測(陳述的條件或事件)”可以被解釋成為“當確定時”或“回應於確定”或“當檢測(陳述的條件或事件)時”或“回應於檢測(陳述的條件或事件)”。 為了方便對本發明的理解,首先對本發明所基於的系統進行簡單描述。如圖1中所示,該系統主要包括:虛擬現實設備、空間***和輸入物體。其中,輸入物體可以是筆刷、手套等任意形態的、可以用戶手持以進行資訊輸入的設備,甚至可以是用戶手指。 空間***是一種檢測三維空間中運動物體位置的感測器,目前空間***廣泛採用的方式包括:低頻磁場式空間定位、超聲式空間定位、雷射式空間定位等。以低頻磁場式感測器為例,感測器中的磁場發射器在三維空間中產生低頻磁場,可以計算出接收器相對於發射器的位置和方向,並將資料傳輸給主電腦(在本發明中為虛擬現實設備所連接的電腦或移動設備,在本發明實施例中將虛擬現實設備與其所連接的主電腦統稱為虛擬現實設備)。在本發明實施例中,接收器就可以被設置於輸入物體上。亦即,空間***檢測三維空間中輸入物體的位置,並提供給虛擬現實設備。 以雷射式空間定位為例,在三維空間內安裝數個可發射雷射的裝置,對空間發射橫豎兩個方向掃射的雷射,被定位的物體上放置了多個雷射感應接收器,透過計算兩束光線到達物體的角度差,從而得到物體的三維座標。物體在移動時三維座標也會跟著變化,從而得到變化的位置資訊。利用該原理也能夠對輸入物體進行位置定位,這種方式可以對任意的輸入物體進行定位,無需在輸入物體上額外安裝諸如接收器等裝置。 虛擬現實設備是能夠向用戶或接收設備提供虛擬現實效果的設備的總稱。一般而言,虛擬現實設備主要包括: 三維環境採集設備,採集物理世界(亦即,現實世界)的物體的三維資料,並在虛擬現實環境下進行再創建,此類設備例如,3D列印設備; 顯示類設備,顯示虛擬現實的影像,此類設備例如虛擬現實眼鏡、虛擬現實頭盔、增強現實設備、混合現實設備等; 聲音設備,類比物理世界的聲學環境,向用戶或接收設備提供虛擬環境下的聲音輸出,此類設備例如,三維環繞聲學設備; 交互設備,採集用戶或接收設備在虛擬環境下的交互和/或移動行為,並作為資料登錄,對虛擬現實的環境參數、影像、聲學、時間等產生回饋和改變,此類設備例如,位置追蹤儀、資料手套、3D三維滑鼠(或指示器)、動作捕捉設備、眼動儀、力回饋設備以及其他交互設備。 本發明下述方法實施例的執行主體為該虛擬現實設備,且本發明裝置實施例中,該裝置設置於該虛擬現實設備。 本發明實施例可以基於如圖2中所示情況,用戶穿戴有諸如頭戴式顯示器的虛擬現實設備,當用戶觸發輸入功能時,在三維空間可以“產生”一個虛擬面,用戶可以手持輸入物體在該虛擬面上進行書寫,從而完成資訊輸入。該虛擬面實際上是用於用戶輸入的一個參考位置,並非真實存在,可以是平面,也可以是曲面。為了使得用戶在輸入過程中的輸入體驗像是在現實世界中輸入一樣,可以將該虛擬面以一定的樣式進行展現,例如將虛擬面展現為一塊黑板的樣式,或者展現為一張白紙的樣式等等。這樣用戶在虛擬面上的輸入就像是在現實世界中的黑板或白紙上書寫一樣。下面結合實施例對能夠實現上述情況的方法進行詳細描述。 圖3為本發明實施例提供的方法流程圖,如圖3中所示,該方法可以包括以下步驟: 在301中,確定並記錄在三維空間中虛擬面的位置資訊。 本步驟可以在用戶觸發輸入功能時執行,例如用戶登錄,需要輸入用戶名和密碼時,再例如,透過即時通訊類應用輸入聊天內容時,都會觸發輸入功能,此時就開始執行本步驟,確定並記錄在三維空間中虛擬面的位置資訊。 在本步驟中,需要在虛擬現實設備的用戶觸及的三維空間範圍內,確定一個虛擬平面作為虛擬面的位置,用戶可以透過在該虛擬面上進行書寫的方式來進行資訊輸入。該虛擬面實際上是作為用戶輸入的參考位置,可以是平面,也可以是曲面,是虛擬的虛擬面,並非真實存在。虛擬面的位置可以以虛擬現實設備的位置作為參考位置設置,也可以以虛擬現實設備所連接電腦或移動設備等作為參考位置。也可以以另外,由於需要檢測用戶持輸入物體在虛擬面上的軌跡,輸入物體的位置資訊是依靠空間***來予以檢測的,因此虛擬面的位置需要在空間***的檢測範圍內。 為了讓用戶對該虛擬面更加有“距離感”,在本發明中可以附加採用兩種方式來讓用戶感知虛擬面的存在,從而知道在哪裡進行輸入。一種方式是當用戶持輸入物體接觸虛擬面時,可以展現觸感回饋資訊,該部分內容將在後續詳述。另一種方式是可以按照預設的樣式來展現該虛擬面,例如將虛擬面展現為一塊黑板的樣式,展現為一張白紙的樣式,等等,這樣用戶在輸入的過程中,一方面能夠比較有距離感,知道虛擬面的位置在哪裡,另一方面,用戶能夠像在黑板或白紙等媒體上書寫一樣,用戶體驗較好。 在302中,獲取在三維空間中輸入物體的位置資訊。 當用戶持輸入物體開始進行輸入時,例如用戶手持筆刷在“黑板”樣式的虛擬面上進行書寫。空間***能夠定位到輸入物體在移動過程中的位置資訊,因此,本步驟實際上是從空間***獲取空間***即時檢測到的三維空間中輸入物體的位置資訊,該位置資訊可以為三維座標值。 在303中,依據輸入物體的位置資訊與虛擬面的位置資訊,檢測輸入物體是否接觸虛擬面。 由於已經記錄有虛擬面的位置資訊,又獲取到了輸入物體的位置資訊,透過將輸入物體的位置資訊與虛擬面的位置資訊進行比對,依據兩者之間的距離就可以判斷出輸入物體是否接觸虛擬面。具體地說,可以判斷輸入物體的位置與虛擬面的位置之間的距離是否在預設範圍內,如果是,可以確定輸入物體接觸虛擬面。例如可以將輸入物體與虛擬面之間距離在[-1cm,1cm]範圍內時,認為輸入物體接觸虛擬面。 在確定輸入物體的位置與虛擬面的位置之間的距離時,可以如圖4a所示,虛擬面可以看做是由很多該面上的點所構成的,空間***即時檢測輸入物體的位置資訊並將該位置資訊傳送至執行本方法的裝置。圖4a中實心的點為構成虛擬面的各點,圖中只是示例性的示出了部分,空心的點為輸入物體的位置。該裝置確定輸入物體的位置A以及虛擬面上距離該位置A最近的點的位置B,然後判斷A和B之間的距離是否在預設範圍內,例如[-1cm,1cm]範圍內,如果是,就認為輸入物體接觸虛擬面。 當然,除了上述圖4a所示的方式之外,還可以採用其他確定輸入物體的位置與虛擬面的位置之間距離的方式,例如採用將輸入物體的位置向虛擬面投影的方式,在此不再贅述。 接觸虛擬面後,用戶就可以透過保持接觸虛擬面並進行移動來產生一個筆跡。上面已經提及,為了讓用戶更加有距離感,方便進行筆跡的輸入,可以在輸入物體接觸虛擬面時,展現觸感回饋資訊。觸感回饋資訊的展現形式可以包括但不限於以下幾種: 1)改變虛擬面的顏色。例如,輸入物體未接觸虛擬面時,虛擬面為白色,當輸入物體接觸虛擬面時,虛擬面就變成灰色以表示輸入物體接觸虛擬面。 2)播放指示輸入物體接觸虛擬面的提示音。例如,一旦輸入物體接觸虛擬面,就播放預設的音樂,一旦輸入物體離開虛擬面,音樂就暫停播放。 3)按照預設樣式,展現輸入物體在虛擬面上的接觸點。例如,一旦輸入物體接觸虛擬面,就形成一個水波式的接觸點,若在接觸虛擬面的距離越近,該水波越大,就像模擬用戶真實書寫過程中對媒體所產生的壓力。如圖4b所示。接觸點的樣式本發明並不加以限制,也可以是簡單的一個黑點,輸入物體接觸虛擬面時,就在接觸位置顯示一個黑點,離開虛擬面時,黑點消失。 上述1)和3)的觸感回饋方式屬於視覺回饋,上述2)的觸感回饋方式屬於聽覺回饋,除了上述幾種回饋方式之外,還可以採用如下4)中所示的力學回饋方式。 4)透過輸入物體提供振動回饋。這種情況下,對於輸入物體有一定的要求,對於普通諸如粉筆、手指等不再適用。而需要輸入物體具有訊息接收能力以及振動能力。 虛擬現實設備會以很短的時間間隔對輸入物體是否接觸虛擬面進行判別,判別出輸入物體接觸虛擬面時,向輸入物體發送觸發訊息。輸入物體接收到觸發訊息後,提供振動回饋。當輸入物體離開虛擬面時,輸入物體不會接收到觸發訊息,就不提供振動回饋。這樣用戶在輸入過程中會存在這樣的體驗,在虛擬面上書寫的過程中,接觸虛擬面時感受到振動回饋,這樣用戶就能夠清楚地感知輸入物體與虛擬面的接觸狀況。 其中虛擬現實設備向輸入物體發送的觸發訊息,可以以無線的方式來發送,例如wifi、藍牙、NFC(Near Field Communication,近場通信)等等,也可以以有線的方式來發送。 在304中,確定並記錄輸入物體接觸虛擬面過程中產生的軌跡。 由於輸入物體在三維空間中的運動是三維的,因此,需要將該三維的運動(一系列位置點)轉換到虛擬面上的二維運動。可以在輸入物體接觸虛擬面的過程中,獲取輸入物體的位置資訊在虛擬面上的投影;當輸入物體與虛擬面分離時,確定並記錄輸入物體接觸虛擬面過程中各投影點構成的軌跡。這次記錄的軌跡就可以看做是一個筆跡。 在305中,依據記錄的軌跡,確定輸入的內容。 如果用戶採用類似“畫畫”的方式來進行輸入,亦即,所畫即所得,那麼可以依據已記錄的軌跡,上屏與已記錄軌跡一致的線條。上屏完成後,清空已記錄的軌跡,目前這一個筆跡輸入完畢,重新開始檢測並記錄下一次輸入物體接觸虛擬面所產生的筆跡。 如果用戶想要輸入的是字元,且採用的輸入方式也是所畫即所得,例如用戶在虛擬面上輸入字母“a”的軌跡,那麼透過匹配可以得到字母a,就直接上屏字母“a”。對於有些一筆就可以完成的數字也同樣適用,例如用戶在虛擬面上輸入數字“2”的軌跡,透過匹配可以得到數字2,就可以直接上屏數字“2”。上屏完成後,清空已記錄的軌跡,目前這一個筆跡輸入完畢,重新開始檢測並記錄下一次輸入物體接觸虛擬面所產生的筆跡。 如果用戶想要輸入的是字元,且採用的輸入方式是編碼式或者筆劃等方式,例如用戶在虛擬面上輸入拼音,希望得到拼音對應的漢字,或者用戶在虛擬面上輸入漢字的各筆劃,希望得到各筆劃對應的漢字,等等。那麼依據已記錄的軌跡,顯示與已記錄的軌跡相匹配的候選字元。若用戶未選擇任一個候選字元,目前這一個筆跡輸入完畢,重新開始檢測並記錄下一次輸入物體接觸虛擬面所產生的筆跡。當第二個筆跡輸入完畢後,記錄的軌跡就是第一個筆跡和第二個筆跡共同構成的軌跡,再對該已記錄的軌跡進行匹配,顯示匹配的候選字元。若用戶仍未選擇任一個候選字元,則繼續開始檢測並記錄下一次輸入物體接觸虛擬面所產生的筆跡,直至用戶從候選字元中選擇一個進行上屏。上屏完成後,清空已記錄的軌跡,開始下一個字元的輸入。一個字元的輸入過程可以如圖5所示。 另外,可以將用戶已輸入的軌跡在虛擬面上進行顯示,直至上屏完畢後,清除在虛擬面上顯示的軌跡。當然,也虛擬面上顯示的軌跡也可以不自動刪除,而是由用戶手動刪除,亦即,透過特定的手勢來清除。例如透過點擊虛擬面上“清除軌跡”的按鈕,一旦檢測到用戶在該按鈕位置的點擊操作,即清除虛擬面上顯示的軌跡。 為了方便理解,舉一個例子,假設用戶透過輸入物體先輸入一個筆跡“〱”,對此軌跡進行記錄,然後依據記錄的該軌跡,顯示與已記錄的軌跡相匹配的候選字元,例如“女”、“人”、“(”等,如圖6a所示。候選字元中沒有用戶想要輸入的字元,用戶繼續輸入一個筆跡“〳”,記錄該軌跡,這樣已記錄的軌跡就由“〱”和“〳”構成,顯示與已記錄的軌跡相匹配的候選字元,例如“女”、“義”、“X”等。如果沒有與農戶想要輸入的字元,用戶繼續輸入一個筆跡“–”,這樣已記錄的軌跡就由“〱”、“〳”和“–”構成,顯示與已記錄的軌跡相匹配的候選字元,例如“女”、“如”、“好”等,如圖6b所示。假設此時候選字元中已有用戶想要輸入的字元“好”,則用戶可以從候選字元中選擇“好”字進行上屏。上屏完成後,清除已記錄的軌跡,以及虛擬面上顯示的軌跡。用戶可以開始下一個字元的輸入。 若用戶在輸入某字元的過程中,想撤銷已輸入的軌跡,可以執行撤銷輸入的手勢。一旦捕捉到用戶撤銷輸入的手勢後,就清空已記錄的軌跡。用戶可以重新進行目前字元的輸入。例如,可以在虛擬面上設置一個“撤銷按鈕”,如圖6b中所示。若捕捉到輸入物體在此處的點擊操作,則清空已記錄的軌跡,同時可以清除虛擬面上顯示的對應軌跡。也可以透過其他手勢,例如,不接觸虛擬面情況下向左快速移動輸入物體,向上快速移動輸入物體等手勢。 需要說明的是,上述方法實施例的執行主體可以為輸入裝置,該裝置可以位於本地終端(虛擬現實設備端)的應用,或者還可以為位於本地終端的應用中的插件或軟體發展工具包(Software Development Kit,SDK)等功能單元。 以上是對本發明所提供的方法進行的描述,下面結合實施例對本發明提供的裝置來進行詳述。圖7為本發明實施例提供的裝置結構圖,如圖7所示,該裝置可以包括:虛擬面處理單元01、位置獲取單元02、接觸檢測單元03、軌跡處理單元04和輸入確定單元05,還可以包括展現單元06。各組成單元的主要功能如下: 虛擬面處理單元01負責確定並記錄在三維空間中虛擬面的位置資訊。在本發明實施例中,可以在虛擬現實設備的用戶觸及的三維空間範圍內,確定一個虛擬平面作為虛擬面的位置,用戶可以透過在該虛擬面上進行書寫的方式進行資訊輸入。該虛擬面實際上是作為用戶輸入的參考位置,是虛擬的虛擬面,並非真實存在。另外,由於需要檢測用戶持輸入物體在虛擬面上的軌跡,輸入物體的位置資訊是依靠空間***來予以檢測的,因此虛擬面的位置需要在空間***的檢測範圍內。 展現單元06可以按照預設的樣式來展現虛擬面,例如,將虛擬面展現為一塊黑板的樣式,展現為一張白紙的樣式,等等,這樣用戶在輸入的過程中,一方面能夠比較有距離感,知道虛擬面的位置在哪裡,另一方面,用戶能夠像在黑板或白紙等媒體上書寫一樣,用戶體驗較好。 位置獲取單元02負責獲取在三維空間中輸入物體的位置資訊。具體地說,獲取空間***檢測到的輸入物體的位置資訊,該位置資訊可以為三維座標值。 接觸檢測單元03負責依據輸入物體的位置資訊與虛擬面的位置資訊,檢測輸入物體是否接觸虛擬面。由於已經記錄有虛擬面的位置資訊,又獲取到了輸入物體的位置資訊,透過將輸入物體的位置資訊與虛擬面的位置資訊進行比對,依據兩者之間的距離就可以判斷出輸入物體是否接觸虛擬面。具體地說,可以判斷輸入物體的位置與虛擬面的位置之間的距離是否在預設範圍內,如果是,可以確定輸入物體接觸虛擬面。例如可以將輸入物體與虛擬面之間距離在[-1cm,1cm]範圍內時,認為輸入物體接觸虛擬面。 軌跡處理單元04負責確定並記錄輸入物體接觸虛擬面過程中產生的軌跡。 為了讓用戶更加有距離感,方便進行筆跡的輸入,展現單元06可以在輸入物體接觸虛擬面時,展現觸感回饋資訊。觸感回饋資訊的展現形式可以包括但不限於以下幾種: 1)改變虛擬面的顏色。例如,輸入物體未接觸虛擬面時,虛擬面為白色,當輸入物體接觸虛擬面時,虛擬面就變成灰色以表示輸入物體接觸虛擬面。 2)播放指示輸入物體接觸虛擬面的提示音。例如,一旦輸入物體接觸虛擬面,就播放預設的音樂,一旦輸入物體離開虛擬面,音樂就暫停播放。 3)按照預設樣式,展現輸入物體在虛擬面上的接觸點。例如,一旦輸入物體接觸虛擬面,就形成一個水波式的接觸點,若在接觸虛擬面的距離越近,則該水波越大,就像模擬用戶真實書寫過程中對媒體所產生的壓力。如圖4所示。接觸點的樣式本發明並不加以限制,也可以是簡單的一個黑點,輸入物體接觸虛擬面時,就在接觸位置顯示一個黑點,離開虛擬面時,黑點消失。 4)透過輸入物體來提供振動回饋。在這種情況下,對於輸入物體有一定的要求,對於普通諸如粉筆、手指等不再適用。而需要輸入物體具有訊息接收能力以及振動能力。 虛擬現實設備會以很短的時間間隔對輸入物體是否接觸虛擬面進行判別,判別出輸入物體接觸虛擬面時,向輸入物體發送觸發訊息。輸入物體接收到觸發訊息後,提供振動回饋。當輸入物體離開虛擬面時,輸入物體不會接收到觸發訊息,即不提供振動回饋。這樣用戶在輸入過程中會存在這樣的體驗,在虛擬面上書寫的過程中,接觸虛擬面時感受到振動回饋,這樣用戶就能夠清楚地感知輸入物體與虛擬面的接觸狀況。 其中,虛擬現實設備向輸入物體發送的觸發訊息,可以以無線的方式來發送,例如wifi、藍牙、NFC(Near Field Communication,近場通信)等等,也可以以有線的方式來發送。 由於輸入物體在三維空間中的運動是三維的,因此,需要將該三維的運動(一系列位置點)轉換到虛擬面上的二維運動。軌跡處理單元04可以在輸入物體接觸虛擬面的過程中,獲取輸入物體的位置資訊在虛擬面上的投影;輸入物體與虛擬面分離時,確定並記錄輸入物體接觸虛擬面的過程中各投影點構成的軌跡。 輸入確定單元05負責依據記錄的軌跡,確定輸入的內容。具體地說,輸入確定單元05可以依據已記錄的軌跡,上屏與已記錄軌跡一致的線條;或者,依據已記錄的軌跡,上屏與已記錄的軌跡相匹配的字元;或者,依據已記錄的軌跡,顯示與已記錄的軌跡相匹配的候選字元,上屏用戶選擇的候選字元。其中,由展現單元06展現該候選字元。 更進一步地,軌跡處理單元04在上屏操作完成後,清空已記錄的軌跡,開始進行下一個字元的輸入處理。或者,捕捉到撤銷輸入的手勢後,清空已記錄的軌跡,重新進行目前字元的輸入處理。 另外,展現單元06可以在虛擬面上展現輸入物體接觸虛擬面過程中產生的軌跡,在上屏操作完成後,清除虛擬面上展現的軌跡。 本發明實施例提供的上述方法和裝置可以以設置並運行於設備中的電腦程式來體現。該設備可以包括一個或多個處理器,還包括記憶體和一個或多個程式,如圖8中所示。其中,該一個或多個程式被儲存於記憶體中,被上述一個或多個處理器所執行來實現本發明上述實施例中所示的方法流程和/或裝置操作。例如,被上述一個或多個處理器執行的方法流程,可以包括: 確定並記錄在三維空間中虛擬面的位置資訊; 獲取在三維空間中輸入物體的位置資訊; 依據所述輸入物體的位置資訊與所述虛擬面的位置資訊,檢測所述輸入物體是否接觸虛擬面; 確定並記錄所述輸入物體接觸虛擬面過程中產生的軌跡; 依據記錄的軌跡,確定輸入的內容。 由以上描述可以看出,本發明提供的上述方法、裝置和設備可以具備以下優點: 1)能夠實現三維空間內的資訊輸入,適用於虛擬現實技術。 2)本發明有別於傳統的輸入方式,需要鍵盤、手寫板等,一方面需要隨身攜帶這些較大體積的輸入設備;另一方面需要在輸入的同時額外觀察輸入設備。而本發明提供的輸入方式,用戶持任意的輸入設備都可能進行輸入,甚至不需要輸入設備,採用諸如用戶手指、手邊的筆、棍子等等物體都可以完成輸入。且由於虛擬面在三維空間內,因此用戶只需要在虛擬面上進行書寫,無需額外觀察輸入設備。 在本發明所提供的幾個實施例中,應該理解到,所揭露的系統,裝置和方法,可以透過其他的方式來實現。例如,以上所描述的裝置實施例僅僅是示意性的,例如,所述單元的劃分,僅僅為一種邏輯功能劃分,實際實現時可以有另外的劃分方式。 所述作為分離部件說明的單元可以是或者也可以不是物理上分開的,作為單元顯示的部件可以是或者也可以不是物理單元,亦即,可以位於一個地方,或者也可以分佈到多個網路單元上。可以根據實際的需要而選擇其中的部分或者全部單元來實現本實施例方案的目的。 另外,在本發明各個實施例中的各功能單元可以被集成在一個處理單元中,也可以是各個單元單獨物理存在,也可以兩個或兩個以上單元而集成在一個單元中。上述集成的單元既可以採用硬體的形式來實現,也可以採用硬體加軟體功能單元的形式來實現。 上述以軟體功能單元的形式實現的集成的單元,可以被儲存在一個電腦可讀取儲存媒體中。上述軟體功能單元被儲存在一個儲存媒體中,包括若干指令用以使得一台電腦設備(可以是個人電腦,伺服器,或者網路設備等)或處理器(processor)執行本發明各個實施例所述方法的部分步驟。而前述的儲存媒體包括:U碟、移動硬碟、唯讀記憶體(Read-Only Memory,ROM)、隨機存取記憶體(Random Access Memory,RAM)、磁碟或者光碟等各種可以儲存程式碼的媒體。 以上所述僅為本發明的較佳實施例而已,並不用來限制本發明,凡在本發明的精神和原則之內,所做的任何修改、等同替換、改進等,均應包含在本發明保護的範圍之內。
01‧‧‧虛擬面處理單元
02‧‧‧位置獲取單元
03‧‧‧接觸檢測單元
04‧‧‧軌跡處理單元
05‧‧‧輸入確定單元
06‧‧‧展現單元
圖1為本發明實施例提供的系統組成示意圖; 圖2為本發明實施例提供的一個情況示意圖; 圖3為本發明實施例提供的方法流程圖; 圖4a為本發明實施例提供的一種判斷輸入物體與接觸面是否接觸的實例圖; 圖4b為本發明實施例提供的一種接觸回饋的示意圖; 圖5為本發明實施例提供的一個字元的輸入過程示意圖; 圖6a和圖6b為本發明實施例提供的字元輸入的實例圖; 圖7為本發明實施例提供的裝置結構圖; 圖8為本發明實施例提供的設備結構圖。
Claims (31)
- 一種輸入方法,其特徵在於,該方法包括:確定並記錄在三維空間中展現之虛擬面的位置資訊,其中,該虛擬面的位置資訊係在空間***之檢測範圍內的參考位置;獲取在三維空間中輸入物體的位置資訊;依據該輸入物體的位置資訊與已記錄之該虛擬面的位置資訊,檢測以確定該輸入物體是否接觸該虛擬面;若該輸入物體接觸該虛擬面,則確定並記錄在該輸入物體相對於該虛擬面移動的過程中,該輸入物體在該虛擬面上產生之位置資訊的投影點,其中,該輸入物體係配置成接收控制該輸入物體之即時移動的用戶輸入;確定並記錄由該等投影點所構成之該輸入物體的軌跡;以及依據記錄的軌跡,確定輸入的內容。
- 如請求項1所述的方法,其中,該方法還包括:按照預設的樣式來展現該虛擬面。
- 如請求項1所述的方法,其中,該獲取在三維空間中該輸入物體的位置資訊包括:獲取該空間***檢測到的該輸入物體的位置資訊。
- 如請求項1所述的方法,其中,依據該輸入物體的位置資訊與已記錄之該虛擬面的位置資訊,檢測以確定該輸入物體是否接觸該虛擬面包括:判斷該輸入物體的位置與該虛擬面的位置之間的距離是否在預設範圍內,如果是,則確定該輸入物體接觸該虛擬面。
- 如請求項1或4所述的方法,其中,該方法還包括:若確定該輸入物體接觸該虛擬面,則展現觸感回饋資訊。
- 如請求項5所述的方法,其中,該展現觸感回饋資訊包括以下至少一種:改變該虛擬面的顏色;播放指示該輸入物體接觸該虛擬面的提示音;以及按照預設樣式,展現該輸入物體在該虛擬面上的接觸點。
- 如請求項5所述的方法,其中,該展現觸感回饋資訊包括:透過該輸入物體來提供振動回饋。
- 如請求項1所述的方法,其中,依據記錄的軌跡,確定輸入的內容包括: 依據已記錄的軌跡,上屏與該已記錄軌跡一致的線條;或者,依據該已記錄的軌跡,上屏與該已記錄的軌跡相匹配的字元;或者,依據該已記錄的軌跡,顯示與該已記錄的軌跡相匹配的候選字元,上屏用戶選擇的候選字元。
- 如請求項8所述的方法,其中,該方法還包括:完成上屏操作後,清空該已記錄的軌跡;或者,捕捉到撤銷輸入的手勢後,清空該已記錄的軌跡。
- 如請求項8所述的方法,其中,該方法還包括:在該虛擬面上展現該輸入物體接觸該虛擬面過程中產生的軌跡,在完成上屏操作後,清除該虛擬面上展現的軌跡。
- 一種輸入裝置,其特徵在於,該裝置包括:虛擬面處理單元,用以確定並記錄在三維空間中展現之虛擬面的位置資訊,其中,該虛擬面的位置資訊係在空間***之檢測範圍內的參考位置;位置獲取單元,用以獲取在三維空間中輸入物體的位置資訊;接觸檢測單元,用以依據該輸入物體的位置資訊與已記錄之該虛擬面的位置資訊,檢測以確定該輸入物體是否 接觸該虛擬面;軌跡處理單元,用以當該輸入物體接觸該虛擬面時,確定並記錄在該輸入物體相對於該虛擬面移動的過程中,該輸入物體在該虛擬面上產生之位置資訊的投影點,並且用以確定並記錄由該等投影點所構成之該輸入物體的軌跡,其中,該輸入物體係配置成接收控制該輸入物體之即時移動的用戶輸入;以及輸入確定單元,用以依據記錄的軌跡,確定輸入的內容。
- 如請求項11所述的裝置,其中,該裝置還包括:展現單元,用以按照預設的樣式來展現該虛擬面。
- 如請求項11所述的裝置,其中,該位置獲取單元,具體上用以獲取該空間***檢測到的該輸入物體的位置資訊。
- 如請求項11所述的裝置,其中,該接觸檢測單元,具體上用以判斷該輸入物體的位置與該虛擬面的位置之間的距離是否在預設範圍內,如果是,則確定該輸入物體接觸該虛擬面。
- 如請求項11或14所述的裝置,其中,該裝置還包括:展現單元,用以若確定該輸入物體接觸該虛擬面,則 展現觸感回饋資訊。
- 如請求項15所述的裝置,其中,該展現單元在展現該觸感回饋資訊時,採用以下至少一種方式:改變該虛擬面的顏色;播放指示該輸入物體接觸該虛擬面的提示音;以及按照預設樣式,展現該輸入物體在該虛擬面上的接觸點。
- 如請求項15所述的裝置,其中,該展現單元在展現該觸感回饋資訊時,透過該輸入物體來提供振動回饋。
- 如請求項11所述的裝置,其中,該輸入確定單元,具體上用以:依據已記錄的軌跡,上屏與該已記錄軌跡一致的線條;或者,依據該已記錄的軌跡,上屏與該已記錄的軌跡相匹配的字元;或者,依據該已記錄的軌跡,顯示與該已記錄的軌跡相匹配的候選字元,上屏用戶選擇的候選字元。
- 如請求項18所述的裝置,其中,該軌跡處理單元,還用以在上屏操作完成後,清空該已記錄的軌跡;或者,捕捉到撤銷輸入的手勢後,清空該已記錄的軌跡。
- 如請求項18所述的裝置,其中,該裝置還包括:展現單元,用以在該虛擬面上展現該輸入物體接觸該虛擬面過程中產生的軌跡,在上屏操作完成後,清除該虛擬面上展現的軌跡。
- 一種輸入設備,包括記憶體,包括一個或者多個程式;一個或者多個處理器,係耦合到該記憶體,執行該一個或者多個程式,以實現如請求項1至4中任一項所述方法中執行的操作。
- 一種電腦儲存媒體,該電腦儲存媒體被編碼有電腦程式,該程式在被一個或多個電腦所執行時,使得該一個或多個電腦執行如請求項1至4中任一項所述方法中執行的操作。
- 一種虛擬現實系統,其特徵在於,該虛擬現實系統包括:輸入物體、空間***和虛擬現實設備;該空間***,用以檢測在三維空間中輸入物體的位置,並提供給該虛擬現實設備;該虛擬現實設備,用以確定並記錄在三維空間中展現之虛擬面的位置資訊,其中,該虛擬面的位置資訊係在該空間***之檢測範圍內的參考位置;依據該輸入物體的位置資訊與已記錄之該虛擬面的位置資訊,檢測以確定該 輸入物體是否接觸該虛擬面;若該輸入物體接觸該虛擬面,則確定並記錄在該輸入物體相對於該虛擬面移動的過程中,該輸入物體在該虛擬面上產生之位置資訊的投影點,其中,該輸入物體係配置成接收控制該輸入物體之即時移動的用戶輸入;確定並記錄由該等投影點所構成之該輸入物體的軌跡;依據記錄的軌跡,確定輸入的內容。
- 如請求項23所述的虛擬現實系統,其中,該虛擬現實設備,還用以按照預設的樣式來展現該虛擬面。
- 如請求項23所述的虛擬現實系統,其中,該虛擬現實設備在依據該輸入物體的位置資訊與已記錄之該虛擬面的位置資訊,檢測以確定該輸入物體是否接觸該虛擬面時,具體上執行:判斷該輸入物體的位置與該虛擬面的位置之間的距離是否在預設範圍內,如果是,則確定該輸入物體接觸該虛擬面。
- 如請求項23或25所述的虛擬現實系統,其中,該虛擬現實設備,還用以若確定該輸入物體接觸該虛擬面,則展現觸感回饋資訊。
- 如請求項26所述的虛擬現實系統,其中,該虛擬現實設備展現該觸感回饋資訊的方式包括以下至少一種: 改變該虛擬面的顏色;播放指示該輸入物體接觸該虛擬面的提示音;以及按照預設樣式,展現該輸入物體在該虛擬面上的接觸點。
- 如請求項26所述的虛擬現實系統,其中,該虛擬現實設備展現該觸感回饋資訊的方式包括:向該輸入物體發送觸發訊息;該輸入物體,還用以接收到該觸發訊息後,提供振動回饋。
- 如請求項23所述的虛擬現實系統,其中,該虛擬現實設備在依據記錄的軌跡,確定輸入的內容時,具體上執行:依據已記錄的軌跡,上屏與該已記錄軌跡一致的線條;或者,依據該已記錄的軌跡,上屏與該已記錄的軌跡相匹配的字元;或者,依據該已記錄的軌跡,顯示與該已記錄的軌跡相匹配的候選字元,上屏用戶選擇的候選字元。
- 如請求項29所述的虛擬現實系統,其中,該虛擬現實設備,還用以完成上屏操作後,清該空已記錄的軌跡;或者,捕捉到撤銷輸入的手勢後,清空該已記錄的軌跡。
- 如請求項29所述的虛擬現實系統,其中,該虛擬現實設備,還用以在該虛擬面上展現該輸入物體接觸該虛擬面過程中產生的軌跡,在完成上屏操作後,清除該虛擬面上展現的軌跡。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710085422.7A CN108459782A (zh) | 2017-02-17 | 2017-02-17 | 一种输入方法、装置、设备、***和计算机存储介质 |
??201710085422.7 | 2017-02-17 | ||
CN201710085422.7 | 2017-02-17 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW201832049A TW201832049A (zh) | 2018-09-01 |
TWI825004B true TWI825004B (zh) | 2023-12-11 |
Family
ID=63169125
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW106137905A TWI825004B (zh) | 2017-02-17 | 2017-11-02 | 輸入方法、裝置、設備、系統和電腦儲存媒體 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20190369735A1 (zh) |
CN (1) | CN108459782A (zh) |
TW (1) | TWI825004B (zh) |
WO (1) | WO2018149318A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109308132A (zh) * | 2018-08-31 | 2019-02-05 | 青岛小鸟看看科技有限公司 | 虚拟现实的手写输入的实现方法、装置、设备及*** |
CN109872519A (zh) * | 2019-01-13 | 2019-06-11 | 上海萃钛智能科技有限公司 | 一种头戴式遥控装备及其遥控方法 |
CN113963586A (zh) * | 2021-09-29 | 2022-01-21 | 华东师范大学 | 一种可移动穿戴式授课工具及其应用 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014128752A1 (ja) * | 2013-02-19 | 2014-08-28 | 株式会社ブリリアントサービス | 表示制御装置、表示制御プログラム、および表示制御方法 |
TW201610810A (zh) * | 2014-09-02 | 2016-03-16 | 蘋果公司 | 電子訊息使用者介面 |
US20160239080A1 (en) * | 2015-02-13 | 2016-08-18 | Leap Motion, Inc. | Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments |
US20160358380A1 (en) * | 2015-06-05 | 2016-12-08 | Center Of Human-Centered Interaction For Coexistence | Head-Mounted Device and Method of Enabling Non-Stationary User to Perform 3D Drawing Interaction in Mixed-Reality Space |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ITPI20070093A1 (it) * | 2007-08-08 | 2009-02-09 | Mario Pirchio | Metodo per animare sullo schermo di un computer una pennavirtuale che scrive e disegna |
CN102426509A (zh) * | 2011-11-08 | 2012-04-25 | 北京新岸线网络技术有限公司 | 一种手写输入的显示方法、装置及*** |
CN104656890A (zh) * | 2014-12-10 | 2015-05-27 | 杭州凌手科技有限公司 | 虚拟现实智能投影手势互动一体机及互动实现方法 |
CN104808790B (zh) * | 2015-04-08 | 2016-04-06 | 冯仕昌 | 一种基于非接触式交互获取无形透明界面的方法 |
CN105446481A (zh) * | 2015-11-11 | 2016-03-30 | 周谆 | 基于手势的虚拟现实人机交互方法和*** |
CN106371574B (zh) * | 2015-12-04 | 2019-03-12 | 北京智谷睿拓技术服务有限公司 | 触觉反馈的方法、装置和虚拟现实交互*** |
US11010972B2 (en) * | 2015-12-11 | 2021-05-18 | Google Llc | Context sensitive user interface activation in an augmented and/or virtual reality environment |
CN105929958B (zh) * | 2016-04-26 | 2019-03-01 | 华为技术有限公司 | 一种手势识别方法,装置和头戴式可视设备 |
CN105975067A (zh) * | 2016-04-28 | 2016-09-28 | 上海创米科技有限公司 | 应用于虚拟现实产品的按键输入设备及方法 |
CN106200964B (zh) * | 2016-07-06 | 2018-10-26 | 浙江大学 | 一种虚拟现实中基于移动轨迹识别进行人机交互的方法 |
CN106249882B (zh) * | 2016-07-26 | 2022-07-12 | 华为技术有限公司 | 一种应用于vr设备的手势操控方法与装置 |
CN106406527A (zh) * | 2016-09-07 | 2017-02-15 | 传线网络科技(上海)有限公司 | 基于虚拟现实的输入方法、装置及虚拟现实装置 |
US10147243B2 (en) * | 2016-12-05 | 2018-12-04 | Google Llc | Generating virtual notation surfaces with gestures in an augmented and/or virtual reality environment |
-
2017
- 2017-02-17 CN CN201710085422.7A patent/CN108459782A/zh active Pending
- 2017-11-02 TW TW106137905A patent/TWI825004B/zh active
-
2018
- 2018-02-05 WO PCT/CN2018/075236 patent/WO2018149318A1/zh active Application Filing
-
2019
- 2019-08-15 US US16/542,162 patent/US20190369735A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014128752A1 (ja) * | 2013-02-19 | 2014-08-28 | 株式会社ブリリアントサービス | 表示制御装置、表示制御プログラム、および表示制御方法 |
TW201610810A (zh) * | 2014-09-02 | 2016-03-16 | 蘋果公司 | 電子訊息使用者介面 |
US20160239080A1 (en) * | 2015-02-13 | 2016-08-18 | Leap Motion, Inc. | Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments |
US20160358380A1 (en) * | 2015-06-05 | 2016-12-08 | Center Of Human-Centered Interaction For Coexistence | Head-Mounted Device and Method of Enabling Non-Stationary User to Perform 3D Drawing Interaction in Mixed-Reality Space |
Non-Patent Citations (2)
Title |
---|
網路文獻 2016年4月5日發佈於mobile01網站,標題為「架起往夢境的橋樑 HTC VIVE實機設置與使用分享」之網路文章,其網址為:https://www.mobile01.com/topicdetail.php?f=179&t=4759250 * |
網路文獻 2016年4月5日發佈於mobile01網站,標題為「架起往夢境的橋樑 HTC VIVE實機設置與使用分享」之網路文章,其網址為:https://www.mobile01.com/topicdetail.php?f=179&t=4759250。 |
Also Published As
Publication number | Publication date |
---|---|
US20190369735A1 (en) | 2019-12-05 |
TW201832049A (zh) | 2018-09-01 |
WO2018149318A1 (zh) | 2018-08-23 |
CN108459782A (zh) | 2018-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106997241B (zh) | 虚拟现实环境中与真实世界互动的方法与虚拟现实*** | |
US11614793B2 (en) | Precision tracking of user interaction with a virtual input device | |
US10761612B2 (en) | Gesture recognition techniques | |
US10257423B2 (en) | Method and system for determining proper positioning of an object | |
TWI476633B (zh) | 傳輸觸覺資訊的系統和方法 | |
EP3364272A1 (en) | Automatic localized haptics generation system | |
CN103858073A (zh) | 增强现实***的免触摸界面 | |
TWI825004B (zh) | 輸入方法、裝置、設備、系統和電腦儲存媒體 | |
US8525780B2 (en) | Method and apparatus for inputting three-dimensional location | |
US9262012B2 (en) | Hover angle | |
CN106445118B (zh) | 虚拟现实交互方法及装置 | |
JP2018142313A (ja) | 仮想感情タッチのためのシステム及び方法 | |
JP2013540291A (ja) | 仮想世界処理装置及び方法 | |
CN109313502A (zh) | 利用选择装置的敲击事件定位 | |
JP6127564B2 (ja) | タッチ判定装置、タッチ判定方法、およびタッチ判定プログラム | |
KR20170120624A (ko) | 가상 및 증강 현실 환경에서의 제어기 시각화 | |
WO2017028527A1 (zh) | 确定虚拟空间中触摸事件的方法及装置 | |
JP6834197B2 (ja) | 情報処理装置、表示システム、プログラム | |
CN108803862B (zh) | 用于虚拟现实场景中的账号关系建立方法及装置 | |
KR102462054B1 (ko) | 라이브 경매의 사용자 인터페이스 구현 장치 및 방법 | |
CN113467625A (zh) | 虚拟现实的控制设备、头盔和交互方法 | |
WO2019127325A1 (zh) | 信息处理方法、装置、云处理设备及计算机程序产品 | |
JP2019220170A (ja) | 触覚オーバーレイを拡張現実に統合するシステムと方法 | |
JP2010086367A (ja) | 位置情報入力装置、位置情報入力方法、プログラム、情報処理システム、及び電子装置 | |
JP6699406B2 (ja) | 情報処理装置、プログラム、位置情報作成方法、情報処理システム |