TW201931096A - 用於使用者介面之互動方法及電子裝置 - Google Patents

用於使用者介面之互動方法及電子裝置 Download PDF

Info

Publication number
TW201931096A
TW201931096A TW107107288A TW107107288A TW201931096A TW 201931096 A TW201931096 A TW 201931096A TW 107107288 A TW107107288 A TW 107107288A TW 107107288 A TW107107288 A TW 107107288A TW 201931096 A TW201931096 A TW 201931096A
Authority
TW
Taiwan
Prior art keywords
page
user
indicator
head
electronic device
Prior art date
Application number
TW107107288A
Other languages
English (en)
Inventor
黃慕真
戴雅麗
江昱嫺
Original Assignee
大陸商上海蔚蘭動力科技有限公司
英屬開曼群島商麥迪創科技股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN201711482541.2A external-priority patent/CN109992094A/zh
Application filed by 大陸商上海蔚蘭動力科技有限公司, 英屬開曼群島商麥迪創科技股份有限公司 filed Critical 大陸商上海蔚蘭動力科技有限公司
Publication of TW201931096A publication Critical patent/TW201931096A/zh

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

一種互動方法,用於一電子裝置之一使用者介面,該使用者介面包含一顯示裝置,該互動方法包含有偵測一使用者之一頭部生物辨識訊號,並根據該頭部生物辨識訊號控制該顯示裝置顯示一頁面;偵測該使用者之一眼部生物辨識訊號,並根據該眼部生物辨識訊號控制一指示符在該頁面上的位置;以及偵測該使用者之一指令,並於偵測到該指令時,根據該指示符在該頁面上的位置,控制該電子裝置執行一特定功能。

Description

用於使用者介面之互動方法及電子裝置
本發明係指一種用於使用者介面之互動方法,尤指一種可讓使用者在無需使用手部操作的情況下與使用者介面互動的方法。
電子裝置的使用者介面往往包含多個階層(hierarchy),當使用者進行操作時,其可能在同一層當中的不同頁面之間切換,或是切換到下一層頁面或畫面。例如,在一選單模式之下,使用者可能點選某一個項目而執行特定功能,或點選某一項目而進入下一階層的選單。一般來說,在電腦或手機上操作時,使用者需以觸控手勢進行,或藉由鍵盤或滑鼠等輸入介面輸入指令。換言之,傳統的手機或電腦操作方式皆需要使用單手或雙手來進行,且使用者需要長時間注視螢幕上的訊息以實現與電子裝置之使用者介面的互動。然而,上述操作方式無法應用於駕車時,若駕駛人需空出單手或雙手來操作電子裝置,容易分心而影響行車安全。有鑑於此,實有必要提出一種更適合的電子裝置互動方法,提供予汽車駕駛人使用。
本發明之主要目的即在於提供一種可讓使用者在無需使用手部操作的情況下與使用者介面互動的方法,以解決駕駛人易分心的問題,同時減少駕駛人操作電子裝置的複雜度並改善行車安全。
本發明揭露一種互動方法,用於一電子裝置之一使用者介面,該使用者介面包含一顯示裝置,該互動方法包含有:偵測一使用者之頭部生物辨識訊號,並根據該頭部生物辨識訊號控制該顯示裝置顯示一頁面;偵測該使用者之眼部生物辨識訊號,並根據該眼部生物辨識訊號控制一指示符在該頁面上的位置;以及偵測該使用者之一指令,並於偵測到該指令時,根據該指示符在該頁面上的位置,控制該電子裝置執行一特定功能。
本發明另揭露一種電子裝置,包含有一使用者介面及一處理裝置。該使用者介面用來與一使用者進行互動,該使用者介面包含有一顯示裝置及一感測裝置。該感測裝置用來偵測該使用者之頭部生物辨識訊號及眼部生物辨識訊號。該處理裝置耦接於該使用者介面,用來執行以下步驟:根據該頭部生物辨識訊號,控制該顯示裝置顯示一頁面;根據該眼部生物辨識訊號,控制一指示符在該頁面上的位置;以及於偵測到該使用者之一指令時,根據該指示符在該頁面上的位置,控制該電子裝置執行一特定功能。
本發明另揭露一種互動方法用於一電子裝置之一使用者介面,該使用者介面包含一顯示裝置,該互動方法包含有:偵測一使用者之一眼部生物辨識訊號,並根據該眼部生物辨識訊號控制一指示符在該顯示裝置顯示的一頁面上的位置;以及偵測該使用者之一臉部指令,並於偵測到該臉部指令時,根據該指示符在該頁面上的位置,控制該電子裝置執行一特定功能;其中,該臉部指令是由複數個臉部動作組合而成。
本發明另揭露一種電子裝置,包含有一使用者介面及一處理裝置。該使用者介面用來與一使用者進行互動,該使用者介面包含有一顯示裝置及一感測裝置。該感測裝置用來偵測該使用者之一眼部生物辨識訊號及一臉部指令,其中,該臉部指令是由複數個臉部動作組合而成。該處理裝置耦接於該使用者介面,用來執行以下步驟:根據該眼部生物辨識訊號,控制一指示符在該顯示裝置顯示的一頁面上的位置;以及於偵測到該臉部指令時,根據該指示符在該頁面上的位置,控制該電子裝置執行一特定功能。
第1圖為本發明一實施例。電子裝置10包含有一使用者介面100及一處理裝置110。使用者介面100提供了與使用者互動的媒介,其包含有一顯示裝置102及一感測裝置104,電子裝置10亦可選擇性包含一使用者輸入裝置120。感測裝置104可用來偵測使用者頭部、眼部的生物辨識訊號。處理裝置110耦接於使用者介面100,可根據頭部生物辨識訊號控制顯示裝置102顯示一頁面;並根據眼部生物辨識訊號控制一指示符在該頁面上的位置。使用者輸入裝置120可接收使用者的命令,以根據該指示符在該頁面上的位置,控制電子裝置10執行一特定功能。
在一實施例中,感測裝置104可用來偵測使用者的眼部生物辨識訊號,並偵測使用者的臉部生物辨識訊號作為一臉部指令。處理裝置110可根據眼部生物辨識訊號控制一指示符在顯示裝置102顯示的一頁面上的位置,並於臉部指令被偵測到時,根據指示符在頁面上的位置控制電子裝置10執行一特定功能。上述臉部指令可由複數個臉部動作組合而成。
在一實施例中,感測裝置104可用來偵測使用者頭部、眼部及臉部的生物辨識訊號。處理裝置110耦接於使用者介面100,可根據頭部生物辨識訊號控制顯示裝置102顯示一頁面;根據眼部生物辨識訊號控制一指示符在該頁面上的位置;並根據臉部生物辨識訊號以及該指示符在該頁面上的位置,控制電子裝置10執行一特定功能。
在一實施例中,感測裝置104所偵測的使用者之頭部生物辨識訊號包含頭部姿勢、頭部位置、頭部移動,以及任何頭部姿勢、位置及/或移動的組合。頭部位置代表頭部與感測器之間的相對位置,或代表頭部與顯示器之間的相對位置。頭部姿勢代表點頭、搖頭或側頭等。
在一實施例中,感測裝置104所偵測的使用者之眼部生物辨識訊號包含凝視向量及凝視點。凝視向量代表藉由頭部位置、頭部姿勢、虹膜反射光、虹膜位置及/或瞳孔位置所推導出的眼神凝視方向。凝視向量可實現於世界座標系、臉部座標系、或螢幕座標系。凝視點代表凝視向量與螢幕的交叉點。
在一實施例中,感測裝置104所偵測的使用者之臉部生物辨識訊號包含臉部特徵、臉部動作、一連串的臉部動作、或任何臉部特徵及/或動作的組合。
在一實施例中,感測裝置104可包含任何類型的感測器,用來取得各種生物辨識訊號,如可見光攝影機、紅外線攝影機、光感測器、或多種感測器的組合,而不限於此。
在一實施例中,處理裝置110可將使用者頭部、眼部及/或臉部的生物辨識訊號轉換成不同指令,來控制顯示裝置102上顯示的畫面。
在一實施例中,上述顯示頁面的方式包含藉由特定頭部動作來控制顯示的畫面平移(pan)。特定頭部動作可藉由頭部姿勢、頭部位置、頭部移動,或任何頭部姿勢、位置及/或移動的組合來實現。以第2A圖為例舉例說明,當使用者頭部向左傾時,可控制顯示的畫面向左平移。
在一實施例中,上述顯示頁面的方式包含藉由特定頭部動作來控制顯示的畫面縮小(zoom-out)或放大(zoom-in)。特定頭部動作可藉由頭部姿勢、頭部位置、頭部移動,或任何頭部姿勢、位置及/或移動的組合來實現。以第2B圖為例舉例說明,當使用者頭部朝向螢幕的方向移動時,可控制顯示的畫面放大。
為實現上述實施例中的平移及縮放,螢幕上主動區(active area)的背景區域可呈現一虛擬影像,主動區為虛擬影像的子集合且主動區的區域範圍小於虛擬影像的區域範圍。
在一實施例中,上述控制一指示符在頁面上的位置的步驟可透過多種方式來實現。例如,可在螢幕的主動區上以游標來表示,或透過可辨識的顏色、框線、凸面或凹面等方式來標示特定的區域、視窗及/或圖像。以第2C圖為例舉例說明,在螢幕20上,游標及框線皆用來標示特定的項目。
在一實施例中,使用者輸入裝置120可透過任何方式接收使用者的命令,如藉由按壓實體按鍵、輸入特定手勢、或藉由觸控螢幕輸入等,但不限於此。
在一實施例中,上述根據該指示符在頁面上的位置,控制電子裝置10執行一特定功能之步驟可透過多種方式來實現。例如,根據指示符所選擇的區域、視窗及/或圖像可指示特定功能被執行,所述區域、視窗及/或圖像可對應呼叫特定功能或指令。舉例來說,呼叫功能可以是開啟應用程式、回到主選單、下拉選單、重新啟動等,但不限於此。
在此情形下,使用者可藉由頭部、眼部及/或臉部的生物辨識訊號來操作電子裝置10,同時查看顯示裝置102上的畫面內容,來達成使用者與使用者介面100的互動。
在一實施例中,顯示裝置102可以是任何類型的顯示器,如液晶顯示器(Liquid Crystal Display,LCD)、有機發光二極體顯示器(Organic Light Emitting Diode Display,OLED Display)等。
在一實施例中,處理裝置110可以是一中央處理器(Central Processing Unit,CPU)、一微處理器(microprocessor)、一微控制器單元(Micro Controller Unit,MCU)或一特定應用積體電路(Application-Specific Integrated Circuit,ASIC),其不限於透過硬體或軟體方式來實現。
在一實施例中,電子裝置10可以是一車用電子裝置。
第3圖為本發明實施例一互動流程30之示意圖。互動流程30可用於一電子裝置,如第1圖中的電子裝置10,用來與使用者進行互動。如第3圖所示,互動流程30包含以下步驟:
步驟300: 開始。
步驟302: 偵測使用者之一頭部生物辨識訊號,如頭部姿勢、頭部位置、頭部移動、或任何頭部姿勢、位置及/或移動的組合,並根據偵測到的頭部生物辨識訊號控制顯示裝置顯示一頁面。
步驟304: 偵測使用者之一眼部生物辨識訊號,如凝視向量、凝視點、或凝視向量及凝視點的組合,並根據偵測到的眼部生物辨識訊號控制一指示符在頁面上的位置。
步驟306: 偵測使用者之一指令或臉部生物辨識訊號,並於偵測到指令或臉部生物辨識訊號時,根據指示符在頁面上的位置,控制電子裝置執行一特定功能。
步驟308: 結束。
根據互動流程30,感測裝置104可偵測使用者之頭部生物辨識訊號,處理裝置110即可根據頭部生物辨識訊號控制顯示裝置102顯示一頁面。舉例來說,處理裝置110可根據頭部生物辨識訊號,控制顯示裝置102上顯示的畫面向一特定方向捲動或移動。例如駕駛人可能正在一選單上找尋應用程式、聯絡人、或模式切換之選項,若感測裝置104偵測到駕駛人的頭部向左移動時,顯示裝置102上的畫面可向左移動,以顯示更右側的選項;反之,若感測裝置104偵測到駕駛人的頭部向右移動時,顯示裝置102上的畫面可向右移動,以顯示更左側的選項。在另一實施例中,也可藉由向左的頭部動作來控制顯示裝置102顯示左側的選項,並藉由向右的頭部動作來控制顯示裝置102顯示右側的選項。或者,駕駛人可能正在瀏覽某一個頁面,處理裝置110可根據偵測到的頭部生物辨識訊號來捲動頁面,如同使用者以滑鼠滾輪捲動頁面的方式,但在此例中,使用者無需動手即可完成。
在另一實施例中,處理裝置110亦可根據頭部生物辨識訊號來控制顯示裝置102上顯示的畫面放大(zoom-in)或縮小(zoom-out)。例如當偵測到駕駛人頭部靠近感測裝置104時,可控制畫面放大,以突顯使用者欲查看的選項;當偵測到駕駛人頭部遠離感測裝置104時,控制畫面縮小,使畫面中包含更多選項供駕駛人選擇。此外,除了偵測頭部移動的方向以外,處理裝置110亦可偵測頭部是否向左或向右傾斜或轉向,以進行頭部動作的判斷。例如頭部左傾可控制頁面向左捲動,右傾可控制頁面向右捲動。任何可藉由頭部生物辨識訊號來控制頁面顯示的方式皆屬於本發明的範疇。
第4A~4C圖繪示一種藉由頭部生物辨識訊號來控制顯示裝置102顯示一頁面400的詳細運作方式。頁面400上包含一表單,其包含有多個選項,如設定、資訊模式、GPS模式等。如第4A圖所示,頁面400僅顯示完整的「資訊模式」選項,其它選項未完整顯示於頁面400。當使用者欲觀看其它選項時,可藉由頭部姿勢、位置及/或移動來控制頁面400顯示的內容。如第4B圖所示,使用者可將頭部向右移動。當感測裝置104偵測到頭部右移時,可將畫面的內容傾斜,以突顯右側的選項,此時使用者可輕易地選擇右側的「GPS模式」選項。如第4C圖所示,使用者可將頭部向左移動,當感測裝置104偵測到頭部左移時,可將畫面的內容向另一方向傾斜,以突顯左側的選項,此時使用者可輕易地選擇左側的「設定」選項。
在上述實施例中,頁面400顯示的表單為多個選項排成一列;而在另一實施例中,多個選項可排列為圓弧形。在此情形下,當偵測到使用者頭部右移時,可控制選項依順時針方向移動;當偵測到使用者頭部左移時,可控制選項依逆時針方向移動。
在此例中,電子裝置10可以是例如一車用電子裝置,能夠由車輛駕駛人方便地進行操控。因此,顯示裝置102可以是車輛的儀表板,其顯示的頁面400及表單包含各種相關於行車的資訊。例如,進入「資訊模式」選項之後,顯示裝置102上可顯示各種行車資訊,如天氣、時間、行駛路程等;進入「GPS模式」選項之後,顯示裝置102上可顯示GPS導航資訊,如地圖和目的地資訊等;「設定」選項則用來進入設定選單,以進行各項設定。表單上的選項不限於上述實施例的說明,在其它實施例中,亦可包含時速表、行車記錄器、連結行動裝置等選項。上述選項皆可設定於第4A~4C圖之表單中,藉由頭部姿勢、位置及/或移動來控制表單向左或向右捲動或移動以顯示不同選項。
感測裝置104可偵測使用者之眼部生物辨識訊號,處理裝置110即可根據眼部生物辨識訊號控制一指示符在頁面上的位置。指示符可透過各種形式來呈現,如游標、圖案、框線、或透過特定的顏色來指示使用者欲選擇的項目或區域。第5圖說明當使用者凝視「資訊模式」選項時,處理裝置110可控制指示符移動至「資訊模式」選項上。在此例中,指示符的顯示方式為,在所指示的選項上以較粗體的框線表示,但本領域具通常知識者應了解,指示符亦可透過其它方式來呈現,例如以較明亮的框線來標注欲選擇的選項,或在欲選擇的選項上以特定顏色來標注,只要指示符的表示方式能夠讓使用者明確知道指示符所在位置即可。在另一實施例中,指示符亦可以游標的形式呈現,並根據使用者眼神凝視的位置控制游標向任意方向移動。以眼睛凝視來控制指示符移動如同使用者以滑鼠或滑動觸控手勢控制指示符移動。
使用者輸入裝置120可供使用者輸入指令,使處理裝置110根據指示符在頁面上的位置,控制電子裝置10執行一特定功能。在一實施例中,控制電子裝置10執行特定功能的指令為感測裝置104所偵測的使用者之臉部指令,若上述藉由眼睛凝視來控制指示符移動的方式可類推為透過滑鼠或滑動觸控手勢控制指示符移動,那麼藉由臉部指令來控制電子裝置10執行特定功能可類推為點擊滑鼠、鍵盤或觸控螢幕之確認鍵以執行特定功能。
臉部指令可透過多種方式來實現。舉例來說,臉部指令可以是任何臉部表情,例如微笑、大笑、張嘴、鼻子歪一側等,臉部表情也可以是一連串臉部動作的動態組合。臉部表情可預先設定,舉例來說,使用者可設定微笑(即嘴角上揚)作為臉部指令,當感測裝置104偵測到使用者嘴角上揚時,即可判斷接收到微笑的臉部指令。以第4A~5圖為例舉例說明如下。使用者可透過眼神控制指示符在不同選項之間移動,若使用者欲選擇「資訊模式」選項時,可控制指示符移動至「資訊模式」選項上,並開始微笑。當感測裝置104偵測到微笑之後,處理裝置110即可判斷接收到一確認指令,進而控制電子裝置10進入資訊模式,例如透過顯示裝置102顯示各種行車資訊。
在另一實施例中,每一使用者可設定各自的臉部表情。處理裝置110除了判斷臉部表情之外,還須判斷個人臉部特徵。在一實施例中,一輛汽車可能由夫妻共同使用,夫妻可能使用不同的臉部表情設定,例如丈夫設定微笑作為確認之臉部指令,妻子設定眨眼作為確認之臉部指令。當丈夫開車時,系統可根據臉部特徵判斷駕車者為丈夫,並於偵測到微笑的表情時判斷接收到確認指令;當妻子開車時,系統可根據臉部特徵判斷駕車者為妻子,並於偵測到眨眼的表情時判斷接收到確認指令。
上述關於頭部、眼部及臉部的偵測皆可透過電腦視覺(Computer Vision)技術來實現。感測裝置104可取得包含有使用者頭部的影像,接著,處理裝置110可對該影像進行縮減取樣(Down Sampling)以降低資料量,接著透過人臉偵測技術取出使用者的頭部影像,以設定對應於頭部影像的邊界框(Bounding Box)。縮減取樣可減少資料量並提高後續運算處理的速度,但在另一實施例中,亦可省略縮減取樣的步驟,直接對感測裝置104所取得的影像執行人臉偵測技術。處理裝置110截取邊界框內部的影像內容以進行後續處理。相關於頭部、眼部及臉部動作的判斷皆可由邊界框內部影像取得。
處理裝置110可透過人臉特徵點偵測(Facial Landmark Detection)技術取得各個臉上器官,如眼睛、嘴巴、鼻子等,的特徵點位置。處理裝置110可取得使用者之頭部生物辨識訊號以判斷頭部動作,如頭部的位置、是否移動、轉動或傾斜等。處理裝置110可針對眼睛的影像判斷瞳孔的位置及/或瞳孔反射的光線,以取得凝視向量及凝視點。處理裝置110另可根據臉上器官的局部位置變化,或根據臉部特徵的一連串動態變化來判斷臉部表情,例如當偵測到嘴角上揚時判斷為微笑,同時可根據各個臉上器官的整體位置來判斷臉部特徵。本發明可藉由偵測頭部、眼部及臉部之生物辨識訊號來操控電子裝置運作,而關於頭部、眼部及臉部的偵測可採用各種可行的方式,其不應為本發明之限制。
本發明提供了一種可讓使用者在無需使用手部操作的情況下與使用者介面進行互動的方法,本領域具通常知識者當可據以進行修飾或變化,而不限於此。舉例來說,在上述實施例中,系統對使用者頭部、眼部及臉部進行偵測以取得指令,以在使用者介面上顯示相對應的頁面同時在電子裝置上執行特定功能,使用者無須藉由手勢輸入指令即可與電子裝置進行互動。但在另一實施例中,使用者亦可藉由按壓實體按鍵或以特定手勢來執行確認指令,或口述指令來控制電子裝置執行特定功能(按壓實體按鍵、手勢及口述指令皆可用以代替前述臉部指令)。一般來說,車用電子系統可在方向盤上設置多個實體按鍵,在不降低方便性及行車安全的情形下,亦可改由實體按鍵作為輸入確認指令的媒介,駕駛人可輕易地按壓方向盤上的按鍵以進行輸入。或者,處理裝置110亦可具備語音偵測/辨識功能,以供使用者輸入語音指令。此外,本發明所提出的互動方法不僅可用於車用電子系統,亦可應用於其它類型的電子系統,如遊戲機、電子書閱讀器等。只要使用者介面可藉由偵測使用者頭部、眼部及臉部動作及/或特徵來實現與使用者互動的運作方式,皆屬於本發明的範疇。
在本發明之一實施例中,電子裝置之使用者介面可藉由偵測使用者的頭部生物辨識訊號來進行頁面顯示,隨著頭部動作來控制頁面的捲動、移動及/或縮放。接著偵測使用者之眼部生物辨識訊號,以根據使用者眼神凝視的位置來控制一指示符在頁面上的位置。接著,當偵測到一特定臉部指令時,電子裝置可執行特定功能,如進入某一選單或操作模式。在此情形下,使用者可在無須藉由手部操作的情況下,透過頭部、眼部和臉部輸入指令,以實現與使用者介面的互動。 以上所述僅為本發明之較佳實施例,凡依本發明申請專利範圍所做之均等變化與修飾,皆應屬本發明之涵蓋範圍。
10‧‧‧電子裝置
100‧‧‧使用者介面
102‧‧‧顯示裝置
104‧‧‧感測裝置
110‧‧‧處理裝置
120‧‧‧使用者輸入裝置
30‧‧‧互動流程
300~308‧‧‧步驟
400‧‧‧頁面
第1圖為本發明實施例一電子裝置之示意圖。 第2A圖為本發明實施例藉由頭部動作來控制顯示畫面平移之示意圖。 第2B圖為本發明實施例藉由頭部動作來控制顯示畫面縮小或放大之示意圖。 第2C圖為本發明實施例藉由指示符進行標示之示意圖。 第3圖為本發明實施例一互動流程之示意圖。 第4A~4C圖繪示一種藉由頭部動作來控制顯示裝置顯示一頁面的詳細運作方式。 第5圖為使用者藉由凝視來控制指示符移動之示意圖。

Claims (16)

  1. 一種互動方法,用於一電子裝置之一使用者介面,該使用者介面包含一顯示裝置,該互動方法包含有: 偵測一使用者之一頭部生物辨識訊號,並根據該頭部生物辨識訊號控制該顯示裝置顯示一頁面; 偵測該使用者之一眼部生物辨識訊號,並根據該眼部生物辨識訊號控制一指示符在該頁面上的位置;以及 偵測該使用者之一指令,並於偵測到該指令時,根據該指示符在該頁面上的位置,控制該電子裝置執行一特定功能。
  2. 如請求項1所述之互動方法,其中根據該頭部生物辨識訊號控制該顯示裝置顯示該頁面之步驟包含有: 根據該頭部生物辨識訊號,控制該顯示裝置上顯示的畫面向一特定方向捲動或移動,或控制該顯示裝置上顯示的畫面放大或縮小,以顯示該頁面。
  3. 如請求項1所述之互動方法,其中該指示符包含有一游標、一圖案、一框線、或特定顏色,用來指示欲選擇的項目或區域。
  4. 如請求項1所述之互動方法,其中該指令包含有一靜態臉部指令或複數個臉部動作的動態組合。
  5. 如請求項1所述之互動方法,其中該頁面上顯示一表單,該表單包含複數個選項,以及於偵測到該指令時,根據該指示符在該頁面上的位置,控制該電子裝置執行該特定功能之步驟包含有: 於偵測到該指令時,根據該指示符在該頁面上的位置,選擇該複數個選項當中被該指示符指示之一者。
  6. 一種電子裝置,包含有: 一使用者介面,用來與一使用者進行互動,該使用者介面包含有: 一顯示裝置;以及 一感測裝置,用來偵測該使用者之一頭部生物辨識訊號及一眼部生物辨識訊號;以及 一處理裝置,耦接於該使用者介面,用來執行以下步驟: 根據該頭部生物辨識訊號,控制該顯示裝置顯示一頁面; 根據該眼部生物辨識訊號,控制一指示符在該頁面上的位置;以及 於偵測到該使用者之一指令時,根據該指示符在該頁面上的位置,控制該電子裝置執行一特定功能。
  7. 如請求項6所述之電子裝置,其中根據該頭部生物辨識訊號控制該顯示裝置顯示該頁面之步驟包含有: 根據該頭部生物辨識訊號,控制該顯示裝置上顯示的畫面向一特定方向捲動或移動,或控制該顯示裝置上顯示的畫面放大或縮小,以顯示該頁面。
  8. 如請求項6所述之電子裝置,其中該指示符包含有一游標、一圖案、一框線、或特定顏色,用來指示欲選擇的項目或區域。
  9. 如請求項6所述之電子裝置,其中該指令包含有一靜態臉部指令或複數個臉部動作的動態組合。
  10. 如請求項6所述之電子裝置,其中該頁面上顯示一表單,該表單包含複數個選項,以及於偵測到該臉部指令時,根據該指示符在該頁面上的位置,控制該電子裝置執行該特定功能之步驟包含有: 於偵測到該臉部指令時,根據該指示符在該頁面上的位置,選擇該複數個選項當中被該指示符指示之一者。
  11. 一種互動方法,用於一電子裝置之一使用者介面,該使用者介面包含一顯示裝置,該互動方法包含有: 偵測一使用者之一眼部生物辨識訊號,並根據該眼部生物辨識訊號控制一指示符在該顯示裝置顯示的一頁面上的位置;以及 偵測該使用者之一臉部指令,並於偵測到該臉部指令時,根據該指示符在該頁面上的位置,控制該電子裝置執行一特定功能; 其中,該臉部指令是由複數個臉部動作組合而成。
  12. 如請求項11所述之互動方法,另包含有: 偵測該使用者之一頭部生物辨識訊號,並根據該頭部生物辨識訊號控制該顯示裝置顯示該頁面。
  13. 如請求項12所述之互動方法,其中根據該頭部生物辨識訊號控制該顯示裝置顯示該頁面之步驟包含有: 根據該頭部生物辨識訊號,控制該顯示裝置上顯示的畫面向一特定方向捲動或移動,或控制該顯示裝置上顯示的畫面放大或縮小,以顯示該頁面。
  14. 如請求項11所述之互動方法,其中該指示符包含有一游標、一圖案、一框線、或特定顏色,用來指示欲選擇的項目或區域。
  15. 如請求項11所述之互動方法,其中該頁面上顯示一表單,該表單包含複數個選項,以及於偵測到該臉部指令時,根據該指示符在該頁面上的位置,控制該電子裝置執行該特定功能之步驟包含有: 於偵測到該臉部指令時,根據該指示符在該頁面上的位置,選擇該複數個選項當中被該指示符指示之一者。
  16. 一種電子裝置,包含有: 一使用者介面,用來與一使用者進行互動,該使用者介面包含有: 一顯示裝置;以及 一感測裝置,用來偵測該使用者之一眼部生物辨識訊號及一臉部指令,其中,該臉部指令是由複數個臉部動作組合而成;以及 一處理裝置,耦接於該使用者介面,用來執行以下步驟: 根據該眼部生物辨識訊號,控制一指示符在該顯示裝置顯示的一頁面上的位置;以及 於偵測到該臉部指令時,根據該指示符在該頁面上的位置,控制該電子裝置執行一特定功能。
TW107107288A 2017-12-29 2018-03-05 用於使用者介面之互動方法及電子裝置 TW201931096A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
CN201711482541.2A CN109992094A (zh) 2017-12-29 2017-12-29 用于使用者界面的互动方法及电子装置
??201721900090.5 2017-12-29
??201711482541.2 2017-12-29
CN201721900090 2017-12-29

Publications (1)

Publication Number Publication Date
TW201931096A true TW201931096A (zh) 2019-08-01

Family

ID=63256751

Family Applications (2)

Application Number Title Priority Date Filing Date
TW107202864U TWM561857U (zh) 2017-12-29 2018-03-05 與使用者互動之電子裝置
TW107107288A TW201931096A (zh) 2017-12-29 2018-03-05 用於使用者介面之互動方法及電子裝置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
TW107202864U TWM561857U (zh) 2017-12-29 2018-03-05 與使用者互動之電子裝置

Country Status (1)

Country Link
TW (2) TWM561857U (zh)

Also Published As

Publication number Publication date
TWM561857U (zh) 2018-06-11

Similar Documents

Publication Publication Date Title
US10678351B2 (en) Devices and methods for providing an indication as to whether a message is typed or drawn on an electronic device with a touch-sensitive display
US9830071B1 (en) Text-entry for a computing device
US9946338B2 (en) Information processing to vary screen display based on a gaze point of the user
US9791918B2 (en) Breath-sensitive digital interface
JP5900393B2 (ja) 情報処理装置、操作制御方法及びプログラム
US9740297B2 (en) Motion-based character selection
RU2541852C2 (ru) Устройство и способ для управления пользовательским интерфейсом на основе движений
KR100899610B1 (ko) 전자 장치의 기능을 제어하기 위한 전자 장치 및 방법 및상기 방법을 구현하기 위한 프로그램 생성물
US11527220B1 (en) Wearable display system for portable computing devices
KR101919009B1 (ko) 안구 동작에 의한 제어 방법 및 이를 위한 디바이스
US10521101B2 (en) Scroll mode for touch/pointing control
KR20160027732A (ko) 디스플레이 디바이스 및 그 제어 방법
WO2014178039A1 (en) Scrolling electronic documents with a smartphone
US20190138086A1 (en) Human machine interface
TW201931096A (zh) 用於使用者介面之互動方法及電子裝置
CN109992094A (zh) 用于使用者界面的互动方法及电子装置
US20240103681A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Window Controls in Three-Dimensional Environments
US20240152245A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Window Controls in Three-Dimensional Environments
WO2013057907A1 (ja) 入力装置、表示処理方法及び表示処理プログラムが格納された記憶媒体