JP6762812B2 - 操作入力装置及びプログラム - Google Patents

操作入力装置及びプログラム Download PDF

Info

Publication number
JP6762812B2
JP6762812B2 JP2016172988A JP2016172988A JP6762812B2 JP 6762812 B2 JP6762812 B2 JP 6762812B2 JP 2016172988 A JP2016172988 A JP 2016172988A JP 2016172988 A JP2016172988 A JP 2016172988A JP 6762812 B2 JP6762812 B2 JP 6762812B2
Authority
JP
Japan
Prior art keywords
feedback
pointer
user
input device
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016172988A
Other languages
English (en)
Other versions
JP2018041159A (ja
Inventor
孝浩 斉藤
孝浩 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba TEC Corp filed Critical Toshiba TEC Corp
Priority to JP2016172988A priority Critical patent/JP6762812B2/ja
Publication of JP2018041159A publication Critical patent/JP2018041159A/ja
Application granted granted Critical
Publication of JP6762812B2 publication Critical patent/JP6762812B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明の実施形態は、操作入力装置及びプログラムに関する。
従来、ユーザの腕(手首)等の特定部位に装着されたセンサから得られた測定値をもとに、ユーザの手や指等の動作(ジェスチャ)を非接触で認識する技術がある。係る技術では、認識した動作に対応させて、PC(Personal Computer)等の画面に配置されたポインタを移動し、ポインタの位置に対応するオブジェクトに対して処理が実行される。このような非接触式の操作入力装置のメリットとして、離れた場所から操作できる点、画面を直接触れないで操作できるため衛生的であるという点が上げられる。
しかしながら、非接触式の操作入力装置では、タッチパネル等の接触式の入力装置と比較して操作感を得ることが難しく、操作性が悪いという問題がある。
本発明が解決しようとする課題は、非接触式の操作入力装置において、ユーザの操作性を向上させることが可能な操作入力装置を提供することである。
実施形態の操作入力装置は、非接触式の操作入力装置であって、表示制御手段と、認識手段と、操作受付手段と、フィードバック手段とを備える。表示制御手段は、操作の対象となる操作画面を表示装置に表示する。認識手段は、ユーザの動作を非接触で認識する。操作受付手段は、前記認識手段の認識結果に基づいて、前記操作画面に対する操作を受け付ける。フィードバック手段は、前記操作受付手段が前記操作を受け付けたことを条件に、当該操作の内容に応じたフィードバックを前記ユーザに提供する。また、フィードバック手段は、前記操作受付手段が前記操作画面に表示されたポインタの移動を指示する操作を受け付けたことを条件に、前記フィードバックとして、前記ポインタが指し示す箇所又は当該ポインタを強調表示させ、当該強調表示を行っている間に前記ポインタが所定時間停止すると前記強調表示を解除する。
図1は、実施形態に係る操作入力装置の構成の一例を示す図である。 図2は、表示部が表示する操作画面(注文表示画面)の一例を示す図である。 図3は、実施形態の操作入力装置が備える機能構成の一例を示す図である。 図4は、実施形態のフィードバック処理部が実行するフィードバックの一例を説明するための図である。 図5は、実施形態の操作入力装置が実行する操作支援処理の一例を示すフローチャートである。
以下に図面を参照して、本発明に係る入力支援装置及びプログラムの実施形態を詳細に説明する。以下に示す実施形態では、本発明を飲食店等の店舗で用いられる、注文内容を表示するためのキッチンディスプレイに適用した例について説明するが、本発明はこの実施形態に限定されるものではない。
図1は、本実施形態に係る操作入力装置1の構成の一例を示す図である。図1に示すように、操作入力装置1は、表示部11と、制御部12と、通信部13と、動作認識部14とを備える。なお、制御部12、通信部13及び動作認識部14は、表示部11と一体的に構成されてもよいし、別体として構成されてもよい。
表示部11は、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)等の表示デバイスを備えた表示装置である。表示部11は、調理場等のバックヤードに設置され、制御部12による制御の下、注文されたメニュー名等の各種の情報を表示する。
制御部12は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等のコンピュータ構成を備え、操作入力装置1の動作を制御する。また、制御部12は、動作認識部14とともに操作支援部20として機能し、表示部11に対する画面表示を制御する。
具体的に、制御部12は、操作入力装置1の操作に係る各種のGUI(Graphical User Interface)や情報を表示部11に表示させる。例えば、制御部12は、通信部13により受信されたオーダ情報を記憶及び管理し、そのオーダ情報に含まれたメニュー名やオーダ数、テーブル番号等を表した注文表示画面を表示部11に表示させる。
図2は、表示部11が表示する画面(注文表示画面)の一例を示す図である。図2に示す注文表示画面G1では、1オーダにつき1マスの表示領域が割り当てられ、各表示領域には各注文(オーダ情報)に含まれるメニュー名及び注文数が表示される。また、各表示領域の上部には、各注文を識別できるよう、テーブル番号、オーダ時間、客数、担当者情報がそれぞれ表示される。
ユーザは、表示部11に表示された注文表示画面G1を見ることで、現在の注文状況を確認し、注文されたメニューの調理等を行う。また、ユーザは、後述する動作認識部14の機能を用いることで、注文表示画面G1に対する操作を非接触で行う。例えば、ユーザは、注文されたメニューの調理等が完了すると、そのメニューを消し込むための動作(ジェスチャ操作)を行うことで、注文表示画面G1から該当するメニューの消去を行う。
メニューの消し込みを行う場合、例えばユーザは、手を動かす等の所定のジェスチャを行うことで、消し込み対象のメニューの上までカーソル等のポインタP1を移動させ、当該メニューを選択する。そして、ユーザは、ポインタP1を消込ボタンB1上に移動させ、当該消込ボタンB1を選択(ボタン押下)することで、選択したメニューの消し込みを指示する。制御部12は、上記したメニューの消し込み操作が動作認識部14で認識されると、この消し込み操作で指示されたメニューを注文表示画面G1から消去する。ここで、制御部12は、消し込み操作の対象となったメニューを、破線等で表す形態としてもよい(図2のメニューM61参照)。なお、注文表示画面G1は、基本的にポインタP1の移動と操作子(メニュー、ボタン等)の選択操作とで、各種の処理を指示できるよう構成されているとする。
図1に戻り、通信部13は、有線又は無線により通信を行う通信装置である。通信部13は、店舗内に設けられたオーダ端末(図示せず)と通信し、当該オーダ端末から送信されるオーダ情報を受信する。係るオーダ端末は、例えば、店員により携帯され、店員により入力されたオーダ情報を通信部13に送信する。なお、オーダ情報には、メニュー名及び注文数の他、テーブル番号、オーダ時間、客数、接客を担当した店員の担当者情報等が含まれるものとする。
動作認識部14は、CPU、GPU、ROM、RAM等のコンピュータ構成や、各種のセンシング機器、無線通信インタフェース等を備え、ユーザが行う所定動作(ジェスチャ)を認識する。本実施形態において、動作認識部14は、制御部12とともに操作支援部20として機能し、表示部11に表示された画面に対する操作入力を非接触で受け付ける。
具体的には、動作認識部14は、ユーザによる所定動作であるジェスチャを認識し、制御部12と協働することで、表示部11に表示された画面に対する操作を非接触で受け付ける。例えば、動作認識部14は、上記したメニューの消し込み操作を認識すると、表示部11と協働することで、この消し込み操作で指示されたメニューを注文表示画面G1から消去する。なお、本実施形態では、制御部12と動作認識部14とを別体としたが、これに限らず、共通するコンピュータ構成により一体的に構成してもよい。
また、ユーザ動作の認識方法は特に問わず、公知公用の技術を用いることが可能である。例えば、動作認識部14は、CCD(Charge Coupled Device)や赤外線等のカメラにより撮像されたユーザの撮像画像から、当該ユーザの顔や動作(例えば手の動作)を認識する構成としてもよい。この場合、動作認識部14は、動作認識部14のROM等に記憶された各種のジェスチャを表す設定情報に基づき、ユーザが行った動作が何れかのジェスチャに該当するかを判定する。そして、動作認識部14は、ユーザの動作が何れかのジェスチャに該当した場合に、当該ジェスチャをユーザが行ったと認識する。係る構成としては、例えばIntel RealSense(登録商標)等に係る技術を用いることができる。
また、例えば、動作認識部14は、図1に示すように、ユーザの腕(手首)に装着される測定装置30によって測定された測定値をもとに、ユーザの動作を認識する構成としてもよい。係る測定装置30は、例えば、加速度や角速度、地磁気等を測定するための各種センサを有する。また、測定装置30は、測定対象であるユーザの特定部位に装着される。特定部位は、例えば、ユーザの腕、手首、指、頭、足等である。図1では、ユーザの手首に測定装置30を装着した例を示している。
ユーザの手首に装着される場合、測定装置30は、当該測定装置30を装着したユーザの手の加速度や角速度を、測定値として無線通信により動作認識部14に送信する。測定値を受信する動作認識部14は、動作認識部14のROM等に記憶された各種のジェスチャを表す設定情報に基づき、その測定値に対応するユーザの動作が何れかのジェスチャに該当するかを判定する。そして、動作認識部14は、ユーザの動作が何れかのジェスチャに該当した場合に、当該ジェスチャをユーザが行ったと認識する。なお、本実施形態では、測定装置30を用い、当該測定装置30をユーザの手首に装着する場合の例について説明する。
次に、操作入力装置1の機能構成について説明する。図3は、操作入力装置1(操作支援部20)が備える機能構成の一例を示す図である。図3に示すように、操作支援部20は、表示制御部21と、操作受付部22と、フィードバック処理部23とを機能部として備える。これら機能部の一部又は全ては、制御部12及び動作認識部14の何れか一方又は両方のプロセッサ(CPUやGPU)と、ROM等のメモリに記憶されたプログラムとの協働によりRAM上に実現されるソフトウェア構成としてもよい。また、これら機能部の一部又は全ては、各機能を実現するよう設計された一又は複数の処理回路等によって実現されるハードウェア構成としてもよい。
表示制御部21は、操作入力装置1の操作に係る各種の操作画面(GUI)や情報を表示部11に表示させる。例えば、表示制御部21は、上述した注文表示画面G1(図2参照)等を表示部11に表示させる。
操作受付部22は、ユーザが行う所定動作(ジェスチャ)を非接触で認識し、当該動作に対応する操作を受け付ける。具体的に、操作受付部22は、ユーザの動作が所定の動作に該当するか否かを判定し、該当すると判定した場合に、当該動作に対応する操作を受け付ける。例えば、操作受付部22は、ユーザが手を上下左右方向の何れかに移動させると、その移動方向にポインタP1の移動を指示する操作として受け付ける。また、操作受付部22は、ユーザが指打ち等の動作を行うと、選択や押下の操作(選択操作)として受け付ける。そして、操作受付部22は、指示された操作に応じた処理を制御部12に実行させる。ここで、指打ちとは、摘まむような形で親指と他の指(中指等)とを軽く打ち付ける動作を意味する。
フィードバック処理部23は、操作受付部22が操作を受け付けたことを条件に、当該操作の内容に応じたフィードバックを操作者であるユーザに提供する。ここで、フィードバックは、指示された操作の操作感をユーザに知覚させるための効果を意味する。
例えば、フィードバック処理部23は、ポインタP1の移動が指示されると、操作画面内でのポインタP1の移動方向や存在位置を知覚させるため、ポインタP1が指し示す箇所を強調して表示する。
図4は、フィードバック処理部23が実行するフィードバックの一例を説明するための図である。例えば、図4(a)に示す位置に存在したポインタP1が、操作子であるメニュー上に移動されたとする。この場合、フィードバック処理部23は、図4(b)に示すようにポインタP1の直下(又は近傍)に位置するメニューを拡大表示やポップアップ表示することで、ポインタP1が指し示す箇所を強調表示する。また、フィードバック処理部23は、ポインタP1が他の位置に移動すると、この移動先となったメニューを順次強調表示する。なお、ポインタP1がメニュー上で停止している場合、フィードバック処理部23は、当該メニューの強調表示を維持してもよいし、所定時間後に通常表示に切り替えてもよい。
これにより、操作者であるユーザは、操作画面内でのポインタP1の移動方向や位置を容易に認識することができるとともに、ポインタP1の移動に伴う操作感を得ることができる。また、ポインタP1が指し示す操作子(メニュー)拡大表示又はポップアップ表示することで、当該操作子に対する操作を容易に行うことができるため、操作性の向上を図ることができる。
なお、ポインタP1の移動方向や存在位置を知覚させるためフィードバックは、図4の例に限らないものとする。例えば、フィードバック処理部23は、ポインタP1の移動軌跡を明示する処理を行ってもよい。また、例えば、フィードバック処理部23は、ポインタP1が移動されている間、当該ポインタP1自体を強調して表示(例えば、拡大表示)する処理を行ってもよい。
また、フィードバック処理部23は、操作画面に表示されたメニューやボタン等の操作子が選択操作されると、当該選択操作が反映されたことを知覚させるためのフィードバックを行う。例えば、フィードバック処理部23は、操作子の選択操作が指示されると、操作画面全体を所定回数点滅させる。また、例えば、フィードバック処理部23は、操作子が選択操作されると、その操作子を所定回数点滅させる。これにより、操作者であるユーザは、選択操作が反映されたことを容易に認識することができるとともに、当該選択操作に伴う操作感を得ることができる。
なお、選択操作の反映を知覚させるためのフィードバックは、上記の例に限らないものとする。例えば、フィードバック処理部23は、操作された操作子を拡大表示やポップアップ表示させてもよい。また、操作入力装置1がスピーカやブザー等の音声出力装置を備える場合、フィードバック処理部23は、操作子の選択操作が指示されたタイミングで、音声出力装置から音声を出力させてもよい。
以下、上記した構成の操作入力装置1の動作について説明する。図5は、操作入力装置1が実行する操作支援処理の一例を示すフローチャートである。なお、本処理の前提として、表示制御部21の制御により、操作画面が表示部11に表示されているとする。
まず、操作受付部22は、ユーザが所定動作を行うまで待機する(ステップS11;No)。操作受付部22は、ユーザが所定動作を行ったことを認識すると(ステップS11;Yes)、その動作に対応する操作がポインタP1の移動又は操作子の選択操作を指示するものか判定する。
ユーザの所定動作がポインタP1の移動を指示するものである場合(ステップS12;Yes)、操作受付部22は、制御部12と協働することで、ポインタP1を指示された方向に移動させる。また、フィードバック処理部23は、ポインタP1の移動方向や存在位置をユーザに知覚させるため、ポインタP1が指し示す箇所を強調表示させ(ステップS13)、ステップS11に戻る。
また、ユーザの所定動作が操作子の選択操作を指示するものである場合(ステップS12;No)、操作受付部22は、選択操作が指示された操作子に応じた処理を制御部12に実行させる。また、フィードバック処理部23は、選択操作が反映されたことを知覚させるため、操作画面又は選択操作が指示された操作子を点滅表示させ(ステップS14)、ステップS11に戻る。
以上のように、本実施形態の操作入力装置1は、ユーザの所定動作(ジェスチャ)を操作入力として認識するとともに、その操作内容に応じたフィードバックをユーザに提供する。これにより、操作入力装置1では、ジェスチャにより指示した操作の操作感をユーザが得ることができるため、意図した操作を行うことが可能となり、操作性を向上させることができる。
以上、本発明の実施形態を説明したが、上記の実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。上記の新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、組み合わせ、変更を行うことができる。上記の実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 操作入力装置
11 表示部
12 制御部
13 通信部
14 動作認識部
20 操作支援部
21 表示制御部
22 操作受付部
23 フィードバック処理部
30 測定装置
特開2015−99574号公報 特開2016−62274号公報

Claims (5)

  1. 非接触式の操作入力装置であって、
    操作の対象となる操作画面を表示装置に表示する表示制御手段と、
    ユーザの動作を非接触で認識する認識手段と、
    前記認識手段の認識結果に基づいて、前記操作画面に対する操作を受け付ける操作受付手段と、
    前記操作受付手段が前記操作を受け付けたことを条件に、当該操作の内容に応じたフィードバックを前記ユーザに提供するフィードバック手段と、
    を備え
    前記フィードバック手段は、前記操作受付手段が前記操作画面に表示されたポインタの移動を指示する操作を受け付けたことを条件に、前記フィードバックとして、前記ポインタが指し示す箇所又は当該ポインタを強調表示させ、当該強調表示を行っている間に前記ポインタが所定時間停止すると前記強調表示を解除する操作入力装置。
  2. 前記フィードバック手段は、前記操作画面に表示された操作子の上に前記ポインタが位置することを条件に、前記フィードバックとして、当該操作子を拡大表示又はポップアップ表示させる請求項1に記載の操作入力装置。
  3. 前記フィードバック手段は、前記操作受付手段が前記操作画面に表示された操作子の選択操作を受け付けたことを条件に、前記フィードバックとして、前記操作画面又は前記選択操作された操作子を点滅させる請求項1又は2に記載の操作入力装置。
  4. 前記フィードバック手段は、前記操作受付手段が前記操作画面に表示された操作子の選択操作を受け付けたことを条件に、前記フィードバックとして、音声を出力する請求項1〜3の何れか一項に記載の操作入力装置。
  5. 非接触式の操作入力装置のコンピュータを、
    操作の対象となる操作画面を表示装置に表示する表示制御手段と、
    ユーザの動作を非接触で認識する認識手段と、
    前記認識手段の認識結果に基づいて、前記操作画面に対する操作を受け付ける操作受付手段と、
    前記操作受付手段が前記操作を受け付けたことを条件に、当該操作の内容に応じたフィードバックを前記ユーザに提供するフィードバック手段と、
    して機能させ
    前記フィードバック手段は、前記操作受付手段が前記操作画面に表示されたポインタの移動を指示する操作を受け付けたことを条件に、前記フィードバックとして、前記ポインタが指し示す箇所又は当該ポインタを強調表示させ、当該強調表示を行っている間に前記ポインタが所定時間停止すると前記強調表示を解除するプログラム。
JP2016172988A 2016-09-05 2016-09-05 操作入力装置及びプログラム Active JP6762812B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016172988A JP6762812B2 (ja) 2016-09-05 2016-09-05 操作入力装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016172988A JP6762812B2 (ja) 2016-09-05 2016-09-05 操作入力装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2018041159A JP2018041159A (ja) 2018-03-15
JP6762812B2 true JP6762812B2 (ja) 2020-09-30

Family

ID=61626172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016172988A Active JP6762812B2 (ja) 2016-09-05 2016-09-05 操作入力装置及びプログラム

Country Status (1)

Country Link
JP (1) JP6762812B2 (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010205223A (ja) * 2009-03-06 2010-09-16 Seiko Epson Corp 仮想対象に対するジェスチャーに従う制御を行うシステム及び装置
JP5515067B2 (ja) * 2011-07-05 2014-06-11 島根県 操作入力装置および操作判定方法並びにプログラム
JP5987366B2 (ja) * 2012-03-07 2016-09-07 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
JP5884584B2 (ja) * 2012-03-19 2016-03-15 富士通株式会社 情報処理装置、メニュー選択プログラム、及びメニュー選択方法
JP2014109885A (ja) * 2012-11-30 2014-06-12 Toshiba Corp 表示装置及び通知方法
JP2014241099A (ja) * 2013-06-12 2014-12-25 株式会社ニコン 撮像装置

Also Published As

Publication number Publication date
JP2018041159A (ja) 2018-03-15

Similar Documents

Publication Publication Date Title
JP6776067B2 (ja) 操作入力装置及びプログラム
JP6158913B2 (ja) ジェスチャを使用したデバイスとの対話
US9354780B2 (en) Gesture-based selection and movement of objects
US20170068416A1 (en) Systems And Methods for Gesture Input
US11360605B2 (en) Method and device for providing a touch-based user interface
JP2009042796A (ja) ジェスチャー入力装置および方法
KR20120096849A (ko) 제스쳐를 이용한 입력 장치 및 방법
CN109324659A (zh) 用于检测多屏幕设备的面向用户的屏幕的方法和装置
US20140101587A1 (en) Information processing apparatus and method
JP2004078977A (ja) インターフェイス装置
KR102325339B1 (ko) 사용자의 움직임을 검출하여 사용자 입력을 수신하는 방법 및 이를 위한 장치
EP3400827A1 (en) Electronic make-up mirror device and background switching method thereof
CN103425430B (zh) 在移动终端中支持单手输入文字的方法和设备
US20150277742A1 (en) Wearable electronic device
JP6762812B2 (ja) 操作入力装置及びプログラム
TW201915662A (zh) 具有眼球追蹤功能之電子裝置及其控制方法
TWI494846B (zh) One-hand touch method and hand-held touch device for hand-held touch device
JP2015122124A (ja) 仮想マウスによるデータ入力機能を有する情報装置
CN114168034A (zh) 应用于头戴式显示设备的菜单操作方法及头戴式显示设备
JP6289655B2 (ja) 画面操作装置及び画面操作方法
JP6034140B2 (ja) 表示装置、表示制御方法及びプログラム
KR20120062053A (ko) 터치스크린의 가상 캐릭터 제어방법
KR102238697B1 (ko) 테이블탑 인터페이스 장치, 멀티 터치 객체 및 방법
EP4400959A1 (en) Touchless user interface operating method based on an electronic device
KR102286257B1 (ko) 엄지손가락을 이용한 터치 실행 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190821

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200909

R150 Certificate of patent or registration of utility model

Ref document number: 6762812

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150