JP2020123396A - Eye pointing system operated by eyes - Google Patents
Eye pointing system operated by eyes Download PDFInfo
- Publication number
- JP2020123396A JP2020123396A JP2020081086A JP2020081086A JP2020123396A JP 2020123396 A JP2020123396 A JP 2020123396A JP 2020081086 A JP2020081086 A JP 2020081086A JP 2020081086 A JP2020081086 A JP 2020081086A JP 2020123396 A JP2020123396 A JP 2020123396A
- Authority
- JP
- Japan
- Prior art keywords
- eye
- user
- image
- measurement
- pointing device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、測定システムに関し、具体的には、測定作業を行いながら測定データの記録や編集を容易に行うための測定システムに関する。 The present invention relates to a measurement system, and more particularly to a measurement system for easily recording and editing measurement data while performing measurement work.
ワークを測定機で測定した結果はコンピュータ等の外部機器に転送され記録されるようになっている。そのための測定システムが種々提案されている(例えば、特許文献1、2、3)。例えば、図1に測定システムの一例を示す。
The result of measuring the work with the measuring machine is transferred to and recorded in an external device such as a computer. Various measurement systems for that have been proposed (for example,
図1においては、ワークWをデジタルマイクロメータ10で測定している。デジタルマイクロメータ10とコンピュータ80とは無線または有線で通信接続されている。
ユーザがマイクロメータ10でワークWを測定し、データ転送ボタン11を押す。すると、測定値がマイクロメータ10からコンピュータ80に転送され、コンピュータ80が測定値を記録していく。
なお、データ転送ボタン11は、マイクロメータ10上の押しやすいところにあってもよいし、あるいは、フットスイッチを利用してもよい。フットスイッチように足で操作できれば、手はワークWとマイクロメータ10をつかんだままでよいので、便利である。
In FIG. 1, the work W is measured by the
The user measures the work W with the
The
マイクロメータ10からコンピュータ80へ転送された測定値は自動的に記録されていくが、その測定値がどのワークのどの箇所に対応しているものであるか整理されていなければならない。
例えば図1のように5つの段差をもつワークWの場合を考える。
太い方から順番に測定し、さらにひとつのワークWにつき測定を5回繰り返すように測定手順が決まっているとする。この測定手順をコンピュータ80に予め登録しておき、測定者は決められた順番通りに測定を進めていく。すると、自動的に整理された測定データが記録されていく。このような測定システムにより、極めて高い作業効率を実現できるし、測定者にとっては身体的にも精神的にも負担が軽い作業となる。
The measured values transferred from the
For example, consider the case of a work W having five steps as shown in FIG.
It is assumed that the measurement procedure is determined such that the measurement is performed in order from the thickest one, and the measurement is repeated five times for each work W. This measurement procedure is registered in the
実際の測定作業にあっては、誤操作が必ずあるのであり、データの取消しや再測定が必要になってくる。
測定手順や測定箇所を飛ばしてしまうこともあるし、データ転送ボタン11の操作ミスもあり得る。このような場合、測定者がコンピュータ80を操作して、データを取り消したり、編集したりすることになる。すなわち、一旦ワークWとマイクロメータ10から手を離し、コンピュータ80のキーボードかマウスを操作しなければならない。コンピュータ80が手元ではなく少し離れたところにある場合には、数歩歩くという動作も必要である。
In the actual measurement work, there is always an erroneous operation, and it is necessary to cancel or re-measure the data.
The measurement procedure and the measurement location may be skipped, and the
ワークWやマイクロメータ10から手を離したり、体を移動させたりという動作があると、作業の連続性が断たれてしまい、作業効率がとたんに悪くなる。そのため、想定したほどには作業効率のアップが図れないという問題がある。
また、測定者にとっても面倒な作業であり、身体的にも心理的にも負担が大きい。ちなみに、フットスイッチを利用してコンピュータ80を操作することも考えられるが、これだけでは複雑な操作は難しい。
音声コマンドも考えられるが、工場などでは騒音が避けられないので、認識率が低く、むしろ誤操作が増えるおそれもある。フットスイッチや音声コマンドだけではコンピュータ80の複雑な操作をハンズフリーで行うのは難しい。
If there is an operation such as releasing the hand from the work W or the
In addition, it is a troublesome work for the measurer, and is physically and psychologically burdensome. By the way, it is possible to operate the
Although voice commands can be considered, noise is unavoidable in factories and the like, so the recognition rate is low and there is a possibility that erroneous operations will increase. It is difficult to perform a complicated operation of the
そこで、本発明の目的は、コンピュータの複雑な操作をハンズフリーで行えるユーザインターフェースを提供することにある。
また、本発明の目的は、利便性が高く、高効率な測定作業を支援する測定システムを提供することにある。
Therefore, it is an object of the present invention to provide a user interface that allows hands-free operation of a complicated computer.
Another object of the present invention is to provide a measurement system that is highly convenient and supports highly efficient measurement work.
本発明のアイポインティングデバイスは、
ユーザの顔に装着され、ユーザの眼の動きでユーザの視界中のコマンドの選択を認識するアイポインティングデバイスであって、
ユーザの眼を撮像するように配置されたアイカメラと、
前記アイカメラで撮像された眼の画像であるアイ画像に基づいて、予め決められた眼の動きからコマンド入力操作を認識するアイ画像解析部と、を備える
ことを特徴とする。
The eye pointing device of the present invention is
An eye pointing device mounted on a user's face and recognizing a selection of a command in the user's field of view by the movement of the user's eyes,
An eye camera arranged to image the user's eyes,
An eye image analysis unit that recognizes a command input operation from a predetermined eye movement based on an eye image that is an eye image captured by the eye camera.
本発明では、
前記アイポインティングデバイスは、ユーザの前方であってユーザに見えている外界の実景を撮像する外部カメラを有し、
前記外部カメラで撮像した実景の画像と、前記アイ画像解析部で認識した眼の動きと、を対比し、実際の実物の任意の領域あるいは部位に対して予め割り当てられたコマンドを選択操作する
ことが好ましい。
In the present invention,
The eye pointing device has an external camera which is in front of the user and captures a real scene of the external world seen by the user,
Comparing the image of the real scene captured by the external camera with the eye movement recognized by the eye image analysis unit, and selecting and operating a command previously assigned to an arbitrary area or part of the actual object. Is preferred.
本発明では、
さらに、ユーザの視界に実景とオーバーレイするようにGUI(グラフィカルユーザインターフェース)画像を投影するプロジェクター部を備える
ことが好ましい。
In the present invention,
Further, it is preferable to include a projector unit that projects a GUI (Graphical User Interface) image so as to overlay the real scene in the field of view of the user.
本発明の測定システムは、
前記アイポインティングデバイスと、
測定データを外部出力できる測定機と、
測定データ管理用プログラムを実行することにより前記測定機の測定データの収集、記録、編集を行う測定データ管理装置として機能するととともに、測定データ管理用のGUI画像データをユーザに提供するホストコンピュータと、を具備し、
前記アイポインティングデバイスと前記ホストコンピュータとが通信接続され、
前記測定データ管理用のGUI画像データが前記プロジェクター部からユーザの視界に投射される
ことを特徴とする。
The measurement system of the present invention is
The eye pointing device;
A measuring device that can output measurement data externally,
A host computer that functions as a measurement data management device that collects, records, and edits measurement data of the measuring machine by executing a measurement data management program, and that provides a user with GUI image data for measurement data management, Equipped with,
The eye pointing device and the host computer are connected for communication,
The GUI image data for managing the measurement data is projected from the projector unit into the visual field of the user.
本発明では、
前記測定データ管理用のGUI画像データには、測定データの収集、記録、編集を行うツールのアイコン画像が複数含まれており、
前記アイコン画像は、ユーザの視界の周辺に配置される
ことが好ましい。
In the present invention,
The GUI image data for managing measurement data includes a plurality of icon images of tools for collecting, recording, and editing measurement data,
It is preferable that the icon image is arranged around the user's field of view.
本発明では、
前記測定データ管理用のGUI画像データには、測定データの収集、記録、編集を行うツールのアイコン画像が複数含まれており、
前記アイコン画像は、測定対象であるワークの周辺、または、測定プローブの周辺に配置される
ことが好ましい。
In the present invention,
The GUI image data for managing measurement data includes a plurality of icon images of tools for collecting, recording, and editing measurement data,
It is preferable that the icon image is arranged around a work to be measured or around a measurement probe.
本発明の実施形態を図示するとともに図中の各要素に付した符号を参照して説明する。
(第1実施形態)
本発明の測定システムに係る第1実施形態について説明する。
図2は、測定システムの全体構成を例示する図である。
測定システムは、測定工具10と、コンピュータユニット100と、を具備する。
測定工具10としては、デジタル式の小型測定器であってもよい。デジタル式の小型測定器としては、デジタルマイクロメータ10や、デジタルノギス、デジタルダイヤルゲージなどがある。図2中では、デジタルマイクロメータ10を例示している。
Embodiments of the present invention will be described with reference to the drawings and reference numerals attached to respective elements in the drawings.
(First embodiment)
A first embodiment of the measurement system of the present invention will be described.
FIG. 2 is a diagram illustrating the overall configuration of the measurement system.
The measuring system includes a measuring
The measuring
デジタルマイクロメータ10は、コンピュータユニット100と無線接続されている。デジタルマイクロメータ10は、データ転送ボタン11を有し、データ転送ボタン11が押されると、測定値をコンピュータユニット100に送信する。
The
コンピュータユニット100は、ホストコンピュータ110と、モニタ120と、アイポインティングデバイス200と、を備える。
ホストコンピュータ110は、CPU、ROM、RAMを有するいわゆるコンピュータである。ホストコンピュータ110は、デジタルマイクロメータ10、モニタ120およびアイポインティングデバイス200と無線で通信接続されている。
ホストコンピュータ110は、測定データ管理用プログラムを実行することにより、測定データの収集、記録、編集を行う測定データ管理装置としての役割を果たす。このとき、ホストコンピュータ110は、測定データ管理用のGUI(グラフィカルユーザインターフェース)をモニタ120を介してユーザ(測定者)に提供する。GUI画面の例としては、例えば図1を参照されたい。
GUI画面の操作方法については後述する。
The
The
The
The method of operating the GUI screen will be described later.
モニタ120は、ホストコンピュータ110から与えられる表示データを画面に表示する。また、モニタ120はタッチディスプレイパネルであって、ユーザ(測定者)によるタッチ操作を受け付けて、ホストコンピュータ110に転送する。
The
アイポインティングデバイス200について説明する。
アイポインティングデバイス200は、大きく2つの機能を有している。
第1の機能は、小型画像投影機(プロジェクションディスプレー)としての機能である。
第2の機能は、視線トラッキングを利用するポインティングデバイスとしての機能である。
具体的に説明する。
The
The
The first function is a function as a small image projector (projection display).
The second function is a function as a pointing device that uses line-of-sight tracking.
This will be specifically described.
アイポインティングデバイス200は、メガネ部210と、表示ユニット部220と、アイカメラ230と、外部カメラ240と、制御部260と、を有する。
メガネ部210は、略U字状のフレーム部211と、フレーム部211に取り付けられたレンズ部212と、を有する。フレーム部211の両端には、耳に引っ掛かるつる部213が設けられている。つる部213を耳に引っ掛けてメガネ部210を顔に装着すると、眼の真ん前にレンズ部212がくるようになっている。
The
The
表示ユニット部220は、支持アーム部221と、プロジェクター部222と、を有する。
支持アーム部221の一端はフレーム部211の端部に固定されている。支持アーム部221の他端は、ユーザ(測定者)の顔の前方に向けて延伸するとともに、ユーザ(測定者)の眼の前に位置するように湾曲している。
The
One end of the
そして、支持アーム部221の他端にプロジェクター部222が設けられている。プロジェクター部222は、画像を投射してユーザ(測定者)に情報を提示する。プロジェクター部222は、レンズ部212に画像を投影してもよいし、ユーザ(測定者)の網膜で結像するように画像を投射してもよい。
The
このようなプロジェクター部222は、例えば、レーザー光源と、マイクロミラーと、で構成できる。マイクロミラーを上下左右に往復駆動させ、レーザー光でフレームを描画する。
ユーザ(測定者)の眼(視界)には、外界の実物からの光と、プロジェクター部222からの投射光と、が同時に入ってくる。すると、ユーザ(測定者)の眼(視界)には、外界の実景と、プロジェクター部222からの画像情報と、がオーバーレイ(重畳)して見える。
プロジェクター部222は、ユーザ(測定者)の両方の眼に情報を提供してもよく、片方の眼だけに情報を提供してもよい。本実施形態では、測定者の片方の眼、ここでは、右眼に情報を提供するように設けられている。
Such a
The light (visual field) of the user (measuring person) simultaneously receives the light from the real world object and the projection light from the
The
アイカメラ230は、ユーザ(測定者)の眼を撮像するようにフレーム部211に取り付けられている。さらに、アイポインティングデバイス200は、スイッチ242、マイク243、外部カメラ240を有する。
スイッチ242およびマイク243は、補助的な入力手段である。また外部カメラ240は、ユーザ(測定者)の前方を撮像し、すなわち、ユーザ(測定者)に見えている外界の実像を撮像する。
The
The
図3は、制御部260の機能ブロック図である。
制御部260は、通信回路部261と、画像データ生成部262と、アイ画像解析部263と、中央処理部264と、を有する。
通信回路部261は、アンテナを介して、ホストコンピュータ110とデータの送受信を行う。アイ画像解析部263は、アイカメラ230で撮像されるユーザ(測定者)の瞳の動きから、ユーザ(測定者)の視線がどこにあるか特定する。さらに、アイ画像解析部263は、アイカメラ230で撮像される瞳、眼、あるいはまぶたの動きから、選択操作の有無を判別する。
FIG. 3 is a functional block diagram of the
The
The
中央処理部264は、制御部260全体の動作を統合的に制御する。
アイポインティングデバイス200の動作をフローチャートと画像例とを参照しながら説明する。
図4、図5は、アイポインティングデバイス200の動作を説明するためのフローチャートである。
ユーザは、アイポインティングデバイス200を使用するにあって、アイポインティングデバイス200をメガネと同じように顔に装着する。すなわち、つる部213を耳に引っ掛けて、レンズ部212が眼を覆うようにする。
The
The operation of the
4 and 5 are flowcharts for explaining the operation of the
When using the
さて、アイポインティングデバイス200の電源がオンになると(ST101)、アイポインティングデバイス200は、ホストコンピュータ110と通信を確立し、ホストコンピュータ110からAR−GUI画像のデータを取得する(ST110)。本明細書では、アイポインティングデバイス200によってユーザに提供される画像のことをAR−GUI(オーグメンティッドリアリティーグラフィカルユーザインターフェース)画像と称することにする。AR−GUI画像データは、画像データ生成部262に一時バッファされる。
Now, when the power of the
画像データ生成部262は、AR−GUI画像をプロジェクター部222で表示できるようにビデオ信号に変換し、ビデオ信号をプロジェクター部222に出力する。すると、プロジェクター部222がAR−GUI画像を投影し(ST120)、ユーザの眼にAR−GUI画像が見えるようになる。
The image
図6は、ユーザの視界の例であり、AR−GUI画像の一例を示す。ユーザの視界には、自分の手、マイクロメータ10、モニタ120といった実物が見えており、さらに、実物の実景に重畳してプロジェクター部222によって提供されるAR−GUI画像300が見える。AR−GUI画像300として、例えば、データ編集用のツールのアイコン301−308が提供される。
FIG. 6 is an example of the field of view of the user and shows an example of the AR-GUI image. In the field of view of the user, the real thing such as one's hand, the
ここでは、上下左右方向の方向指示アイコン301−304、実行(エンター)指示アイコン305、削除(デリート)指示アイコン306、オプションアイコン307、データ収集アイコン308がある。
方向指示アイコン301−304でモニタ120内のカーソルや選択セルを移動させる。実行指示アイコン305、削除アイコン306は、データの入力あるいは削除を行う。
オプションアイコン307は、例えば、モード切替えやアイコンセットの切替えを指示する。データ収集アイコン308は、マイクロメータ10から測定データの取得を指示する。
Here, there are up/down/left/right direction instruction icons 301-304, an execution (enter)
The cursor or the selected cell in the
The
図6においては、実物であるマイクロメータ10あるいはモニタ120をユーザの顔の正面で捉えたとき、AR−GUI画像300は、視野の中央領域を避けて、視野の周辺に見えるように配置されている。ここではAR−GUI画像300としての8つのアイコン301−308は、視野の周辺において円環状に配置されている。
In FIG. 6, when the
さて、アイポインティングデバイス200は、AR−GUI画像300を表示したら(ST120)、続いて、アイカメラ230を起動してユーザの眼を撮像する(ST130)。
アイカメラ230の撮像データはアイ画像解析部263に入力される。そして、アイ画像解析部263は、アイカメラ230の画像からユーザの瞳の動きを解析し(ST150)、ユーザの視線がどこを見ているか特定する。
(なお、ステップST140の説明を飛ばしたが、これは変形例1で後述する。)
Now, after displaying the AR-GUI image 300 (ST120), the
The image data of the
(Note that the description of step ST140 was skipped, but this will be described later in Modification Example 1.)
中央処理部264は、ユーザの視線とAR−GUI画像300の位置とを比べて、ユーザがAR−GUI画像300を見ているか否かを判定する(ST160)。
ユーザの視線がAR−GUI画像300から外れていてAR−GUI画像300を見ていない場合(ST160:NO)、ユーザはAR−GUI画像300以外の何か、例えばマイクロメータ10やワークWを見て測定しているということである。
この場合、ポインティングデバイスとしての役割はなく、フローの先頭(ST110)に戻ってAR−GUI画像300の表示を継続する。
The
When the user's line of sight is outside the AR-
In this case, there is no role as a pointing device, and the process returns to the beginning of the flow (ST110) and continues to display the AR-
さて、ユーザの視線がAR−GUI画像300に重なっていて、ユーザがAR−GUI画像300を見ている場合について説明する(ST160:YES)。
ユーザがAR−GUI画像300を見ているということは(ST160:YES)、測定ではなく、データの編集をしたいということである。
ユーザがAR−GUI画像300を見ていると判定される場合(ST160:YES)、中央処理部264は、画像データ生成部262に視線の位置を通知する。すると、画像データ生成部262は、その視線の位置にアイポインタ390を表示する(ST210)。
Now, a case where the user's line of sight overlaps the AR-
The fact that the user is looking at the AR-GUI image 300 (ST160: YES) means that he wants to edit the data, not the measurement.
When it is determined that the user is looking at the AR-GUI image 300 (ST160: YES), the
図7にアイポインタ390の一例を図示する。
ここでは、アイポインタ390は目をモチーフにデザイン化されたものである。もちろん、アイポインタ390は、ただの矢印、単純な円や四角といったものでもよい。
ユーザは、選択したいツールのアイコン301−308を見るように眼球を視野の端の方へ動かす。するとアイポインタ390が現れるので、アイポインタ390が意図したアイコン301−308に重なるように眼を動かす。このとき、ユーザは眼球のみを動かせばよいのであって、図7に示すように両手はマイクロメータ10とワークWを掴んだままでよい。
FIG. 7 illustrates an example of the
Here, the
The user moves the eyeball toward the edge of the field of view to see the icons 301-308 of the tool that they want to select. Then, the
ユーザは、アイポインタ390を意図したアイコン301−308に重ねておいて、選択操作を行う。
選択操作としては例えばウインクが例として挙げられる。その他、数秒間同じ場所(アイコン)を見つめることを選択操作としてもよい。
ユーザの選択操作(ウインク)は、アイカメラ230を介してアイ画像解析部263で検出される(ST220:YES).
アイコン301−308が選択されたことはアイ画像解析部263から中央処理部264に通知される。中央処理部264は、アイコン選択時(ウインク時)の視線とAR−GUI画像300の各アイコン301−308の位置とを比べて、ユーザが選択した操作を特定する(ST230)。図7の例でいえば、選択された操作は、カーソル(あるいは選択セル)を下方向へ移動させる操作である。
The user places the
The selection operation may be, for example, wink. Alternatively, the selection operation may be staring at the same place (icon) for several seconds.
The user's selection operation (wink) is detected by the eye
The
中央制御部260は、選択された操作を通信回路部261を介してホストコンピュータ110に通知する(ST240)。すると、ホストコンピュータ110は通知された操作を実行する。今回の例でいえば、モニタ120の画面中においてカーソル(あるいは選択セル)が下方向に移動する。
The
続いて、例えば、データを削除したければ同じように視線でアイポインタ390を移動させて削除アイコン306を選択すればよい。
データを上書きしたいのであればマイクロメータ10のデータ転送ボタン11を押してもよく、あるいは、眼でデータ収集アイコン308を選択してもよい。
いずれにしても、ユーザは、データの記録や編集にあたって、手をマイクロメータ10およびワークWから離す必要はなく、目を動かすだけである。データ編集に手を使わなくてよいのであるから測定作業の効率化が図られるのはもちろんである。
さらに、目を使うユーザインターフェースは直観的に誰にでもわかりやすく、操作が簡単である。例えば、同じ操作を複数のフットスイッチの組み合わせで行うとすれば、かなりの訓練が必要になるだろう。
本実施形態の測定システムは、誰にでも使える素晴らしく便利な測定環境を提供できる。
Then, for example, if the user wants to delete the data, he or she may similarly move the
If it is desired to overwrite the data, the
In any case, the user does not have to take his or her hands away from the
In addition, the user interface with eyes is intuitive and easy for anyone to operate. For example, performing the same operation with a combination of multiple foot switches would require considerable training.
The measurement system of the present embodiment can provide a wonderful and convenient measurement environment that can be used by anyone.
(変形例1)
第1実施形態においては、アイポインティングデバイス200が提供するAR−GUI画像300のアイコン301−308を視線で操作(選択)する例を説明した。
アイポインティングデバイス200は、自己が提供するAR−GUI画像300の画像データを保有しているわけであるから、アイカメラ230で取得する視線の方向をAR−GUI画像データに対比すれば、ユーザが選択したい操作(アイコン301−308)をAR−GUI画像300のなかから特定できる。
ここで、変形例1としては、アイポインティングデバイス200のアイポインタ390を利用して、モニタ120に表示された情報やツールを操作する例を説明する。
(Modification 1)
In the first embodiment, an example has been described in which the
Since the
Here, as a first modified example, an example in which the
図8に例示するように、モニタ120画面にはワークWのCADデータ、ワークW中の測定対象箇所、測定データなどが表示されている。そして、測定作業をしながら測定箇所の指定(あるいは指定の再設定)をしたいとする。
この場合、ユーザは、モニタ120の画面を見る。
図4のフローチャートに戻っていただいて、外部カメラ240により、ユーザの視界に相当する外界の画像が取り込まれている(ST140)。そして、視線解析(ST150)の結果、ユーザの視線がモニタ120画面上にあることが検出される(ST170:YES)。外部カメラ240により、ユーザの視界に相当する外界の画像が取り込まれているから(ST140)、中央処理部264は、画像認識により、モニタ120の位置を特定できる。
たとえば、太い黒枠の内側をモニタ120と認識させるようにしてもよい。
As illustrated in FIG. 8, CAD data of the work W, measurement target locations in the work W, measurement data, and the like are displayed on the screen of the
In this case, the user looks at the screen of the
Returning to the flowchart of FIG. 4, the
For example, the inside of the thick black frame may be recognized as the
ユーザの視線がモニタ120上にある場合の処理動作を図9のフローチャートを参照しながら説明する。
ユーザの視線がモニタ120画面上にあると判定される場合(図4のST170:YES)、中央処理部264は画像データ生成部262に視線の位置を通知し、画像データ生成部262は、その視線の位置にアイポインタ390を表示する(ST310)。
図8にアイポインタ390の一例を図示する。
ユーザは、意図した測定箇所にアイポインタ390が重なるように眼球を動かす。そして、モニタ120画面上で所望の測定箇所にアイポインタ390が重なったところで選択操作(たとえばウインク)を行う。ユーザの選択操作(ウインク)はアイカメラ230を介してアイ画像解析部263で検出される(ST320:YES)。
The processing operation when the user's line of sight is on the
When it is determined that the line of sight of the user is on the screen of the monitor 120 (ST170: YES in FIG. 4), the
FIG. 8 illustrates an example of the
The user moves the eyeball so that the
選択操作が検出されると(ST320:YES)、中央処理部264は、選択操作時(ウインク時)の視線とモニタ120画面との位置関係を解析する(ST330)。
図10は、外部カメラ240画像のなかからモニタ120の部分だけを抜き出したものである。
例えば、図10に示すように、モニタ画面の左下隅を原点とし、モニタ画面の横方向にX軸(横軸)をとり、モニタ画面の縦方向にY軸(縦軸)をとる。
(ユーザがモニタ120に正対していない場合には必要に応じて台形補正などを行えばよい。)モニタ画面中における視線の位置(アイポインタ390の位置)を(x,y)とする。また、モニタ画面の横軸をL、高さをHとする。
このとき、モニタ画面中の視線の位置は、(x/L,y/H)で表される。
When the selection operation is detected (ST320: YES), the
In FIG. 10, only the portion of the
For example, as shown in FIG. 10, the lower left corner of the monitor screen is the origin, the horizontal direction of the monitor screen is the X axis (horizontal axis), and the vertical direction of the monitor screen is the Y axis (vertical axis).
(When the user is not directly facing the
At this time, the position of the line of sight on the monitor screen is represented by (x/L, y/H).
中央処理部264は、このように得られた視線の位置(x/L,y/H)をホストコンピュータ110に通知する(ST340)。すると、ホストコンピュータ110は視線の位置(x/L,y/H)と、モニタ画面の表示内容と、を対比して、ユーザが意図する操作(コマンド)を特定する。
今回の例でいえば、モニタ画面中のCADデータで測定箇所Dが選択されたことを特定する。そして、ホストコンピュータ110は、指示された操作を実行したり、モニタ120の表示を更新したりする。
The
In this example, the CAD data on the monitor screen specifies that the measurement point D is selected. Then, the
さらに、アイポインティングデバイス200で選択する対象は、AR−GUI画像300やモニタ120上の画像だけに限らず、実際の実物の任意の領域や部位に割り当てられたコマンドであってもよい。
例えば、実際のワークW上に測定箇所コマンドを設定しておくとする。
ユーザが実際のワークW上の測定箇所を目で選択(見てからウインク)する。(外部カメラ240で撮像した画像を画像認識すれば、ワークWのどの箇所が選択されたかわかる。コマンドが割り当てられた対象物については画像認識できるようにCADデータ(3DCADデータ)をホストコンピュータに予め記憶させておいてもよい。)
このように実際のワークW上で測定箇所を選択したうえで、データ転送ボタン11を押す。あるいは、データ転送の操作もアイポインティングで行ってもよい。
このような測定作業の手順は自然であり、スムースで効率的な測定ができるようになる。
Furthermore, the target selected by the
For example, assume that a measurement point command is set on the actual work W.
The user visually selects (sees and winks) an actual measurement point on the work W. (By recognizing the image captured by the
In this way, the measurement point is selected on the actual work W, and then the
The procedure of such measurement work is natural, and smooth and efficient measurement can be performed.
(変形例2)
次に、図11を参照して変形例2を説明する。
図11は、ポータブルアーム型(可搬性多関節形)の三次元測定機20でワークWを測定する様子の一例である。このようなアーム形三次元測定機20にあっては必然的に両手で測定機20を保持しながら測定作業を行うことになる。この場合、アイポインティングデバイス200によって提供されるGUI画像300およびアイポインタ390により、ハンズフリーのデータ編集が可能になる。したがって、ユーザは両手を測定機20から離す必要はなく、効率よく測定作業を進めることができる。
(Modification 2)
Next, a modified example 2 will be described with reference to FIG.
FIG. 11 shows an example of how the work W is measured by the portable arm type (portable multi-joint type) three-
ここで、第1実施形態においては視界の周辺寄りにAR―GUI画像300が見えるようにしていた。
これに対し、変形例2においては、ワークWの周囲にAR−GUI画像が見えるようにしている。例えば、外部カメラ240でユーザの視界を取り込み、画像認識によってワークWの位置を特定する。そして、ワークWの周辺にGUI画像300を投影する。
これで、ユーザの視界には、ワークWを囲むようにGUI画像が見えるようになる。
Here, in the first embodiment, the AR-
On the other hand, in the second modification, the AR-GUI image is visible around the work W. For example, the
With this, in the user's field of view, the GUI image can be seen so as to surround the work W.
測定作業中、ユーザの視線はワークWに注がれていることが多い。そして、ワークWから少しだけ視線をずらすとアイポインタ390でAR―GUI画像300を用いたデータ編集が可能になる。
During the measurement work, the user's line of sight is often focused on the work W. Then, when the line of sight is slightly shifted from the work W, data editing using the AR-
また、図11においては、編集ツールのアイコンだけではなくて、モニタ120に表示される表示データ、ここでは測定値のデータ(309)もAR−GUI画像300として提供される。
これによりユーザはモニタ120の画面を見なくても測定作業を進行できるようになる。可搬性の中型測定機20を使用するときには、ワークWの測定箇所に応じてユーザ自身の立ち位置や姿勢も変わってくるため、いつもモニタ120が見えるとは限らない。
この点、モニタ画面の内容がAR−GUI画像300として提供されれば、ユーザは、モニタ120やホストコンピュータ110の位置を気にすることなく、自由にポジションを変えながら測定作業を進めることができる。
Further, in FIG. 11, not only the icon of the editing tool, but also display data displayed on the
This allows the user to proceed with the measurement work without looking at the screen of the
In this respect, if the contents of the monitor screen are provided as the AR-
また、図12に示すように、大型の三次元測定機30を操作するような場合、ユーザは、ジョイスティック等の操作盤32だけを持ってワークWに近づいて操作することがある。この場合、ユーザの立ち位置からはモニタ120やホストコンピュータ110が見えにくいことがある。
この点、アイポインティングデバイス200によってAR−GUI画像300が提供されるので、ユーザは、モニタ120やホストコンピュータ110の位置を気にする必要はなくなる。
なお、大型の三次元測定機30の場合、測定プローブ31の周囲にGUI画像が表示されるようにしてもよい。大型の三次元測定機30の場合、プローブ31が大きく動くことが多い。そして、ユーザはプローブ31を目で追いかける。プローブ31から少しだけ視線を動かすだけでアイポインタ390でGUI画像300を操作できるようになると極めて便利である。
Further, as shown in FIG. 12, when operating the large-sized coordinate measuring
In this regard, since the AR-
In the case of the large coordinate measuring
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
上記実施形態の説明では、ユーザが視線でアイポインタ390を動かし、アイポインタ390をアイコンに重ねてツールを選択するとした。
このほか、例えば、眼の動きのパターンとコマンドとを対応付けておき、ジェスチャコントロールのように眼の動きでダイレクトにコマンド入力するようにしてもよい。例えば、視線を上から下、あるいは、右から左に動かすと、選択セルが移動したり、見つめたらモニタの表示を拡大/縮小したり、モニタの端の方に視線を移動させたら上下左右にスクロールするなどが考えられる。
The present invention is not limited to the above-mentioned embodiments, but can be modified as appropriate without departing from the spirit of the present invention.
In the description of the above embodiment, it is assumed that the user moves the
In addition, for example, the eye movement pattern and the command may be associated with each other, and the command may be directly input by the eye movement like gesture control. For example, moving the line of sight from top to bottom or from right to left moves the selected cell, enlarges/reduces the display of the monitor when you gaze, or moves the line of sight toward the edge of the monitor to move up, down, left, or right. It is possible to scroll.
本発明は視線を使ってアイポインタを動かすのであるが、人の視線は非常に素早く揺らぐものである。そこで、アイ画像解析部263でユーザ(測定者)の視線がどこにあるか特定するにあたっては、眼の動き検出の感度を下げたり、瞬間的な動きは無視する等のためのフィルタなどを組み込んでもよい。
また、選択操作としてのウインクを"まばたき"と混同しないように、"選択"の意図を持った意図的なウインクと生理的な眼の開閉(まばたき)とを区別するようにする。例えば、ウインクとまばたきとを区別するための判定閾値となる時間を設定するなどの方策が考えられる。
The present invention uses the line of sight to move the eye pointer, but the line of sight of a person fluctuates very quickly. Therefore, in identifying where the eye of the user (measuring person) is in the eye
Also, in order not to confuse winking as a selecting operation with "blinking", an intentional winking with the intention of "selecting" is distinguished from physiological eye opening/closing (blinking). For example, it is conceivable to set a time as a determination threshold value for distinguishing wink from blinking.
10…マイクロメータ(測定機)、11…データ転送ボタン、
20…アーム形三次元測定機、
30…三次元測定機、31…プローブ、32…操作盤、
80…コンピュータ、
100…コンピュータユニット、
110…ホストコンピュータ、
120…モニタ、
200…アイポインティングデバイス、
210…メガネ部、211…フレーム部、212…レンズ部、213…つる部、
220…表示ユニット部、221…支持アーム部、222…プロジェクター部、
230…アイカメラ、
240…外部カメラ、
242…スイッチ、243…マイク、
260…制御部、
261…通信回路部、262…画像データ生成部、263…アイ画像解析部、264…中央処理部、
300…AR−GUI画像、
301−308…アイコン、
390…アイポインタ。
10... Micrometer (measuring machine), 11... Data transfer button,
20... Arm type CMM,
30... three-dimensional measuring machine, 31... probe, 32... operation panel,
80... computer,
100... computer unit,
110... host computer,
120... monitor,
200... Eye pointing device,
210... Glasses section, 211... Frame section, 212... Lens section, 213... Vine section,
220... Display unit part, 221... Support arm part, 222... Projector part,
230... eye camera,
240... external camera,
242... switch, 243... microphone,
260... control unit,
261... Communication circuit unit, 262... Image data generation unit, 263... Eye image analysis unit, 264... Central processing unit,
300... AR-GUI image,
301-308... icon,
390... Eye pointer.
本発明は、測定システムに関し、具体的には、測定作業を行いながら測定データの記録や編集を容易に行うための測定システムに関する。 The present invention relates to a measurement system, and more particularly, to a measurement system for easily recording and editing measurement data while performing measurement work.
ワークを測定機で測定した結果はコンピュータ等の外部機器に転送され記録されるようになっている。そのための測定システムが種々提案されている(例えば、特許文献1、2、3)。例えば、図1に測定システムの一例を示す。
The result of measuring the work with the measuring machine is transferred to and recorded in an external device such as a computer. Various measurement systems for that have been proposed (for example,
図1においては、ワークWをデジタルマイクロメータ10で測定している。デジタルマイクロメータ10とコンピュータ80とは無線または有線で通信接続されている。
ユーザがマイクロメータ10でワークWを測定し、データ転送ボタン11を押す。すると、測定値がマイクロメータ10からコンピュータ80に転送され、コンピュータ80が測定値を記録していく。
なお、データ転送ボタン11は、マイクロメータ10上の押しやすいところにあってもよいし、あるいは、フットスイッチを利用してもよい。フットスイッチように足で操作できれば、手はワークWとマイクロメータ10をつかんだままでよいので、便利である。
In FIG. 1, the work W is measured by the
The user measures the work W with the
The
マイクロメータ10からコンピュータ80へ転送された測定値は自動的に記録されていくが、その測定値がどのワークのどの箇所に対応しているものであるか整理されていなければならない。
例えば図1のように5つの段差をもつワークWの場合を考える。
太い方から順番に測定し、さらにひとつのワークWにつき測定を5回繰り返すように測定手順が決まっているとする。この測定手順をコンピュータ80に予め登録しておき、測定者は決められた順番通りに測定を進めていく。すると、自動的に整理された測定データが記録されていく。このような測定システムにより、極めて高い作業効率を実現できるし、測定者にとっては身体的にも精神的にも負担が軽い作業となる。
The measured values transferred from the
For example, consider the case of a work W having five steps as shown in FIG.
It is assumed that the measurement procedure is determined such that the measurement is performed in order from the thickest one, and the measurement is repeated five times for each work W. This measurement procedure is registered in the
実際の測定作業にあっては、誤操作が必ずあるのであり、データの取消しや再測定が必要になってくる。
測定手順や測定箇所を飛ばしてしまうこともあるし、データ転送ボタン11の操作ミスもあり得る。このような場合、測定者がコンピュータ80を操作して、データを取り消したり、編集したりすることになる。すなわち、一旦ワークWとマイクロメータ10から手を離し、コンピュータ80のキーボードかマウスを操作しなければならない。コンピュータ80が手元ではなく少し離れたところにある場合には、数歩歩くという動作も必要である。
In the actual measurement work, there is always an erroneous operation, and it is necessary to cancel or re-measure the data.
The measurement procedure and the measurement location may be skipped, and the
ワークWやマイクロメータ10から手を離したり、体を移動させたりという動作があると、作業の連続性が断たれてしまい、作業効率がとたんに悪くなる。そのため、想定したほどには作業効率のアップが図れないという問題がある。
また、測定者にとっても面倒な作業であり、身体的にも心理的にも負担が大きい。ちなみに、フットスイッチを利用してコンピュータ80を操作することも考えられるが、これだけでは複雑な操作は難しい。
音声コマンドも考えられるが、工場などでは騒音が避けられないので、認識率が低く、むしろ誤操作が増えるおそれもある。フットスイッチや音声コマンドだけではコンピュータ80の複雑な操作をハンズフリーで行うのは難しい。
If there is an action such as releasing the hand from the work W or the
In addition, it is a troublesome work for the measurer, and is physically and psychologically burdensome. By the way, it is conceivable to operate the
Although voice commands can be considered, noise is unavoidable in factories and the like, so the recognition rate is low, and there is a possibility that erroneous operations will increase. It is difficult to perform a complicated operation of the
そこで、本発明の目的は、コンピュータの複雑な操作をハンズフリーで行えるユーザインターフェースを提供することにある。
また、本発明の目的は、利便性が高く、高効率な測定作業を支援する測定システムを提供することにある。
Therefore, it is an object of the present invention to provide a user interface that allows hands-free operation of a complicated computer.
Another object of the present invention is to provide a measurement system that is highly convenient and supports highly efficient measurement work.
本発明のアイポインティングシステムは、
ユーザの顔に装着されてユーザの眼の動きでユーザの視界中のコマンドの選択を認識するアイポインティングデバイスと、
GUI画像データをユーザに提供するホストコンピュータと、
前記ホストコンピュータから与えられるGUI画像を画面に表示するモニタと、を備えるアイポインティングシステムであって、
前記アイポインティングデバイスは、
ユーザの眼を撮像するように配置されたアイカメラと、
前記アイカメラで撮像された眼の画像であるアイ画像に基づいて、眼の動きからコマンド入力操作を認識するアイ画像解析部と、
ユーザの前方であってユーザに見えている外界の実景を撮像する外部カメラと、
ユーザの視界に実景とオーバーレイするようにGUI(グラフィカルユーザインターフェース)画像を投影するプロジェクター部と、を有し、前記外部カメラで撮像した実景の画像と、前記アイ画像解析部で認識した眼の動きと、を対比し、実際の実物の任意の領域あるいは部位に対して予め割り当てられたコマンドを選択操作するものであって、
前記アイポインティングデバイスと前記ホストコンピュータとが通信接続され、前記GUI画像データが前記プロジェクター部からユーザの視界に投射され、
前記モニタには、対象物および/または前記対象物のうちの対象箇所が表示され、
ユーザが前記モニタの画面に表示された前記対象物および/または前記対象物のうちの対象箇所を眼の動きのコマンドで選択すると、前記ホストコンピュータは、視線の位置とモニタ画面の表示内容とを対比して、ユーザが意図する前記対象物および/または前記対象物のうちの対象箇所を特定する
ことを特徴とする。
The eye pointing system of the present invention,
An eye pointing device mounted on the user's face and recognizing the selection of a command in the user's field of view by the movement of the user's eyes;
A host computer for providing GUI image data to a user,
An eye pointing system comprising: a monitor for displaying a GUI image provided from the host computer on a screen,
The eye pointing device is
An eye camera arranged to image the user's eyes,
An eye image analysis unit that recognizes a command input operation from eye movements based on an eye image that is an image of the eye captured by the eye camera,
An external camera that captures a real world view in front of the user and visible to the user;
A projector unit that projects a GUI (Graphical User Interface) image so as to overlay the real scene on the user's field of view, and an image of the real scene captured by the external camera; and an eye movement recognized by the eye image analysis unit. , And to select and operate a command previously assigned to an arbitrary area or part of the actual object,
The eye pointing device and the host computer are communicatively connected, and the GUI image data is projected from the projector unit to a user's field of view.
On the monitor, an object and/or an object portion of the object is displayed,
When the user selects the target object and/or the target part of the target object displayed on the screen of the monitor with a command of eye movement, the host computer displays the position of the line of sight and the display content of the monitor screen. In contrast, the target object intended by the user and/or the target location of the target object is specified.
また、本発明のアイポインティングシステムは、
ユーザの顔に装着されてユーザの眼の動きでユーザの視界中のコマンドの選択を認識するアイポインティングデバイスと、
GUI画像データをユーザに提供するホストコンピュータと、を備えるアイポインティングシステムであって、
前記アイポインティングデバイスは、
ユーザの眼を撮像するように配置されたアイカメラと、
前記アイカメラで撮像された眼の画像であるアイ画像に基づいて、眼の動きからコマンド入力操作を認識するアイ画像解析部と、
ユーザの前方であってユーザに見えている外界の実景を撮像する外部カメラと、
ユーザの視界に実景とオーバーレイするようにGUI(グラフィカルユーザインターフェース)画像を投影するプロジェクター部と、を有し、前記外部カメラで撮像した実景の画像と、前記アイ画像解析部で認識した眼の動きと、を対比し、実際の実物の任意の領域あるいは部位に対して予め割り当てられたコマンドを選択操作するものであって、
前記アイポインティングデバイスと前記ホストコンピュータとが通信接続され、前記GUI画像データが前記プロジェクター部からユーザの視界に投射され、
さらに、
実際の対象物のなかの対象箇所に対して対象箇所コマンドが予め設定されており、
ユーザが実際の対象物のなかの対象箇所を眼の動きのコマンドで選択すると、前記ホストコンピュータは、前記外部カメラで撮像された画像の画像認識と視線の位置とを対比して、ユーザが意図する対象箇所を特定する
ことを特徴とする。
In addition, the eye pointing system of the present invention,
An eye pointing device mounted on the user's face and recognizing the selection of a command in the user's field of view by the movement of the user's eyes;
An eye pointing system comprising: a host computer that provides GUI image data to a user,
The eye pointing device is
An eye camera arranged to image the user's eyes,
An eye image analysis unit that recognizes a command input operation from eye movements based on an eye image that is an image of the eye captured by the eye camera,
An external camera that captures a real world view in front of the user and visible to the user;
A projector unit that projects a GUI (Graphical User Interface) image so as to overlay the real scene on the user's field of view, and an image of the real scene captured by the external camera; and an eye movement recognized by the eye image analysis unit. , And to select and operate a command previously assigned to an arbitrary area or part of the actual object,
The eye pointing device and the host computer are communicatively connected, and the GUI image data is projected from the projector unit to a user's field of view.
further,
Target location command is preset for the target location in the actual object,
When the user selects a target location in the actual target with an eye movement command, the host computer compares the image recognition of the image captured by the external camera with the position of the line of sight, and the user intends. The feature is that the target location to be specified is specified.
本発明の実施形態を図示するとともに図中の各要素に付した符号を参照して説明する。
(第1実施形態)
本発明の測定システムに係る第1実施形態について説明する。
図2は、測定システムの全体構成を例示する図である。
測定システムは、測定工具10と、コンピュータユニット100と、を具備する。
測定工具10としては、デジタル式の小型測定器であってもよい。デジタル式の小型測定器としては、デジタルマイクロメータ10や、デジタルノギス、デジタルダイヤルゲージなどがある。図2中では、デジタルマイクロメータ10を例示している。
Embodiments of the present invention will be described with reference to the drawings and reference numerals attached to respective elements in the drawings.
(First embodiment)
A first embodiment of the measurement system of the present invention will be described.
FIG. 2 is a diagram illustrating the overall configuration of the measurement system.
The measuring system includes a measuring
The measuring
デジタルマイクロメータ10は、コンピュータユニット100と無線接続されている。デジタルマイクロメータ10は、データ転送ボタン11を有し、データ転送ボタン11が押されると、測定値をコンピュータユニット100に送信する。
The
コンピュータユニット100は、ホストコンピュータ110と、モニタ120と、アイポインティングデバイス200と、を備える。
ホストコンピュータ110は、CPU、ROM、RAMを有するいわゆるコンピュータである。ホストコンピュータ110は、デジタルマイクロメータ10、モニタ120およびアイポインティングデバイス200と無線で通信接続されている。
ホストコンピュータ110は、測定データ管理用プログラムを実行することにより、測定データの収集、記録、編集を行う測定データ管理装置としての役割を果たす。このとき、ホストコンピュータ110は、測定データ管理用のGUI(グラフィカルユーザインターフェース)をモニタ120を介してユーザ(測定者)に提供する。GUI画面の例としては、例えば図1を参照されたい。
GUI画面の操作方法については後述する。
The
The
The
The method of operating the GUI screen will be described later.
モニタ120は、ホストコンピュータ110から与えられる表示データを画面に表示する。また、モニタ120はタッチディスプレイパネルであって、ユーザ(測定者)によるタッチ操作を受け付けて、ホストコンピュータ110に転送する。
The
アイポインティングデバイス200について説明する。
アイポインティングデバイス200は、大きく2つの機能を有している。
第1の機能は、小型画像投影機(プロジェクションディスプレー)としての機能である。
第2の機能は、視線トラッキングを利用するポインティングデバイスとしての機能である。
具体的に説明する。
The
The
The first function is a function as a small image projector (projection display).
The second function is a function as a pointing device that uses line-of-sight tracking.
This will be specifically described.
アイポインティングデバイス200は、メガネ部210と、表示ユニット部220と、アイカメラ230と、外部カメラ240と、制御部260と、を有する。
メガネ部210は、略U字状のフレーム部211と、フレーム部211に取り付けられたレンズ部212と、を有する。フレーム部211の両端には、耳に引っ掛かるつる部213が設けられている。つる部213を耳に引っ掛けてメガネ部210を顔に装着すると、眼の真ん前にレンズ部212がくるようになっている。
The
The
表示ユニット部220は、支持アーム部221と、プロジェクター部222と、を有する。
支持アーム部221の一端はフレーム部211の端部に固定されている。支持アーム部221の他端は、ユーザ(測定者)の顔の前方に向けて延伸するとともに、ユーザ(測定者)の眼の前に位置するように湾曲している。
The
One end of the
そして、支持アーム部221の他端にプロジェクター部222が設けられている。プロジェクター部222は、画像を投射してユーザ(測定者)に情報を提示する。プロジェクター部222は、レンズ部212に画像を投影してもよいし、ユーザ(測定者)の網膜で結像するように画像を投射してもよい。
The
このようなプロジェクター部222は、例えば、レーザー光源と、マイクロミラーと、で構成できる。マイクロミラーを上下左右に往復駆動させ、レーザー光でフレームを描画する。
ユーザ(測定者)の眼(視界)には、外界の実物からの光と、プロジェクター部222からの投射光と、が同時に入ってくる。すると、ユーザ(測定者)の眼(視界)には、外界の実景と、プロジェクター部222からの画像情報と、がオーバーレイ(重畳)して見える。
プロジェクター部222は、ユーザ(測定者)の両方の眼に情報を提供してもよく、片方の眼だけに情報を提供してもよい。本実施形態では、測定者の片方の眼、ここでは、右眼に情報を提供するように設けられている。
Such a
The light (visual field) of the user (measuring person) simultaneously receives the light from the real world object and the projection light from the
The
アイカメラ230は、ユーザ(測定者)の眼を撮像するようにフレーム部211に取り付けられている。さらに、アイポインティングデバイス200は、スイッチ242、マイク243、外部カメラ240を有する。
スイッチ242およびマイク243は、補助的な入力手段である。また外部カメラ240は、ユーザ(測定者)の前方を撮像し、すなわち、ユーザ(測定者)に見えている外界の実像を撮像する。
The
The
図3は、制御部260の機能ブロック図である。
制御部260は、通信回路部261と、画像データ生成部262と、アイ画像解析部263と、中央処理部264と、を有する。
通信回路部261は、アンテナを介して、ホストコンピュータ110とデータの送受信を行う。アイ画像解析部263は、アイカメラ230で撮像されるユーザ(測定者)の瞳の動きから、ユーザ(測定者)の視線がどこにあるか特定する。さらに、アイ画像解析部263は、アイカメラ230で撮像される瞳、眼、あるいはまぶたの動きから、選択操作の有無を判別する。
FIG. 3 is a functional block diagram of the
The
The
中央処理部264は、制御部260全体の動作を統合的に制御する。
アイポインティングデバイス200の動作をフローチャートと画像例とを参照しながら説明する。
図4、図5は、アイポインティングデバイス200の動作を説明するためのフローチャートである。
ユーザは、アイポインティングデバイス200を使用するにあって、アイポインティングデバイス200をメガネと同じように顔に装着する。すなわち、つる部213を耳に引っ掛けて、レンズ部212が眼を覆うようにする。
The
The operation of the
4 and 5 are flowcharts for explaining the operation of the
When using the
さて、アイポインティングデバイス200の電源がオンになると(ST101)、アイポインティングデバイス200は、ホストコンピュータ110と通信を確立し、ホストコンピュータ110からAR−GUI画像のデータを取得する(ST110)。本明細書では、アイポインティングデバイス200によってユーザに提供される画像のことをAR−GUI(オーグメンティッドリアリティーグラフィカルユーザインターフェース)画像と称することにする。AR−GUI画像データは、画像データ生成部262に一時バッファされる。
Now, when the power of the
画像データ生成部262は、AR−GUI画像をプロジェクター部222で表示できるようにビデオ信号に変換し、ビデオ信号をプロジェクター部222に出力する。すると、プロジェクター部222がAR−GUI画像を投影し(ST120)、ユーザの眼にAR−GUI画像が見えるようになる。
The image
図6は、ユーザの視界の例であり、AR−GUI画像の一例を示す。ユーザの視界には、自分の手、マイクロメータ10、モニタ120といった実物が見えており、さらに、実物の実景に重畳してプロジェクター部222によって提供されるAR−GUI画像300が見える。AR−GUI画像300として、例えば、データ編集用のツールのアイコン301−308が提供される。
FIG. 6 is an example of the field of view of the user and shows an example of the AR-GUI image. In the field of view of the user, the real thing such as one's hand, the
ここでは、上下左右方向の方向指示アイコン301−304、実行(エンター)指示アイコン305、削除(デリート)指示アイコン306、オプションアイコン307、データ収集アイコン308がある。
方向指示アイコン301−304でモニタ120内のカーソルや選択セルを移動させる。実行指示アイコン305、削除アイコン306は、データの入力あるいは削除を行う。
オプションアイコン307は、例えば、モード切替えやアイコンセットの切替えを指示する。データ収集アイコン308は、マイクロメータ10から測定データの取得を指示する。
Here, there are up/down/left/right direction instruction icons 301-304, an execution (enter)
The cursor or the selected cell in the
The
図6においては、実物であるマイクロメータ10あるいはモニタ120をユーザの顔の正面で捉えたとき、AR−GUI画像300は、視野の中央領域を避けて、視野の周辺に見えるように配置されている。ここではAR−GUI画像300としての8つのアイコン301−308は、視野の周辺において円環状に配置されている。
In FIG. 6, when the
さて、アイポインティングデバイス200は、AR−GUI画像300を表示したら(ST120)、続いて、アイカメラ230を起動してユーザの眼を撮像する(ST130)。
アイカメラ230の撮像データはアイ画像解析部263に入力される。そして、アイ画像解析部263は、アイカメラ230の画像からユーザの瞳の動きを解析し(ST150)、ユーザの視線がどこを見ているか特定する。
(なお、ステップST140の説明を飛ばしたが、これは変形例1で後述する。)
After displaying the AR-GUI image 300 (ST120), the
The image data of the
(Note that the description of step ST140 was skipped, but this will be described later in Modification Example 1.)
中央処理部264は、ユーザの視線とAR−GUI画像300の位置とを比べて、ユーザがAR−GUI画像300を見ているか否かを判定する(ST160)。
ユーザの視線がAR−GUI画像300から外れていてAR−GUI画像300を見ていない場合(ST160:NO)、ユーザはAR−GUI画像300以外の何か、例えばマイクロメータ10やワークWを見て測定しているということである。
この場合、ポインティングデバイスとしての役割はなく、フローの先頭(ST110)に戻ってAR−GUI画像300の表示を継続する。
The
When the user's line of sight is outside the AR-
In this case, there is no role as a pointing device, and the process returns to the beginning of the flow (ST110) and continues to display the AR-
さて、ユーザの視線がAR−GUI画像300に重なっていて、ユーザがAR−GUI画像300を見ている場合について説明する(ST160:YES)。
ユーザがAR−GUI画像300を見ているということは(ST160:YES)、測定ではなく、データの編集をしたいということである。
ユーザがAR−GUI画像300を見ていると判定される場合(ST160:YES)、中央処理部264は、画像データ生成部262に視線の位置を通知する。すると、画像データ生成部262は、その視線の位置にアイポインタ390を表示する(ST210)。
Now, a case where the user's line of sight overlaps the AR-
The fact that the user is looking at the AR-GUI image 300 (ST160: YES) means that he wants to edit the data, not the measurement.
When it is determined that the user is looking at the AR-GUI image 300 (ST160: YES), the
図7にアイポインタ390の一例を図示する。
ここでは、アイポインタ390は目をモチーフにデザイン化されたものである。もちろん、アイポインタ390は、ただの矢印、単純な円や四角といったものでもよい。
ユーザは、選択したいツールのアイコン301−308を見るように眼球を視野の端の方へ動かす。するとアイポインタ390が現れるので、アイポインタ390が意図したアイコン301−308に重なるように眼を動かす。このとき、ユーザは眼球のみを動かせばよいのであって、図7に示すように両手はマイクロメータ10とワークWを掴んだままでよい。
FIG. 7 illustrates an example of the
Here, the
The user moves the eyeball toward the edge of the field of view to see the icons 301-308 of the tool that they want to select. Then, the
ユーザは、アイポインタ390を意図したアイコン301−308に重ねておいて、選択操作を行う。
選択操作としては例えばウインクが例として挙げられる。その他、数秒間同じ場所(アイコン)を見つめることを選択操作としてもよい。
ユーザの選択操作(ウインク)は、アイカメラ230を介してアイ画像解析部263で検出される(ST220:YES).
アイコン301−308が選択されたことはアイ画像解析部263から中央処理部264に通知される。中央処理部264は、アイコン選択時(ウインク時)の視線とAR−GUI画像300の各アイコン301−308の位置とを比べて、ユーザが選択した操作を特定する(ST230)。図7の例でいえば、選択された操作は、カーソル(あるいは選択セル)を下方向へ移動させる操作である。
The user places the
The selection operation may be, for example, wink. Alternatively, the selection operation may be staring at the same place (icon) for several seconds.
The user's selection operation (wink) is detected by the eye
The
中央制御部260は、選択された操作を通信回路部261を介してホストコンピュータ110に通知する(ST240)。すると、ホストコンピュータ110は通知された操作を実行する。今回の例でいえば、モニタ120の画面中においてカーソル(あるいは選択セル)が下方向に移動する。
The
続いて、例えば、データを削除したければ同じように視線でアイポインタ390を移動させて削除アイコン306を選択すればよい。
データを上書きしたいのであればマイクロメータ10のデータ転送ボタン11を押してもよく、あるいは、眼でデータ収集アイコン308を選択してもよい。
いずれにしても、ユーザは、データの記録や編集にあたって、手をマイクロメータ10およびワークWから離す必要はなく、目を動かすだけである。データ編集に手を使わなくてよいのであるから測定作業の効率化が図られるのはもちろんである。
さらに、目を使うユーザインターフェースは直観的に誰にでもわかりやすく、操作が簡単である。例えば、同じ操作を複数のフットスイッチの組み合わせで行うとすれば、かなりの訓練が必要になるだろう。
本実施形態の測定システムは、誰にでも使える素晴らしく便利な測定環境を提供できる。
Then, for example, if the user wants to delete the data, he or she may similarly move the
If it is desired to overwrite the data, the
In any case, the user does not have to take his or her hands away from the
In addition, the user interface with eyes is intuitive and easy for anyone to operate. For example, performing the same operation with a combination of multiple foot switches would require considerable training.
The measurement system of the present embodiment can provide a wonderful and convenient measurement environment that can be used by anyone.
(変形例1)
第1実施形態においては、アイポインティングデバイス200が提供するAR−GUI画像300のアイコン301−308を視線で操作(選択)する例を説明した。
アイポインティングデバイス200は、自己が提供するAR−GUI画像300の画像データを保有しているわけであるから、アイカメラ230で取得する視線の方向をAR−GUI画像データに対比すれば、ユーザが選択したい操作(アイコン301−308)をAR−GUI画像300のなかから特定できる。
ここで、変形例1としては、アイポインティングデバイス200のアイポインタ390を利用して、モニタ120に表示された情報やツールを操作する例を説明する。
(Modification 1)
In the first embodiment, an example has been described in which the
Since the
Here, as a first modified example, an example in which the
図8に例示するように、モニタ120画面にはワークWのCADデータ、ワークW中の測定対象箇所、測定データなどが表示されている。そして、測定作業をしながら測定箇所の指定(あるいは指定の再設定)をしたいとする。
この場合、ユーザは、モニタ120の画面を見る。
図4のフローチャートに戻っていただいて、外部カメラ240により、ユーザの視界に相当する外界の画像が取り込まれている(ST140)。そして、視線解析(ST150)の結果、ユーザの視線がモニタ120画面上にあることが検出される(ST170:YES)。外部カメラ240により、ユーザの視界に相当する外界の画像が取り込まれているから(ST140)、中央処理部264は、画像認識により、モニタ120の位置を特定できる。
たとえば、太い黒枠の内側をモニタ120と認識させるようにしてもよい。
As illustrated in FIG. 8, CAD data of the work W, measurement target locations in the work W, measurement data, and the like are displayed on the screen of the
In this case, the user looks at the screen of the
Returning to the flowchart of FIG. 4, the
For example, the inside of the thick black frame may be recognized as the
ユーザの視線がモニタ120上にある場合の処理動作を図9のフローチャートを参照しながら説明する。
ユーザの視線がモニタ120画面上にあると判定される場合(図4のST170:YES)、中央処理部264は画像データ生成部262に視線の位置を通知し、画像データ生成部262は、その視線の位置にアイポインタ390を表示する(ST310)。
図8にアイポインタ390の一例を図示する。
ユーザは、意図した測定箇所にアイポインタ390が重なるように眼球を動かす。そして、モニタ120画面上で所望の測定箇所にアイポインタ390が重なったところで選択操作(たとえばウインク)を行う。ユーザの選択操作(ウインク)はアイカメラ230を介してアイ画像解析部263で検出される(ST320:YES)。
The processing operation when the user's line of sight is on the
When it is determined that the line of sight of the user is on the screen of the monitor 120 (ST170: YES in FIG. 4), the
FIG. 8 illustrates an example of the
The user moves the eyeball so that the
選択操作が検出されると(ST320:YES)、中央処理部264は、選択操作時(ウインク時)の視線とモニタ120画面との位置関係を解析する(ST330)。
図10は、外部カメラ240画像のなかからモニタ120の部分だけを抜き出したものである。
例えば、図10に示すように、モニタ画面の左下隅を原点とし、モニタ画面の横方向にX軸(横軸)をとり、モニタ画面の縦方向にY軸(縦軸)をとる。
(ユーザがモニタ120に正対していない場合には必要に応じて台形補正などを行えばよい。)モニタ画面中における視線の位置(アイポインタ390の位置)を(x,y)とする。また、モニタ画面の横軸をL、高さをHとする。
このとき、モニタ画面中の視線の位置は、(x/L,y/H)で表される。
When the selection operation is detected (ST320: YES), the
In FIG. 10, only the portion of the
For example, as shown in FIG. 10, the lower left corner of the monitor screen is the origin, the horizontal direction of the monitor screen is the X axis (horizontal axis), and the vertical direction of the monitor screen is the Y axis (vertical axis).
(When the user is not directly facing the
At this time, the position of the line of sight on the monitor screen is represented by (x/L, y/H).
中央処理部264は、このように得られた視線の位置(x/L,y/H)をホストコンピュータ110に通知する(ST340)。すると、ホストコンピュータ110は視線の位置(x/L,y/H)と、モニタ画面の表示内容と、を対比して、ユーザが意図する操作(コマンド)を特定する。
今回の例でいえば、モニタ画面中のCADデータで測定箇所Dが選択されたことを特定する。そして、ホストコンピュータ110は、指示された操作を実行したり、モニタ120の表示を更新したりする。
The
In this example, the CAD data on the monitor screen specifies that the measurement point D is selected. Then, the
さらに、アイポインティングデバイス200で選択する対象は、AR−GUI画像300やモニタ120上の画像だけに限らず、実際の実物の任意の領域や部位に割り当てられたコマンドであってもよい。
例えば、実際のワークW上に測定箇所コマンドを設定しておくとする。
ユーザが実際のワークW上の測定箇所を目で選択(見てからウインク)する。(外部カメラ240で撮像した画像を画像認識すれば、ワークWのどの箇所が選択されたかわかる。コマンドが割り当てられた対象物については画像認識できるようにCADデータ(3DCADデータ)をホストコンピュータに予め記憶させておいてもよい。)
このように実際のワークW上で測定箇所を選択したうえで、データ転送ボタン11を押す。あるいは、データ転送の操作もアイポインティングで行ってもよい。
このような測定作業の手順は自然であり、スムースで効率的な測定ができるようになる。
Furthermore, the target to be selected by the
For example, assume that a measurement point command is set on the actual work W.
The user visually selects (sees and winks) an actual measurement point on the work W. (By recognizing the image captured by the
In this way, the measurement point is selected on the actual work W, and then the
The procedure of such measurement work is natural, and smooth and efficient measurement can be performed.
(変形例2)
次に、図11を参照して変形例2を説明する。
図11は、ポータブルアーム型(可搬性多関節形)の三次元測定機20でワークWを測定する様子の一例である。このようなアーム形三次元測定機20にあっては必然的に両手で測定機20を保持しながら測定作業を行うことになる。この場合、アイポインティングデバイス200によって提供されるGUI画像300およびアイポインタ390により、ハンズフリーのデータ編集が可能になる。したがって、ユーザは両手を測定機20から離す必要はなく、効率よく測定作業を進めることができる。
(Modification 2)
Next, a modified example 2 will be described with reference to FIG.
FIG. 11 shows an example of how the work W is measured by the portable arm type (portable multi-joint type) three-
ここで、第1実施形態においては視界の周辺寄りにAR―GUI画像300が見えるようにしていた。
これに対し、変形例2においては、ワークWの周囲にAR−GUI画像が見えるようにしている。例えば、外部カメラ240でユーザの視界を取り込み、画像認識によってワークWの位置を特定する。そして、ワークWの周辺にGUI画像300を投影する。
これで、ユーザの視界には、ワークWを囲むようにGUI画像が見えるようになる。
Here, in the first embodiment, the AR-
On the other hand, in the second modification, the AR-GUI image is visible around the work W. For example, the
With this, in the user's field of view, the GUI image can be seen so as to surround the work W.
測定作業中、ユーザの視線はワークWに注がれていることが多い。そして、ワークWから少しだけ視線をずらすとアイポインタ390でAR―GUI画像300を用いたデータ編集が可能になる。
During the measurement work, the user's line of sight is often focused on the work W. Then, when the line of sight is slightly shifted from the work W, data editing using the AR-
また、図11においては、編集ツールのアイコンだけではなくて、モニタ120に表示される表示データ、ここでは測定値のデータ(309)もAR−GUI画像300として提供される。
これによりユーザはモニタ120の画面を見なくても測定作業を進行できるようになる。可搬性の中型測定機20を使用するときには、ワークWの測定箇所に応じてユーザ自身の立ち位置や姿勢も変わってくるため、いつもモニタ120が見えるとは限らない。
この点、モニタ画面の内容がAR−GUI画像300として提供されれば、ユーザは、モニタ120やホストコンピュータ110の位置を気にすることなく、自由にポジションを変えながら測定作業を進めることができる。
Further, in FIG. 11, not only the icon of the editing tool but also display data displayed on the
This allows the user to proceed with the measurement work without looking at the screen of the
In this regard, if the contents of the monitor screen are provided as the AR-
また、図12に示すように、大型の三次元測定機30を操作するような場合、ユーザは、ジョイスティック等の操作盤32だけを持ってワークWに近づいて操作することがある。この場合、ユーザの立ち位置からはモニタ120やホストコンピュータ110が見えにくいことがある。
この点、アイポインティングデバイス200によってAR−GUI画像300が提供されるので、ユーザは、モニタ120やホストコンピュータ110の位置を気にする必要はなくなる。
なお、大型の三次元測定機30の場合、測定プローブ31の周囲にGUI画像が表示されるようにしてもよい。大型の三次元測定機30の場合、プローブ31が大きく動くことが多い。そして、ユーザはプローブ31を目で追いかける。プローブ31から少しだけ視線を動かすだけでアイポインタ390でGUI画像300を操作できるようになると極めて便利である。
Further, as shown in FIG. 12, when operating the large-sized coordinate measuring
In this regard, since the AR-
In the case of the large coordinate measuring
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
上記実施形態の説明では、ユーザが視線でアイポインタ390を動かし、アイポインタ390をアイコンに重ねてツールを選択するとした。
このほか、例えば、眼の動きのパターンとコマンドとを対応付けておき、ジェスチャコントロールのように眼の動きでダイレクトにコマンド入力するようにしてもよい。例えば、視線を上から下、あるいは、右から左に動かすと、選択セルが移動したり、見つめたらモニタの表示を拡大/縮小したり、モニタの端の方に視線を移動させたら上下左右にスクロールするなどが考えられる。
The present invention is not limited to the above-mentioned embodiments, but can be modified as appropriate without departing from the spirit of the present invention.
In the description of the above embodiment, it is assumed that the user moves the
In addition, for example, the eye movement pattern and the command may be associated with each other, and the command may be directly input by the eye movement like gesture control. For example, moving the line of sight from top to bottom or from right to left moves the selected cell, enlarges/reduces the display of the monitor when you gaze, or moves the line of sight toward the edge of the monitor to move up, down, left, or right. It is possible to scroll.
本発明は視線を使ってアイポインタを動かすのであるが、人の視線は非常に素早く揺らぐものである。そこで、アイ画像解析部263でユーザ(測定者)の視線がどこにあるか特定するにあたっては、眼の動き検出の感度を下げたり、瞬間的な動きは無視する等のためのフィルタなどを組み込んでもよい。
また、選択操作としてのウインクを"まばたき"と混同しないように、"選択"の意図を持った意図的なウインクと生理的な眼の開閉(まばたき)とを区別するようにする。例えば、ウインクとまばたきとを区別するための判定閾値となる時間を設定するなどの方策が考えられる。
The present invention uses the line of sight to move the eye pointer, but the line of sight of a person fluctuates very quickly. Therefore, in identifying where the eye of the user (measuring person) is in the eye
Also, in order not to confuse winking as a selecting operation with "blinking", an intentional winking with the intention of "selecting" is distinguished from physiological eye opening/closing (blinking). For example, it is conceivable to set a time as a determination threshold value for distinguishing wink from blinking.
10…マイクロメータ(測定機)、11…データ転送ボタン、
20…アーム形三次元測定機、
30…三次元測定機、31…プローブ、32…操作盤、
80…コンピュータ、
100…コンピュータユニット、
110…ホストコンピュータ、
120…モニタ、
200…アイポインティングデバイス、
210…メガネ部、211…フレーム部、212…レンズ部、213…つる部、
220…表示ユニット部、221…支持アーム部、222…プロジェクター部、
230…アイカメラ、
240…外部カメラ、
242…スイッチ、243…マイク、
260…制御部、
261…通信回路部、262…画像データ生成部、263…アイ画像解析部、264…中央処理部、
300…AR−GUI画像、
301−308…アイコン、
390…アイポインタ。
10... Micrometer (measuring machine), 11... Data transfer button,
20... Arm type CMM,
30... three-dimensional measuring machine, 31... probe, 32... operation panel,
80... computer,
100... computer unit,
110... host computer,
120... monitor,
200... Eye pointing device,
210... Glasses section, 211... Frame section, 212... Lens section, 213... Vine section,
220... Display unit part, 221... Support arm part, 222... Projector part,
230... eye camera,
240... external camera,
242... switch, 243... microphone,
260... control unit,
261... Communication circuit unit, 262... Image data generation unit, 263... Eye image analysis unit, 264... Central processing unit,
300... AR-GUI image,
301-308... icon,
390... Eye pointer.
Claims (6)
ユーザの眼を撮像するように配置されたアイカメラと、
前記アイカメラで撮像された眼の画像であるアイ画像に基づいて、予め決められた眼の動きからコマンド入力操作を認識するアイ画像解析部と、を備える
ことを特徴とするアイポインティングデバイス。 An eye pointing device mounted on a user's face and recognizing a selection of a command in the user's field of view by the movement of the user's eyes,
An eye camera arranged to image the user's eyes,
An eye image analyzing unit that recognizes a command input operation from a predetermined eye movement based on an eye image that is an eye image captured by the eye camera.
前記アイポインティングデバイスは、ユーザの前方であってユーザに見えている外界の実景を撮像する外部カメラを有し、
前記外部カメラで撮像した実景の画像と、前記アイ画像解析部で認識した眼の動きと、を対比し、実際の実物の任意の領域あるいは部位に対して予め割り当てられたコマンドを選択操作する
ことを特徴とするアイポインティングデバイス。 The eye pointing device according to claim 1,
The eye pointing device has an external camera which is in front of the user and captures a real scene of the external world seen by the user,
Comparing the image of the real scene captured by the external camera with the eye movement recognized by the eye image analysis unit, and selecting and operating a command previously assigned to an arbitrary area or site of the actual object. Eye pointing device characterized by.
さらに、ユーザの視界に実景とオーバーレイするようにGUI(グラフィカルユーザインターフェース)画像を投影するプロジェクター部を備える
ことを特徴とするアイポインティングデバイス。 The eye pointing device according to claim 1 or 2,
The eye pointing device further comprises a projector unit that projects a GUI (Graphical User Interface) image so as to overlay the real scene on the user's field of view.
測定データを外部出力できる測定機と、
測定データ管理用プログラムを実行することにより前記測定機の測定データの収集、記録、編集を行う測定データ管理装置として機能するととともに、測定データ管理用のGUI画像データをユーザに提供するホストコンピュータと、を具備し、
前記アイポインティングデバイスと前記ホストコンピュータとが通信接続され、
前記測定データ管理用のGUI画像データが前記プロジェクター部からユーザの視界に投射される
ことを特徴とする測定システム。 An eye pointing device according to claim 3;
A measuring device that can output measurement data externally,
A host computer that functions as a measurement data management device that collects, records, and edits measurement data of the measuring machine by executing a measurement data management program, and that provides a user with GUI image data for measurement data management, Equipped with,
The eye pointing device and the host computer are connected for communication,
The measurement system characterized in that the GUI image data for managing the measurement data is projected from the projector unit into the visual field of the user.
前記測定データ管理用のGUI画像データには、測定データの収集、記録、編集を行うツールのアイコン画像が複数含まれており、
前記アイコン画像は、ユーザの視界の周辺に配置される
ことを特徴とする測定システム。 The measurement system according to claim 4,
The GUI image data for managing measurement data includes a plurality of icon images of tools for collecting, recording, and editing measurement data,
The measurement system, wherein the icon image is arranged around a user's field of view.
前記測定データ管理用のGUI画像データには、測定データの収集、記録、編集を行うツールのアイコン画像が複数含まれており、
前記アイコン画像は、測定対象であるワークの周辺、または、測定プローブの周辺に配置される
ことを特徴とする測定システム。 The measurement system according to claim 4,
The GUI image data for managing measurement data includes a plurality of icon images of tools for collecting, recording, and editing measurement data,
The measurement system, wherein the icon image is arranged around a work to be measured or around a measurement probe.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020081086A JP6982656B2 (en) | 2016-02-24 | 2020-05-01 | Eye-pointing system operated by the eye |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016032874A JP6700849B2 (en) | 2016-02-24 | 2016-02-24 | Measuring system |
JP2020081086A JP6982656B2 (en) | 2016-02-24 | 2020-05-01 | Eye-pointing system operated by the eye |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016032874A Division JP6700849B2 (en) | 2016-02-24 | 2016-02-24 | Measuring system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020123396A true JP2020123396A (en) | 2020-08-13 |
JP6982656B2 JP6982656B2 (en) | 2021-12-17 |
Family
ID=79169998
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020081086A Active JP6982656B2 (en) | 2016-02-24 | 2020-05-01 | Eye-pointing system operated by the eye |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6982656B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114285984A (en) * | 2020-09-27 | 2022-04-05 | 宇龙计算机通信科技(深圳)有限公司 | AR (augmented reality) -glasses-based camera switching method and device, storage medium and terminal |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004301869A (en) * | 2003-03-28 | 2004-10-28 | Takuya Shinkawa | Voice output device and pointing device |
JP2012008290A (en) * | 2010-06-23 | 2012-01-12 | Softbank Mobile Corp | Spectacle type display device and server |
US20140237366A1 (en) * | 2013-02-19 | 2014-08-21 | Adam Poulos | Context-aware augmented reality object commands |
-
2020
- 2020-05-01 JP JP2020081086A patent/JP6982656B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004301869A (en) * | 2003-03-28 | 2004-10-28 | Takuya Shinkawa | Voice output device and pointing device |
JP2012008290A (en) * | 2010-06-23 | 2012-01-12 | Softbank Mobile Corp | Spectacle type display device and server |
US20140237366A1 (en) * | 2013-02-19 | 2014-08-21 | Adam Poulos | Context-aware augmented reality object commands |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114285984A (en) * | 2020-09-27 | 2022-04-05 | 宇龙计算机通信科技(深圳)有限公司 | AR (augmented reality) -glasses-based camera switching method and device, storage medium and terminal |
CN114285984B (en) * | 2020-09-27 | 2024-04-16 | 宇龙计算机通信科技(深圳)有限公司 | Camera switching method and device based on AR (augmented reality) glasses, storage medium and terminal |
Also Published As
Publication number | Publication date |
---|---|
JP6982656B2 (en) | 2021-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9323343B2 (en) | Information processing method and information processing apparatus | |
US20180307396A1 (en) | Operation control device and operation control method | |
JP6598617B2 (en) | Information processing apparatus, information processing method, and program | |
US8139087B2 (en) | Image presentation system, image presentation method, program for causing computer to execute the method, and storage medium storing the program | |
US10429941B2 (en) | Control device of head mounted display, operation method and operation program thereof, and image display system | |
JP4701424B2 (en) | Image recognition apparatus, operation determination method, and program | |
JP5293154B2 (en) | Head mounted display | |
EP2287708B1 (en) | Image recognizing apparatus, operation determination method, and program | |
US10477090B2 (en) | Wearable device, control method and non-transitory storage medium | |
EP2189835A1 (en) | Terminal apparatus, display control method, and display control program | |
JP2013069224A (en) | Motion recognition apparatus, motion recognition method, operation apparatus, electronic apparatus, and program | |
JP6390799B2 (en) | Input device, input method, and program | |
KR101514170B1 (en) | Input device, input method and recording medium | |
JP2016208370A (en) | Head mounted display and control method for head mounted display | |
JP4968922B2 (en) | Device control apparatus and control method | |
CN108369451B (en) | Information processing apparatus, information processing method, and computer-readable storage medium | |
CN109558004B (en) | Control method and device for human body auxiliary robot | |
JP2017016599A (en) | Display device, display device control method, and program | |
JP2017134575A (en) | Display device, control method of display device, and program | |
JP6638392B2 (en) | Display device, display system, display device control method, and program | |
JP6982656B2 (en) | Eye-pointing system operated by the eye | |
JP6700849B2 (en) | Measuring system | |
KR100749033B1 (en) | A method for manipulating a terminal using user's glint, and an apparatus | |
JP6740613B2 (en) | Display device, display device control method, and program | |
CN109551489B (en) | Control method and device for human body auxiliary robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200526 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200526 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210323 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210521 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210725 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211021 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211119 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6982656 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |