JP2020123396A - Eye pointing system operated by eyes - Google Patents

Eye pointing system operated by eyes Download PDF

Info

Publication number
JP2020123396A
JP2020123396A JP2020081086A JP2020081086A JP2020123396A JP 2020123396 A JP2020123396 A JP 2020123396A JP 2020081086 A JP2020081086 A JP 2020081086A JP 2020081086 A JP2020081086 A JP 2020081086A JP 2020123396 A JP2020123396 A JP 2020123396A
Authority
JP
Japan
Prior art keywords
eye
user
image
measurement
pointing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020081086A
Other languages
Japanese (ja)
Other versions
JP6982656B2 (en
Inventor
信策 阿部
Shinsaku Abe
信策 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitutoyo Corp
Mitsutoyo Kiko Co Ltd
Original Assignee
Mitutoyo Corp
Mitsutoyo Kiko Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2016032874A external-priority patent/JP6700849B2/en
Application filed by Mitutoyo Corp, Mitsutoyo Kiko Co Ltd filed Critical Mitutoyo Corp
Priority to JP2020081086A priority Critical patent/JP6982656B2/en
Publication of JP2020123396A publication Critical patent/JP2020123396A/en
Application granted granted Critical
Publication of JP6982656B2 publication Critical patent/JP6982656B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a measuring system for supporting a highly efficient measurement work.SOLUTION: A measurement system comprises: a measuring machine capable of externally outputting measurement data; an eye pointing device; and a host computer that functions as a measurement data managing device for performing collection, recording, and editing of the measurement data of the measuring machine by executing a program for measurement data management and that provides a user with GUI image data for the measurement data management. The eye pointing device is mounted to a face of the user, and recognizes the user's selection of a visual command by the movement of the user's eyes. The eye pointing device includes: an eye camera arranged to image the user's eyes; and an eye image analysis part for recognizing a command input operation from predetermined movement of the eyes on the basis of an eye image that is an image of the eyes imaged by the eye camera.SELECTED DRAWING: Figure 2

Description

本発明は、測定システムに関し、具体的には、測定作業を行いながら測定データの記録や編集を容易に行うための測定システムに関する。 The present invention relates to a measurement system, and more particularly to a measurement system for easily recording and editing measurement data while performing measurement work.

ワークを測定機で測定した結果はコンピュータ等の外部機器に転送され記録されるようになっている。そのための測定システムが種々提案されている(例えば、特許文献1、2、3)。例えば、図1に測定システムの一例を示す。 The result of measuring the work with the measuring machine is transferred to and recorded in an external device such as a computer. Various measurement systems for that have been proposed (for example, Patent Documents 1, 2, and 3). For example, FIG. 1 shows an example of the measurement system.

図1においては、ワークWをデジタルマイクロメータ10で測定している。デジタルマイクロメータ10とコンピュータ80とは無線または有線で通信接続されている。
ユーザがマイクロメータ10でワークWを測定し、データ転送ボタン11を押す。すると、測定値がマイクロメータ10からコンピュータ80に転送され、コンピュータ80が測定値を記録していく。
なお、データ転送ボタン11は、マイクロメータ10上の押しやすいところにあってもよいし、あるいは、フットスイッチを利用してもよい。フットスイッチように足で操作できれば、手はワークWとマイクロメータ10をつかんだままでよいので、便利である。
In FIG. 1, the work W is measured by the digital micrometer 10. The digital micrometer 10 and the computer 80 are communicatively connected by wireless or wire.
The user measures the work W with the micrometer 10 and presses the data transfer button 11. Then, the measured value is transferred from the micrometer 10 to the computer 80, and the computer 80 records the measured value.
The data transfer button 11 may be located on the micrometer 10 where it can be easily pressed, or a foot switch may be used. If it can be operated with a foot like a foot switch, it is convenient because the hand can hold the work W and the micrometer 10.

マイクロメータ10からコンピュータ80へ転送された測定値は自動的に記録されていくが、その測定値がどのワークのどの箇所に対応しているものであるか整理されていなければならない。
例えば図1のように5つの段差をもつワークWの場合を考える。
太い方から順番に測定し、さらにひとつのワークWにつき測定を5回繰り返すように測定手順が決まっているとする。この測定手順をコンピュータ80に予め登録しておき、測定者は決められた順番通りに測定を進めていく。すると、自動的に整理された測定データが記録されていく。このような測定システムにより、極めて高い作業効率を実現できるし、測定者にとっては身体的にも精神的にも負担が軽い作業となる。
The measured values transferred from the micrometer 10 to the computer 80 are automatically recorded, but it is necessary to organize the measured values corresponding to which part of which work.
For example, consider the case of a work W having five steps as shown in FIG.
It is assumed that the measurement procedure is determined such that the measurement is performed in order from the thickest one, and the measurement is repeated five times for each work W. This measurement procedure is registered in the computer 80 in advance, and the measurer proceeds with the measurement in the determined order. Then, the automatically arranged measurement data is recorded. With such a measurement system, extremely high work efficiency can be realized, and the work is physically and mentally light for the measurer.

実開平5−59597号公報Japanese Utility Model Publication No. 5-59597 特開2012−48377号公報JP 2012-48377 A 特開2015−106299号公報JP, 2005-106299, A

実際の測定作業にあっては、誤操作が必ずあるのであり、データの取消しや再測定が必要になってくる。
測定手順や測定箇所を飛ばしてしまうこともあるし、データ転送ボタン11の操作ミスもあり得る。このような場合、測定者がコンピュータ80を操作して、データを取り消したり、編集したりすることになる。すなわち、一旦ワークWとマイクロメータ10から手を離し、コンピュータ80のキーボードかマウスを操作しなければならない。コンピュータ80が手元ではなく少し離れたところにある場合には、数歩歩くという動作も必要である。
In the actual measurement work, there is always an erroneous operation, and it is necessary to cancel or re-measure the data.
The measurement procedure and the measurement location may be skipped, and the data transfer button 11 may be operated incorrectly. In such a case, the measurer operates the computer 80 to cancel or edit the data. That is, it is necessary to once remove the work W and the micrometer 10 and operate the keyboard or mouse of the computer 80. If the computer 80 is not at hand but at a distance, it is necessary to take a few steps.

ワークWやマイクロメータ10から手を離したり、体を移動させたりという動作があると、作業の連続性が断たれてしまい、作業効率がとたんに悪くなる。そのため、想定したほどには作業効率のアップが図れないという問題がある。
また、測定者にとっても面倒な作業であり、身体的にも心理的にも負担が大きい。ちなみに、フットスイッチを利用してコンピュータ80を操作することも考えられるが、これだけでは複雑な操作は難しい。
音声コマンドも考えられるが、工場などでは騒音が避けられないので、認識率が低く、むしろ誤操作が増えるおそれもある。フットスイッチや音声コマンドだけではコンピュータ80の複雑な操作をハンズフリーで行うのは難しい。
If there is an operation such as releasing the hand from the work W or the micrometer 10 or moving the body, the continuity of the work is interrupted, and the work efficiency is deteriorated. Therefore, there is a problem that the work efficiency cannot be improved as expected.
In addition, it is a troublesome work for the measurer, and is physically and psychologically burdensome. By the way, it is possible to operate the computer 80 by using a foot switch, but it is difficult to perform complicated operations with this alone.
Although voice commands can be considered, noise is unavoidable in factories and the like, so the recognition rate is low and there is a possibility that erroneous operations will increase. It is difficult to perform a complicated operation of the computer 80 in a hands-free manner only with a foot switch and voice commands.

そこで、本発明の目的は、コンピュータの複雑な操作をハンズフリーで行えるユーザインターフェースを提供することにある。
また、本発明の目的は、利便性が高く、高効率な測定作業を支援する測定システムを提供することにある。
Therefore, it is an object of the present invention to provide a user interface that allows hands-free operation of a complicated computer.
Another object of the present invention is to provide a measurement system that is highly convenient and supports highly efficient measurement work.

本発明のアイポインティングデバイスは、
ユーザの顔に装着され、ユーザの眼の動きでユーザの視界中のコマンドの選択を認識するアイポインティングデバイスであって、
ユーザの眼を撮像するように配置されたアイカメラと、
前記アイカメラで撮像された眼の画像であるアイ画像に基づいて、予め決められた眼の動きからコマンド入力操作を認識するアイ画像解析部と、を備える
ことを特徴とする。
The eye pointing device of the present invention is
An eye pointing device mounted on a user's face and recognizing a selection of a command in the user's field of view by the movement of the user's eyes,
An eye camera arranged to image the user's eyes,
An eye image analysis unit that recognizes a command input operation from a predetermined eye movement based on an eye image that is an eye image captured by the eye camera.

本発明では、
前記アイポインティングデバイスは、ユーザの前方であってユーザに見えている外界の実景を撮像する外部カメラを有し、
前記外部カメラで撮像した実景の画像と、前記アイ画像解析部で認識した眼の動きと、を対比し、実際の実物の任意の領域あるいは部位に対して予め割り当てられたコマンドを選択操作する
ことが好ましい。
In the present invention,
The eye pointing device has an external camera which is in front of the user and captures a real scene of the external world seen by the user,
Comparing the image of the real scene captured by the external camera with the eye movement recognized by the eye image analysis unit, and selecting and operating a command previously assigned to an arbitrary area or part of the actual object. Is preferred.

本発明では、
さらに、ユーザの視界に実景とオーバーレイするようにGUI(グラフィカルユーザインターフェース)画像を投影するプロジェクター部を備える
ことが好ましい。
In the present invention,
Further, it is preferable to include a projector unit that projects a GUI (Graphical User Interface) image so as to overlay the real scene in the field of view of the user.

本発明の測定システムは、
前記アイポインティングデバイスと、
測定データを外部出力できる測定機と、
測定データ管理用プログラムを実行することにより前記測定機の測定データの収集、記録、編集を行う測定データ管理装置として機能するととともに、測定データ管理用のGUI画像データをユーザに提供するホストコンピュータと、を具備し、
前記アイポインティングデバイスと前記ホストコンピュータとが通信接続され、
前記測定データ管理用のGUI画像データが前記プロジェクター部からユーザの視界に投射される
ことを特徴とする。
The measurement system of the present invention is
The eye pointing device;
A measuring device that can output measurement data externally,
A host computer that functions as a measurement data management device that collects, records, and edits measurement data of the measuring machine by executing a measurement data management program, and that provides a user with GUI image data for measurement data management, Equipped with,
The eye pointing device and the host computer are connected for communication,
The GUI image data for managing the measurement data is projected from the projector unit into the visual field of the user.

本発明では、
前記測定データ管理用のGUI画像データには、測定データの収集、記録、編集を行うツールのアイコン画像が複数含まれており、
前記アイコン画像は、ユーザの視界の周辺に配置される
ことが好ましい。
In the present invention,
The GUI image data for managing measurement data includes a plurality of icon images of tools for collecting, recording, and editing measurement data,
It is preferable that the icon image is arranged around the user's field of view.

本発明では、
前記測定データ管理用のGUI画像データには、測定データの収集、記録、編集を行うツールのアイコン画像が複数含まれており、
前記アイコン画像は、測定対象であるワークの周辺、または、測定プローブの周辺に配置される
ことが好ましい。
In the present invention,
The GUI image data for managing measurement data includes a plurality of icon images of tools for collecting, recording, and editing measurement data,
It is preferable that the icon image is arranged around a work to be measured or around a measurement probe.

測定システムの一例を示す図である。It is a figure which shows an example of a measurement system. 第1実施形態に係る測定システムの全体構成を例示する図である。It is a figure which illustrates the whole structure of the measurement system which concerns on 1st Embodiment. 制御部の機能ブロック図である。It is a functional block diagram of a control part. アイポインティングデバイスの動作を説明するためのフローチャートである。7 is a flowchart for explaining the operation of the eye pointing device. アイポインティングデバイスの動作を説明するためのフローチャートである。7 is a flowchart for explaining the operation of the eye pointing device. ユーザの視界の例であり、AR−GUI画像の一例を示す図である。It is a figure which is an example of a user's field of view, and shows an example of an AR-GUI image. アイポインタの一例を示す図である。It is a figure which shows an example of an eye pointer. モニタ画面の表示例を示す図である。It is a figure which shows the example of a display of a monitor screen. 変形例1の動作を説明するためのフローチャートである。9 is a flowchart for explaining the operation of the first modification. 外部カメラの撮像画像のなかからモニタの部分だけを抜き出した図である。It is the figure which extracted only the monitor part from the picked-up image of an external camera. 変形例2を例示する図である。It is a figure which illustrates the modification 2. 変形例2を例示する図である。It is a figure which illustrates the modification 2.

本発明の実施形態を図示するとともに図中の各要素に付した符号を参照して説明する。
(第1実施形態)
本発明の測定システムに係る第1実施形態について説明する。
図2は、測定システムの全体構成を例示する図である。
測定システムは、測定工具10と、コンピュータユニット100と、を具備する。
測定工具10としては、デジタル式の小型測定器であってもよい。デジタル式の小型測定器としては、デジタルマイクロメータ10や、デジタルノギス、デジタルダイヤルゲージなどがある。図2中では、デジタルマイクロメータ10を例示している。
Embodiments of the present invention will be described with reference to the drawings and reference numerals attached to respective elements in the drawings.
(First embodiment)
A first embodiment of the measurement system of the present invention will be described.
FIG. 2 is a diagram illustrating the overall configuration of the measurement system.
The measuring system includes a measuring tool 10 and a computer unit 100.
The measuring tool 10 may be a small digital measuring instrument. Examples of digital compact measuring instruments include a digital micrometer 10, a digital caliper, and a digital dial gauge. In FIG. 2, the digital micrometer 10 is illustrated.

デジタルマイクロメータ10は、コンピュータユニット100と無線接続されている。デジタルマイクロメータ10は、データ転送ボタン11を有し、データ転送ボタン11が押されると、測定値をコンピュータユニット100に送信する。 The digital micrometer 10 is wirelessly connected to the computer unit 100. The digital micrometer 10 has a data transfer button 11, and when the data transfer button 11 is pressed, the measured value is transmitted to the computer unit 100.

コンピュータユニット100は、ホストコンピュータ110と、モニタ120と、アイポインティングデバイス200と、を備える。
ホストコンピュータ110は、CPU、ROM、RAMを有するいわゆるコンピュータである。ホストコンピュータ110は、デジタルマイクロメータ10、モニタ120およびアイポインティングデバイス200と無線で通信接続されている。
ホストコンピュータ110は、測定データ管理用プログラムを実行することにより、測定データの収集、記録、編集を行う測定データ管理装置としての役割を果たす。このとき、ホストコンピュータ110は、測定データ管理用のGUI(グラフィカルユーザインターフェース)をモニタ120を介してユーザ(測定者)に提供する。GUI画面の例としては、例えば図1を参照されたい。
GUI画面の操作方法については後述する。
The computer unit 100 includes a host computer 110, a monitor 120, and an eye pointing device 200.
The host computer 110 is a so-called computer having a CPU, ROM, and RAM. The host computer 110 is wirelessly connected to the digital micrometer 10, the monitor 120, and the eye pointing device 200 for communication.
The host computer 110 plays a role of a measurement data management device that collects, records, and edits measurement data by executing a measurement data management program. At this time, the host computer 110 provides a user (measurer) with a GUI (graphical user interface) for managing measurement data via the monitor 120. See FIG. 1 for an example of a GUI screen.
The method of operating the GUI screen will be described later.

モニタ120は、ホストコンピュータ110から与えられる表示データを画面に表示する。また、モニタ120はタッチディスプレイパネルであって、ユーザ(測定者)によるタッチ操作を受け付けて、ホストコンピュータ110に転送する。 The monitor 120 displays the display data given from the host computer 110 on the screen. The monitor 120 is a touch display panel, which receives a touch operation by a user (measuring person) and transfers it to the host computer 110.

アイポインティングデバイス200について説明する。
アイポインティングデバイス200は、大きく2つの機能を有している。
第1の機能は、小型画像投影機(プロジェクションディスプレー)としての機能である。
第2の機能は、視線トラッキングを利用するポインティングデバイスとしての機能である。
具体的に説明する。
The eye pointing device 200 will be described.
The eye pointing device 200 has two main functions.
The first function is a function as a small image projector (projection display).
The second function is a function as a pointing device that uses line-of-sight tracking.
This will be specifically described.

アイポインティングデバイス200は、メガネ部210と、表示ユニット部220と、アイカメラ230と、外部カメラ240と、制御部260と、を有する。
メガネ部210は、略U字状のフレーム部211と、フレーム部211に取り付けられたレンズ部212と、を有する。フレーム部211の両端には、耳に引っ掛かるつる部213が設けられている。つる部213を耳に引っ掛けてメガネ部210を顔に装着すると、眼の真ん前にレンズ部212がくるようになっている。
The eye pointing device 200 includes a glasses section 210, a display unit section 220, an eye camera 230, an external camera 240, and a control section 260.
The glasses part 210 has a substantially U-shaped frame part 211 and a lens part 212 attached to the frame part 211. At both ends of the frame portion 211, a slender portion 213 that catches on the ear is provided. When the spectacle part 210 is attached to the face by hooking the temple part 213 on the ear, the lens part 212 comes to come in front of the eyes.

表示ユニット部220は、支持アーム部221と、プロジェクター部222と、を有する。
支持アーム部221の一端はフレーム部211の端部に固定されている。支持アーム部221の他端は、ユーザ(測定者)の顔の前方に向けて延伸するとともに、ユーザ(測定者)の眼の前に位置するように湾曲している。
The display unit section 220 has a support arm section 221 and a projector section 222.
One end of the support arm portion 221 is fixed to the end portion of the frame portion 211. The other end of the support arm portion 221 extends toward the front of the face of the user (measuring person) and is curved so as to be positioned in front of the eyes of the user (measuring person).

そして、支持アーム部221の他端にプロジェクター部222が設けられている。プロジェクター部222は、画像を投射してユーザ(測定者)に情報を提示する。プロジェクター部222は、レンズ部212に画像を投影してもよいし、ユーザ(測定者)の網膜で結像するように画像を投射してもよい。 The projector unit 222 is provided at the other end of the support arm unit 221. The projector unit 222 projects an image and presents information to the user (measuring person). The projector unit 222 may project the image on the lens unit 212, or may project the image so as to form an image on the retina of the user (measuring person).

このようなプロジェクター部222は、例えば、レーザー光源と、マイクロミラーと、で構成できる。マイクロミラーを上下左右に往復駆動させ、レーザー光でフレームを描画する。
ユーザ(測定者)の眼(視界)には、外界の実物からの光と、プロジェクター部222からの投射光と、が同時に入ってくる。すると、ユーザ(測定者)の眼(視界)には、外界の実景と、プロジェクター部222からの画像情報と、がオーバーレイ(重畳)して見える。
プロジェクター部222は、ユーザ(測定者)の両方の眼に情報を提供してもよく、片方の眼だけに情報を提供してもよい。本実施形態では、測定者の片方の眼、ここでは、右眼に情報を提供するように設けられている。
Such a projector unit 222 can be configured by, for example, a laser light source and a micro mirror. The micro mirror is driven to reciprocate up, down, left and right, and a frame is drawn with laser light.
The light (visual field) of the user (measuring person) simultaneously receives the light from the real world object and the projection light from the projector unit 222. Then, the user's (measuring person's) eye (visual field) sees the external scene and the image information from the projector unit 222 as an overlay.
The projector unit 222 may provide information to both eyes of the user (measurer), or may provide information to only one eye. In the present embodiment, it is provided so as to provide information to one eye of the measurer, here, the right eye.

アイカメラ230は、ユーザ(測定者)の眼を撮像するようにフレーム部211に取り付けられている。さらに、アイポインティングデバイス200は、スイッチ242、マイク243、外部カメラ240を有する。
スイッチ242およびマイク243は、補助的な入力手段である。また外部カメラ240は、ユーザ(測定者)の前方を撮像し、すなわち、ユーザ(測定者)に見えている外界の実像を撮像する。
The eye camera 230 is attached to the frame portion 211 so as to capture an image of a user's (measurer's) eye. Further, the eye pointing device 200 has a switch 242, a microphone 243, and an external camera 240.
The switch 242 and the microphone 243 are auxiliary input means. Further, the external camera 240 images the front of the user (measuring person), that is, a real image of the outside world seen by the user (measuring person).

図3は、制御部260の機能ブロック図である。
制御部260は、通信回路部261と、画像データ生成部262と、アイ画像解析部263と、中央処理部264と、を有する。
通信回路部261は、アンテナを介して、ホストコンピュータ110とデータの送受信を行う。アイ画像解析部263は、アイカメラ230で撮像されるユーザ(測定者)の瞳の動きから、ユーザ(測定者)の視線がどこにあるか特定する。さらに、アイ画像解析部263は、アイカメラ230で撮像される瞳、眼、あるいはまぶたの動きから、選択操作の有無を判別する。
FIG. 3 is a functional block diagram of the control unit 260.
The control unit 260 includes a communication circuit unit 261, an image data generation unit 262, an eye image analysis unit 263, and a central processing unit 264.
The communication circuit unit 261 transmits/receives data to/from the host computer 110 via the antenna. The eye image analysis unit 263 specifies where the line of sight of the user (measuring person) is from the movement of the pupil of the user (measuring person) imaged by the eye camera 230. Further, the eye image analysis unit 263 determines the presence/absence of a selection operation based on the movement of the pupil, the eye, or the eyelid captured by the eye camera 230.

中央処理部264は、制御部260全体の動作を統合的に制御する。
アイポインティングデバイス200の動作をフローチャートと画像例とを参照しながら説明する。
図4、図5は、アイポインティングデバイス200の動作を説明するためのフローチャートである。
ユーザは、アイポインティングデバイス200を使用するにあって、アイポインティングデバイス200をメガネと同じように顔に装着する。すなわち、つる部213を耳に引っ掛けて、レンズ部212が眼を覆うようにする。
The central processing unit 264 integrally controls the operation of the entire control unit 260.
The operation of the eye pointing device 200 will be described with reference to flowcharts and image examples.
4 and 5 are flowcharts for explaining the operation of the eye pointing device 200.
When using the eye pointing device 200, the user wears the eye pointing device 200 on the face in the same manner as glasses. That is, the temple portion 213 is hooked on the ear so that the lens portion 212 covers the eye.

さて、アイポインティングデバイス200の電源がオンになると(ST101)、アイポインティングデバイス200は、ホストコンピュータ110と通信を確立し、ホストコンピュータ110からAR−GUI画像のデータを取得する(ST110)。本明細書では、アイポインティングデバイス200によってユーザに提供される画像のことをAR−GUI(オーグメンティッドリアリティーグラフィカルユーザインターフェース)画像と称することにする。AR−GUI画像データは、画像データ生成部262に一時バッファされる。 Now, when the power of the eye pointing device 200 is turned on (ST101), the eye pointing device 200 establishes communication with the host computer 110, and acquires AR-GUI image data from the host computer 110 (ST110). In the present specification, an image provided to the user by the eye pointing device 200 will be referred to as an AR-GUI (Augmented Reality Graphical User Interface) image. The AR-GUI image data is temporarily buffered in the image data generation unit 262.

画像データ生成部262は、AR−GUI画像をプロジェクター部222で表示できるようにビデオ信号に変換し、ビデオ信号をプロジェクター部222に出力する。すると、プロジェクター部222がAR−GUI画像を投影し(ST120)、ユーザの眼にAR−GUI画像が見えるようになる。 The image data generation unit 262 converts the AR-GUI image into a video signal so that the projector unit 222 can display the video signal, and outputs the video signal to the projector unit 222. Then, the projector unit 222 projects the AR-GUI image (ST120), and the user's eyes can see the AR-GUI image.

図6は、ユーザの視界の例であり、AR−GUI画像の一例を示す。ユーザの視界には、自分の手、マイクロメータ10、モニタ120といった実物が見えており、さらに、実物の実景に重畳してプロジェクター部222によって提供されるAR−GUI画像300が見える。AR−GUI画像300として、例えば、データ編集用のツールのアイコン301−308が提供される。 FIG. 6 is an example of the field of view of the user and shows an example of the AR-GUI image. In the field of view of the user, the real thing such as one's hand, the micrometer 10, and the monitor 120 can be seen, and further, the AR-GUI image 300 provided by the projector unit 222 is superimposed on the real scene of the real thing. As the AR-GUI image 300, for example, icons 301-308 of data editing tools are provided.

ここでは、上下左右方向の方向指示アイコン301−304、実行(エンター)指示アイコン305、削除(デリート)指示アイコン306、オプションアイコン307、データ収集アイコン308がある。
方向指示アイコン301−304でモニタ120内のカーソルや選択セルを移動させる。実行指示アイコン305、削除アイコン306は、データの入力あるいは削除を行う。
オプションアイコン307は、例えば、モード切替えやアイコンセットの切替えを指示する。データ収集アイコン308は、マイクロメータ10から測定データの取得を指示する。
Here, there are up/down/left/right direction instruction icons 301-304, an execution (enter) instruction icon 305, a delete (delete) instruction icon 306, an option icon 307, and a data collection icon 308.
The cursor or the selected cell in the monitor 120 is moved by the direction instruction icons 301-304. The execution instruction icon 305 and the delete icon 306 are used to input or delete data.
The option icon 307 instructs, for example, mode switching or icon set switching. The data collection icon 308 instructs acquisition of measurement data from the micrometer 10.

図6においては、実物であるマイクロメータ10あるいはモニタ120をユーザの顔の正面で捉えたとき、AR−GUI画像300は、視野の中央領域を避けて、視野の周辺に見えるように配置されている。ここではAR−GUI画像300としての8つのアイコン301−308は、視野の周辺において円環状に配置されている。 In FIG. 6, when the actual micrometer 10 or monitor 120 is captured in front of the user's face, the AR-GUI image 300 is arranged so as to be visible around the visual field, avoiding the central region of the visual field. There is. Here, the eight icons 301-308 as the AR-GUI image 300 are arranged in an annular shape around the visual field.

さて、アイポインティングデバイス200は、AR−GUI画像300を表示したら(ST120)、続いて、アイカメラ230を起動してユーザの眼を撮像する(ST130)。
アイカメラ230の撮像データはアイ画像解析部263に入力される。そして、アイ画像解析部263は、アイカメラ230の画像からユーザの瞳の動きを解析し(ST150)、ユーザの視線がどこを見ているか特定する。
(なお、ステップST140の説明を飛ばしたが、これは変形例1で後述する。)
Now, after displaying the AR-GUI image 300 (ST120), the eye pointing device 200 then activates the eye camera 230 to capture the user's eye (ST130).
The image data of the eye camera 230 is input to the eye image analysis unit 263. Then, the eye image analysis unit 263 analyzes the movement of the user's pupil from the image of the eye camera 230 (ST150), and specifies where the user's line of sight is looking.
(Note that the description of step ST140 was skipped, but this will be described later in Modification Example 1.)

中央処理部264は、ユーザの視線とAR−GUI画像300の位置とを比べて、ユーザがAR−GUI画像300を見ているか否かを判定する(ST160)。
ユーザの視線がAR−GUI画像300から外れていてAR−GUI画像300を見ていない場合(ST160:NO)、ユーザはAR−GUI画像300以外の何か、例えばマイクロメータ10やワークWを見て測定しているということである。
この場合、ポインティングデバイスとしての役割はなく、フローの先頭(ST110)に戻ってAR−GUI画像300の表示を継続する。
The central processing unit 264 compares the line of sight of the user with the position of the AR-GUI image 300 to determine whether the user is looking at the AR-GUI image 300 (ST160).
When the user's line of sight is outside the AR-GUI image 300 and is not looking at the AR-GUI image 300 (ST160: NO), the user looks at something other than the AR-GUI image 300, such as the micrometer 10 or the work W. It means that it is measuring.
In this case, there is no role as a pointing device, and the process returns to the beginning of the flow (ST110) and continues to display the AR-GUI image 300.

さて、ユーザの視線がAR−GUI画像300に重なっていて、ユーザがAR−GUI画像300を見ている場合について説明する(ST160:YES)。
ユーザがAR−GUI画像300を見ているということは(ST160:YES)、測定ではなく、データの編集をしたいということである。
ユーザがAR−GUI画像300を見ていると判定される場合(ST160:YES)、中央処理部264は、画像データ生成部262に視線の位置を通知する。すると、画像データ生成部262は、その視線の位置にアイポインタ390を表示する(ST210)。
Now, a case where the user's line of sight overlaps the AR-GUI image 300 and the user is looking at the AR-GUI image 300 will be described (ST160: YES).
The fact that the user is looking at the AR-GUI image 300 (ST160: YES) means that he wants to edit the data, not the measurement.
When it is determined that the user is looking at the AR-GUI image 300 (ST160: YES), the central processing unit 264 notifies the image data generation unit 262 of the position of the line of sight. Then, the image data generation unit 262 displays the eye pointer 390 at the position of the line of sight (ST210).

図7にアイポインタ390の一例を図示する。
ここでは、アイポインタ390は目をモチーフにデザイン化されたものである。もちろん、アイポインタ390は、ただの矢印、単純な円や四角といったものでもよい。
ユーザは、選択したいツールのアイコン301−308を見るように眼球を視野の端の方へ動かす。するとアイポインタ390が現れるので、アイポインタ390が意図したアイコン301−308に重なるように眼を動かす。このとき、ユーザは眼球のみを動かせばよいのであって、図7に示すように両手はマイクロメータ10とワークWを掴んだままでよい。
FIG. 7 illustrates an example of the eye pointer 390.
Here, the eye pointer 390 is designed with an eye as a motif. Of course, the eye pointer 390 may be a simple arrow, a simple circle, or a square.
The user moves the eyeball toward the edge of the field of view to see the icons 301-308 of the tool that they want to select. Then, the eye pointer 390 appears, and the eye is moved so that the eye pointer 390 overlaps the intended icon 301-308. At this time, the user only needs to move the eyeball, and as shown in FIG. 7, both hands may hold the micrometer 10 and the work W.

ユーザは、アイポインタ390を意図したアイコン301−308に重ねておいて、選択操作を行う。
選択操作としては例えばウインクが例として挙げられる。その他、数秒間同じ場所(アイコン)を見つめることを選択操作としてもよい。
ユーザの選択操作(ウインク)は、アイカメラ230を介してアイ画像解析部263で検出される(ST220:YES).
アイコン301−308が選択されたことはアイ画像解析部263から中央処理部264に通知される。中央処理部264は、アイコン選択時(ウインク時)の視線とAR−GUI画像300の各アイコン301−308の位置とを比べて、ユーザが選択した操作を特定する(ST230)。図7の例でいえば、選択された操作は、カーソル(あるいは選択セル)を下方向へ移動させる操作である。
The user places the eye pointer 390 on the intended icon 301-308 and performs a selection operation.
The selection operation may be, for example, wink. Alternatively, the selection operation may be staring at the same place (icon) for several seconds.
The user's selection operation (wink) is detected by the eye image analysis unit 263 via the eye camera 230 (ST220: YES).
The central processing unit 264 is notified from the eye image analysis unit 263 that the icons 301 to 308 have been selected. The central processing unit 264 identifies the operation selected by the user by comparing the line of sight at the time of icon selection (during winking) with the position of each icon 301-308 of the AR-GUI image 300 (ST230). In the example of FIG. 7, the selected operation is an operation of moving the cursor (or selected cell) downward.

中央制御部260は、選択された操作を通信回路部261を介してホストコンピュータ110に通知する(ST240)。すると、ホストコンピュータ110は通知された操作を実行する。今回の例でいえば、モニタ120の画面中においてカーソル(あるいは選択セル)が下方向に移動する。 The central control unit 260 notifies the host computer 110 of the selected operation via the communication circuit unit 261 (ST240). Then, the host computer 110 executes the notified operation. In this example, the cursor (or selected cell) moves downward on the screen of the monitor 120.

続いて、例えば、データを削除したければ同じように視線でアイポインタ390を移動させて削除アイコン306を選択すればよい。
データを上書きしたいのであればマイクロメータ10のデータ転送ボタン11を押してもよく、あるいは、眼でデータ収集アイコン308を選択してもよい。
いずれにしても、ユーザは、データの記録や編集にあたって、手をマイクロメータ10およびワークWから離す必要はなく、目を動かすだけである。データ編集に手を使わなくてよいのであるから測定作業の効率化が図られるのはもちろんである。
さらに、目を使うユーザインターフェースは直観的に誰にでもわかりやすく、操作が簡単である。例えば、同じ操作を複数のフットスイッチの組み合わせで行うとすれば、かなりの訓練が必要になるだろう。
本実施形態の測定システムは、誰にでも使える素晴らしく便利な測定環境を提供できる。
Then, for example, if the user wants to delete the data, he or she may similarly move the eye pointer 390 with the line of sight and select the delete icon 306.
If it is desired to overwrite the data, the data transfer button 11 of the micrometer 10 may be pressed, or the data collection icon 308 may be selected by the eye.
In any case, the user does not have to take his or her hands away from the micrometer 10 and the work W to record or edit the data, and just moves his or her eyes. Needless to say, data editing does not require the use of hands, which improves the efficiency of measurement work.
In addition, the user interface with eyes is intuitive and easy for anyone to operate. For example, performing the same operation with a combination of multiple foot switches would require considerable training.
The measurement system of the present embodiment can provide a wonderful and convenient measurement environment that can be used by anyone.

(変形例1)
第1実施形態においては、アイポインティングデバイス200が提供するAR−GUI画像300のアイコン301−308を視線で操作(選択)する例を説明した。
アイポインティングデバイス200は、自己が提供するAR−GUI画像300の画像データを保有しているわけであるから、アイカメラ230で取得する視線の方向をAR−GUI画像データに対比すれば、ユーザが選択したい操作(アイコン301−308)をAR−GUI画像300のなかから特定できる。
ここで、変形例1としては、アイポインティングデバイス200のアイポインタ390を利用して、モニタ120に表示された情報やツールを操作する例を説明する。
(Modification 1)
In the first embodiment, an example has been described in which the icons 301 to 308 of the AR-GUI image 300 provided by the eye pointing device 200 are operated (selected) with the line of sight.
Since the eye pointing device 200 holds the image data of the AR-GUI image 300 provided by itself, the user can compare the direction of the line of sight acquired by the eye camera 230 with the AR-GUI image data. The operation (icons 301 to 308) desired to be selected can be specified from the AR-GUI image 300.
Here, as a first modified example, an example in which the eye pointer 390 of the eye pointing device 200 is used to operate information and tools displayed on the monitor 120 will be described.

図8に例示するように、モニタ120画面にはワークWのCADデータ、ワークW中の測定対象箇所、測定データなどが表示されている。そして、測定作業をしながら測定箇所の指定(あるいは指定の再設定)をしたいとする。
この場合、ユーザは、モニタ120の画面を見る。
図4のフローチャートに戻っていただいて、外部カメラ240により、ユーザの視界に相当する外界の画像が取り込まれている(ST140)。そして、視線解析(ST150)の結果、ユーザの視線がモニタ120画面上にあることが検出される(ST170:YES)。外部カメラ240により、ユーザの視界に相当する外界の画像が取り込まれているから(ST140)、中央処理部264は、画像認識により、モニタ120の位置を特定できる。
たとえば、太い黒枠の内側をモニタ120と認識させるようにしてもよい。
As illustrated in FIG. 8, CAD data of the work W, measurement target locations in the work W, measurement data, and the like are displayed on the screen of the monitor 120. Then, it is assumed that the user wants to specify the measurement point (or reset the specification) while performing the measurement work.
In this case, the user looks at the screen of the monitor 120.
Returning to the flowchart of FIG. 4, the external camera 240 has captured an image of the external world corresponding to the visual field of the user (ST140). Then, as a result of the line-of-sight analysis (ST150), it is detected that the line of sight of the user is on the screen of the monitor 120 (ST170: YES). Since the external camera 240 captures an image of the outside world corresponding to the field of view of the user (ST140), the central processing unit 264 can identify the position of the monitor 120 by image recognition.
For example, the inside of the thick black frame may be recognized as the monitor 120.

ユーザの視線がモニタ120上にある場合の処理動作を図9のフローチャートを参照しながら説明する。
ユーザの視線がモニタ120画面上にあると判定される場合(図4のST170:YES)、中央処理部264は画像データ生成部262に視線の位置を通知し、画像データ生成部262は、その視線の位置にアイポインタ390を表示する(ST310)。
図8にアイポインタ390の一例を図示する。
ユーザは、意図した測定箇所にアイポインタ390が重なるように眼球を動かす。そして、モニタ120画面上で所望の測定箇所にアイポインタ390が重なったところで選択操作(たとえばウインク)を行う。ユーザの選択操作(ウインク)はアイカメラ230を介してアイ画像解析部263で検出される(ST320:YES)。
The processing operation when the user's line of sight is on the monitor 120 will be described with reference to the flowchart in FIG.
When it is determined that the line of sight of the user is on the screen of the monitor 120 (ST170: YES in FIG. 4), the central processing unit 264 notifies the image data generation unit 262 of the position of the line of sight, and the image data generation unit 262 then The eye pointer 390 is displayed at the position of the line of sight (ST310).
FIG. 8 illustrates an example of the eye pointer 390.
The user moves the eyeball so that the eye pointer 390 overlaps the intended measurement location. Then, the selection operation (for example, wink) is performed when the eye pointer 390 overlaps the desired measurement location on the screen of the monitor 120. The user's selection operation (wink) is detected by the eye image analysis unit 263 via the eye camera 230 (ST320: YES).

選択操作が検出されると(ST320:YES)、中央処理部264は、選択操作時(ウインク時)の視線とモニタ120画面との位置関係を解析する(ST330)。
図10は、外部カメラ240画像のなかからモニタ120の部分だけを抜き出したものである。
例えば、図10に示すように、モニタ画面の左下隅を原点とし、モニタ画面の横方向にX軸(横軸)をとり、モニタ画面の縦方向にY軸(縦軸)をとる。
(ユーザがモニタ120に正対していない場合には必要に応じて台形補正などを行えばよい。)モニタ画面中における視線の位置(アイポインタ390の位置)を(x,y)とする。また、モニタ画面の横軸をL、高さをHとする。
このとき、モニタ画面中の視線の位置は、(x/L,y/H)で表される。
When the selection operation is detected (ST320: YES), the central processing unit 264 analyzes the positional relationship between the line of sight and the screen of the monitor 120 during the selection operation (during wink) (ST330).
In FIG. 10, only the portion of the monitor 120 is extracted from the image of the external camera 240.
For example, as shown in FIG. 10, the lower left corner of the monitor screen is the origin, the horizontal direction of the monitor screen is the X axis (horizontal axis), and the vertical direction of the monitor screen is the Y axis (vertical axis).
(When the user is not directly facing the monitor 120, trapezoidal correction or the like may be performed as necessary.) The position of the line of sight on the monitor screen (the position of the eye pointer 390) is (x, y). The horizontal axis of the monitor screen is L and the height is H.
At this time, the position of the line of sight on the monitor screen is represented by (x/L, y/H).

中央処理部264は、このように得られた視線の位置(x/L,y/H)をホストコンピュータ110に通知する(ST340)。すると、ホストコンピュータ110は視線の位置(x/L,y/H)と、モニタ画面の表示内容と、を対比して、ユーザが意図する操作(コマンド)を特定する。
今回の例でいえば、モニタ画面中のCADデータで測定箇所Dが選択されたことを特定する。そして、ホストコンピュータ110は、指示された操作を実行したり、モニタ120の表示を更新したりする。
The central processing unit 264 notifies the host computer 110 of the line-of-sight position (x/L, y/H) thus obtained (ST340). Then, the host computer 110 identifies the operation (command) intended by the user by comparing the position of the line of sight (x/L, y/H) with the display content of the monitor screen.
In this example, the CAD data on the monitor screen specifies that the measurement point D is selected. Then, the host computer 110 executes the instructed operation and updates the display on the monitor 120.

さらに、アイポインティングデバイス200で選択する対象は、AR−GUI画像300やモニタ120上の画像だけに限らず、実際の実物の任意の領域や部位に割り当てられたコマンドであってもよい。
例えば、実際のワークW上に測定箇所コマンドを設定しておくとする。
ユーザが実際のワークW上の測定箇所を目で選択(見てからウインク)する。(外部カメラ240で撮像した画像を画像認識すれば、ワークWのどの箇所が選択されたかわかる。コマンドが割り当てられた対象物については画像認識できるようにCADデータ(3DCADデータ)をホストコンピュータに予め記憶させておいてもよい。)
このように実際のワークW上で測定箇所を選択したうえで、データ転送ボタン11を押す。あるいは、データ転送の操作もアイポインティングで行ってもよい。
このような測定作業の手順は自然であり、スムースで効率的な測定ができるようになる。
Furthermore, the target selected by the eye pointing device 200 is not limited to the AR-GUI image 300 or the image on the monitor 120, and may be a command assigned to an arbitrary area or part of the actual object.
For example, assume that a measurement point command is set on the actual work W.
The user visually selects (sees and winks) an actual measurement point on the work W. (By recognizing the image captured by the external camera 240, it is possible to know which part of the work W is selected. For the object to which the command is assigned, the CAD data (3D CAD data) is stored in advance in the host computer so that the image can be recognized. It may be stored.)
In this way, the measurement point is selected on the actual work W, and then the data transfer button 11 is pressed. Alternatively, the data transfer operation may be performed by eye pointing.
The procedure of such measurement work is natural, and smooth and efficient measurement can be performed.

(変形例2)
次に、図11を参照して変形例2を説明する。
図11は、ポータブルアーム型(可搬性多関節形)の三次元測定機20でワークWを測定する様子の一例である。このようなアーム形三次元測定機20にあっては必然的に両手で測定機20を保持しながら測定作業を行うことになる。この場合、アイポインティングデバイス200によって提供されるGUI画像300およびアイポインタ390により、ハンズフリーのデータ編集が可能になる。したがって、ユーザは両手を測定機20から離す必要はなく、効率よく測定作業を進めることができる。
(Modification 2)
Next, a modified example 2 will be described with reference to FIG.
FIG. 11 shows an example of how the work W is measured by the portable arm type (portable multi-joint type) three-dimensional measuring machine 20. In such an arm-type three-dimensional measuring machine 20, it is inevitable to carry out the measuring work while holding the measuring machine 20 with both hands. In this case, the GUI image 300 and the eye pointer 390 provided by the eye pointing device 200 enable hands-free data editing. Therefore, the user does not need to separate his/her hands from the measuring device 20, and the measurement work can be efficiently performed.

ここで、第1実施形態においては視界の周辺寄りにAR―GUI画像300が見えるようにしていた。
これに対し、変形例2においては、ワークWの周囲にAR−GUI画像が見えるようにしている。例えば、外部カメラ240でユーザの視界を取り込み、画像認識によってワークWの位置を特定する。そして、ワークWの周辺にGUI画像300を投影する。
これで、ユーザの視界には、ワークWを囲むようにGUI画像が見えるようになる。
Here, in the first embodiment, the AR-GUI image 300 is visible near the periphery of the field of view.
On the other hand, in the second modification, the AR-GUI image is visible around the work W. For example, the external camera 240 captures the field of view of the user, and the position of the work W is specified by image recognition. Then, the GUI image 300 is projected on the periphery of the work W.
With this, in the user's field of view, the GUI image can be seen so as to surround the work W.

測定作業中、ユーザの視線はワークWに注がれていることが多い。そして、ワークWから少しだけ視線をずらすとアイポインタ390でAR―GUI画像300を用いたデータ編集が可能になる。 During the measurement work, the user's line of sight is often focused on the work W. Then, when the line of sight is slightly shifted from the work W, data editing using the AR-GUI image 300 becomes possible with the eye pointer 390.

また、図11においては、編集ツールのアイコンだけではなくて、モニタ120に表示される表示データ、ここでは測定値のデータ(309)もAR−GUI画像300として提供される。
これによりユーザはモニタ120の画面を見なくても測定作業を進行できるようになる。可搬性の中型測定機20を使用するときには、ワークWの測定箇所に応じてユーザ自身の立ち位置や姿勢も変わってくるため、いつもモニタ120が見えるとは限らない。
この点、モニタ画面の内容がAR−GUI画像300として提供されれば、ユーザは、モニタ120やホストコンピュータ110の位置を気にすることなく、自由にポジションを変えながら測定作業を進めることができる。
Further, in FIG. 11, not only the icon of the editing tool, but also display data displayed on the monitor 120, here, measurement value data (309) is provided as the AR-GUI image 300.
This allows the user to proceed with the measurement work without looking at the screen of the monitor 120. When the portable medium-sized measuring machine 20 is used, the standing position and posture of the user themselves change depending on the measurement location of the work W, so the monitor 120 is not always visible.
In this respect, if the contents of the monitor screen are provided as the AR-GUI image 300, the user can proceed with the measurement work while freely changing the positions without worrying about the positions of the monitor 120 and the host computer 110. ..

また、図12に示すように、大型の三次元測定機30を操作するような場合、ユーザは、ジョイスティック等の操作盤32だけを持ってワークWに近づいて操作することがある。この場合、ユーザの立ち位置からはモニタ120やホストコンピュータ110が見えにくいことがある。
この点、アイポインティングデバイス200によってAR−GUI画像300が提供されるので、ユーザは、モニタ120やホストコンピュータ110の位置を気にする必要はなくなる。
なお、大型の三次元測定機30の場合、測定プローブ31の周囲にGUI画像が表示されるようにしてもよい。大型の三次元測定機30の場合、プローブ31が大きく動くことが多い。そして、ユーザはプローブ31を目で追いかける。プローブ31から少しだけ視線を動かすだけでアイポインタ390でGUI画像300を操作できるようになると極めて便利である。
Further, as shown in FIG. 12, when operating the large-sized coordinate measuring machine 30, the user may bring only the operation panel 32 such as a joystick to approach the work W and operate it. In this case, the monitor 120 and the host computer 110 may be difficult to see from the user's standing position.
In this regard, since the AR-GUI image 300 is provided by the eye pointing device 200, the user does not need to care about the positions of the monitor 120 and the host computer 110.
In the case of the large coordinate measuring machine 30, a GUI image may be displayed around the measuring probe 31. In the case of a large coordinate measuring machine 30, the probe 31 often moves greatly. Then, the user visually follows the probe 31. It would be extremely convenient if the GUI image 300 could be operated with the eye pointer 390 by moving the line of sight from the probe 31 slightly.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
上記実施形態の説明では、ユーザが視線でアイポインタ390を動かし、アイポインタ390をアイコンに重ねてツールを選択するとした。
このほか、例えば、眼の動きのパターンとコマンドとを対応付けておき、ジェスチャコントロールのように眼の動きでダイレクトにコマンド入力するようにしてもよい。例えば、視線を上から下、あるいは、右から左に動かすと、選択セルが移動したり、見つめたらモニタの表示を拡大/縮小したり、モニタの端の方に視線を移動させたら上下左右にスクロールするなどが考えられる。
The present invention is not limited to the above-mentioned embodiments, but can be modified as appropriate without departing from the spirit of the present invention.
In the description of the above embodiment, it is assumed that the user moves the eye pointer 390 with his or her line of sight, places the eye pointer 390 on the icon, and selects the tool.
In addition, for example, the eye movement pattern and the command may be associated with each other, and the command may be directly input by the eye movement like gesture control. For example, moving the line of sight from top to bottom or from right to left moves the selected cell, enlarges/reduces the display of the monitor when you gaze, or moves the line of sight toward the edge of the monitor to move up, down, left, or right. It is possible to scroll.

本発明は視線を使ってアイポインタを動かすのであるが、人の視線は非常に素早く揺らぐものである。そこで、アイ画像解析部263でユーザ(測定者)の視線がどこにあるか特定するにあたっては、眼の動き検出の感度を下げたり、瞬間的な動きは無視する等のためのフィルタなどを組み込んでもよい。
また、選択操作としてのウインクを"まばたき"と混同しないように、"選択"の意図を持った意図的なウインクと生理的な眼の開閉(まばたき)とを区別するようにする。例えば、ウインクとまばたきとを区別するための判定閾値となる時間を設定するなどの方策が考えられる。
The present invention uses the line of sight to move the eye pointer, but the line of sight of a person fluctuates very quickly. Therefore, in identifying where the eye of the user (measuring person) is in the eye image analysis unit 263, even if a filter for reducing the sensitivity of eye movement detection or ignoring a momentary movement is incorporated. Good.
Also, in order not to confuse winking as a selecting operation with "blinking", an intentional winking with the intention of "selecting" is distinguished from physiological eye opening/closing (blinking). For example, it is conceivable to set a time as a determination threshold value for distinguishing wink from blinking.

10…マイクロメータ(測定機)、11…データ転送ボタン、
20…アーム形三次元測定機、
30…三次元測定機、31…プローブ、32…操作盤、
80…コンピュータ、
100…コンピュータユニット、
110…ホストコンピュータ、
120…モニタ、
200…アイポインティングデバイス、
210…メガネ部、211…フレーム部、212…レンズ部、213…つる部、
220…表示ユニット部、221…支持アーム部、222…プロジェクター部、
230…アイカメラ、
240…外部カメラ、
242…スイッチ、243…マイク、
260…制御部、
261…通信回路部、262…画像データ生成部、263…アイ画像解析部、264…中央処理部、
300…AR−GUI画像、
301−308…アイコン、
390…アイポインタ。
10... Micrometer (measuring machine), 11... Data transfer button,
20... Arm type CMM,
30... three-dimensional measuring machine, 31... probe, 32... operation panel,
80... computer,
100... computer unit,
110... host computer,
120... monitor,
200... Eye pointing device,
210... Glasses section, 211... Frame section, 212... Lens section, 213... Vine section,
220... Display unit part, 221... Support arm part, 222... Projector part,
230... eye camera,
240... external camera,
242... switch, 243... microphone,
260... control unit,
261... Communication circuit unit, 262... Image data generation unit, 263... Eye image analysis unit, 264... Central processing unit,
300... AR-GUI image,
301-308... icon,
390... Eye pointer.

本発明は、測定システムに関し、具体的には、測定作業を行いながら測定データの記録や編集を容易に行うための測定システムに関する。 The present invention relates to a measurement system, and more particularly, to a measurement system for easily recording and editing measurement data while performing measurement work.

ワークを測定機で測定した結果はコンピュータ等の外部機器に転送され記録されるようになっている。そのための測定システムが種々提案されている(例えば、特許文献1、2、3)。例えば、図1に測定システムの一例を示す。 The result of measuring the work with the measuring machine is transferred to and recorded in an external device such as a computer. Various measurement systems for that have been proposed (for example, Patent Documents 1, 2, and 3). For example, FIG. 1 shows an example of the measurement system.

図1においては、ワークWをデジタルマイクロメータ10で測定している。デジタルマイクロメータ10とコンピュータ80とは無線または有線で通信接続されている。
ユーザがマイクロメータ10でワークWを測定し、データ転送ボタン11を押す。すると、測定値がマイクロメータ10からコンピュータ80に転送され、コンピュータ80が測定値を記録していく。
なお、データ転送ボタン11は、マイクロメータ10上の押しやすいところにあってもよいし、あるいは、フットスイッチを利用してもよい。フットスイッチように足で操作できれば、手はワークWとマイクロメータ10をつかんだままでよいので、便利である。
In FIG. 1, the work W is measured by the digital micrometer 10. The digital micrometer 10 and the computer 80 are communicatively connected by wireless or wire.
The user measures the work W with the micrometer 10 and presses the data transfer button 11. Then, the measured value is transferred from the micrometer 10 to the computer 80, and the computer 80 records the measured value.
The data transfer button 11 may be located on the micrometer 10 where it can be easily pressed, or a foot switch may be used. If it can be operated with a foot like a foot switch, it is convenient because the hand can hold the work W and the micrometer 10.

マイクロメータ10からコンピュータ80へ転送された測定値は自動的に記録されていくが、その測定値がどのワークのどの箇所に対応しているものであるか整理されていなければならない。
例えば図1のように5つの段差をもつワークWの場合を考える。
太い方から順番に測定し、さらにひとつのワークWにつき測定を5回繰り返すように測定手順が決まっているとする。この測定手順をコンピュータ80に予め登録しておき、測定者は決められた順番通りに測定を進めていく。すると、自動的に整理された測定データが記録されていく。このような測定システムにより、極めて高い作業効率を実現できるし、測定者にとっては身体的にも精神的にも負担が軽い作業となる。
The measured values transferred from the micrometer 10 to the computer 80 are automatically recorded, but it is necessary to organize the measured values corresponding to which part of which work.
For example, consider the case of a work W having five steps as shown in FIG.
It is assumed that the measurement procedure is determined such that the measurement is performed in order from the thickest one, and the measurement is repeated five times for each work W. This measurement procedure is registered in the computer 80 in advance, and the measurer proceeds with the measurement in the determined order. Then, the automatically arranged measurement data is recorded. With such a measurement system, extremely high work efficiency can be realized, and the work is physically and mentally light for the measurer.

実開平5−59597号公報Japanese Utility Model Publication No. 5-59597 特開2012−48377号公報JP 2012-48377 A 特開2015−106299号公報JP, 2005-106299, A

実際の測定作業にあっては、誤操作が必ずあるのであり、データの取消しや再測定が必要になってくる。
測定手順や測定箇所を飛ばしてしまうこともあるし、データ転送ボタン11の操作ミスもあり得る。このような場合、測定者がコンピュータ80を操作して、データを取り消したり、編集したりすることになる。すなわち、一旦ワークWとマイクロメータ10から手を離し、コンピュータ80のキーボードかマウスを操作しなければならない。コンピュータ80が手元ではなく少し離れたところにある場合には、数歩歩くという動作も必要である。
In the actual measurement work, there is always an erroneous operation, and it is necessary to cancel or re-measure the data.
The measurement procedure and the measurement location may be skipped, and the data transfer button 11 may be operated incorrectly. In such a case, the measurer operates the computer 80 to cancel or edit the data. That is, it is necessary to once remove the work W and the micrometer 10 and operate the keyboard or mouse of the computer 80. If the computer 80 is not at hand but at a distance, it is necessary to take a few steps.

ワークWやマイクロメータ10から手を離したり、体を移動させたりという動作があると、作業の連続性が断たれてしまい、作業効率がとたんに悪くなる。そのため、想定したほどには作業効率のアップが図れないという問題がある。
また、測定者にとっても面倒な作業であり、身体的にも心理的にも負担が大きい。ちなみに、フットスイッチを利用してコンピュータ80を操作することも考えられるが、これだけでは複雑な操作は難しい。
音声コマンドも考えられるが、工場などでは騒音が避けられないので、認識率が低く、むしろ誤操作が増えるおそれもある。フットスイッチや音声コマンドだけではコンピュータ80の複雑な操作をハンズフリーで行うのは難しい。
If there is an action such as releasing the hand from the work W or the micrometer 10 or moving the body, the continuity of the work is interrupted, and the work efficiency is deteriorated. Therefore, there is a problem that work efficiency cannot be improved as expected.
In addition, it is a troublesome work for the measurer, and is physically and psychologically burdensome. By the way, it is conceivable to operate the computer 80 using a foot switch, but it is difficult to perform complicated operations with this alone.
Although voice commands can be considered, noise is unavoidable in factories and the like, so the recognition rate is low, and there is a possibility that erroneous operations will increase. It is difficult to perform a complicated operation of the computer 80 in a hands-free manner only with a foot switch and voice commands.

そこで、本発明の目的は、コンピュータの複雑な操作をハンズフリーで行えるユーザインターフェースを提供することにある。
また、本発明の目的は、利便性が高く、高効率な測定作業を支援する測定システムを提供することにある。
Therefore, it is an object of the present invention to provide a user interface that allows hands-free operation of a complicated computer.
Another object of the present invention is to provide a measurement system that is highly convenient and supports highly efficient measurement work.

本発明のアイポインティングシステムは、
ユーザの顔に装着されてユーザの眼の動きでユーザの視界中のコマンドの選択を認識するアイポインティングデバイスと、
GUI画像データをユーザに提供するホストコンピュータと、
前記ホストコンピュータから与えられるGUI画像を画面に表示するモニタと、を備えるアイポインティングシステムであって、
前記アイポインティングデバイスは、
ユーザの眼を撮像するように配置されたアイカメラと、
前記アイカメラで撮像された眼の画像であるアイ画像に基づいて、眼の動きからコマンド入力操作を認識するアイ画像解析部と、
ユーザの前方であってユーザに見えている外界の実景を撮像する外部カメラと、
ユーザの視界に実景とオーバーレイするようにGUI(グラフィカルユーザインターフェース)画像を投影するプロジェクター部と、を有し、前記外部カメラで撮像した実景の画像と、前記アイ画像解析部で認識した眼の動きと、を対比し、実際の実物の任意の領域あるいは部位に対して予め割り当てられたコマンドを選択操作するものであって、
前記アイポインティングデバイスと前記ホストコンピュータとが通信接続され、前記GUI画像データが前記プロジェクター部からユーザの視界に投射され、
前記モニタには、対象物および/または前記対象物のうちの対象箇所が表示され、
ユーザが前記モニタの画面に表示された前記対象物および/または前記対象物のうちの対象箇所を眼の動きのコマンドで選択すると、前記ホストコンピュータは、視線の位置とモニタ画面の表示内容とを対比して、ユーザが意図する前記対象物および/または前記対象物のうちの対象箇所を特定する
ことを特徴とする。
The eye pointing system of the present invention,
An eye pointing device mounted on the user's face and recognizing the selection of a command in the user's field of view by the movement of the user's eyes;
A host computer for providing GUI image data to a user,
An eye pointing system comprising: a monitor for displaying a GUI image provided from the host computer on a screen,
The eye pointing device is
An eye camera arranged to image the user's eyes,
An eye image analysis unit that recognizes a command input operation from eye movements based on an eye image that is an image of the eye captured by the eye camera,
An external camera that captures a real world view in front of the user and visible to the user;
A projector unit that projects a GUI (Graphical User Interface) image so as to overlay the real scene on the user's field of view, and an image of the real scene captured by the external camera; and an eye movement recognized by the eye image analysis unit. , And to select and operate a command previously assigned to an arbitrary area or part of the actual object,
The eye pointing device and the host computer are communicatively connected, and the GUI image data is projected from the projector unit to a user's field of view.
On the monitor, an object and/or an object portion of the object is displayed,
When the user selects the target object and/or the target part of the target object displayed on the screen of the monitor with a command of eye movement, the host computer displays the position of the line of sight and the display content of the monitor screen. In contrast, the target object intended by the user and/or the target location of the target object is specified.

また、本発明のアイポインティングシステムは、
ユーザの顔に装着されてユーザの眼の動きでユーザの視界中のコマンドの選択を認識するアイポインティングデバイスと、
GUI画像データをユーザに提供するホストコンピュータと、を備えるアイポインティングシステムであって、
前記アイポインティングデバイスは、
ユーザの眼を撮像するように配置されたアイカメラと、
前記アイカメラで撮像された眼の画像であるアイ画像に基づいて、眼の動きからコマンド入力操作を認識するアイ画像解析部と、
ユーザの前方であってユーザに見えている外界の実景を撮像する外部カメラと、
ユーザの視界に実景とオーバーレイするようにGUI(グラフィカルユーザインターフェース)画像を投影するプロジェクター部と、を有し、前記外部カメラで撮像した実景の画像と、前記アイ画像解析部で認識した眼の動きと、を対比し、実際の実物の任意の領域あるいは部位に対して予め割り当てられたコマンドを選択操作するものであって、
前記アイポインティングデバイスと前記ホストコンピュータとが通信接続され、前記GUI画像データが前記プロジェクター部からユーザの視界に投射され、
さらに、
実際の対象物のなかの対象箇所に対して対象箇所コマンドが予め設定されており、
ユーザが実際の対象物のなかの対象箇所を眼の動きのコマンドで選択すると、前記ホストコンピュータは、前記外部カメラで撮像された画像の画像認識と視線の位置とを対比して、ユーザが意図する対象箇所を特定する
ことを特徴とする。
In addition, the eye pointing system of the present invention,
An eye pointing device mounted on the user's face and recognizing the selection of a command in the user's field of view by the movement of the user's eyes;
An eye pointing system comprising: a host computer that provides GUI image data to a user,
The eye pointing device is
An eye camera arranged to image the user's eyes,
An eye image analysis unit that recognizes a command input operation from eye movements based on an eye image that is an image of the eye captured by the eye camera,
An external camera that captures a real world view in front of the user and visible to the user;
A projector unit that projects a GUI (Graphical User Interface) image so as to overlay the real scene on the user's field of view, and an image of the real scene captured by the external camera; and an eye movement recognized by the eye image analysis unit. , And to select and operate a command previously assigned to an arbitrary area or part of the actual object,
The eye pointing device and the host computer are communicatively connected, and the GUI image data is projected from the projector unit to a user's field of view.
further,
Target location command is preset for the target location in the actual object,
When the user selects a target location in the actual target with an eye movement command, the host computer compares the image recognition of the image captured by the external camera with the position of the line of sight, and the user intends. The feature is that the target location to be specified is specified.

測定システムの一例を示す図である。It is a figure which shows an example of a measurement system. 第1実施形態に係る測定システムの全体構成を例示する図である。It is a figure which illustrates the whole structure of the measurement system which concerns on 1st Embodiment. 制御部の機能ブロック図である。It is a functional block diagram of a control part. アイポインティングデバイスの動作を説明するためのフローチャートである。7 is a flowchart for explaining the operation of the eye pointing device. アイポインティングデバイスの動作を説明するためのフローチャートである。7 is a flowchart for explaining the operation of the eye pointing device. ユーザの視界の例であり、AR−GUI画像の一例を示す図である。It is a figure which is an example of a user's field of view, and shows an example of an AR-GUI image. アイポインタの一例を示す図である。It is a figure which shows an example of an eye pointer. モニタ画面の表示例を示す図である。It is a figure which shows the example of a display of a monitor screen. 変形例1の動作を説明するためのフローチャートである。9 is a flowchart for explaining the operation of the first modification. 外部カメラの撮像画像のなかからモニタの部分だけを抜き出した図である。It is the figure which extracted only the monitor part from the picked-up image of an external camera. 変形例2を例示する図である。It is a figure which illustrates the modification 2. 変形例2を例示する図である。It is a figure which illustrates the modification 2.

本発明の実施形態を図示するとともに図中の各要素に付した符号を参照して説明する。
(第1実施形態)
本発明の測定システムに係る第1実施形態について説明する。
図2は、測定システムの全体構成を例示する図である。
測定システムは、測定工具10と、コンピュータユニット100と、を具備する。
測定工具10としては、デジタル式の小型測定器であってもよい。デジタル式の小型測定器としては、デジタルマイクロメータ10や、デジタルノギス、デジタルダイヤルゲージなどがある。図2中では、デジタルマイクロメータ10を例示している。
Embodiments of the present invention will be described with reference to the drawings and reference numerals attached to respective elements in the drawings.
(First embodiment)
A first embodiment of the measurement system of the present invention will be described.
FIG. 2 is a diagram illustrating the overall configuration of the measurement system.
The measuring system includes a measuring tool 10 and a computer unit 100.
The measuring tool 10 may be a small digital measuring instrument. Examples of digital compact measuring instruments include a digital micrometer 10, a digital caliper, and a digital dial gauge. In FIG. 2, the digital micrometer 10 is illustrated.

デジタルマイクロメータ10は、コンピュータユニット100と無線接続されている。デジタルマイクロメータ10は、データ転送ボタン11を有し、データ転送ボタン11が押されると、測定値をコンピュータユニット100に送信する。 The digital micrometer 10 is wirelessly connected to the computer unit 100. The digital micrometer 10 has a data transfer button 11, and when the data transfer button 11 is pressed, the measured value is transmitted to the computer unit 100.

コンピュータユニット100は、ホストコンピュータ110と、モニタ120と、アイポインティングデバイス200と、を備える。
ホストコンピュータ110は、CPU、ROM、RAMを有するいわゆるコンピュータである。ホストコンピュータ110は、デジタルマイクロメータ10、モニタ120およびアイポインティングデバイス200と無線で通信接続されている。
ホストコンピュータ110は、測定データ管理用プログラムを実行することにより、測定データの収集、記録、編集を行う測定データ管理装置としての役割を果たす。このとき、ホストコンピュータ110は、測定データ管理用のGUI(グラフィカルユーザインターフェース)をモニタ120を介してユーザ(測定者)に提供する。GUI画面の例としては、例えば図1を参照されたい。
GUI画面の操作方法については後述する。
The computer unit 100 includes a host computer 110, a monitor 120, and an eye pointing device 200.
The host computer 110 is a so-called computer having a CPU, ROM, and RAM. The host computer 110 is wirelessly connected to the digital micrometer 10, the monitor 120, and the eye pointing device 200 for communication.
The host computer 110 plays a role of a measurement data management device that collects, records, and edits measurement data by executing a measurement data management program. At this time, the host computer 110 provides a user (measurer) with a GUI (graphical user interface) for managing measurement data via the monitor 120. See FIG. 1 for an example of a GUI screen.
The method of operating the GUI screen will be described later.

モニタ120は、ホストコンピュータ110から与えられる表示データを画面に表示する。また、モニタ120はタッチディスプレイパネルであって、ユーザ(測定者)によるタッチ操作を受け付けて、ホストコンピュータ110に転送する。 The monitor 120 displays the display data given from the host computer 110 on the screen. The monitor 120 is a touch display panel, which receives a touch operation by a user (measuring person) and transfers it to the host computer 110.

アイポインティングデバイス200について説明する。
アイポインティングデバイス200は、大きく2つの機能を有している。
第1の機能は、小型画像投影機(プロジェクションディスプレー)としての機能である。
第2の機能は、視線トラッキングを利用するポインティングデバイスとしての機能である。
具体的に説明する。
The eye pointing device 200 will be described.
The eye pointing device 200 has two main functions.
The first function is a function as a small image projector (projection display).
The second function is a function as a pointing device that uses line-of-sight tracking.
This will be specifically described.

アイポインティングデバイス200は、メガネ部210と、表示ユニット部220と、アイカメラ230と、外部カメラ240と、制御部260と、を有する。
メガネ部210は、略U字状のフレーム部211と、フレーム部211に取り付けられたレンズ部212と、を有する。フレーム部211の両端には、耳に引っ掛かるつる部213が設けられている。つる部213を耳に引っ掛けてメガネ部210を顔に装着すると、眼の真ん前にレンズ部212がくるようになっている。
The eye pointing device 200 includes a glasses section 210, a display unit section 220, an eye camera 230, an external camera 240, and a control section 260.
The glasses part 210 has a substantially U-shaped frame part 211 and a lens part 212 attached to the frame part 211. At both ends of the frame portion 211, a slender portion 213 that catches on the ear is provided. When the spectacle part 210 is attached to the face by hooking the temple part 213 on the ear, the lens part 212 comes to come in front of the eyes.

表示ユニット部220は、支持アーム部221と、プロジェクター部222と、を有する。
支持アーム部221の一端はフレーム部211の端部に固定されている。支持アーム部221の他端は、ユーザ(測定者)の顔の前方に向けて延伸するとともに、ユーザ(測定者)の眼の前に位置するように湾曲している。
The display unit section 220 has a support arm section 221 and a projector section 222.
One end of the support arm portion 221 is fixed to the end portion of the frame portion 211. The other end of the support arm portion 221 extends toward the front of the face of the user (measuring person) and is curved so as to be positioned in front of the eyes of the user (measuring person).

そして、支持アーム部221の他端にプロジェクター部222が設けられている。プロジェクター部222は、画像を投射してユーザ(測定者)に情報を提示する。プロジェクター部222は、レンズ部212に画像を投影してもよいし、ユーザ(測定者)の網膜で結像するように画像を投射してもよい。 The projector unit 222 is provided at the other end of the support arm unit 221. The projector unit 222 projects an image and presents information to the user (measuring person). The projector unit 222 may project the image on the lens unit 212, or may project the image so as to form an image on the retina of the user (measuring person).

このようなプロジェクター部222は、例えば、レーザー光源と、マイクロミラーと、で構成できる。マイクロミラーを上下左右に往復駆動させ、レーザー光でフレームを描画する。
ユーザ(測定者)の眼(視界)には、外界の実物からの光と、プロジェクター部222からの投射光と、が同時に入ってくる。すると、ユーザ(測定者)の眼(視界)には、外界の実景と、プロジェクター部222からの画像情報と、がオーバーレイ(重畳)して見える。
プロジェクター部222は、ユーザ(測定者)の両方の眼に情報を提供してもよく、片方の眼だけに情報を提供してもよい。本実施形態では、測定者の片方の眼、ここでは、右眼に情報を提供するように設けられている。
Such a projector unit 222 can be configured by, for example, a laser light source and a micro mirror. The micro mirror is driven to reciprocate up, down, left and right, and a frame is drawn with laser light.
The light (visual field) of the user (measuring person) simultaneously receives the light from the real world object and the projection light from the projector unit 222. Then, the user's (measuring person's) eye (visual field) sees the external scene and the image information from the projector unit 222 as an overlay.
The projector unit 222 may provide information to both eyes of the user (measurer), or may provide information to only one eye. In the present embodiment, it is provided so as to provide information to one eye of the measurer, here, the right eye.

アイカメラ230は、ユーザ(測定者)の眼を撮像するようにフレーム部211に取り付けられている。さらに、アイポインティングデバイス200は、スイッチ242、マイク243、外部カメラ240を有する。
スイッチ242およびマイク243は、補助的な入力手段である。また外部カメラ240は、ユーザ(測定者)の前方を撮像し、すなわち、ユーザ(測定者)に見えている外界の実像を撮像する。
The eye camera 230 is attached to the frame portion 211 so as to capture an image of a user's (measurer's) eye. Further, the eye pointing device 200 has a switch 242, a microphone 243, and an external camera 240.
The switch 242 and the microphone 243 are auxiliary input means. Further, the external camera 240 images the front of the user (measuring person), that is, a real image of the outside world seen by the user (measuring person).

図3は、制御部260の機能ブロック図である。
制御部260は、通信回路部261と、画像データ生成部262と、アイ画像解析部263と、中央処理部264と、を有する。
通信回路部261は、アンテナを介して、ホストコンピュータ110とデータの送受信を行う。アイ画像解析部263は、アイカメラ230で撮像されるユーザ(測定者)の瞳の動きから、ユーザ(測定者)の視線がどこにあるか特定する。さらに、アイ画像解析部263は、アイカメラ230で撮像される瞳、眼、あるいはまぶたの動きから、選択操作の有無を判別する。
FIG. 3 is a functional block diagram of the control unit 260.
The control unit 260 includes a communication circuit unit 261, an image data generation unit 262, an eye image analysis unit 263, and a central processing unit 264.
The communication circuit unit 261 transmits/receives data to/from the host computer 110 via the antenna. The eye image analysis unit 263 specifies where the line of sight of the user (measuring person) is from the movement of the pupil of the user (measuring person) imaged by the eye camera 230. Further, the eye image analysis unit 263 determines the presence/absence of a selection operation based on the movement of the pupil, the eye, or the eyelid captured by the eye camera 230.

中央処理部264は、制御部260全体の動作を統合的に制御する。
アイポインティングデバイス200の動作をフローチャートと画像例とを参照しながら説明する。
図4、図5は、アイポインティングデバイス200の動作を説明するためのフローチャートである。
ユーザは、アイポインティングデバイス200を使用するにあって、アイポインティングデバイス200をメガネと同じように顔に装着する。すなわち、つる部213を耳に引っ掛けて、レンズ部212が眼を覆うようにする。
The central processing unit 264 integrally controls the operation of the entire control unit 260.
The operation of the eye pointing device 200 will be described with reference to flowcharts and image examples.
4 and 5 are flowcharts for explaining the operation of the eye pointing device 200.
When using the eye pointing device 200, the user wears the eye pointing device 200 on the face in the same manner as glasses. That is, the temple portion 213 is hooked on the ear so that the lens portion 212 covers the eye.

さて、アイポインティングデバイス200の電源がオンになると(ST101)、アイポインティングデバイス200は、ホストコンピュータ110と通信を確立し、ホストコンピュータ110からAR−GUI画像のデータを取得する(ST110)。本明細書では、アイポインティングデバイス200によってユーザに提供される画像のことをAR−GUI(オーグメンティッドリアリティーグラフィカルユーザインターフェース)画像と称することにする。AR−GUI画像データは、画像データ生成部262に一時バッファされる。 Now, when the power of the eye pointing device 200 is turned on (ST101), the eye pointing device 200 establishes communication with the host computer 110, and acquires AR-GUI image data from the host computer 110 (ST110). In the present specification, an image provided to the user by the eye pointing device 200 will be referred to as an AR-GUI (Augmented Reality Graphical User Interface) image. The AR-GUI image data is temporarily buffered in the image data generation unit 262.

画像データ生成部262は、AR−GUI画像をプロジェクター部222で表示できるようにビデオ信号に変換し、ビデオ信号をプロジェクター部222に出力する。すると、プロジェクター部222がAR−GUI画像を投影し(ST120)、ユーザの眼にAR−GUI画像が見えるようになる。 The image data generation unit 262 converts the AR-GUI image into a video signal so that the projector unit 222 can display the video signal, and outputs the video signal to the projector unit 222. Then, the projector unit 222 projects the AR-GUI image (ST120), and the user's eyes can see the AR-GUI image.

図6は、ユーザの視界の例であり、AR−GUI画像の一例を示す。ユーザの視界には、自分の手、マイクロメータ10、モニタ120といった実物が見えており、さらに、実物の実景に重畳してプロジェクター部222によって提供されるAR−GUI画像300が見える。AR−GUI画像300として、例えば、データ編集用のツールのアイコン301−308が提供される。 FIG. 6 is an example of the field of view of the user and shows an example of the AR-GUI image. In the field of view of the user, the real thing such as one's hand, the micrometer 10, and the monitor 120 is visible, and further, the AR-GUI image 300 provided by the projector unit 222 is superimposed on the real scene of the real thing. As the AR-GUI image 300, for example, icons 301-308 of data editing tools are provided.

ここでは、上下左右方向の方向指示アイコン301−304、実行(エンター)指示アイコン305、削除(デリート)指示アイコン306、オプションアイコン307、データ収集アイコン308がある。
方向指示アイコン301−304でモニタ120内のカーソルや選択セルを移動させる。実行指示アイコン305、削除アイコン306は、データの入力あるいは削除を行う。
オプションアイコン307は、例えば、モード切替えやアイコンセットの切替えを指示する。データ収集アイコン308は、マイクロメータ10から測定データの取得を指示する。
Here, there are up/down/left/right direction instruction icons 301-304, an execution (enter) instruction icon 305, a delete (delete) instruction icon 306, an option icon 307, and a data collection icon 308.
The cursor or the selected cell in the monitor 120 is moved by the direction instruction icons 301-304. The execution instruction icon 305 and the delete icon 306 are used to input or delete data.
The option icon 307 instructs, for example, mode switching or icon set switching. The data collection icon 308 instructs acquisition of measurement data from the micrometer 10.

図6においては、実物であるマイクロメータ10あるいはモニタ120をユーザの顔の正面で捉えたとき、AR−GUI画像300は、視野の中央領域を避けて、視野の周辺に見えるように配置されている。ここではAR−GUI画像300としての8つのアイコン301−308は、視野の周辺において円環状に配置されている。 In FIG. 6, when the actual micrometer 10 or monitor 120 is captured in front of the user's face, the AR-GUI image 300 is arranged so as to be visible around the visual field, avoiding the central region of the visual field. There is. Here, the eight icons 301-308 as the AR-GUI image 300 are arranged in an annular shape around the visual field.

さて、アイポインティングデバイス200は、AR−GUI画像300を表示したら(ST120)、続いて、アイカメラ230を起動してユーザの眼を撮像する(ST130)。
アイカメラ230の撮像データはアイ画像解析部263に入力される。そして、アイ画像解析部263は、アイカメラ230の画像からユーザの瞳の動きを解析し(ST150)、ユーザの視線がどこを見ているか特定する。
(なお、ステップST140の説明を飛ばしたが、これは変形例1で後述する。)
After displaying the AR-GUI image 300 (ST120), the eye pointing device 200 then activates the eye camera 230 and captures the user's eye (ST130).
The image data of the eye camera 230 is input to the eye image analysis unit 263. Then, the eye image analysis unit 263 analyzes the movement of the user's pupil from the image of the eye camera 230 (ST150), and specifies where the user's line of sight is looking.
(Note that the description of step ST140 was skipped, but this will be described later in Modification Example 1.)

中央処理部264は、ユーザの視線とAR−GUI画像300の位置とを比べて、ユーザがAR−GUI画像300を見ているか否かを判定する(ST160)。
ユーザの視線がAR−GUI画像300から外れていてAR−GUI画像300を見ていない場合(ST160:NO)、ユーザはAR−GUI画像300以外の何か、例えばマイクロメータ10やワークWを見て測定しているということである。
この場合、ポインティングデバイスとしての役割はなく、フローの先頭(ST110)に戻ってAR−GUI画像300の表示を継続する。
The central processing unit 264 compares the line of sight of the user with the position of the AR-GUI image 300 to determine whether the user is looking at the AR-GUI image 300 (ST160).
When the user's line of sight is outside the AR-GUI image 300 and is not looking at the AR-GUI image 300 (ST160: NO), the user looks at something other than the AR-GUI image 300, such as the micrometer 10 or the work W. It means that it is measuring.
In this case, there is no role as a pointing device, and the process returns to the beginning of the flow (ST110) and continues to display the AR-GUI image 300.

さて、ユーザの視線がAR−GUI画像300に重なっていて、ユーザがAR−GUI画像300を見ている場合について説明する(ST160:YES)。
ユーザがAR−GUI画像300を見ているということは(ST160:YES)、測定ではなく、データの編集をしたいということである。
ユーザがAR−GUI画像300を見ていると判定される場合(ST160:YES)、中央処理部264は、画像データ生成部262に視線の位置を通知する。すると、画像データ生成部262は、その視線の位置にアイポインタ390を表示する(ST210)。
Now, a case where the user's line of sight overlaps the AR-GUI image 300 and the user is looking at the AR-GUI image 300 will be described (ST160: YES).
The fact that the user is looking at the AR-GUI image 300 (ST160: YES) means that he wants to edit the data, not the measurement.
When it is determined that the user is looking at the AR-GUI image 300 (ST160: YES), the central processing unit 264 notifies the image data generation unit 262 of the position of the line of sight. Then, the image data generation unit 262 displays the eye pointer 390 at the position of the line of sight (ST210).

図7にアイポインタ390の一例を図示する。
ここでは、アイポインタ390は目をモチーフにデザイン化されたものである。もちろん、アイポインタ390は、ただの矢印、単純な円や四角といったものでもよい。
ユーザは、選択したいツールのアイコン301−308を見るように眼球を視野の端の方へ動かす。するとアイポインタ390が現れるので、アイポインタ390が意図したアイコン301−308に重なるように眼を動かす。このとき、ユーザは眼球のみを動かせばよいのであって、図7に示すように両手はマイクロメータ10とワークWを掴んだままでよい。
FIG. 7 illustrates an example of the eye pointer 390.
Here, the eye pointer 390 is designed with an eye as a motif. Of course, the eye pointer 390 may be a simple arrow, a simple circle, or a square.
The user moves the eyeball toward the edge of the field of view to see the icons 301-308 of the tool that they want to select. Then, the eye pointer 390 appears, and the eye is moved so that the eye pointer 390 overlaps the intended icon 301-308. At this time, the user only needs to move the eyeball, and as shown in FIG. 7, both hands may hold the micrometer 10 and the work W.

ユーザは、アイポインタ390を意図したアイコン301−308に重ねておいて、選択操作を行う。
選択操作としては例えばウインクが例として挙げられる。その他、数秒間同じ場所(アイコン)を見つめることを選択操作としてもよい。
ユーザの選択操作(ウインク)は、アイカメラ230を介してアイ画像解析部263で検出される(ST220:YES).
アイコン301−308が選択されたことはアイ画像解析部263から中央処理部264に通知される。中央処理部264は、アイコン選択時(ウインク時)の視線とAR−GUI画像300の各アイコン301−308の位置とを比べて、ユーザが選択した操作を特定する(ST230)。図7の例でいえば、選択された操作は、カーソル(あるいは選択セル)を下方向へ移動させる操作である。
The user places the eye pointer 390 on the intended icon 301-308 and performs a selection operation.
The selection operation may be, for example, wink. Alternatively, the selection operation may be staring at the same place (icon) for several seconds.
The user's selection operation (wink) is detected by the eye image analysis unit 263 via the eye camera 230 (ST220: YES).
The central processing unit 264 is notified from the eye image analysis unit 263 that the icons 301 to 308 have been selected. The central processing unit 264 compares the line of sight at the time of icon selection (at the time of winking) with the positions of the respective icons 301 to 308 of the AR-GUI image 300 to identify the operation selected by the user (ST230). In the example of FIG. 7, the selected operation is an operation of moving the cursor (or selected cell) downward.

中央制御部260は、選択された操作を通信回路部261を介してホストコンピュータ110に通知する(ST240)。すると、ホストコンピュータ110は通知された操作を実行する。今回の例でいえば、モニタ120の画面中においてカーソル(あるいは選択セル)が下方向に移動する。 The central control unit 260 notifies the host computer 110 of the selected operation via the communication circuit unit 261 (ST240). Then, the host computer 110 executes the notified operation. In this example, the cursor (or selected cell) moves downward on the screen of the monitor 120.

続いて、例えば、データを削除したければ同じように視線でアイポインタ390を移動させて削除アイコン306を選択すればよい。
データを上書きしたいのであればマイクロメータ10のデータ転送ボタン11を押してもよく、あるいは、眼でデータ収集アイコン308を選択してもよい。
いずれにしても、ユーザは、データの記録や編集にあたって、手をマイクロメータ10およびワークWから離す必要はなく、目を動かすだけである。データ編集に手を使わなくてよいのであるから測定作業の効率化が図られるのはもちろんである。
さらに、目を使うユーザインターフェースは直観的に誰にでもわかりやすく、操作が簡単である。例えば、同じ操作を複数のフットスイッチの組み合わせで行うとすれば、かなりの訓練が必要になるだろう。
本実施形態の測定システムは、誰にでも使える素晴らしく便利な測定環境を提供できる。
Then, for example, if the user wants to delete the data, he or she may similarly move the eye pointer 390 with the line of sight and select the delete icon 306.
If it is desired to overwrite the data, the data transfer button 11 of the micrometer 10 may be pressed, or the data collection icon 308 may be selected by the eye.
In any case, the user does not have to take his or her hands away from the micrometer 10 and the work W to record or edit the data, and just moves his or her eyes. Needless to say, data editing does not require the use of hands, which improves the efficiency of measurement work.
In addition, the user interface with eyes is intuitive and easy for anyone to operate. For example, performing the same operation with a combination of multiple foot switches would require considerable training.
The measurement system of the present embodiment can provide a wonderful and convenient measurement environment that can be used by anyone.

(変形例1)
第1実施形態においては、アイポインティングデバイス200が提供するAR−GUI画像300のアイコン301−308を視線で操作(選択)する例を説明した。
アイポインティングデバイス200は、自己が提供するAR−GUI画像300の画像データを保有しているわけであるから、アイカメラ230で取得する視線の方向をAR−GUI画像データに対比すれば、ユーザが選択したい操作(アイコン301−308)をAR−GUI画像300のなかから特定できる。
ここで、変形例1としては、アイポインティングデバイス200のアイポインタ390を利用して、モニタ120に表示された情報やツールを操作する例を説明する。
(Modification 1)
In the first embodiment, an example has been described in which the icons 301 to 308 of the AR-GUI image 300 provided by the eye pointing device 200 are operated (selected) with the line of sight.
Since the eye pointing device 200 holds the image data of the AR-GUI image 300 provided by itself, the user can compare the direction of the line of sight acquired by the eye camera 230 with the AR-GUI image data. The operation (icons 301 to 308) desired to be selected can be specified from the AR-GUI image 300.
Here, as a first modified example, an example in which the eye pointer 390 of the eye pointing device 200 is used to operate information and tools displayed on the monitor 120 will be described.

図8に例示するように、モニタ120画面にはワークWのCADデータ、ワークW中の測定対象箇所、測定データなどが表示されている。そして、測定作業をしながら測定箇所の指定(あるいは指定の再設定)をしたいとする。
この場合、ユーザは、モニタ120の画面を見る。
図4のフローチャートに戻っていただいて、外部カメラ240により、ユーザの視界に相当する外界の画像が取り込まれている(ST140)。そして、視線解析(ST150)の結果、ユーザの視線がモニタ120画面上にあることが検出される(ST170:YES)。外部カメラ240により、ユーザの視界に相当する外界の画像が取り込まれているから(ST140)、中央処理部264は、画像認識により、モニタ120の位置を特定できる。
たとえば、太い黒枠の内側をモニタ120と認識させるようにしてもよい。
As illustrated in FIG. 8, CAD data of the work W, measurement target locations in the work W, measurement data, and the like are displayed on the screen of the monitor 120. Then, it is assumed that the user wants to specify the measurement point (or reset the specification) while performing the measurement work.
In this case, the user looks at the screen of the monitor 120.
Returning to the flowchart of FIG. 4, the external camera 240 has captured an image of the external world corresponding to the visual field of the user (ST140). Then, as a result of the line-of-sight analysis (ST150), it is detected that the line of sight of the user is on the screen of the monitor 120 (ST170: YES). Since the external camera 240 captures an image of the outside world corresponding to the field of view of the user (ST140), the central processing unit 264 can identify the position of the monitor 120 by image recognition.
For example, the inside of the thick black frame may be recognized as the monitor 120.

ユーザの視線がモニタ120上にある場合の処理動作を図9のフローチャートを参照しながら説明する。
ユーザの視線がモニタ120画面上にあると判定される場合(図4のST170:YES)、中央処理部264は画像データ生成部262に視線の位置を通知し、画像データ生成部262は、その視線の位置にアイポインタ390を表示する(ST310)。
図8にアイポインタ390の一例を図示する。
ユーザは、意図した測定箇所にアイポインタ390が重なるように眼球を動かす。そして、モニタ120画面上で所望の測定箇所にアイポインタ390が重なったところで選択操作(たとえばウインク)を行う。ユーザの選択操作(ウインク)はアイカメラ230を介してアイ画像解析部263で検出される(ST320:YES)。
The processing operation when the user's line of sight is on the monitor 120 will be described with reference to the flowchart in FIG.
When it is determined that the line of sight of the user is on the screen of the monitor 120 (ST170: YES in FIG. 4), the central processing unit 264 notifies the image data generation unit 262 of the position of the line of sight, and the image data generation unit 262 then The eye pointer 390 is displayed at the position of the line of sight (ST310).
FIG. 8 illustrates an example of the eye pointer 390.
The user moves the eyeball so that the eye pointer 390 overlaps the intended measurement location. Then, the selection operation (for example, wink) is performed when the eye pointer 390 overlaps the desired measurement location on the screen of the monitor 120. The user's selection operation (wink) is detected by the eye image analysis unit 263 via the eye camera 230 (ST320: YES).

選択操作が検出されると(ST320:YES)、中央処理部264は、選択操作時(ウインク時)の視線とモニタ120画面との位置関係を解析する(ST330)。
図10は、外部カメラ240画像のなかからモニタ120の部分だけを抜き出したものである。
例えば、図10に示すように、モニタ画面の左下隅を原点とし、モニタ画面の横方向にX軸(横軸)をとり、モニタ画面の縦方向にY軸(縦軸)をとる。
(ユーザがモニタ120に正対していない場合には必要に応じて台形補正などを行えばよい。)モニタ画面中における視線の位置(アイポインタ390の位置)を(x,y)とする。また、モニタ画面の横軸をL、高さをHとする。
このとき、モニタ画面中の視線の位置は、(x/L,y/H)で表される。
When the selection operation is detected (ST320: YES), the central processing unit 264 analyzes the positional relationship between the line of sight and the screen of the monitor 120 during the selection operation (during wink) (ST330).
In FIG. 10, only the portion of the monitor 120 is extracted from the image of the external camera 240.
For example, as shown in FIG. 10, the lower left corner of the monitor screen is the origin, the horizontal direction of the monitor screen is the X axis (horizontal axis), and the vertical direction of the monitor screen is the Y axis (vertical axis).
(When the user is not directly facing the monitor 120, trapezoidal correction or the like may be performed as necessary.) The position of the line of sight on the monitor screen (the position of the eye pointer 390) is (x, y). The horizontal axis of the monitor screen is L and the height is H.
At this time, the position of the line of sight on the monitor screen is represented by (x/L, y/H).

中央処理部264は、このように得られた視線の位置(x/L,y/H)をホストコンピュータ110に通知する(ST340)。すると、ホストコンピュータ110は視線の位置(x/L,y/H)と、モニタ画面の表示内容と、を対比して、ユーザが意図する操作(コマンド)を特定する。
今回の例でいえば、モニタ画面中のCADデータで測定箇所Dが選択されたことを特定する。そして、ホストコンピュータ110は、指示された操作を実行したり、モニタ120の表示を更新したりする。
The central processing unit 264 notifies the host computer 110 of the line-of-sight position (x/L, y/H) thus obtained (ST340). Then, the host computer 110 identifies the operation (command) intended by the user by comparing the position of the line of sight (x/L, y/H) with the display content of the monitor screen.
In this example, the CAD data on the monitor screen specifies that the measurement point D is selected. Then, the host computer 110 executes the instructed operation and updates the display on the monitor 120.

さらに、アイポインティングデバイス200で選択する対象は、AR−GUI画像300やモニタ120上の画像だけに限らず、実際の実物の任意の領域や部位に割り当てられたコマンドであってもよい。
例えば、実際のワークW上に測定箇所コマンドを設定しておくとする。
ユーザが実際のワークW上の測定箇所を目で選択(見てからウインク)する。(外部カメラ240で撮像した画像を画像認識すれば、ワークWのどの箇所が選択されたかわかる。コマンドが割り当てられた対象物については画像認識できるようにCADデータ(3DCADデータ)をホストコンピュータに予め記憶させておいてもよい。)
このように実際のワークW上で測定箇所を選択したうえで、データ転送ボタン11を押す。あるいは、データ転送の操作もアイポインティングで行ってもよい。
このような測定作業の手順は自然であり、スムースで効率的な測定ができるようになる。
Furthermore, the target to be selected by the eye pointing device 200 is not limited to the AR-GUI image 300 and the image on the monitor 120, but may be a command assigned to an arbitrary area or part of an actual object.
For example, assume that a measurement point command is set on the actual work W.
The user visually selects (sees and winks) an actual measurement point on the work W. (By recognizing the image captured by the external camera 240, it is possible to know which part of the work W is selected. For the object to which the command is assigned, the CAD data (3D CAD data) is stored in advance in the host computer so that the image can be recognized. It may be stored.)
In this way, the measurement point is selected on the actual work W, and then the data transfer button 11 is pressed. Alternatively, the data transfer operation may be performed by eye pointing.
The procedure of such measurement work is natural, and smooth and efficient measurement can be performed.

(変形例2)
次に、図11を参照して変形例2を説明する。
図11は、ポータブルアーム型(可搬性多関節形)の三次元測定機20でワークWを測定する様子の一例である。このようなアーム形三次元測定機20にあっては必然的に両手で測定機20を保持しながら測定作業を行うことになる。この場合、アイポインティングデバイス200によって提供されるGUI画像300およびアイポインタ390により、ハンズフリーのデータ編集が可能になる。したがって、ユーザは両手を測定機20から離す必要はなく、効率よく測定作業を進めることができる。
(Modification 2)
Next, a modified example 2 will be described with reference to FIG.
FIG. 11 shows an example of how the work W is measured by the portable arm type (portable multi-joint type) three-dimensional measuring machine 20. In such an arm-type three-dimensional measuring machine 20, it is inevitable to carry out the measuring work while holding the measuring machine 20 with both hands. In this case, the GUI image 300 and the eye pointer 390 provided by the eye pointing device 200 enable hands-free data editing. Therefore, the user does not need to separate his/her hands from the measuring device 20, and the measurement work can be efficiently performed.

ここで、第1実施形態においては視界の周辺寄りにAR―GUI画像300が見えるようにしていた。
これに対し、変形例2においては、ワークWの周囲にAR−GUI画像が見えるようにしている。例えば、外部カメラ240でユーザの視界を取り込み、画像認識によってワークWの位置を特定する。そして、ワークWの周辺にGUI画像300を投影する。
これで、ユーザの視界には、ワークWを囲むようにGUI画像が見えるようになる。
Here, in the first embodiment, the AR-GUI image 300 is visible near the periphery of the field of view.
On the other hand, in the second modification, the AR-GUI image is visible around the work W. For example, the external camera 240 captures the field of view of the user, and the position of the work W is specified by image recognition. Then, the GUI image 300 is projected on the periphery of the work W.
With this, in the user's field of view, the GUI image can be seen so as to surround the work W.

測定作業中、ユーザの視線はワークWに注がれていることが多い。そして、ワークWから少しだけ視線をずらすとアイポインタ390でAR―GUI画像300を用いたデータ編集が可能になる。 During the measurement work, the user's line of sight is often focused on the work W. Then, when the line of sight is slightly shifted from the work W, data editing using the AR-GUI image 300 becomes possible with the eye pointer 390.

また、図11においては、編集ツールのアイコンだけではなくて、モニタ120に表示される表示データ、ここでは測定値のデータ(309)もAR−GUI画像300として提供される。
これによりユーザはモニタ120の画面を見なくても測定作業を進行できるようになる。可搬性の中型測定機20を使用するときには、ワークWの測定箇所に応じてユーザ自身の立ち位置や姿勢も変わってくるため、いつもモニタ120が見えるとは限らない。
この点、モニタ画面の内容がAR−GUI画像300として提供されれば、ユーザは、モニタ120やホストコンピュータ110の位置を気にすることなく、自由にポジションを変えながら測定作業を進めることができる。
Further, in FIG. 11, not only the icon of the editing tool but also display data displayed on the monitor 120, here, measurement value data (309) is provided as the AR-GUI image 300.
This allows the user to proceed with the measurement work without looking at the screen of the monitor 120. When the portable medium-sized measuring machine 20 is used, the standing position and posture of the user themselves change depending on the measurement location of the work W, and therefore the monitor 120 is not always visible.
In this regard, if the contents of the monitor screen are provided as the AR-GUI image 300, the user can proceed with the measurement work while freely changing the positions without worrying about the positions of the monitor 120 and the host computer 110. ..

また、図12に示すように、大型の三次元測定機30を操作するような場合、ユーザは、ジョイスティック等の操作盤32だけを持ってワークWに近づいて操作することがある。この場合、ユーザの立ち位置からはモニタ120やホストコンピュータ110が見えにくいことがある。
この点、アイポインティングデバイス200によってAR−GUI画像300が提供されるので、ユーザは、モニタ120やホストコンピュータ110の位置を気にする必要はなくなる。
なお、大型の三次元測定機30の場合、測定プローブ31の周囲にGUI画像が表示されるようにしてもよい。大型の三次元測定機30の場合、プローブ31が大きく動くことが多い。そして、ユーザはプローブ31を目で追いかける。プローブ31から少しだけ視線を動かすだけでアイポインタ390でGUI画像300を操作できるようになると極めて便利である。
Further, as shown in FIG. 12, when operating the large-sized coordinate measuring machine 30, the user may bring only the operation panel 32 such as a joystick to approach the work W and operate it. In this case, the monitor 120 and the host computer 110 may be difficult to see from the user's standing position.
In this regard, since the AR-GUI image 300 is provided by the eye pointing device 200, the user does not need to care about the positions of the monitor 120 and the host computer 110.
In the case of the large coordinate measuring machine 30, a GUI image may be displayed around the measuring probe 31. In the case of a large coordinate measuring machine 30, the probe 31 often moves greatly. Then, the user visually follows the probe 31. It would be extremely convenient if the GUI image 300 could be operated with the eye pointer 390 by moving the line of sight from the probe 31 slightly.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
上記実施形態の説明では、ユーザが視線でアイポインタ390を動かし、アイポインタ390をアイコンに重ねてツールを選択するとした。
このほか、例えば、眼の動きのパターンとコマンドとを対応付けておき、ジェスチャコントロールのように眼の動きでダイレクトにコマンド入力するようにしてもよい。例えば、視線を上から下、あるいは、右から左に動かすと、選択セルが移動したり、見つめたらモニタの表示を拡大/縮小したり、モニタの端の方に視線を移動させたら上下左右にスクロールするなどが考えられる。
The present invention is not limited to the above-mentioned embodiments, but can be modified as appropriate without departing from the spirit of the present invention.
In the description of the above embodiment, it is assumed that the user moves the eye pointer 390 with his or her line of sight, places the eye pointer 390 on the icon, and selects the tool.
In addition, for example, the eye movement pattern and the command may be associated with each other, and the command may be directly input by the eye movement like gesture control. For example, moving the line of sight from top to bottom or from right to left moves the selected cell, enlarges/reduces the display of the monitor when you gaze, or moves the line of sight toward the edge of the monitor to move up, down, left, or right. It is possible to scroll.

本発明は視線を使ってアイポインタを動かすのであるが、人の視線は非常に素早く揺らぐものである。そこで、アイ画像解析部263でユーザ(測定者)の視線がどこにあるか特定するにあたっては、眼の動き検出の感度を下げたり、瞬間的な動きは無視する等のためのフィルタなどを組み込んでもよい。
また、選択操作としてのウインクを"まばたき"と混同しないように、"選択"の意図を持った意図的なウインクと生理的な眼の開閉(まばたき)とを区別するようにする。例えば、ウインクとまばたきとを区別するための判定閾値となる時間を設定するなどの方策が考えられる。
The present invention uses the line of sight to move the eye pointer, but the line of sight of a person fluctuates very quickly. Therefore, in identifying where the eye of the user (measuring person) is in the eye image analysis unit 263, even if a filter for reducing the sensitivity of eye movement detection or ignoring a momentary movement is incorporated. Good.
Also, in order not to confuse winking as a selecting operation with "blinking", an intentional winking with the intention of "selecting" is distinguished from physiological eye opening/closing (blinking). For example, it is conceivable to set a time as a determination threshold value for distinguishing wink from blinking.

10…マイクロメータ(測定機)、11…データ転送ボタン、
20…アーム形三次元測定機、
30…三次元測定機、31…プローブ、32…操作盤、
80…コンピュータ、
100…コンピュータユニット、
110…ホストコンピュータ、
120…モニタ、
200…アイポインティングデバイス、
210…メガネ部、211…フレーム部、212…レンズ部、213…つる部、
220…表示ユニット部、221…支持アーム部、222…プロジェクター部、
230…アイカメラ、
240…外部カメラ、
242…スイッチ、243…マイク、
260…制御部、
261…通信回路部、262…画像データ生成部、263…アイ画像解析部、264…中央処理部、
300…AR−GUI画像、
301−308…アイコン、
390…アイポインタ。
10... Micrometer (measuring machine), 11... Data transfer button,
20... Arm type CMM,
30... three-dimensional measuring machine, 31... probe, 32... operation panel,
80... computer,
100... computer unit,
110... host computer,
120... monitor,
200... Eye pointing device,
210... Glasses section, 211... Frame section, 212... Lens section, 213... Vine section,
220... Display unit part, 221... Support arm part, 222... Projector part,
230... eye camera,
240... external camera,
242... switch, 243... microphone,
260... control unit,
261... Communication circuit unit, 262... Image data generation unit, 263... Eye image analysis unit, 264... Central processing unit,
300... AR-GUI image,
301-308... icon,
390... Eye pointer.

Claims (6)

ユーザの顔に装着され、ユーザの眼の動きでユーザの視界中のコマンドの選択を認識するアイポインティングデバイスであって、
ユーザの眼を撮像するように配置されたアイカメラと、
前記アイカメラで撮像された眼の画像であるアイ画像に基づいて、予め決められた眼の動きからコマンド入力操作を認識するアイ画像解析部と、を備える
ことを特徴とするアイポインティングデバイス。
An eye pointing device mounted on a user's face and recognizing a selection of a command in the user's field of view by the movement of the user's eyes,
An eye camera arranged to image the user's eyes,
An eye image analyzing unit that recognizes a command input operation from a predetermined eye movement based on an eye image that is an eye image captured by the eye camera.
請求項1に記載のアイポインティングデバイスにおいて、
前記アイポインティングデバイスは、ユーザの前方であってユーザに見えている外界の実景を撮像する外部カメラを有し、
前記外部カメラで撮像した実景の画像と、前記アイ画像解析部で認識した眼の動きと、を対比し、実際の実物の任意の領域あるいは部位に対して予め割り当てられたコマンドを選択操作する
ことを特徴とするアイポインティングデバイス。
The eye pointing device according to claim 1,
The eye pointing device has an external camera which is in front of the user and captures a real scene of the external world seen by the user,
Comparing the image of the real scene captured by the external camera with the eye movement recognized by the eye image analysis unit, and selecting and operating a command previously assigned to an arbitrary area or site of the actual object. Eye pointing device characterized by.
請求項1または請求項2に記載のアイポインティングデバイスにおいて、
さらに、ユーザの視界に実景とオーバーレイするようにGUI(グラフィカルユーザインターフェース)画像を投影するプロジェクター部を備える
ことを特徴とするアイポインティングデバイス。
The eye pointing device according to claim 1 or 2,
The eye pointing device further comprises a projector unit that projects a GUI (Graphical User Interface) image so as to overlay the real scene on the user's field of view.
請求項3に記載のアイポインティングデバイスと、
測定データを外部出力できる測定機と、
測定データ管理用プログラムを実行することにより前記測定機の測定データの収集、記録、編集を行う測定データ管理装置として機能するととともに、測定データ管理用のGUI画像データをユーザに提供するホストコンピュータと、を具備し、
前記アイポインティングデバイスと前記ホストコンピュータとが通信接続され、
前記測定データ管理用のGUI画像データが前記プロジェクター部からユーザの視界に投射される
ことを特徴とする測定システム。
An eye pointing device according to claim 3;
A measuring device that can output measurement data externally,
A host computer that functions as a measurement data management device that collects, records, and edits measurement data of the measuring machine by executing a measurement data management program, and that provides a user with GUI image data for measurement data management, Equipped with,
The eye pointing device and the host computer are connected for communication,
The measurement system characterized in that the GUI image data for managing the measurement data is projected from the projector unit into the visual field of the user.
請求項4に記載の測定システムにおいて、
前記測定データ管理用のGUI画像データには、測定データの収集、記録、編集を行うツールのアイコン画像が複数含まれており、
前記アイコン画像は、ユーザの視界の周辺に配置される
ことを特徴とする測定システム。
The measurement system according to claim 4,
The GUI image data for managing measurement data includes a plurality of icon images of tools for collecting, recording, and editing measurement data,
The measurement system, wherein the icon image is arranged around a user's field of view.
請求項4に記載の測定システムにおいて、
前記測定データ管理用のGUI画像データには、測定データの収集、記録、編集を行うツールのアイコン画像が複数含まれており、
前記アイコン画像は、測定対象であるワークの周辺、または、測定プローブの周辺に配置される
ことを特徴とする測定システム。
The measurement system according to claim 4,
The GUI image data for managing measurement data includes a plurality of icon images of tools for collecting, recording, and editing measurement data,
The measurement system, wherein the icon image is arranged around a work to be measured or around a measurement probe.
JP2020081086A 2016-02-24 2020-05-01 Eye-pointing system operated by the eye Active JP6982656B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020081086A JP6982656B2 (en) 2016-02-24 2020-05-01 Eye-pointing system operated by the eye

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016032874A JP6700849B2 (en) 2016-02-24 2016-02-24 Measuring system
JP2020081086A JP6982656B2 (en) 2016-02-24 2020-05-01 Eye-pointing system operated by the eye

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016032874A Division JP6700849B2 (en) 2016-02-24 2016-02-24 Measuring system

Publications (2)

Publication Number Publication Date
JP2020123396A true JP2020123396A (en) 2020-08-13
JP6982656B2 JP6982656B2 (en) 2021-12-17

Family

ID=79169998

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020081086A Active JP6982656B2 (en) 2016-02-24 2020-05-01 Eye-pointing system operated by the eye

Country Status (1)

Country Link
JP (1) JP6982656B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114285984A (en) * 2020-09-27 2022-04-05 宇龙计算机通信科技(深圳)有限公司 AR (augmented reality) -glasses-based camera switching method and device, storage medium and terminal

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004301869A (en) * 2003-03-28 2004-10-28 Takuya Shinkawa Voice output device and pointing device
JP2012008290A (en) * 2010-06-23 2012-01-12 Softbank Mobile Corp Spectacle type display device and server
US20140237366A1 (en) * 2013-02-19 2014-08-21 Adam Poulos Context-aware augmented reality object commands

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004301869A (en) * 2003-03-28 2004-10-28 Takuya Shinkawa Voice output device and pointing device
JP2012008290A (en) * 2010-06-23 2012-01-12 Softbank Mobile Corp Spectacle type display device and server
US20140237366A1 (en) * 2013-02-19 2014-08-21 Adam Poulos Context-aware augmented reality object commands

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114285984A (en) * 2020-09-27 2022-04-05 宇龙计算机通信科技(深圳)有限公司 AR (augmented reality) -glasses-based camera switching method and device, storage medium and terminal
CN114285984B (en) * 2020-09-27 2024-04-16 宇龙计算机通信科技(深圳)有限公司 Camera switching method and device based on AR (augmented reality) glasses, storage medium and terminal

Also Published As

Publication number Publication date
JP6982656B2 (en) 2021-12-17

Similar Documents

Publication Publication Date Title
US9323343B2 (en) Information processing method and information processing apparatus
US20180307396A1 (en) Operation control device and operation control method
JP6598617B2 (en) Information processing apparatus, information processing method, and program
US8139087B2 (en) Image presentation system, image presentation method, program for causing computer to execute the method, and storage medium storing the program
US10429941B2 (en) Control device of head mounted display, operation method and operation program thereof, and image display system
JP4701424B2 (en) Image recognition apparatus, operation determination method, and program
JP5293154B2 (en) Head mounted display
EP2287708B1 (en) Image recognizing apparatus, operation determination method, and program
US10477090B2 (en) Wearable device, control method and non-transitory storage medium
EP2189835A1 (en) Terminal apparatus, display control method, and display control program
JP2013069224A (en) Motion recognition apparatus, motion recognition method, operation apparatus, electronic apparatus, and program
JP6390799B2 (en) Input device, input method, and program
KR101514170B1 (en) Input device, input method and recording medium
JP2016208370A (en) Head mounted display and control method for head mounted display
JP4968922B2 (en) Device control apparatus and control method
CN108369451B (en) Information processing apparatus, information processing method, and computer-readable storage medium
CN109558004B (en) Control method and device for human body auxiliary robot
JP2017016599A (en) Display device, display device control method, and program
JP2017134575A (en) Display device, control method of display device, and program
JP6638392B2 (en) Display device, display system, display device control method, and program
JP6982656B2 (en) Eye-pointing system operated by the eye
JP6700849B2 (en) Measuring system
KR100749033B1 (en) A method for manipulating a terminal using user's glint, and an apparatus
JP6740613B2 (en) Display device, display device control method, and program
CN109551489B (en) Control method and device for human body auxiliary robot

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200526

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200526

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211021

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211119

R150 Certificate of patent or registration of utility model

Ref document number: 6982656

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150