JP2002351615A - Display device - Google Patents

Display device

Info

Publication number
JP2002351615A
JP2002351615A JP2001156109A JP2001156109A JP2002351615A JP 2002351615 A JP2002351615 A JP 2002351615A JP 2001156109 A JP2001156109 A JP 2001156109A JP 2001156109 A JP2001156109 A JP 2001156109A JP 2002351615 A JP2002351615 A JP 2002351615A
Authority
JP
Japan
Prior art keywords
light
pen
display
image
position coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001156109A
Other languages
Japanese (ja)
Inventor
Hideo Hitai
英雄 比田井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2001156109A priority Critical patent/JP2002351615A/en
Publication of JP2002351615A publication Critical patent/JP2002351615A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a display device to which operations are instructed without hindering the flow of presentation and the display screen of which is efficiently used. SOLUTION: In the display device consisting of a light source 103a to irradiate a coordinate input surface 102 of a touch panel 101 with light, a control part 104 to detect that the irradiate light irradiated by the light source 103a is shielded and a computer 105 to control the display contents of the display screen based on a detection result of the control part 104, the control part 104 outputs a light shielding signal to indicate that a state of the detected shielded light coincides with light shielding conditions as prescribed conditions. In addition, the computer 105 carries out control of the display contents by using the light shielding signal as an event.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、タッチパネルを備
え、タッチパネルによってディスプレイ画面の制御が可
能なタッチパネル付きディスプレイ装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a display device with a touch panel, which has a touch panel and whose display screen can be controlled by the touch panel.

【0002】[0002]

【従来の技術】現在、比較的大きなディスプレイ画面を
備えたコンピュータシステム(本明細書中ではディスプ
レイ装置と記す)を利用してプレゼンテーションを行う
ことがある。ディスプレイ装置は、多くの場合、オペレ
ータがディスプレイ画面を直接指し示しながら表示され
た内容を説明する。このため、ディスプレイ装置には、
ディスプレイ画面上に座標入力面を設けることによって
ディスプレイ画面にタッチして信号を入力するタッチパ
ネル式の座標入力装置を備えたものも多い。
2. Description of the Related Art Presently, presentations are sometimes made using a computer system having a relatively large display screen (hereinafter, referred to as a display device). Display devices often describe what is displayed while the operator points directly to the display screen. For this reason, display devices include:
Many of them have a touch panel type coordinate input device that inputs a signal by touching the display screen by providing a coordinate input surface on the display screen.

【0003】タッチパネル式の座標入力装置を備えたデ
ィスプレイ装置(タッチパネル付きディスプレイ装置、
以下、単にディスプレイ装置とも記す)は、一般的なコ
ンピュータと同様にツールバーやメニューバーをディス
プレイ画面に表示し、表示されたツールバー、メニュー
バーをマウスで選択することによって所望のプログラム
を起動する、あるいは設定を変更する。このために従来
のディスプレイ装置は、使用頻度が少ない場合にもツー
ルバーやメニューバーをディスプレイ画面上に常に表示
させていた。
A display device having a touch panel type coordinate input device (a display device with a touch panel,
Hereinafter, simply referred to as a display device) displays a toolbar or a menu bar on a display screen like a general computer, and starts a desired program by selecting the displayed toolbar or menu bar with a mouse, or Change settings. For this reason, the conventional display device always displays the toolbar and the menu bar on the display screen even when the frequency of use is low.

【0004】[0004]

【発明が解決しようとする課題】ところが、プレゼンテ
ーションに使用されるディスプレイ装置のディスプレイ
画面は、比較的広い範囲にいる多数の人間によって同時
に見られる構成である。このため、ディスプレイ画面に
おいて、プレゼンテーションの内容が表示される領域を
一般的なコンピュータシステムよりも広くとることが望
ましい。したがって、ツールバーやメニューバーをディ
スプレイ画面上に常に表示させることは、ツールバーや
メニューバーによってディスプレイ画面の一部が隠され
るためにディスプレイ装置にとって望ましいものではな
い。
However, the display screen of a display device used for a presentation is configured to be viewed simultaneously by a large number of people in a relatively wide area. For this reason, it is desirable that the area on the display screen where the content of the presentation is displayed is made wider than a general computer system. Therefore, it is not desirable for the display device to always display the toolbar or the menu bar on the display screen because a part of the display screen is hidden by the toolbar or the menu bar.

【0005】また、ツールバーやメニューバーは、ディ
スプレイ画面上のツールバー、メニューバーにオペレー
タがタッチすることによってディスプレイ画面上から消
去し、再度表示させることが可能である。しかしなが
ら、ツールバーやメニューバーの表示または消去は、マ
ウスのクリック動作などのイベントに応じてなされる
が、1回の操作によっては実行することができないこと
も多い。そして、プレゼンテーション中、必要が生じる
都度にディスプレイ画面を複数回操作してツールバー、
メニューバーを表示させると、プレゼンテーションの流
れが妨げられる虞がある。
The toolbar and menu bar can be erased from the display screen by the operator touching the toolbar and menu bar on the display screen and displayed again. However, display or deletion of a toolbar or a menu bar is performed in response to an event such as a mouse click operation, but often cannot be executed by a single operation. Then, during the presentation, navigate the display screen multiple times each time you need it,
Displaying the menu bar may hinder the flow of the presentation.

【0006】本発明は、上記した点に鑑みてなされたも
のであり、プレゼンテーションの流れを妨げることなく
ディスプレイ装置に動作を指示することができ、例えば
ツールバー、あるいはメニューバーを常時ディスプレイ
画面に表示させる必要がなく、ディスプレイ画面を有効
に利用できるディスプレイ装置を提供することを目的と
する。
[0006] The present invention has been made in view of the above points, and can instruct a display device to operate without interrupting the flow of a presentation. For example, a toolbar or a menu bar is always displayed on a display screen. An object of the present invention is to provide a display device that does not need to be used and that can effectively use a display screen.

【0007】[0007]

【課題を解決するための手段】上記した課題を解決し、
目的を達成するため、請求項1に記載の発明にかかるデ
ィスプレイ装置は、タッチパネルの座標入力面に光を照
射する光源、該光源によって照射された照射光が遮られ
たことを検出する遮光検出手段、該遮光検出手段の検出
結果に基づいてディスプレイ面の表示内容を制御する表
示制御手段と、を備えるディスプレイ装置であって、前
記遮光検出手段は検出された遮光の状態が所定の条件で
ある遮光条件に合致したことを示す遮光条件合致信号を
出力し、かつ、前記表示制御手段は前記遮光条件合致信
号をイベントとして表示内容の制御を実行することを特
徴とする。
[MEANS FOR SOLVING THE PROBLEMS] To solve the above-mentioned problems,
In order to achieve the object, a display device according to the invention according to claim 1 is a light source for irradiating light to a coordinate input surface of a touch panel, and a light-blocking detecting unit for detecting that the irradiation light irradiated by the light source is blocked. A display control means for controlling display contents on a display surface based on a detection result of the light-shielding detection means, wherein the light-shielding detection means detects a light-shielded state which is a predetermined condition. A light-shielding condition matching signal indicating that the condition is satisfied is output, and the display control means executes display content control using the light-shading condition matching signal as an event.

【0008】この請求項1に記載の発明によれば、遮光
検出手段は検出された遮光の状態が所定の条件である遮
光条件に合致したことを示す遮光条件合致信号を出力す
ることができる。また、表示制御手段が、遮光条件合致
信号をイベントとして表示内容の制御を実行する。つま
り、遮光条件合致信号をイベントのトリガーとして利用
することができる。
According to the first aspect of the present invention, the light-shielding detecting means can output a light-shielding condition matching signal indicating that the detected light-shielding state matches a predetermined light-shielding condition. Further, the display control means controls display contents using the light-shielding condition matching signal as an event. That is, the light-shielding condition matching signal can be used as an event trigger.

【0009】請求項2に記載の発明にかかるディスプレ
イ装置は、さらに、前記遮光条件を設定するための遮光
条件設定手段を備えることを特徴とする。
The display device according to the second aspect of the present invention is further characterized in that the display device further comprises a light-shielding condition setting means for setting the light-shielding condition.

【0010】この請求項2に記載の発明によれば、遮光
条件を使用状況に応じてオペレータが設定することがで
きる。
According to the second aspect of the present invention, the operator can set the light-shielding condition according to the use condition.

【0011】請求項3に記載の発明にかかるディスプレ
イ装置は、前記遮光条件が、遮光の範囲に基づいて設定
されることを特徴とする。
A display device according to a third aspect of the present invention is characterized in that the light shielding condition is set based on a light shielding range.

【0012】この請求項3に記載の発明によれば、座標
入力時とは異なる範囲を遮光することによって簡単に遮
光信号を出力させることができる。
According to the third aspect of the present invention, it is possible to easily output a light-shielded signal by shading a range different from that at the time of inputting coordinates.

【0013】請求項4に記載の発明にかかるディスプレ
イ装置は、前記遮光条件が、遮光の時間に基づいて設定
されることを特徴とする。
According to a fourth aspect of the present invention, in the display device, the light shielding condition is set based on a light shielding time.

【0014】この請求項4に記載の発明によれば、座標
入力時とは異なる時間照射光を遮光することによって簡
単に遮光信号を出力させることができる。
According to the fourth aspect of the present invention, it is possible to easily output a light shielding signal by shielding the irradiation light for a different time from the time of inputting the coordinates.

【0015】請求項5に記載の発明にかかるディスプレ
イ装置は、前記表示制御手段が、前記遮光条件合致信号
をイベントとして動作指示のための表示物をディスプレ
イ画面に表示する、または消去することを特徴とする。
According to a fifth aspect of the present invention, in the display device, the display control means displays or deletes a display object for an operation instruction on a display screen using the light-shielding condition matching signal as an event. And

【0016】この請求項5に記載の発明によれば、遮光
条件合致信号をイベントとして動作指示のための表示物
をディスプレイ画面に表示する、または消去することが
できる。
According to the fifth aspect of the present invention, a display object for instructing an operation can be displayed on a display screen or erased using a light-shielding condition matching signal as an event.

【0017】[0017]

【発明の実施の形態】以下に添付図面を参照して、この
発明にかかるディスプレイ装置の好適な実施の形態を詳
細に説明する。図1は、本発明のディスプレイ装置の一
実施の形態を説明するための図である。本発明のディス
プレイ装置は、光走査型のタッチパネルを備えた構成で
あり、タッチパネル101と、タッチパネル101おい
て座標の入力が検出される領域(座標入力面)102上
にオペレータが指やペンをおいた点(タッチ点)を検出
する光学ユニット103L、103R、光学ユニットの
検出結果に基づいてタッチ点の座標を算出する制御部1
04、キーボード105aを有するコンピュータ105
を備えている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of a display device according to the present invention will be described below in detail with reference to the accompanying drawings. FIG. 1 is a diagram for explaining an embodiment of the display device of the present invention. The display device of the present invention has a configuration including a light-scanning touch panel. An operator places his / her finger or pen on a touch panel 101 and an area (coordinate input surface) 102 on the touch panel 101 where a coordinate input is detected. Optical units 103L and 103R for detecting a touched point (touch point), and a control unit 1 for calculating coordinates of the touched point based on the detection result of the optical unit.
04, computer 105 having keyboard 105a
It has.

【0018】本実施の形態のタッチパネル101の座標
入力面102は、PDP(Plasma Display Panel)、あ
るいはLCD(Liquid Crystal Display)などのディス
プレイ画面上にディスプレイ画面と一体的に構成されて
いる。コンピュータ105は、制御部104が算出した
座標に応じてディスプレイ画面の表示内容を制御する。
The coordinate input surface 102 of the touch panel 101 according to the present embodiment is integrally formed on a display screen such as a PDP (Plasma Display Panel) or an LCD (Liquid Crystal Display). The computer 105 controls the display content on the display screen according to the coordinates calculated by the control unit 104.

【0019】図1に示した構成のうち、光学ユニット1
03L、103Rは、座標入力面102の一辺の両端に
それぞれ設けられている。そして、タッチパネル101
に光を照射する光源103aをそれぞれ備え、座標入力
面102の全域に光をL照射している。光源103aか
ら照射された光Lは、座標入力面102の三方に設けら
れた再帰性反射部材106によって再帰的に反射され、
光学ユニット103L、103Rに設けられたCCD
(Charge Coupled Device)などの受光素子で受光され
る。
The optical unit 1 of the configuration shown in FIG.
03L and 103R are provided at both ends of one side of the coordinate input surface 102, respectively. And the touch panel 101
And a light source 103a for irradiating light to the entire surface of the coordinate input surface 102. Light L emitted from the light source 103a is recursively reflected by the retroreflective members 106 provided on three sides of the coordinate input surface 102,
CCD provided in the optical units 103L and 103R
(Charge Coupled Device).

【0020】受光素子は、再帰性反射部材106の広い
領域で反射される反射光を受光するために複数個組み合
わされて配置され、受光面を形成する。座標入力面にオ
ペレータが指やペンでタッチすると、タッチされた点
(タッチ点)を通る光が遮光され、光学ユニット103
L、103Rの受光素子で受光されることがない。この
ため、受光面においてタッチ点に対応する位置にある受
光素子の受光強度が周囲の受光素子よりも低くなり、受
光素子が出力する信号にディップと呼ばれる他よりも低
い光強度を示す箇所が発生する。このディップに基づい
て、光源によって照射された光のうちのタッチ点を通る
光の照射角度(例えば座標入力面102の光学ユニット
103L、103Rが設けられた辺と光の光軸とがなす
角度)が分かる。
A plurality of light receiving elements are arranged in combination in order to receive the reflected light reflected on a wide area of the retroreflective member 106, and form a light receiving surface. When the operator touches the coordinate input surface with a finger or a pen, light passing through the touched point (touch point) is blocked, and the optical unit 103 is touched.
No light is received by the light receiving elements L and 103R. For this reason, the light receiving intensity of the light receiving element at the position corresponding to the touch point on the light receiving surface is lower than that of the surrounding light receiving elements, and a signal which is output from the light receiving element has a portion called a dip, which has a lower light intensity than the others I do. Based on this dip, the irradiation angle of light passing through the touch point among the light emitted by the light source (for example, the angle between the side of the coordinate input surface 102 where the optical units 103L and 103R are provided and the optical axis of the light) I understand.

【0021】制御部104は、光学ユニット103Lか
ら照射されてタッチ点を通る光の照射角度と光学ユニッ
ト103Rから照射されてタッチ点を通る光の照射角度
とを各々について特定し、特定された角度を使って三角
測量法による演算を施すことによってタッチ点の座標を
算出する。タッチ点の座標はコンピュータ105に出力
され、コンピュータ105は、タッチ点の座標、すなわ
ち遮光検出の結果に基づいてディスプレイ画面の表示内
容を制御する。
The control unit 104 specifies an irradiation angle of light emitted from the optical unit 103L and passing through the touch point, and an irradiation angle of light emitted from the optical unit 103R and passing through the touch point. Is used to calculate the coordinates of the touch point by performing an operation by triangulation. The coordinates of the touch point are output to the computer 105, and the computer 105 controls the display contents on the display screen based on the coordinates of the touch point, that is, the result of the light blocking detection.

【0022】また、本実施の形態のディスプレイ装置
は、制御部104が光学ユニットによって検出された遮
光の状態が所定の条件である遮光条件に合致した場合に
遮光信号をコンピュータ105に出力する。コンピュー
タ105は、遮光信号を、イベント駆動を指示するイベ
ント信号と解釈して表示内容の制御を実行する。なお、
イベント駆動とは、イベントの発生に応じて一定の手順
の処理を実行することをいい、イベントとは、コンピュ
ータにとっての「特別なできごと」を指す。例えば、マ
ウスのクリックはイベントに相当する。
In the display device of the present embodiment, the control unit 104 outputs a light-shielding signal to the computer 105 when the light-shielding state detected by the optical unit matches a predetermined light-shielding condition. The computer 105 interprets the light-shielded signal as an event signal for instructing event driving, and controls display contents. In addition,
The event driving refers to executing a process of a certain procedure according to the occurrence of an event, and the event refers to a “special event” for a computer. For example, a mouse click corresponds to an event.

【0023】図2(a)〜(c)は、光学ユニットによって
検出された遮光の状態を説明するための図であって、い
ずれも縦軸は光学ユニット103L、103Rが出力す
る出力電圧を示し、横軸はディップの幅を示している。
なお、出力電圧は、受光素子の受光強度を電圧に変換し
たものであり、受光素子の受光強度に比例する。(a)
は、ペンや指が座標入力面102にタッチしたときに光
学ユニット103L、103Rから出力される信号であ
る。(b)は、座標入力面102にタッチがなされていな
いときに光学ユニット103L、103Rから出力され
る信号であり、(c)は、オペレータが故意に座標入力面
102の広い領域にタッチして照射光を遮った場合に光
学ユニット103L、103Rから出力される信号であ
り、プレゼンテーション中になされる座標の入力時には
出力され難い信号である。
FIGS. 2 (a) to 2 (c) are diagrams for explaining the light-shielded state detected by the optical unit, and the vertical axis indicates the output voltage output from the optical units 103L and 103R. The horizontal axis indicates the width of the dip.
The output voltage is obtained by converting the light receiving intensity of the light receiving element into a voltage, and is proportional to the light receiving intensity of the light receiving element. (a)
Are signals output from the optical units 103L and 103R when a pen or a finger touches the coordinate input surface 102. (b) is a signal output from the optical units 103L and 103R when the coordinate input surface 102 is not touched, and (c) is a signal when the operator intentionally touches a wide area of the coordinate input surface 102. These signals are output from the optical units 103L and 103R when the irradiation light is blocked, and are difficult to output when inputting coordinates performed during a presentation.

【0024】本実施の形態のディスプレイ装置は、座標
入力面における遮光の範囲と遮光時間に基づいて遮光条
件を設定する。遮光条件の判定は、遮光範囲については
ディップ幅、遮光時間については遮光条件を満たすディ
ップ幅を持つ信号が連続して検知される時間によってな
される。つまり、予め設定されたディップ幅以上のディ
ップが検出され、予め設定された所定の時間以上検出さ
れつづけた場合に座標入力面102において遮光がなさ
れたと判断する。図2中に遮光条件としてディップ幅W
dを示す。図2(a)〜(c)のうちディップ幅Wdを満たす
ディップは、(c)に示した信号にだけ表れている。
The display device according to the present embodiment sets the light shielding condition based on the light shielding range and the light shielding time on the coordinate input surface. The determination of the light-shielding condition is made based on the time during which a signal having a dip width satisfying the light-shielding condition is continuously detected. In other words, when a dip having a width equal to or greater than the preset dip width is detected and continues to be detected for a predetermined time or more, it is determined that light is shielded on the coordinate input surface 102. In FIG. 2, the dip width W is used as a light shielding condition.
Indicates d. 2A to 2C, the dip satisfying the dip width Wd appears only in the signal shown in FIG.

【0025】図3は、図1に示したコンピュータ105
の構成をより詳細に説明するための図である。コンピュ
ータ105は、ディスプレイ画面に関するソフトウェア
を制御するソフトウェア制御部301、タイマA302
a、タイマB302b、タイマC302cの3つのタイ
マで構成されるタイマ302を備えている。
FIG. 3 shows the computer 105 shown in FIG.
FIG. 3 is a diagram for describing the configuration of FIG. The computer 105 includes a software control unit 301 that controls software related to the display screen, and a timer A302.
a, a timer B 302b and a timer C 302c.

【0026】光学ユニット103L、103Rから出力
される受光状態を示す信号は、制御部104を介してコ
ンピュータ105のソフトウェア制御部301に信号S
Rとして入力される。ソフトウェア制御部301は、信
号SRに遮光条件として設定された幅以上の幅を持つデ
ィップがあった場合、タイマA302aによる計時を開
始する。タイマA302aは、計時を開始し、時間ta
が経過すると計時を終了する。
A signal indicating the light receiving state output from the optical units 103L and 103R is sent to the software control unit 301 of the computer 105 via the control unit 104 as a signal S.
Entered as R. When the signal SR has a dip having a width equal to or greater than the width set as the light-shielding condition, the software control unit 301 starts counting time by the timer A302a. The timer A 302a starts counting time, and the time ta
When the time elapses, the timing ends.

【0027】ソフトウェア制御部301は、この間、遮
光条件に合致するディップ幅以上の信号が出力されつづ
けていれば遮光状態が時間ta継続したと判断して遮光
信号SI1をタイマA302aを介して出力する。遮光
信号SI1は、ディスプレイ画面制御のイベント信号と
してディスプレイ画面制御用のソフトウェアを起動し、
ディスプレイ画面にツールバーを表示させる。
During this time, the software control unit 301 determines that the light-shielding state has continued for the time ta if a signal having a dip width or more that matches the light-shielding condition continues to be output, and outputs the light-shielding signal SI1 via the timer A302a. . The light shielding signal SI1 starts display screen control software as a display screen control event signal,
Display the toolbar on the display screen.

【0028】上記したように、遮光条件に遮光の範囲と
時間とを設定することによってオペレータが誤って座標
入力面の比較的広い範囲を短時間遮光した場合にソフト
ウェア制御部301が遮光を誤検出することを防ぐこと
ができる。また、オペレータが座標入力の動作の間に座
標入力面上に比較的長時間タッチした場合にもソフトウ
ェア制御部301が遮光を誤検出することを防ぐことが
できる。
As described above, if the operator erroneously shades a relatively wide range of the coordinate input surface for a short time by setting the shade range and time in the shade condition, the software control unit 301 erroneously detects the shade. Can be prevented. Further, even when the operator touches the coordinate input surface for a relatively long time during the coordinate input operation, the software control unit 301 can prevent erroneous detection of shading.

【0029】また、本実施の形態のディスプレイ装置
は、遮光条件となるディップ幅や遮光時間をオペレータ
が任意に設定、変更することができる。本実施の形態
は、コンピュータ105のキーボード105aを遮光条
件の設定、変更の手段として用いるものとする。
Further, in the display device of the present embodiment, an operator can arbitrarily set and change the dip width and the light shielding time as the light shielding condition. In the present embodiment, it is assumed that the keyboard 105a of the computer 105 is used as a means for setting and changing the light shielding condition.

【0030】ツールバーを表示させた後、ソフトウェア
制御部301は、タイマB302bをスタートして時間
tbの計時を開始する。そして、時間tbが経過する
と、計時を終了し、遮光信号SI2を出力する。遮光信号
SI2は、ソフトウェアを起動し、表示されているツール
バーの表示内容を予め指定されているものに切り替え
る。なお、表示中のツールバーがマウスやタッチ入力に
よって指定されてツールバーのメニューの一つが選択さ
れた場合、ソフトウェア制御部301は、遮光に基づく
動作を中止して指定されたメニューを実行する。
After displaying the toolbar, the software control section 301 starts the timer B 302b and starts measuring the time tb. Then, when the time tb has elapsed, the timer stops counting and outputs the light-shielded signal SI2. The light shielding signal SI2 activates software and switches the displayed content of the displayed toolbar to a predetermined one. When the displayed toolbar is designated by a mouse or touch input and one of the menus of the toolbar is selected, the software control unit 301 stops the operation based on the light shielding and executes the designated menu.

【0031】また、ソフトウェア制御部301は、信号
SRに遮光条件に合致するディップ幅がなくなると、遮
光が解除されたと判断してタイマC302cの計時を開
始する。タイマC302cは、時間tcが経過すると計
時を終了する。このときソフトウェア制御部301は、
遮光信号SI3を出力してソフトウェアを起動し、ディス
プレイ画面に表示されているツールバーを消去する。
When there is no longer any dip width in the signal SR that satisfies the light-shielding condition, the software control unit 301 determines that the light-shielding has been canceled and starts the timer C302c. When the time tc has elapsed, the timer C302c ends counting time. At this time, the software control unit 301
The software is started by outputting the light shielding signal SI3, and the toolbar displayed on the display screen is deleted.

【0032】図4は、以上述べた処理を説明するための
フローチャートである。本実施の形態のディスプレイ装
置は、先ず、ソフトウェア制御部301が光学ユニット
103L、103Rが出力した信号を入力し、この信号
に所定の長さ以上の幅(Wdとする)を持つディップが
あるか否か判断する(ステップS401)。判断の結
果、信号にWd以上の幅を持つディップがあった場合に
は(ステップS401:Yes)、タイマA302aの
計時を開始し(ステップS402)、タイマA302a
の計時が終了したか否か判断する(ステップS40
3)。
FIG. 4 is a flowchart for explaining the processing described above. In the display device of the present embodiment, first, the software control unit 301 inputs the signals output by the optical units 103L and 103R, and the signal has a dip having a width equal to or more than a predetermined length (Wd). It is determined whether or not it is (step S401). If the result of the determination is that the signal has a dip having a width equal to or greater than Wd (step S401: Yes), the timer A302a starts counting (step S402), and the timer A302a
It is determined whether or not the time measurement has been completed (step S40).
3).

【0033】ステップS403の判断の結果、計時が終
了していない場合には(ステップS403:No)、終
了するまで計時を続行する。一方、計時が終了した場合
には(ステップS403:Yes)、計時中に遮光状態
が継続していたか否か判断し(ステップS404)、タ
イマA302aによる計時の間、遮光の状態が継続され
ていた場合には(ステップS404:Yes)、ツール
バーを表示する(ステップS405)。
If the result of determination in step S403 is that the timing has not ended (step S403: No), the timing is continued until the end. On the other hand, if the time measurement has ended (step S403: Yes), it is determined whether or not the light-shielding state has continued during the time measurement (step S404). If the light-shielding state has continued during the time measurement by the timer A302a. (Step S404: Yes), a toolbar is displayed (Step S405).

【0034】なお、ステップS401において遮光が検
知されない(ステップS401:No)、ステップS4
04においてタイマA302aの計時中に遮光が解除さ
れた場合には(ステップS404:No)、ステップS
401に戻って遮光の検知を続ける。
If no light shielding is detected in step S401 (step S401: No), step S4
If the light shielding is canceled during the counting of the timer A302a in step 04 (step S404: No), step S404
Returning to step 401, the detection of light shielding is continued.

【0035】次に、ソフトウェア制御部301は、ステ
ップS405で表示されたツールバーのメニューのいず
れかがタッチ入力またはマウス入力によって選択された
か否か判断する(ステップS406)。メニューが選択
された場合(ステップS406:Yes)、メニューの
プログラムを起動するサブルーチンに入り(ステップS
415)、ステップS401に戻る。
Next, the software control unit 301 determines whether any of the menus of the toolbar displayed in step S405 has been selected by touch input or mouse input (step S406). When the menu is selected (step S406: Yes), a subroutine for starting the menu program is entered (step S406).
415), and return to step S401.

【0036】一方、メニューが選択されない場合(ステ
ップS406:No)、ソフトウェア制御部301は、
タイマB302bの計時を開始する(ステップS40
7)。そして、タイマB302bの計時が終了したか否
か判断し(ステップS408)、計時が終了していない
場合には計時が終了するまで計時を続ける(ステップS
408:No)。
On the other hand, if the menu is not selected (step S406: No), the software control unit 301
The timer B302b starts counting (step S40).
7). Then, it is determined whether or not the time measurement by the timer B 302b has ended (step S408). If the time measurement has not ended, the time measurement is continued until the time measurement ends (step S408).
408: No).

【0037】一方、タイマB302bの計時が終了した
場合(ステップS408:Yes)、ソフトウェア制御
部301は、表示されているツールバーの内容を予め指
定された内容に切り替える(ステップS409)。そし
て、内容が切り替えられたツールバーのメニューのいず
れかが選択されたか否か判断する(ステップS41
0)。判断の結果、選択された場合には(ステップS4
10:Yes)、メニューのプログラムを起動するサブ
ルーチンに入り(ステップS415)、ステップS40
1に戻る。
On the other hand, when the timer B302b finishes measuring the time (step S408: Yes), the software control unit 301 switches the displayed contents of the toolbar to the contents specified in advance (step S409). Then, it is determined whether or not any of the menus of the toolbar whose contents have been switched is selected (step S41).
0). As a result of the determination, when the user is selected (step S4
10: Yes), and enters a subroutine for activating a menu program (step S415), step S40
Return to 1.

【0038】また、ツールバーのメニューの選択がなさ
れない場合(ステップS410:No)、遮光が継続し
てなされているか否か判断する(ステップS411)。
継続して照射光が遮光されている場合(ステップS41
1:Yes)、ツールバーの表示内容の変更を指定され
た手順にしたがって続行する(ステップS409)。
If the menu of the toolbar is not selected (step S410: No), it is determined whether or not the light shielding is continuously performed (step S411).
When the irradiation light is continuously blocked (step S41)
1: Yes), the change of the display contents of the toolbar is continued according to the designated procedure (step S409).

【0039】一方、照射光の遮光が解除されたと判断さ
れた場合(ステップS411:No)、ソフトウェア制
御部301は、タイマC302cの計時を開始する(ス
テップS412)。そして、タイマC302cの計時が
終了したか否か判断し(ステップS413)、終了して
いない場合には(ステップS413:No)、計時を続
行する。また、タイマC302cの計時が終了すると
(ステップS413:Yes)、ツールバーを消去する
(ステップS414)。
On the other hand, if it is determined that the blocking of the irradiation light has been released (step S411: No), the software control unit 301 starts measuring the time of the timer C302c (step S412). Then, it is determined whether or not the time measurement by the timer C302c has been completed (step S413). If not (step S413: No), the time measurement is continued. When the timer C302c finishes counting (step S413: Yes), the toolbar is deleted (step S414).

【0040】なお、本発明のディスプレイ装置は、以上
述べた実施の形態の構成に限定されるものではない。す
なわち、以上述べた実施の形態では、遮光信号を、ツー
ルバーの表示や消去のトリガー信号として利用した。し
かし、本発明は、遮光信号をどのような制御のトリガー
として利用するものであってもよい。遮光信号をトリガ
ーに利用できる制御としては、他に、メニューバーの表
示、マウスの右クリック、左クリックの切り替え、描画
ソフトの描画、削除の切り替え、ページめくりなどが考
えられる。
The display device of the present invention is not limited to the configuration of the embodiment described above. That is, in the above-described embodiment, the light blocking signal is used as a trigger signal for displaying or erasing the toolbar. However, the present invention may use the light blocking signal as a trigger for any control. Other controls that can use the light-blocking signal as a trigger include displaying a menu bar, switching between right and left mouse clicks, switching between drawing and deleting drawing software, and turning pages.

【0041】また、上記した実施の形態のディスプレイ
装置は、2つの光学ユニットで座標入力面に光を照射
し、この再帰的に反射された反射光を受光してタッチ点
を検出する座標入力装置を用いて構成した。しかし、本
発明のディスプレイ装置は、このような座標入力装置が
適用されることに限定されるものでなく、他の構成の座
標入力装置を用いて構成することもできる。
The display device of the embodiment described above irradiates a coordinate input surface with two optical units and receives the recursively reflected light to detect a touch point. It constituted using. However, the display device of the present invention is not limited to the application of such a coordinate input device, and may be configured using a coordinate input device having another configuration.

【0042】次に、本発明のディスプレイ装置に適用可
能な他の座標入力装置の構成例について説明する。
Next, a configuration example of another coordinate input device applicable to the display device of the present invention will be described.

【0043】(適用可能な座標入力装置の構成例1)本
発明のディスプレイ装置に適用できる座標入力装置およ
びそれを用いたシステム(電子黒板システムという)に
ついて、添付の図面を参照しつつ詳細に説明する。
(Configuration Example 1 of Applicable Coordinate Input Device) A coordinate input device applicable to the display device of the present invention and a system using the same (referred to as an electronic blackboard system) will be described in detail with reference to the accompanying drawings. I do.

【0044】図5は、構成例1の座標入力装置の概略構
成を示す正面図である。この図5は、一例として、構成
例1の座標入力装置1を電子黒板の筆記面E(例えばホ
ワイトボード)の前面に装着した様子を示すものであ
る。この座標入力装置1は、電子黒板の筆記面Eとほぼ
同一のサイズを有する四角形状の空間、即ちオペレータ
が指やペン等の指示物体を用いて入力操作を行うための
入力領域2を有した筐体1aを備えている。この筐体1
aには、以下に説明する照明装置4、撮像装置7Lおよ
び7R、シェード8、光吸収部材9ならびに受光素子1
0が設けられている。なお、指示物体は、オペレータの
指、手、ペン等、任意の位置を指し示すことが可能なも
のであればどのようなものであっても良い。
FIG. 5 is a front view showing a schematic configuration of the coordinate input device of the first configuration example. FIG. 5 shows, as an example, a state in which the coordinate input device 1 of Configuration Example 1 is mounted on the front surface of a writing surface E (for example, a whiteboard) of an electronic blackboard. The coordinate input device 1 has a rectangular space having substantially the same size as the writing surface E of the electronic blackboard, that is, an input area 2 for an operator to perform an input operation using a pointing object such as a finger or a pen. A housing 1a is provided. This case 1
a includes an illumination device 4, imaging devices 7L and 7R, a shade 8, a light absorbing member 9, and a light receiving element 1 described below.
0 is provided. Note that the pointing object may be any object that can indicate an arbitrary position, such as an operator's finger, hand, or pen.

【0045】照明装置4は、入力領域2の上部ほぼ中央
に設けられており、光源(図6参照)からの光を用いて
筆記面Eに対して平行で、かつ、入力領域2の全体に行
き渡る光を出射するものである。なお、構成例1の座標
入力装置1における入力領域2は、実質的に、照明装置
4から筆記面Eの全面を覆うように出射される光によっ
て形成されることになる。
The illuminating device 4 is provided substantially at the center of the upper part of the input area 2 and is parallel to the writing surface E using light from a light source (see FIG. 6). It emits light that goes around. Note that the input area 2 in the coordinate input device 1 of the configuration example 1 is substantially formed by light emitted from the illumination device 4 so as to cover the entire writing surface E.

【0046】撮像装置7Lおよび7Rは、入力領域2の
上部の両端部であって照明装置4と同一辺上に互いに距
離Lを空けて設けられ、入力領域2に挿入された指示物
体を撮像するものである。撮像装置7Lおよび7Rは、
図5に示すように、画像情報(被写体像)を電気信号と
して出力する一次元イメージセンサ(一次元撮像素子)
であるCCD(Charge Coupled Device)5と、入力領
域2に挿入された指示物体の像をCCD5上に結像させ
る結像光学レンズ6とを少なくとも有している。なお、
CCD5および結像光学レンズ6は、距離f(図9参
照)を空けて配設される。
The image pickup devices 7L and 7R are provided at both ends on the upper side of the input area 2 and on the same side as the illuminating device 4 with a distance L therebetween, and pick up an image of the pointing object inserted into the input area 2. Things. The imaging devices 7L and 7R
As shown in FIG. 5, a one-dimensional image sensor (one-dimensional image sensor) that outputs image information (subject image) as an electric signal
And at least an imaging optical lens 6 for forming an image of the pointing object inserted into the input area 2 on the CCD 5. In addition,
The CCD 5 and the imaging optical lens 6 are arranged at a distance f (see FIG. 9).

【0047】シェード8は、照明装置4に設けられ、照
明装置4から入力領域2全体に対して均一な光を出射で
きるようにすると共に、出射された光が撮像装置7Lお
よび7Rに直接入射してしまうことを防止するためのも
のである。また、光吸収部材9は、入力領域2の上部以
外の周縁部に設けられ、照明装置4から出射された光を
吸収することによって光の反射を抑制するものである。
すなわち、光吸収部材9は、照明装置4から出射された
光に起因する反射光(散乱光)が撮像装置7Lおよび7
Rに入射してしまうことを防止するためのものである。
The shade 8 is provided on the illumination device 4 so that the illumination device 4 can emit uniform light to the entire input area 2 and the emitted light is directly incident on the imaging devices 7L and 7R. This is to prevent that. The light absorbing member 9 is provided at a peripheral portion other than the upper portion of the input region 2 and suppresses light reflection by absorbing light emitted from the lighting device 4.
That is, the light absorbing member 9 generates reflected light (scattered light) due to the light emitted from the illumination device 4 so that the imaging devices 7L and 7
This is for preventing incidence on R.

【0048】さらに、受光素子10(例えばPINフォ
トダイオード)は、入力領域2の下側両端部の光吸収部
材9上に設けられ、照明装置4から出射された光を受光
し、受光した光の強度に応じた信号を出力するものであ
る。
Further, the light receiving element 10 (for example, a PIN photodiode) is provided on the light absorbing members 9 at the lower end portions of the input area 2 to receive the light emitted from the illumination device 4 and to receive the received light. A signal corresponding to the intensity is output.

【0049】なお、図5に示したように、構成例1の座
標入力装置1においては、照明装置4ならびに撮像装置
7Lおよび7Rを入力領域2の上方に並べて設け、照明
装置4から光を出射する方向と、撮像装置7Lおよび7
Rから被写体を見る方向とが一致するように構成されて
いる。その結果、照明装置4から出射された光が撮像装
置7Lおよび7Rに直接入射してしまうことを防止でき
るだけでなく、撮像装置7Lおよび7R側から見た指示
物体に影が発生することを極力防止している。ただし、
照明装置4ならびに撮像装置7Lおよび7Rを、入力領
域2の上方ではなく例えば下方に設けることも可能であ
り、図5は照明装置4ならびに撮像装置7Lおよび7R
の取付位置を限定するものではない。
As shown in FIG. 5, in the coordinate input device 1 of the configuration example 1, the illuminating device 4 and the imaging devices 7L and 7R are arranged side by side above the input area 2, and light is emitted from the illuminating device 4. And the imaging devices 7L and 7
The configuration is such that the direction in which the subject is viewed from R matches. As a result, it is possible not only to prevent the light emitted from the illumination device 4 from directly entering the imaging devices 7L and 7R, but also to minimize the occurrence of a shadow on the pointing object viewed from the imaging devices 7L and 7R. are doing. However,
The illumination device 4 and the imaging devices 7L and 7R can be provided, for example, below the input area 2 instead of above, and FIG. 5 shows the illumination device 4 and the imaging devices 7L and 7R.
It does not limit the mounting position.

【0050】詳細な説明については後述することにする
が、指やペン等の指示物体が入力領域2に挿入される
と、照明装置4から出射された光が指示物体によって乱
反射され、乱反射された光の一部が撮像装置7Lおよび
7RのCCD5でそれぞれ検出される。換言すれば、構
成例1における撮像装置7Lおよび7Rは、入力領域2
に指示物体が挿入された場合にのみ感度を持ち、乱反射
された光を介して入力領域2に挿入された指示物体の像
を捕らえる(撮像する)ものである。
As will be described in detail later, when a pointing object such as a finger or a pen is inserted into the input area 2, the light emitted from the illumination device 4 is diffusely reflected by the pointing object and diffused. Part of the light is detected by the CCDs 5 of the imaging devices 7L and 7R, respectively. In other words, the imaging devices 7L and 7R in the configuration example 1 have the input area 2
Has sensitivity only when the pointing object is inserted into the input area 2, and captures (images) the image of the pointing object inserted into the input area 2 via the irregularly reflected light.

【0051】ところで、以下の説明において、指やペン
等の指示物体の一部が筆記面Eに接触し、接触したまま
筆記面Eに沿って移動している状態をペンダウン状態と
呼ぶことにする。このペンダウン状態を万年筆やボール
ペンを用いた筆記状態と対比すると、ペン先が紙に接触
し、ペン先からインクが出ている状態に該当する。ま
た、指示物体が筆記面Eに対して垂直方向に移動し、筆
記面Eとの接触がなくなる状態をペンアップ状態と呼ぶ
ことにする。このペンアップ状態を万年筆やボールペン
を用いた筆記状態と対比すると、文字のストローク間や
文字間の移動期間にペン先が紙から離れ、ペン先からイ
ンクが出ていない状態に該当する。したがって、座標入
力装置1において指示物体の状態がペンアップ状態であ
るか、ペンダウン状態であるかを判別することを可能に
することにより、万年筆やボールペンで紙に文字や図形
を描く筆記動作を電子的に模倣することが可能となる。
In the following description, a state in which a part of the pointing object such as a finger or a pen touches the writing surface E and moves along the writing surface E while maintaining contact is referred to as a pen-down state. . When this pen-down state is compared with a writing state using a fountain pen or a ball-point pen, it corresponds to a state in which the pen tip comes into contact with paper and ink comes out from the pen tip. A state in which the pointing object moves in a direction perpendicular to the writing surface E and the contact with the writing surface E disappears is referred to as a pen-up state. When this pen-up state is compared with a writing state using a fountain pen or a ball-point pen, it corresponds to a state in which the pen tip is separated from the paper during a stroke of a character or a movement period between characters, and no ink is discharged from the pen tip. Accordingly, by enabling the coordinate input device 1 to determine whether the state of the pointing object is the pen-up state or the pen-down state, the writing operation of drawing characters and figures on paper with a fountain pen or a ballpoint pen can be performed electronically. It is possible to imitate the target.

【0052】構成例1の座標入力装置1において、撮像
装置7Lおよび7Rと同一の視点で筆記面Eを見た場
合、筆記面E上には、照明装置4から出射された光によ
って筆記面Eの垂直方向に対してある厚みを持つ光の層
が形成されていると理解される。ここで、照明装置4か
ら筆記面Eすれすれに光が出射されている場合を想定
し、上記ペンアップ・ペンダウン状態について考えてみ
ることにする。
In the coordinate input device 1 of the first configuration example, when the writing surface E is viewed from the same viewpoint as the imaging devices 7L and 7R, the writing surface E is placed on the writing surface E by the light emitted from the illumination device 4. It is understood that a light layer having a certain thickness in the vertical direction is formed. Here, it is assumed that light is emitted from the lighting device 4 just below the writing surface E, and the pen-up / pen-down state will be considered.

【0053】指示物体を徐々に入力領域2に挿入してい
くにつれ、指示物体によって反射される光量が増加して
いくことになる。ペンダウン状態は、指示物体が光の層
を全て貫いて筆記面Eに接触している状態であるため、
指示物体によって反射される光量が最も多い状態であ
る。一方、ペンアップ状態では、指示物体が筆記面Eか
ら浮いている状態であるため、指示物体によって反射さ
れる光量はペンダウン状態より減少することになる。換
言すれば、ペンアップ状態とペンダウン状態とでは、指
示物体が照明装置4から出射された光によって照明され
る面積、即ち光を反射する面積が異なることになる。構
成例1の座標入力装置1においては、撮像装置7Lおよ
び7Rで撮像した指示物体の像の光量に応じてペンアッ
プ状態であるかペンダウン状態であるかを判定すること
が可能となる。
As the pointing object is gradually inserted into the input area 2, the amount of light reflected by the pointing object increases. The pen-down state is a state in which the pointing object is in contact with the writing surface E through the entire light layer,
In this state, the amount of light reflected by the pointing object is the largest. On the other hand, in the pen-up state, the pointing object is floating above the writing surface E, so that the amount of light reflected by the pointing object is smaller than in the pen-down state. In other words, the area in which the pointing object is illuminated by the light emitted from the illumination device 4, that is, the area in which the light is reflected, differs between the pen-up state and the pen-down state. In the coordinate input device 1 of the configuration example 1, it is possible to determine whether the pen is in the pen-up state or the pen-down state according to the light amount of the image of the pointing object imaged by the imaging devices 7L and 7R.

【0054】ただし、筆記面Eから離れた位置に光の層
が形成されている場合、筆記面Eから光の層までの距離
に応じて、ペンアップ状態およびペンダウン状態におけ
る指示物体の像の光量の変化が生じにくくなる。すなわ
ち、ペンアップ・ペンダウン状態を判別するに当たり、
筆記面Eから光の層までの間が不感領域となる。具体的
には、指示物体が筆記面Eに接触していない状態(ペン
アップ状態)であっても、筆記面Eから離れた位置に光
の層が形成されている場合にはペンダウン状態と同一の
光量が得られることがあり、ペンダウン状態と判定され
てしまう虞があるということである。このような状態で
筆記面Eに文字列を書き込んだ場合、指示物体の動きの
全てが文字入力のための動きと判定され、文字同士や単
語同士がつながってしまって入力装置として不都合が生
じることになる。
However, when the light layer is formed at a position distant from the writing surface E, the light amount of the image of the pointing object in the pen-up state and the pen-down state according to the distance from the writing surface E to the light layer Changes hardly occur. That is, in determining the pen-up / pen-down state,
The area from the writing surface E to the light layer is a dead area. Specifically, even when the pointing object is not in contact with the writing surface E (pen-up state), when the light layer is formed at a position distant from the writing surface E, the pointing object is the same as the pen-down state. That is, there is a possibility that the amount of light is obtained, and there is a possibility that the pen may be determined to be in the pen down state. When a character string is written on the writing surface E in such a state, all the movements of the pointing object are determined to be movements for character input, and characters or words are connected to each other, which may cause inconvenience as an input device. become.

【0055】また、筆記面Eのどの位置でも前述したペ
ンアップ・ペンダウン状態を正確に判定することができ
なければならない。したがって、照明装置4から出射さ
れる光の筆記面Eに対する高さと平行度を正確に調整す
る必要がある。
The pen-up / pen-down state described above must be able to be accurately determined at any position on the writing surface E. Therefore, it is necessary to accurately adjust the height and parallelism of the light emitted from the illumination device 4 with respect to the writing surface E.

【0056】そこで、照明装置4の構造について具体的
に説明する。図6は、照明装置4の概略構成図である。
図6に示すように、光源3から筆記面Eに向けて出射さ
れた光は、光学レンズ11によって平行光に変換され
る。この平行光は、円弧型スリット12を通過した後、
円錐ミラー13の傾斜面13aにおいて反射されること
によって、筆記面Eに対して平行で、かつ、入力領域2
の全体に行き渡る光となる。
Therefore, the structure of the lighting device 4 will be specifically described. FIG. 6 is a schematic configuration diagram of the lighting device 4.
As shown in FIG. 6, light emitted from the light source 3 toward the writing surface E is converted by the optical lens 11 into parallel light. After passing through the arc-shaped slit 12, this parallel light
By being reflected on the inclined surface 13a of the conical mirror 13, the input region 2 is parallel to the writing surface E and
It becomes light that permeates the whole.

【0057】ここで、円錐ミラー13について説明す
る。図6には、円錐ミラー13の断面が示されている。
図6に示すように、円錐ミラー13の中心には、軸14
が設けられている。この軸14は、筐体1aに設けられ
た穴(図示せず)に挿入されて円錐ミラー13を筐体1
aに取り付けるために利用されるだけでなく、後述する
ように、光源3からの光を反射する角度を調整するため
にも利用される。
Here, the conical mirror 13 will be described. FIG. 6 shows a cross section of the conical mirror 13.
As shown in FIG. 6, the center of the conical mirror 13 has an axis 14
Is provided. The shaft 14 is inserted into a hole (not shown) provided in the housing 1a to move the conical mirror 13 to the housing 1a.
Not only is it used to attach to the light source 3a, but also to adjust the angle at which light from the light source 3 is reflected, as described later.

【0058】軸14の端部には、球形状の角度調整部1
5が設けられている。この角度調整部15を前後左右に
動かすことにより、円弧型スリット12を通過した光の
反射角度をX−Y方向において変更することができるた
め、筆記面Eに対する光の平行度を調整することができ
る。
At the end of the shaft 14, a spherical angle adjuster 1 is provided.
5 are provided. By moving the angle adjusting unit 15 back and forth and right and left, the reflection angle of the light passing through the arc-shaped slit 12 can be changed in the X-Y directions, so that the parallelism of the light with respect to the writing surface E can be adjusted. it can.

【0059】角度調整部15は、角度調整部15を動か
して円錐ミラー13による光の反射角度を調整するため
のアクチュエータ16に接続される。アクチュエータ1
6は、円錐ミラー13で反射された光を受光した受光素
子10の受光パワーに基づいて、後述するマイコン(図
7参照)によって駆動制御される。すなわち、アクチュ
エータ16は、マイコンによる制御に基づいて角度調整
部15を動作させ、受光素子10で受光される光の受光
パワーが最大になるように(つまり、受光素子10に対
して円錐ミラー13からの反射光が垂直に入射するよう
に)、円錐ミラー13による光の反射角度を調整する。
The angle adjusting section 15 is connected to an actuator 16 for moving the angle adjusting section 15 to adjust the angle of reflection of light by the conical mirror 13. Actuator 1
6 is driven and controlled by a microcomputer (see FIG. 7), which will be described later, based on the light receiving power of the light receiving element 10 that has received the light reflected by the conical mirror 13. That is, the actuator 16 operates the angle adjusting unit 15 based on the control of the microcomputer so that the light receiving power of the light received by the light receiving element 10 becomes maximum (that is, the light receiving element 10 Is adjusted so that the reflected light is incident perpendicularly).

【0060】このように、円錐ミラー13による光の反
射角度を自動的に調整することにより、筆記面Eに対し
て平行な光を照明装置4から出射することが可能とな
る。したがって、指示物体の位置座標の検出精度の向上
を図ると共に、ペンアップ・ペンダウン状態を正確に判
定することが可能となる。
As described above, by automatically adjusting the reflection angle of light by the conical mirror 13, light parallel to the writing surface E can be emitted from the illumination device 4. Therefore, it is possible to improve the detection accuracy of the position coordinates of the pointing object, and to accurately determine the pen-up / pen-down state.

【0061】図7は、構成例1の座標入力装置1のブロ
ック構成図である。図7に示すように、座標入力装置1
は、各部の制御を受け持つマイコン17を備えている。
マイコン17は、各部を集中的に制御するCPU19、
制御プログラム等の固定的データを格納するROM2
0、可変的なデータを格納するRAM21等によって構
成されている。
FIG. 7 is a block diagram of the coordinate input device 1 of the first configuration example. As shown in FIG. 7, the coordinate input device 1
Is provided with a microcomputer 17 which controls each unit.
The microcomputer 17 includes a CPU 19 for centrally controlling each unit,
ROM 2 for storing fixed data such as control programs
0, a RAM 21 for storing variable data, and the like.

【0062】また、このマイコン17には、前述した光
源3、撮像装置7Lおよび7R、受光素子10、アクチ
ュエータ16や、後述するように所定の時間を計時する
タイマ22、撮像装置7Lおよび7Rで撮像された指示
物体の像を利用して指示物体の位置座標を算出するxy
演算器23、座標入力装置1をコンピュータ(例えば、
パーソナルコンピュータ)に接続するためのインターフ
ェース(I/F)18等がバス28を介して接続されて
いる。
The microcomputer 17 includes the light source 3, the image pickup devices 7L and 7R, the light receiving element 10, the actuator 16, the timer 22 for measuring a predetermined time as described later, and the image pickup devices 7L and 7R. Xy for calculating the position coordinates of the pointing object using the image of the indicated pointing object
The arithmetic unit 23 and the coordinate input device 1 are connected to a computer (for example,
An interface (I / F) 18 for connecting to a personal computer) is connected via a bus 28.

【0063】なお、xy演算器23には、入力領域2に
挿入された指示物体に発生した影が指示物体の位置座標
を特定する処理に影響を及ぼすことがないようにするた
めの処理を実行する影部補正部27が設けられている。
また、RAM21には、後述するようにして特定された
指示物体の位置座標を一時的に記憶するために用いられ
る座標メモリ24が設けられている。
The xy calculator 23 executes processing for preventing the shadow generated on the pointing object inserted into the input area 2 from affecting the processing for specifying the position coordinates of the pointing object. A shadow correction unit 27 is provided.
Further, the RAM 21 is provided with a coordinate memory 24 used for temporarily storing the position coordinates of the pointing object specified as described later.

【0064】さらに、CCD5には、ひずみ補正部25
とパターン認識部26とが設けられている。ひずみ補正
部25は、CCD5で得られた画像情報の光学的ひずみ
による計測誤差を電気的に補正する。これにより、画像
情報の高品質化が図られている。また、パターン認識部
26は、複数の指示物体を判別する処理を実行し、複数
の指示物体を同時に使用して入力操作を行うことを可能
にする。例えば、各指示物体にそれぞれ異なる特殊なパ
ターンを付与しておき、CCD5を介してパターン認識
部26が指示物体に付与されたパターンを認識・判別す
る。その結果、後述するように、複数個の指示物体によ
ってそれぞれ指し示された位置の座標を得ることが可能
となる。
Further, the CCD 5 has a distortion correcting unit 25.
And a pattern recognition unit 26. The distortion correction unit 25 electrically corrects a measurement error due to optical distortion of image information obtained by the CCD 5. Thereby, high quality of the image information is achieved. In addition, the pattern recognition unit 26 performs a process of determining a plurality of pointing objects, and enables an input operation to be performed using a plurality of pointing objects simultaneously. For example, a different special pattern is given to each pointing object, and the pattern recognition unit 26 recognizes and determines the pattern given to the pointing object via the CCD 5. As a result, as described later, it is possible to obtain the coordinates of the positions indicated by the plurality of pointing objects.

【0065】続いて、ROM20に格納された制御プロ
グラムに基づいて、マイコン17によって実行される処
理について説明する。なお、円錐ミラー13による光の
反射角度を調整するため処理については前述した通りで
あるため、ここでは、入力領域2に挿入されたオペレー
タの指やペン等の指示物体の位置座標を求める処理を中
心に、マイコン17によって実行される処理について説
明する。図8および図9は、入力領域2内に挿入された
指示物体の位置座標を求める処理の説明図である。な
お、図8は入力領域2内の任意の位置が指示物体として
のペンAで指し示された様子を示し、図9は撮像装置7
LおよびペンAの関係を明らかにするために図8の一部
を拡大して示したものである。
Next, the processing executed by the microcomputer 17 based on the control program stored in the ROM 20 will be described. Since the process for adjusting the reflection angle of the light by the conical mirror 13 is as described above, the process for obtaining the position coordinates of the pointing object such as the operator's finger or pen inserted in the input area 2 is performed here. The processing executed by the microcomputer 17 will be mainly described. FIG. 8 and FIG. 9 are explanatory diagrams of the processing for obtaining the position coordinates of the pointing object inserted into the input area 2. 8 shows a state in which an arbitrary position in the input area 2 is pointed by the pen A as the pointing object, and FIG.
FIG. 9 is an enlarged view of a part of FIG. 8 to clarify the relationship between L and pen A.

【0066】図8に示すように、筆記面E上の適当な位
置(x,y)に文字や図形等を記述するため、入力領域
2にペンA(指示物体)が挿入されると、挿入されたペ
ンAが照明装置4から出射された光によって照明され
る。照明されたペンAの部分の像である被写体像は、撮
像装置7Lおよび7Rにおいて、結像光学レンズ6を介
してCCD5上に結像される。図7に示したxy演算器
23は、このようにしてCCD5上に結像された被写体
像に基づいて、ペンAの位置座標(x,y)を算出する
処理を実行する。
As shown in FIG. 8, when a pen A (pointing object) is inserted into the input area 2 in order to describe a character or a figure at an appropriate position (x, y) on the writing surface E, the insertion is performed. The pen A is illuminated by the light emitted from the illumination device 4. The illuminated subject image, which is the image of the pen A, is formed on the CCD 5 via the imaging optical lens 6 in the imaging devices 7L and 7R. The xy calculator 23 shown in FIG. 7 executes a process of calculating the position coordinates (x, y) of the pen A based on the subject image formed on the CCD 5 in this manner.

【0067】そこで、xy演算器23によるペンAの位
置座標(x,y)の算出処理について具体的に説明す
る。ここでは、図9に示す撮像装置7Lで撮像した被写
体像を例にとってペンAの位置座標(x,y)の算出処
理を説明する。なお、以下に説明する処理は、撮像装置
7Rで撮像した被写体像に対しても同様に実行される。
The calculation process of the position coordinates (x, y) of the pen A by the xy calculator 23 will be specifically described. Here, the calculation process of the position coordinates (x, y) of the pen A will be described by taking a subject image captured by the imaging device 7L illustrated in FIG. 9 as an example. Note that the processing described below is similarly performed on a subject image captured by the imaging device 7R.

【0068】図10は、撮像装置7LのCCD5上に結
像された被写体像の位置とCCD5によって撮像された
被写体像の光量との関係の一例を示すグラフである。構
成例1の座標入力装置は、図8に示したように入力領域
2の周囲に光吸収部材9が設けられている。このため、
入力領域2に照射された光のうち被写体にあたって反射
されたものだけが撮像装置に撮像される。このため、被
写体像を示す信号が周囲よりも大きい光量を示す点で実
施の形態1で述べた構成と相違する。このため、構成例
1の座標入力装置を本発明のディスプレイ装置に適用す
る場合、遮光信号は、被写体像を示す信号の幅Δhが予
め定められた長さ以上の値を持った場合に出力される。
FIG. 10 is a graph showing an example of the relationship between the position of the subject image formed on the CCD 5 of the image pickup device 7L and the light amount of the subject image picked up by the CCD 5. In the coordinate input device of the configuration example 1, a light absorbing member 9 is provided around the input area 2 as shown in FIG. For this reason,
Of the light applied to the input area 2, only the light reflected on the subject is imaged by the imaging device. For this reason, the configuration differs from the configuration described in the first embodiment in that the signal indicating the subject image indicates a larger amount of light than the surroundings. Therefore, when the coordinate input device of Configuration Example 1 is applied to the display device of the present invention, the light blocking signal is output when the width Δh of the signal indicating the subject image has a value equal to or greater than a predetermined length. You.

【0069】図10において、CCD5上に結像された
被写体像の位置は、図9に示すCCD5の中心5aから
結像点までの距離hを用いて表されている。CCD5で
撮像された被写体像は、CCD5上の結像位置と光量と
によって、図10に示すような波形となって現れる。こ
こで、被写体像の光量に関するスレシュホルドレベルを
図10中の点線で示すレベルに設定した場合、被写体像
の大きさΔhは以下の式によって算出される。 Δh=h2−h1 ・・・・・(1) ただし、h1およびh2は、図10に示すように、CC
D5の中心5aからスレシュホルドレベルと同一のレベ
ルの光量が得られた位置までの距離を示したものであ
る。
In FIG. 10, the position of the subject image formed on the CCD 5 is represented by using the distance h from the center 5a of the CCD 5 to the image forming point shown in FIG. The subject image picked up by the CCD 5 appears as a waveform as shown in FIG. 10 according to the image forming position on the CCD 5 and the amount of light. Here, when the threshold level relating to the light quantity of the subject image is set to the level indicated by the dotted line in FIG. 10, the size Δh of the subject image is calculated by the following equation. Δh = h2−h1 (1) where h1 and h2 are, as shown in FIG.
It shows the distance from the center 5a of D5 to the position where the light amount at the same level as the threshold level is obtained.

【0070】また、図10に示す被写体像の中心h(C
CD5の中心5aから結像点までの距離h)は、以下の
式によって算出される。 h=h1+(Δh/2) ・・・・・(2) 図9に示すように、CCD5の中心5aから結像点まで
の距離hは、CCD5の中心線と、ペンAおよび結像点
を結ぶ線とで形成される角度θに依存する。この角度θ
は、以下の式によって算出される。 θ=arctan(h/f) ・・・・・(3) ただし、fは、図9に示すように、結像光学レンズ6と
CCD5との間の距離で、結像光学レンズ6の焦点距離
に該当する。
The center h (C) of the subject image shown in FIG.
The distance h) from the center 5a of the CD 5 to the imaging point is calculated by the following equation. h = h1 + (Δh / 2) (2) As shown in FIG. 9, the distance h from the center 5a of the CCD 5 to the imaging point is determined by the center line of the CCD 5, the pen A and the imaging point. It depends on the angle θ formed by the connecting line. This angle θ
Is calculated by the following equation. θ = arctan (h / f) (3) where f is a distance between the imaging optical lens 6 and the CCD 5 and a focal length of the imaging optical lens 6, as shown in FIG. Corresponds to.

【0071】また、図9に示すように、撮像装置7Lと
ペンAとの角度βは、以下の式によって算出される。 β=α−θ ・・・・・(4) ただし、αは、撮像装置7Lおよび7Rを結ぶ基準線と
CCD5の中心線との間の角度であり、撮像装置7Lの
取付角度を示している。
As shown in FIG. 9, the angle β between the imaging device 7L and the pen A is calculated by the following equation. β = α−θ (4) where α is the angle between the reference line connecting the imaging devices 7L and 7R and the center line of the CCD 5, and indicates the mounting angle of the imaging device 7L. .

【0072】以上の処理を撮像装置Rで撮像した被写体
像についても実行することにより、撮像装置7Rおよび
ペンAとの角度βを算出することができる。ここでは、
図8に示したように、撮像装置7LとペンAとの角度を
β1および撮像装置7RおよびペンAとの角度をβ2と
する。
By executing the above processing for the subject image picked up by the image pickup device R, the angle β between the image pickup device 7R and the pen A can be calculated. here,
As shown in FIG. 8, the angle between the imaging device 7L and the pen A is β1, and the angle between the imaging device 7R and the pen A is β2.

【0073】そして、ペンAの位置座標(x,y)は、
三角測量の原理に基づく以下の式によって算出される。 x=Ltanβ2/(tanβ1+tanβ2) ・・・・・(5) y=xtanβ1 ・・・・・(6)
The position coordinates (x, y) of the pen A are
It is calculated by the following equation based on the principle of triangulation. x = Ltanβ2 / (tanβ1 + tanβ2) (5) y = xtanβ1 (6)

【0074】加えて、図10に示した被写体像の光量の
レベルの変化をモニタすることによって、ペンAの状態
がペンアップ・ペンダウン状態やダブルクリック状態で
あるか否かを判定することも可能である。
In addition, it is also possible to determine whether the state of the pen A is a pen-up / pen-down state or a double-click state by monitoring the change in the level of the light amount of the subject image shown in FIG. It is.

【0075】以上のような処理によって求めたペンAの
位置座標(x,y)をそのままI/F18を介してコン
ピュータに入力することにしても良いが、以下に説明す
る補正処理を実行することにより、より正確なペンAの
位置座標(x,y)を求めることができる。
The position coordinates (x, y) of the pen A obtained by the above processing may be directly inputted to the computer via the I / F 18, but the correction processing described below is executed. Thus, more accurate position coordinates (x, y) of the pen A can be obtained.

【0076】このように補正処理を実行した方が良いの
は、入力領域2中の位置に応じて、撮像装置7Lおよび
7Rから見たペンAに図11に示すような影Sが発生す
るからである(図11では、ペンAの断面を円としてい
る)。具体的に、図12に示すように、影Sのない状態
でCCD5上に結像されたペンAの被写体像の大きさΔ
h’は、影Sがある(式(1)で算出された)ペンAの
被写体像の大きさΔhより大きくなる。
The reason why the correction processing is preferably performed is that a shadow S as shown in FIG. 11 is generated on the pen A viewed from the imaging devices 7L and 7R according to the position in the input area 2. (In FIG. 11, the cross section of the pen A is a circle.) Specifically, as shown in FIG. 12, the size Δ of the object image of the pen A formed on the CCD 5 without the shadow S
h ′ is larger than the size Δh of the object image of the pen A having the shadow S (calculated by the equation (1)).

【0077】したがって、影Sが発生した場合には、C
CD5の中心5aから結像点までの距離hの算出(式
(2))に誤りを生じさせ、算出されたペンAの位置座
標が不正確なものとなる。したがって、正確な位置座標
を算出するためには、ペンAに影Sが存在することを考
慮する必要がある。そこで、以下では、影の存在を考慮
してCCD5の中心5aから結像点までの距離hを求め
る方法について説明することにより、より正確なペンA
の位置座標(x,y)を求めるための方法を説明する。
Therefore, when the shadow S occurs, C
An error occurs in the calculation of the distance h from the center 5a of the CD 5 to the imaging point (formula (2)), and the calculated position coordinates of the pen A become inaccurate. Therefore, in order to calculate accurate position coordinates, it is necessary to consider the existence of the shadow S on the pen A. Therefore, in the following, a method of obtaining the distance h from the center 5a of the CCD 5 to the image forming point in consideration of the existence of a shadow will be described, whereby a more accurate pen A
A method for obtaining the position coordinates (x, y) of the image will be described.

【0078】まず、撮像装置7LのCCD5上に結像さ
れたペンAの被写体像に基づいて、照明装置4から出射
された光によって照明されたペンAの部分の幅、即ち図
11に示す被写体幅ΔHを求める処理について説明す
る。この場合、CCD5上に結像される被写体像の像倍
率は、撮像装置7Lおよび7RからペンAまでの距離D
(図9および図11参照)に応じて変化することを考慮
する必要がある。図13は、撮像装置7LのCCD5上
に結像された被写体像の位置、CCD5が撮像した被写
体像の光量、および距離Dの関係の一例を示すグラフで
ある。
First, based on the object image of the pen A formed on the CCD 5 of the imaging device 7L, the width of the portion of the pen A illuminated by the light emitted from the illumination device 4, that is, the object shown in FIG. A process for obtaining the width ΔH will be described. In this case, the image magnification of the subject image formed on the CCD 5 is the distance D from the imaging devices 7L and 7R to the pen A.
(See FIGS. 9 and 11). FIG. 13 is a graph illustrating an example of the relationship between the position of the subject image formed on the CCD 5 of the imaging device 7L, the light amount of the subject image captured by the CCD 5, and the distance D.

【0079】CCD5上に結像される被写体像の像倍率
の違いは、図13に示すようにCCD5の出力幅の違い
に現れる。すなわち、距離Dが長いと、Δhで示すよう
な大きさの被写体像となり、一方、距離Dが短いと、Δ
h’で示すような大きさの被写体像となる。この距離D
は、式(5)および(6)で算出したペンAの位置座標
(x,y)および式(3)で算出した角度θに基づいて
算出される。
The difference in the image magnification of the subject image formed on the CCD 5 appears in the difference in the output width of the CCD 5 as shown in FIG. That is, when the distance D is long, the subject image has a size as indicated by Δh.
A subject image having a size indicated by h ′ is obtained. This distance D
Is calculated based on the position coordinates (x, y) of the pen A calculated by the equations (5) and (6) and the angle θ calculated by the equation (3).

【0080】そこで、照明装置4から出射された光によ
って照明されたペンAの部分の幅、即ち図11に示すペ
ンAの被写体幅ΔHは、以下の式によって算出される。
なお、この処理は、xy演算器23および影部補正部2
7のいずれが実行しても良い。 ΔH=(D/f)Δh ・・・・・(7)
The width of the pen A illuminated by the light emitted from the illumination device 4, that is, the subject width ΔH of the pen A shown in FIG. 11, is calculated by the following equation.
This processing is performed by the xy calculator 23 and the shadow correction unit 2.
7 may be performed. ΔH = (D / f) Δh (7)

【0081】そして、影部補正部27は、例えば、制御
プログラムと共にROM20に予め格納しておいた実際
のペンAの被写体幅ΔH’に基づいて、被写体像の中心
h(CCD5の中心5aから結像点までの距離h)を補
正する処理を実行する。図12に示したように、補正さ
れた被写体像の中心をh’とする場合、中心h’は以下
の式によって近似値として算出される。 h’=h+(f/D)(ΔH’−ΔH)/2 ・・・・・(8)
Then, the shadow correcting section 27 connects the center h of the object image (from the center 5a of the CCD 5 to the center 5a) based on the actual object width ΔH 'of the pen A stored in the ROM 20 in advance together with the control program. A process for correcting the distance h) to the image point is executed. As shown in FIG. 12, when h 'is the center of the corrected subject image, the center h' is calculated as an approximate value by the following equation. h ′ = h + (f / D) (ΔH′−ΔH) / 2 (8)

【0082】なお、上記式(7)に代えて、以下の式
(7’)を用いることによっても図11に示したペンA
の被写体幅ΔHを算出することができる。この場合、光
源3および被写体(ペンA)を結ぶ直線と式(2)を用
いて求めた被写体像の中心hおよび被写体(ペンA)を
結ぶ直線とがなす角γを求める。そして、この角γおよ
びROM20に予め格納しておいた実際のペンAの被写
体幅ΔH’を式(7’)に代入することにより、CCD
5上の被写体像の中心hから見たペンAの被写体幅ΔH
が算出される。
The pen A shown in FIG. 11 can be obtained by using the following equation (7 ') instead of the above equation (7).
Can be calculated. In this case, an angle γ formed by a straight line connecting the light source 3 and the subject (pen A) and a straight line connecting the center (h) of the subject image and the subject (pen A) obtained using Expression (2) is obtained. By substituting the angle γ and the actual subject width ΔH ′ of the pen A stored in the ROM 20 in advance into the equation (7 ′), the CCD
5 the subject width ΔH of the pen A viewed from the center h of the subject image on
Is calculated.

【数1】 その後、算出された値が式(8)に代入される結果、被
写体像の中心h’が算出されることになる。
(Equation 1) After that, the calculated value is substituted into Expression (8), so that the center h ′ of the subject image is calculated.

【0083】同様に、撮像装置7R側についても、被写
体幅ΔHを求めると共に、被写体像の中心h’を求める
処理が実行される。
Similarly, the processing for obtaining the object width ΔH and obtaining the center h ′ of the object image is also performed on the imaging device 7R side.

【0084】その後、xy演算器23は、影部補正部2
7で得た中心h’の値を利用して、ペンAの位置座標
(x,y)を算出する処理を再度実行する。すなわち、
影部補正部27で得た中心h’の値を利用して、式
(3)から式(6)に示した処理を実行し、ペンAの位
置座標を算出する。その結果、正確な位置座標を算出す
ることが可能となる。
Thereafter, the xy calculator 23 outputs the shadow correction unit 2
The process of calculating the position coordinates (x, y) of the pen A using the value of the center h ′ obtained in 7 is executed again. That is,
Using the value of the center h ′ obtained by the shadow correction unit 27, the processing shown in Expressions (3) to (6) is executed to calculate the position coordinates of the pen A. As a result, accurate position coordinates can be calculated.

【0085】なお、ここでは一例として、座標入力装置
1で使用されるペンAの被写体幅ΔH’のデータをRO
M20に予め格納しておくことにしたが、使用するペン
を変更することができるように、例えば不揮発性のRA
Mに被写体幅ΔH’のデータを格納することにし、必要
に応じてデータを書き換えることを可能にしても良い。
Here, as an example, the data of the subject width ΔH ′ of the pen A used in the coordinate input device 1 is set to RO
Although it is stored in advance in the M20, for example, a nonvolatile RA is used so that the pen to be used can be changed.
The data of the subject width ΔH ′ may be stored in M, and the data may be rewritten as necessary.

【0086】また、前述した(1)〜(8)式は、制御
プログラムの一部として予めROM20に格納しておく
ことが可能である。これら(1)〜(8)式により、ペ
ンAの位置座標(x,y)は、CCD5上に結像された
被写体像のCCD5の中心5aからの距離hに基づいて
算出される。すなわち、撮像装置7LのCCD5の中心
5aからの距離h、撮像装置7RのCCD5の中心5a
からの距離hを求めることにより、ペンAの位置座標
(x,y)が特定されることになる。
The above equations (1) to (8) can be stored in the ROM 20 in advance as a part of the control program. From these equations (1) to (8), the position coordinates (x, y) of the pen A are calculated based on the distance h of the subject image formed on the CCD 5 from the center 5a of the CCD 5. That is, the distance h from the center 5a of the CCD 5 of the imaging device 7L, the center 5a of the CCD 5 of the imaging device 7R.
By calculating the distance h from the position A, the position coordinates (x, y) of the pen A are specified.

【0087】さらに、ペンAの被写体像は、CCD5上
に完全に結像されなければならないわけではない。すな
わち、完全に結像された状態でない場合、CCD5上の
被写体像の大きさΔhが大きくなるだけで、被写体像の
中心h’には影響はない。
Further, the object image of the pen A does not have to be completely formed on the CCD 5. That is, when the image is not completely formed, only the size Δh of the subject image on the CCD 5 increases, and the center h ′ of the subject image is not affected.

【0088】以上のようにして算出されたペンAの位置
座標(x,y)は、座標メモリ24に一時的に格納され
た後、I/F18を介してコンピュータに入力される。
ここでいう位置座標は、前述した影を考慮した補正処理
が行われたもの、および補正処理が行われていないもの
のいずれか一方を意味する。図14は、算出した位置座
標をコンピュータに転送する際の処理を示すフローチャ
ートである。マイコン17は、図14に示すように、x
y演算器23でペンAの位置座標(x2、y2)が算出
された場合、即ちペンダウン状態が検出された場合(ス
テップS1:Yes)、タイマ22に所定の時間の計時
を開始させる(ステップS2)。
The position coordinates (x, y) of the pen A calculated as described above are temporarily stored in the coordinate memory 24 and then input to the computer via the I / F 18.
Here, the position coordinates mean one of a position where the above-described correction processing in consideration of the shadow is performed and a position where the correction processing is not performed. FIG. 14 is a flowchart showing a process when transferring the calculated position coordinates to the computer. The microcomputer 17, as shown in FIG.
When the position calculator (x2, y2) of the pen A is calculated by the y calculator 23, that is, when the pen down state is detected (step S1: Yes), the timer 22 starts measuring a predetermined time (step S2). ).

【0089】続いて、マイコン17は、算出された位置
座標(x2、y2)と座標メモリ24に格納されている
位置座標(x1、y1)とが一致するか否かを判定する
(S3)。二つの位置座標が一致しないと判定した場合
(ステップS3;No)、マイコン17は、座標メモリ
24中の位置座標を新たに算出された位置座標(x2、
y2)に更新すると共に、タイマ22による計時をクリ
アする(ステップS4)。その後、マイコン17は、座
標メモリ24中の位置座標をコンピュータに転送し(ス
テップS5)、ステップS1に戻って新たにペンダウン
が検出されるのを待つ。なお、コンピュータは、転送さ
れた位置座標に基づいて、ペンAの動きに応じた処理を
実行する。例えば、コンピュータは、文字や図形をディ
スプレイに描画するための処理を行う。
Subsequently, the microcomputer 17 determines whether or not the calculated position coordinates (x2, y2) match the position coordinates (x1, y1) stored in the coordinate memory 24 (S3). If it is determined that the two position coordinates do not match (Step S3; No), the microcomputer 17 replaces the position coordinates in the coordinate memory 24 with the newly calculated position coordinates (x2,
y2) and clear the time measured by the timer 22 (step S4). Thereafter, the microcomputer 17 transfers the position coordinates in the coordinate memory 24 to the computer (step S5), and returns to step S1 to wait for a newly detected pen-down. The computer executes a process according to the movement of the pen A based on the transferred position coordinates. For example, the computer performs processing for drawing characters and graphics on a display.

【0090】一方、二つの位置座標が一致したと判定し
た場合(ステップS3:Yes)、マイコン17は、タ
イマ22によって所定時間計時されるまでの間、xy演
算器23によって座標メモリ24に格納されている位置
座標と異なる新たな位置座標が算出されるのを待つ(ス
テップS6、ステップS7、ステップ3)。
On the other hand, when it is determined that the two position coordinates match (step S3: Yes), the microcomputer 17 stores the coordinates in the coordinate memory 24 by the xy calculator 23 until the timer 22 counts a predetermined time. It waits until a new position coordinate different from the present position coordinate is calculated (step S6, step S7, step 3).

【0091】具体的に、マイコン17は、xy演算器2
3によって新たな位置座標が算出されるのを待ち(ペン
ダウン検出)、新たな位置座標が算出された場合(ステ
ップS7:Yes)、ステップS3に進んで算出された
位置座標と座標メモリ24中の位置座標とが一致するか
否かを判定する。そして、二つの位置座標が一致しない
と判定した場合(ステップS3:No)、マイコン17
は、前述した通り、ステップS4およびS5の処理を実
行する。一方、二つの位置座標が一致すると判定した場
合(ステップS3:Yes)、マイコン17は、再びス
テップS6に進む。
More specifically, the microcomputer 17 controls the xy arithmetic unit 2
Waiting for the calculation of new position coordinates by step 3 (pen-down detection), and when the new position coordinates are calculated (step S7: Yes), the process proceeds to step S3 and the calculated position coordinates and the contents in the coordinate memory 24 are stored. It is determined whether or not the position coordinates match. If it is determined that the two position coordinates do not match (step S3: No), the microcomputer 17
Executes the processing of steps S4 and S5 as described above. On the other hand, when it is determined that the two position coordinates match (Step S3: Yes), the microcomputer 17 proceeds to Step S6 again.

【0092】そして、マイコン17は、所定の時間が経
過したと判定した場合(ステップS6:Yes)、エラ
ー処理を実行し(ステップS8)、ステップS1に戻っ
て新たにペンダウンが検出されるのを待つ。すなわち、
所定の時間が経過するまでステップS3において座標が
一致しないと判定されない場合、ペンAに動きが無いと
考えられる。そのため、xy演算器23で算出された位
置座標は、例えば筆記面E上に付着したゴミに基づくも
のであるとみなし、ステップS8においてエラー処理を
実行することにする。
When the microcomputer 17 determines that the predetermined time has elapsed (step S6: Yes), the microcomputer 17 executes an error process (step S8), and returns to step S1 to detect that a new pen down is detected. wait. That is,
If it is not determined in step S3 that the coordinates do not match until the predetermined time has elapsed, it is considered that the pen A has not moved. Therefore, the position coordinates calculated by the xy calculator 23 are considered to be based on, for example, dust attached to the writing surface E, and error processing is performed in step S8.

【0093】このエラー処理として、マイコン17は、
座標メモリ24に格納されている位置座標(x1,y
1)を更新せずに、ステップS1で算出された位置座標
(x2,y2)を破棄すると共に、コンピュータに座標
メモリ24中の位置座標を転送しないようにする。この
際、マイコン17は、コンピュータにエラー信号を送信
して座標入力動作を停止し、その後、オペレータによっ
てゴミが取り除かれると共に、復帰命令が入力された場
合に、停止していた座標入力動作を再開するという制御
を行うことにしても良い。これに代えて、マイコン17
は、ゴミと思われる位置座標をコンピュータに転送し、
ゴミの付着位置をコンピュータに指示することにしても
良い。これにより、ゴミの位置座標がコンピュータに入
力されてしまうことが防止される。
As this error processing, the microcomputer 17
The position coordinates (x1, y) stored in the coordinate memory 24
Without updating 1), the position coordinates (x2, y2) calculated in step S1 are discarded, and the position coordinates in the coordinate memory 24 are not transferred to the computer. At this time, the microcomputer 17 sends an error signal to the computer to stop the coordinate input operation. Thereafter, when dust is removed by the operator and the return instruction is input, the stopped coordinate input operation is restarted. May be performed. Instead, the microcomputer 17
Transfers the position coordinates that appear to be garbage to the computer,
The position where the dust is attached may be instructed to the computer. This prevents the position coordinates of the dust from being input to the computer.

【0094】さらに、構成例1の座標入力装置1におい
ては、複数人が同時に手書き文字や図形をコンピュータ
に入力する操作を行うことも可能である。ただし、この
場合においては、同時に使用される指示物体が、それぞ
れ他の指示物体と識別できるようなものである必要があ
る。構成例1の座標入力装置1においては、図7に示し
たパターン認識部26が複数の指示物体を識別する処理
を行い、xy演算器23が識別された各指示物体毎の位
置座標を算出する。例えば、指示物体をペンとし、各ペ
ンの周囲にはそれぞれ異なるピッチの縞模様のパターン
が付与されているものとする(パターンは縦縞、横縞、
格子等、どんなものでも良い)。パターン認識部26
は、撮像装置7Lおよび7RのCCD5で撮像された複
数のペンのパターンを認識する処理を実行する。
Further, in the coordinate input device 1 of the configuration example 1, it is possible for a plurality of persons to simultaneously perform an operation of inputting handwritten characters and figures into a computer. However, in this case, it is necessary that the pointing objects used simultaneously can be distinguished from each other. In the coordinate input device 1 of the configuration example 1, the pattern recognition unit 26 illustrated in FIG. 7 performs a process of identifying a plurality of pointing objects, and the xy calculator 23 calculates the position coordinates of each of the identified pointing objects. . For example, it is assumed that the pointing object is a pen, and stripe patterns having different pitches are respectively provided around the pens (the patterns are vertical stripes, horizontal stripes,
Anything, such as a grid, is acceptable.) Pattern recognition unit 26
Executes a process of recognizing a pattern of a plurality of pens captured by the CCD 5 of the imaging devices 7L and 7R.

【0095】図15は、2本のペンを同時に用いて手書
き文字や図形をコンピュータに入力する操作を行った場
合の処理を説明するための説明図である。ここでは、一
例として、2本のペンを用いて入力領域2中のa点およ
びb点を同時に指し示したものとする。この場合、撮像
装置7Lによってこの方向に存在するペンの被写体像
が、撮像装置7Rによってこの方向に存在するペンの被
写体像がそれぞれ撮像されることになる。
FIG. 15 is an explanatory diagram for explaining processing when an operation of inputting handwritten characters and graphics into a computer is performed using two pens simultaneously. Here, as an example, it is assumed that the points a and b in the input area 2 are simultaneously indicated using two pens. In this case, the subject image of the pen existing in this direction is captured by the imaging device 7L, and the subject image of the pen existing in this direction is captured by the imaging device 7R.

【0096】ここで、撮像装置7Lおよび7Rによって
撮像された各ペンの被写体像のうち、どの被写体像とど
の被写体像とが同一のペンのものであるかを特定するこ
とができないと、a点およびb点以外にc点およびd点
の位置座標が算出されてしまうことになる。そのため、
ここでは各ペンの周囲にそれぞれ付与された異なるピッ
チのパターンを利用して、どの被写体像とどの被写体像
とが同一のペンのものであるかを特定する必要がある。
ただし、撮像装置7Lおよび7Rで撮像された各被写体
像中のパターンのピッチは、同一のものであっても撮像
装置7Lおよび7Rからペンまでの距離Dに応じて変化
することになる(図13参照)。そのため、ここでは敢
えてa点〜d点の全ての位置座標を算出することにす
る。
Here, if it is not possible to specify which subject image and which subject image belong to the same pen among the subject images of the pens picked up by the image pickup devices 7L and 7R, a point a The position coordinates of the points c and d other than the points b and b are calculated. for that reason,
Here, it is necessary to specify which subject image and which subject image belong to the same pen by using patterns of different pitches provided around each pen.
However, the pitch of the pattern in each subject image captured by the imaging devices 7L and 7R changes according to the distance D from the imaging devices 7L and 7R to the pen, even if they are the same. reference). Therefore, here, the position coordinates of all the points a to d are calculated.

【0097】前述したように、a点〜d点の位置座標を
算出することにより、撮像装置7Lからa点〜d点まで
の距離Dをそれぞれ求めることができると共に、撮像装
置7Rからa点〜d点までの距離Dをそれぞれ求めるこ
とができる。そして、マイコン17は、ペンに付与され
たパターンの実際のピッチをp、撮像装置7Lおよび7
Rからペンまでの距離に応じて変化する被写体像中のパ
ターンのピッチをp’(パターン認識部26によって認
識される)とし、以下の式を用いることにより、各点に
おけるペンのパターンのピッチpを求める。 p=(D/f)p’ …(9)
As described above, by calculating the position coordinates of the points a to d, the distance D from the image pickup device 7L to the points a to d can be obtained, and the distances D to the points a to d can be obtained from the image pickup device 7R. The distance D to the point d can be obtained. Then, the microcomputer 17 sets the actual pitch of the pattern imparted to the pen to p, the imaging devices 7L and 7
The pitch of the pattern in the subject image that changes according to the distance from R to the pen is defined as p ′ (recognized by the pattern recognition unit 26), and by using the following equation, the pitch p of the pen pattern at each point is obtained. Ask for. p = (D / f) p '(9)

【0098】上記式を用いて、撮像装置7Lから見たa
点〜d点におけるペンのピッチpがそれぞれ求められる
と共に、撮像装置7Rから見たa点〜d点におけるペン
のピッチpがそれぞれ求められる。そして、マイコン1
7は、撮像装置7Lから見たa点〜d点におけるペンの
ピッチpと撮像装置7Rから見たa点〜d点におけるペ
ンのピッチpとをそれぞれ比較し、ピッチpが一致また
は近似する点を実際にペンによって指し示された点と判
定する。
Using the above equation, a
The pen pitch p at the points a to d is obtained, and the pen pitch p at the points a to d viewed from the imaging device 7R is obtained. And microcomputer 1
A point 7 compares the pen pitch p at points a to d viewed from the imaging device 7L with the pen pitch p at points a to d viewed from the imaging device 7R, and the point at which the pitch p matches or approximates. Is determined as the point actually pointed by the pen.

【0099】なお、個々の指示物体を識別することを可
能にするための方法としては、前述したパターンに限ら
ず、指示物体毎に色を変えたり(CCD5としてカラー
CCDを使用する必要がある)、指示物体毎に形状やサ
イズ等を変えるという方法も考えられる。
The method for enabling the individual pointing objects to be identified is not limited to the above-mentioned pattern, but may be changed in color for each pointing object (it is necessary to use a color CCD as the CCD 5). Alternatively, a method of changing the shape, size, or the like for each pointing object may be considered.

【0100】このように、構成例1の座標入力装置1に
よれば、照明装置4が入力領域2に対して光を出射し、
照明装置4から出射された光で照明された指示物体を少
なくとも二つの撮像装置7Lおよび7Rで撮像し、各撮
像装置7Lおよび7Rの出力に基づいて指示物体の像が
結像された各CCD5上の位置をそれぞれ求め、求めた
各位置を利用して指示物体の位置座標を算出することに
より、特殊な指示物体を用いることなく、指先や一般的
なペン等の任意の指示物体を使用して指示された入力領
域の位置の座標を特定することを可能にしたため、座標
入力装置の操作性の向上を図ることができる。
As described above, according to the coordinate input device 1 of the configuration example 1, the illumination device 4 emits light to the input area 2,
An image of the pointing object illuminated with the light emitted from the illumination device 4 is captured by at least two imaging devices 7L and 7R, and on each CCD 5 on which an image of the pointing object is formed based on the outputs of the imaging devices 7L and 7R. The position of the pointing object is calculated, and the position coordinates of the pointing object are calculated using the obtained positions, without using a special pointing object, using an arbitrary pointing object such as a fingertip or a general pen. Since the coordinates of the position of the designated input area can be specified, the operability of the coordinate input device can be improved.

【0101】なお、構成例1の座標入力装置1において
は、照明装置4にシェード8を設けて撮像装置7Lおよ
び7Rに光が直接入射しないような措置が施されている
が、シェード8以外のものを用いて同様の措置を施すこ
とにしても良い。また、照明装置4自体で光の出射エリ
アを制限できるようにしても良い。
In the coordinate input device 1 of the first configuration example, a measure is taken to prevent the light from directly entering the imaging devices 7L and 7R by providing the illumination device 4 with the shade 8. A similar measure may be taken using a device. Further, the illumination device 4 itself may be capable of limiting the light emission area.

【0102】また、構成例1の座標入力装置1において
は、入力領域2の上部を除く周縁部に光の反射を抑制す
る光吸収部材9を配設することにしているが、このよう
な完全な無反射条件を作り出すことは本発明において必
須の条件ではない。例えば、光吸収部材9に代えて、光
を入力領域2から逃がす方向に均一な反射条件を有する
反射部材を入力領域2の上部を除く周縁部に配設するこ
とにしても良い。その結果、照明装置4から出射された
光は反射部材によって反射されて入力領域2の外に向か
うため、撮像装置7Lおよび7Rに反射光(散乱光)が
入射してしまうことを防止できる。
Further, in the coordinate input device 1 of the configuration example 1, the light absorbing member 9 for suppressing the reflection of light is arranged on the peripheral edge portion except the upper portion of the input area 2; It is not an indispensable condition in the present invention to create a suitable non-reflection condition. For example, instead of the light absorbing member 9, a reflecting member having a uniform reflecting condition in a direction in which light escapes from the input area 2 may be provided on a peripheral edge portion of the input area 2 except for the upper part. As a result, since the light emitted from the illumination device 4 is reflected by the reflection member and goes out of the input area 2, it is possible to prevent reflected light (scattered light) from entering the imaging devices 7L and 7R.

【0103】また、構成例1の座標入力装置1において
は、照明装置4を用いることにしているが、この照明装
置4を省略しても、入力領域2に挿入された指示物体を
撮像装置7Lおよび7Rで撮像することによって指示物
体の位置座標を求めることができる。これは、構成例1
の座標入力装置1が、撮像装置7Lおよび7RのCCD
5上に結像された指示物体の像の位置を利用して指示物
体の位置座標を求めるものであるからである。なお、例
として、照明装置4が省略された座標入力装置1の概略
構成を示す正面図を図16に示す。図16に示すよう
に、座標入力装置1から照明装置4を省略すると、これ
に合わせてシェード8、光吸収部材9および受光素子1
0も省略されることになる。
In the coordinate input device 1 of the configuration example 1, the illuminating device 4 is used. However, even if the illuminating device 4 is omitted, the pointing object inserted into the input area 2 can be imaged by the imaging device 7L. The position coordinates of the pointing object can be obtained by imaging at 7R and 7R. This is configuration example 1.
Of the image capturing devices 7L and 7R
This is because the position coordinates of the pointing object are obtained using the position of the image of the pointing object formed on the image 5. As an example, FIG. 16 is a front view showing a schematic configuration of the coordinate input device 1 from which the lighting device 4 is omitted. As shown in FIG. 16, when the illumination device 4 is omitted from the coordinate input device 1, the shade 8, the light absorbing member 9, and the light receiving element 1 are adjusted accordingly.
0 will also be omitted.

【0104】さらに、電子黒板の筐体を利用することに
より、構成例1の座標入力装置1を電子黒板と一体的に
構成することも可能である。また、構成例1の座標入力
装置1をコンピュータのディスプレイの前面に取り付け
て使用することも可能であり、また、ディスプレイの筐
体を利用することにより、構成例1の座標入力装置1を
ディスプレイと一体的に構成することも可能である。
Further, by utilizing the housing of the electronic blackboard, the coordinate input device 1 of the first configuration example can be integrally formed with the electronic blackboard. It is also possible to use the coordinate input device 1 of Configuration Example 1 by attaching it to the front of a display of a computer, and to use the coordinate input device 1 of Configuration Example 1 with a display by utilizing the housing of the display. It is also possible to configure it integrally.

【0105】(適用可能な座標入力装置の構成例2)図
17は、構成例2の座標入力装置の概略構成を示す正面
図である。この図17は、座標入力装置31をコンピュ
ータのディスプレイ面d上に装着した様子を示すもので
ある。この座標入力装置31は、コンピュータのディス
プレイ面dとほぼ同一のサイズを有する四角形状の空
間、即ちオペレータが指やペン等の指示物体を用いて入
力操作を行うための入力領域33を有した筐体32を備
えている。この筐体32には、以下に説明するカメラ3
4Lおよび34Rならびに背景板37が設けられてい
る。
(Configuration Example 2 of Applicable Coordinate Input Device) FIG. 17 is a front view showing a schematic configuration of a coordinate input device of Configuration Example 2. FIG. 17 shows a state where the coordinate input device 31 is mounted on the display surface d of the computer. The coordinate input device 31 has a rectangular space having substantially the same size as the display surface d of the computer, that is, a housing having an input area 33 for an operator to perform an input operation using a pointing object such as a finger or a pen. A body 32 is provided. The housing 32 includes a camera 3 described below.
4L and 34R and a background plate 37 are provided.

【0106】カメラ34Lおよび34Rは、入力領域3
3の上方両端部に互いに距離Lを空けて設けられ、入力
領域33を撮像し、撮像した画像(撮影画像)を電気信
号として出力するものである。これらカメラ34Lおよ
び34Rは、電子カメラであって、それぞれ二次元イメ
ージセンサ(二次元撮像素子)35と、結像光学レンズ
36とを有するものである。この二次元イメージセンサ
35は、多数のCCD(Charge Coupled Device)をマ
トリックス状に配列して形成された二次元CCD撮像素
子である。なお、二次元イメージセンサ35および結像
光学レンズ36は、距離fを空けて配設されている。
Cameras 34L and 34R are connected to input area 3
3 are provided at a distance L from each other at the upper end portions of the input region 3 to capture the input area 33 and output the captured image (photographed image) as an electric signal. These cameras 34L and 34R are electronic cameras, each having a two-dimensional image sensor (two-dimensional image sensor) 35 and an imaging optical lens 36. The two-dimensional image sensor 35 is a two-dimensional CCD image sensor formed by arranging a large number of charge coupled devices (CCDs) in a matrix. Note that the two-dimensional image sensor 35 and the imaging optical lens 36 are arranged at a distance f.

【0107】また、カメラ34Lおよび34Rは、それ
ぞれの光軸がディスプレイ面dに対して平行であって、
ディスプレイ面dの表面に略一致するように配置されて
いる。これにより、カメラ34Lおよび34Rにディス
プレイ面dが映り込むことが防止される。
The cameras 34L and 34R have their respective optical axes parallel to the display surface d.
It is arranged so as to substantially coincide with the surface of the display surface d. This prevents the display surface d from being reflected on the cameras 34L and 34R.

【0108】背景板37は、入力領域33の上部を除く
周縁部であって、カメラ34Lおよび34Rによる撮影
視野全体を覆う位置に配置される。なお、背景板37は
カメラ34Lおよび34Rの画角を妨げないように配置
される。図18は、背景板37の説明図であり、背景板
37の一部を示したものである。図18に示すように、
背景板37には、後述する差分画像の抽出を容易にする
基準パターンPが付与されている。図18に示した基準
パターンPは濃淡の配色を横ストライプ状にしたパター
ンであるものとするが、クロマキー技術に用いられる色
彩パターン等も基準パターンPとして利用することがで
きる。さらに、光を吸収する均等な黒色パターンを背景
板37上の基準パターンとして用いても良い。
The background plate 37 is arranged at a peripheral edge of the input area 33 excluding the upper part, and at a position covering the entire field of view of the cameras 34L and 34R. The background plate 37 is arranged so as not to obstruct the angle of view of the cameras 34L and 34R. FIG. 18 is an explanatory diagram of the background plate 37 and shows a part of the background plate 37. As shown in FIG.
The background plate 37 is provided with a reference pattern P for facilitating extraction of a difference image, which will be described later. Although the reference pattern P shown in FIG. 18 is a pattern in which a light and shade color arrangement is formed in a horizontal stripe shape, a color pattern or the like used in the chroma key technique can also be used as the reference pattern P. Further, a uniform black pattern absorbing light may be used as a reference pattern on the background plate 37.

【0109】加えて、カメラ34Lおよび34Rには、
撮像領域を制限するための遮光板Bが取り付けられてい
る。図19は遮光板Bの説明図であり、図20は座標入
力装置31の断面図である。図19に示すように、遮光
板Bは横長の切欠B1を有したものである。そして、図
20に示すように、遮光板Bは、カメラ34Lおよび3
4Rの結像光学レンズ36の前面にそれぞれ設けられ、
入力領域33と一致するようにカメラ34Lおよび34
Rによって撮影可能な領域を制限するものである。この
遮光板Bにより、カメラ34Lおよび34Rの視野を狭
くして、外乱光等によるノイズの発生を減少させること
が可能となる。
In addition, the cameras 34L and 34R have
A light-shielding plate B for limiting an imaging area is attached. FIG. 19 is an explanatory diagram of the light shielding plate B, and FIG. 20 is a cross-sectional view of the coordinate input device 31. As shown in FIG. 19, the light shielding plate B has a horizontally long notch B1. Then, as shown in FIG. 20, the light shielding plate B is connected to the cameras 34L and 3L.
Provided on the front surface of the 4R imaging optical lens 36, respectively.
The cameras 34L and 34 are set so as to coincide with the input area 33.
The area that can be photographed is limited by R. With this light-shielding plate B, it is possible to narrow the field of view of the cameras 34L and 34R and reduce the occurrence of noise due to disturbance light or the like.

【0110】図21は、構成例2の座標入力装置31の
ブロック構成図である。図21に示すように、座標入力
装置31は、各部の制御を受け持つマイコン38を備え
ている。マイコン38は、各部を集中的に制御するCP
U40、制御プログラム等の固定的データを格納するR
OM41、可変的なデータを格納するRAM42等によ
って構成されている。また、このマイコン38には、前
述したカメラ34Lおよび34Rに加え、所定の時間を
計時するタイマ43や、後述するようにして指示物体の
画像を抽出する処理を実行する差分器44、指示物体の
三次元位置座標を算出するXYZ演算器45、座標入力
装置31をコンピュータ(例えば、パーソナルコンピュ
ータ)に接続するためのインタフェース(I/F)39
等がバス51を介して接続されている。
FIG. 21 is a block diagram of the coordinate input device 31 according to the second embodiment. As shown in FIG. 21, the coordinate input device 31 includes a microcomputer 38 which controls each unit. The microcomputer 38 includes a CP for centrally controlling each unit.
U40, R for storing fixed data such as control programs
The OM 41 includes a RAM 42 for storing variable data, and the like. The microcomputer 38 includes, in addition to the cameras 34L and 34R described above, a timer 43 for measuring a predetermined time, a subtractor 44 for executing a process of extracting an image of the pointing object as described later, An XYZ calculator 45 for calculating three-dimensional position coordinates, and an interface (I / F) 39 for connecting the coordinate input device 31 to a computer (for example, a personal computer).
Are connected via a bus 51.

【0111】マイコン38には、さらに、不揮発性のメ
モリであるEEPROM46がバス51を介して接続さ
れている。このEEPROM46には、例えば、装置起
動時における入力領域33の様子をカメラ34Lおよび
34Rでそれぞれ撮影した画像を基準画像(図25参
照)として格納するための基準画像メモリ47が設けら
れている。また、RAM42には、XYZ演算器45で
算出された座標を一時的に記憶するための座標メモリ4
2aが設けられている。
An EEPROM 46, which is a nonvolatile memory, is further connected to the microcomputer 38 via a bus 51. The EEPROM 46 is provided with, for example, a reference image memory 47 for storing, as reference images (see FIG. 25), images of the input area 33 taken by the cameras 34L and 34R when the apparatus is activated. The RAM 42 has a coordinate memory 4 for temporarily storing the coordinates calculated by the XYZ calculator 45.
2a is provided.

【0112】続いて、ROM41に格納された制御プロ
グラムに基づいて、マイコン38によって実行される処
理について説明する。図22および図23は、入力領域
33内に挿入された指示物体の位置座標を求める処理の
説明図である。なお、図22は、入力領域33内の任意
の位置が指示物体としての指Cで指し示された様子を示
し、図23はカメラ34Lおよび指Cの関係を明らかに
するために図22の一部を拡大して示したものである。
Next, the processing executed by the microcomputer 38 based on the control program stored in the ROM 41 will be described. FIG. 22 and FIG. 23 are explanatory diagrams of the processing for obtaining the position coordinates of the pointing object inserted into the input area 33. FIG. 22 shows a state in which an arbitrary position in the input area 33 is pointed by the finger C as the pointing object. FIG. 23 shows one of FIG. 22 to clarify the relationship between the camera 34L and the finger C. The part is shown enlarged.

【0113】図22に示すように、座標入力装置31の
入力領域33に指Cが挿入され、ディスプレイ面d上の
任意の位置(x,y,z)が指し示されまたはタッチさ
れたものとする。カメラ34Lおよび34Rの二次元イ
メージセンサ35の上には、結像光学レンズ36を介し
て背景板37および指Cの像が結像される。
As shown in FIG. 22, a finger C is inserted into the input area 33 of the coordinate input device 31, and an arbitrary position (x, y, z) on the display surface d is pointed or touched. I do. Images of the background plate 37 and the finger C are formed on the two-dimensional image sensors 35 of the cameras 34L and 34R via the imaging optical lens 36.

【0114】このような構成例2の座標入力装置を適用
した場合、本発明のディスプレイ装置は、背景板37の
うちの撮像された領域の大きさによって遮光条件を定め
ることができる。すなわち、背景板37がすべて撮像さ
れたとみなせる場合にはタッチがなされていない、ま
た、背景板37の一部が撮像されていない場合にはタッ
チがなされている、さらに、背景板37の大部分が撮像
されていないと見なせる場合には光の遮光がなされたと
判断して遮光信号を出力することが考えられる。
When the coordinate input device of Configuration Example 2 is applied, the display device of the present invention can determine the light-shielding condition according to the size of the imaged area of the background plate 37. That is, no touch is made when it can be considered that all of the background plate 37 has been imaged, and a touch has been made when a part of the background plate 37 has not been imaged. When it can be considered that the image is not captured, it is considered that the light is shielded and a light-shielded signal is output.

【0115】また、構成例2の座標入力装置は、図24
に示すように、各二次元イメージセンサ35の上に結像
された背景板37と指Cとの像は、各二次元イメージセ
ンサ35から撮影画像48としてそれぞれ出力される。
カメラ34Lおよび34Rの二次元イメージセンサ35
からそれぞれ出力された撮影画像48および基準画像メ
モリ47に記憶されている基準画像49は、それぞれ差
分器44に入力され、それぞれの差分画像50が抽出さ
れる。
Further, the coordinate input device of the configuration example 2 has the configuration shown in FIG.
As shown in (2), the images of the background plate 37 and the finger C formed on each two-dimensional image sensor 35 are output from each of the two-dimensional image sensors 35 as a photographed image 48, respectively.
Two-dimensional image sensor 35 of cameras 34L and 34R
, And the reference image 49 stored in the reference image memory 47 are respectively input to the differentiator 44, and the respective difference images 50 are extracted.

【0116】図25は基準画像49の一例を示す説明
図、図26は撮影画像48の一例を示す説明図である。
基準画像49は、例えば装置起動時のような初期状態に
おいて、カメラ34Lおよび34Rによって撮影された
入力領域33を示すものである。すなわち、基準画像4
9は、図25に示すように、背景板37の基準パターン
Pのみが撮影されたものである。一方、撮影画像48
は、図26に示すように、基準画像49の画像に加え
て、入力領域33に挿入された指Cが撮影されたもので
ある。
FIG. 25 is an explanatory diagram showing an example of the reference image 49, and FIG. 26 is an explanatory diagram showing an example of the photographed image.
The reference image 49 shows the input area 33 captured by the cameras 34L and 34R in an initial state such as when the apparatus is started. That is, the reference image 4
In FIG. 9, only the reference pattern P of the background plate 37 is photographed as shown in FIG. On the other hand, the photographed image 48
26, the finger C inserted into the input area 33 is photographed in addition to the image of the reference image 49, as shown in FIG.

【0117】また、図27は、差分器44によって抽出
された差分画像の一例を示す説明図である。差分画像5
0は、撮影画像48(図26)から基準画像49(図2
5)を差し引き、所定の閾値より明るい画素を白、暗い
画素を黒とする、白と黒の画素からなるシルエット画像
である。この場合、白い画素部分が指Cのシルエットに
該当する。そして、図24に示すように、各差分画像5
0は、XYZ演算器45に入力され、指Cの位置座標
(x,y,z)を算出する処理が実行される。なお、基
準パターンを前述した光を吸収する均等な黒のパターン
とした場合には、撮影画像48と基準画像49の差分を
とるまでもなく、撮影画像48を所定の閾値により2値
化して、上記シルエット画像を得ることも可能である。
FIG. 27 is an explanatory diagram showing an example of a difference image extracted by the differentiator 44. Difference image 5
0 indicates a reference image 49 (see FIG. 2) from the captured image 48 (FIG. 26).
5) is a silhouette image composed of white and black pixels in which pixels brighter than a predetermined threshold are subtracted and white pixels are darker and dark pixels are black. In this case, the white pixel portion corresponds to the silhouette of the finger C. Then, as shown in FIG.
0 is input to the XYZ calculator 45, and the process of calculating the position coordinates (x, y, z) of the finger C is executed. When the reference pattern is a uniform black pattern that absorbs light as described above, the captured image 48 is binarized by a predetermined threshold value without taking a difference between the captured image 48 and the reference image 49. It is also possible to obtain the above-mentioned silhouette image.

【0118】そこで、XYZ演算器45による指Cの三
次元位置座標を算出する処理について具体的に説明す
る。ここでは、最初に、位置座標(x,y)を算出する
処理について説明する。まず、XYZ演算器45は、各
差分画像50中における指Cの結像中心点を求めると共
に、求めた結像中心点と二次元イメージセンサ35の中
心35aとの間の距離hを求める処理を実行する(図2
3参照)。
Therefore, the process of calculating the three-dimensional position coordinates of the finger C by the XYZ calculator 45 will be specifically described. Here, the process of calculating the position coordinates (x, y) will be described first. First, the XYZ calculator 45 calculates the imaging center point of the finger C in each difference image 50, and calculates the distance h between the obtained imaging center point and the center 35a of the two-dimensional image sensor 35. Execute (Fig. 2
3).

【0119】各差分画像50中における指Cの結像中心
点は、図27に示すように、白い画素(指Cのシルエッ
ト画像の一部)でy座標の値が最小の画素の位置に該当
する。すなわち、白い画素中でy座標が最小の点(x、
ymin)が結像中心点となる。そして、二次元イメー
ジセンサ35の中心35aに該当する画素をx0とし、
上記(x、ymin)のxと二次元イメージセンサ35
の中心35aに該当する画素x0との差x−x0が、二
次元イメージセンサ35の中心35aから結像中心点ま
での距離hとなる。
As shown in FIG. 27, the imaging center point of the finger C in each difference image 50 corresponds to the position of the pixel having the smallest y-coordinate value in a white pixel (part of the silhouette image of the finger C). I do. That is, the point (x,
ymin) is the imaging center point. Then, a pixel corresponding to the center 35a of the two-dimensional image sensor 35 is defined as x0,
X of the above (x, ymin) and the two-dimensional image sensor 35
The difference x-x0 from the pixel x0 corresponding to the center 35a is the distance h from the center 35a of the two-dimensional image sensor 35 to the image forming center point.

【0120】また、図23に示すように、二次元イメー
ジセンサ35の中心35aから差分画像(指Cのシルエ
ット画像)50の結像中心点までの距離hは、二次元イ
メージセンサ35の中心線と、指Cと結像中心点とを結
ぶ線とで形成される角度θに依存している。この角度θ
は、以下の式を用いて算出される。 θ=arctan(h/f) ・・・・・(10) ただし、fは、図23に示すように、結像光学レンズ3
6と二次元イメージセンサ35との間の距離で、結像光
学レンズ36の焦点距離に該当する。
As shown in FIG. 23, the distance h from the center 35a of the two-dimensional image sensor 35 to the image forming center of the difference image (silhouette image of the finger C) 50 is determined by the center line of the two-dimensional image sensor 35. And a line connecting the finger C and the image forming center point. This angle θ
Is calculated using the following equation. θ = arctan (h / f) (10) where f is the imaging optical lens 3 as shown in FIG.
The distance between the image sensor 6 and the two-dimensional image sensor 35 corresponds to the focal length of the imaging optical lens 36.

【0121】また、カメラ34Lと指Cとの角度βは、
以下の式を用いて算出される。 β=α−θ ・・・・・(11) ただし、αは、カメラ34Lおよび34Rを結ぶ基準線
と二次元イメージセンサ35の中心線との間の角度であ
り、カメラ34Lの取り付け角度を示している。
The angle β between the camera 34L and the finger C is
It is calculated using the following equation. β = α−θ (11) where α is the angle between the reference line connecting the cameras 34L and 34R and the center line of the two-dimensional image sensor 35, and indicates the mounting angle of the camera 34L. ing.

【0122】以上の処理をカメラ34R側で得た差分画
像50を利用して実行することにより、前述したカメラ
34Lと指Cとの角度βと共に、カメラ34Rおよび指
Cとの角度βを算出することができる。ここでは、カメ
ラ34Lと指Cとの角度をβ1およびカメラ34Rと指
Cとの角度をβ2とする。
By executing the above processing using the difference image 50 obtained on the camera 34R side, the angle β between the camera 34R and the finger C and the angle β between the camera 34R and the finger C are calculated. be able to. Here, the angle between the camera 34L and the finger C is β1, and the angle between the camera 34R and the finger C is β2.

【0123】そして、指Cの位置座標(x,y)は、三
角測量の原理に基づく以下の式によって算出される。 x=Ltanβ2/(tanβ1+tanβ2) ・・・・・(12) y=xtanβ1 ・・・・・(13) 続いて、位置座標(z)を算出する処理について説明す
る。図28は、指Cによって入力領域33の一点が指し
示された様子を示す説明図である。図28に示すよう
に、位置座標(z)は、指Cの先端とディスプレイ面d
(カメラ34Lおよび34Rの光軸)との間隔を示すも
のである。ところが、図23に示すカメラ34L(およ
び34R)から指Cに至る距離Dに応じて、カメラ34
L(および34R)の二次元イメージセンサ35に結像
するZ方向の差分画像(指Cのシルエット画像)50の
結像中心点と二次元イメージセンサ35の中心35aと
の距離が異なってしまうことになる。
The position coordinates (x, y) of the finger C are calculated by the following equation based on the principle of triangulation. x = Ltanβ2 / (tanβ1 + tanβ2) (12) y = xtanβ1 (13) Next, a process of calculating the position coordinates (z) will be described. FIG. 28 is an explanatory diagram illustrating a state in which one point of the input area 33 is pointed by the finger C. As shown in FIG. 28, the position coordinates (z) are determined by the tip of the finger C and the display surface d.
(Optical axes of the cameras 34L and 34R). However, depending on the distance D from the camera 34L (and 34R) shown in FIG.
The distance between the image formation center point of the Z-direction difference image (finger C silhouette image) 50 formed on the L (and 34R) two-dimensional image sensor 35 and the center 35a of the two-dimensional image sensor 35 may be different. become.

【0124】図29は、二次元イメージセンサ35に結
像されるZ方向の差分画像50の結像中心点と距離Dと
の関係を示す説明図である。図29に示すように、指C
をディスプレイ面dから高さZの位置に挿入した際、カ
メラ34L(34R)から指C(ここでは、指C1とす
る)に至る距離がD1の場合には二次元イメージセンサ
35の中心35aから距離k1の位置に指Cの像が結像
される。また、カメラ34L(34R)から指C(ここ
では、指C2とする)に至る距離がD2の場合には二次
元イメージセンサ35の中心35aから距離k2の位置
に指Cの像が結像される。すなわち、指Cがディスプレ
イ面d(カメラ34Lおよび34Rの光軸)から同じ高
さZにあっても、カメラ34L(34R)から指Cに至
る距離Dによって結像位置kが異なることがわかる。し
たがって、指Cの位置座標(z)は、前述した指Cの位
置座標(x,y)と角度θとに基づき算出される距離D
に基づき、以下の式を用いて算出される。 z=D(k/f) ・・・・・(14)
FIG. 29 is an explanatory diagram showing the relationship between the imaging center point of the difference image 50 in the Z direction formed on the two-dimensional image sensor 35 and the distance D. As shown in FIG.
Is inserted from the display surface d to the position of the height Z, when the distance from the camera 34L (34R) to the finger C (here, the finger C1) is D1, from the center 35a of the two-dimensional image sensor 35 An image of the finger C is formed at the position of the distance k1. When the distance from the camera 34L (34R) to the finger C (here, the finger C2) is D2, an image of the finger C is formed at a distance k2 from the center 35a of the two-dimensional image sensor 35. You. That is, it can be seen that even when the finger C is at the same height Z from the display surface d (the optical axis of the cameras 34L and 34R), the imaging position k differs depending on the distance D from the camera 34L (34R) to the finger C. Therefore, the position coordinates (z) of the finger C are calculated by the distance D calculated based on the position coordinates (x, y) of the finger C and the angle θ.
Is calculated using the following equation. z = D (k / f) (14)

【0125】このようにして、指Cの位置座標(z)を
検出することにより、ペンアップ・ペンダウンの状態や
ダブルクリック等を容易に判別することが可能となる。
As described above, by detecting the position coordinates (z) of the finger C, it is possible to easily determine the pen-up / pen-down state, double-click, and the like.

【0126】なお、指Cのような指示物体の動作に基づ
くジェスチャコマンドをROM41やコンピュータの記
憶装置等に予め記憶させておくと、マイコン38または
コンピュータは位置座標(z)に応じて指Cの動きが描
画であるかジェスチャコマンドであるかを判別すること
が可能になる。
If a gesture command based on the operation of the pointing object such as the finger C is stored in the ROM 41 or a storage device of the computer in advance, the microcomputer 38 or the computer can operate the finger C in accordance with the position coordinates (z). It is possible to determine whether the movement is a drawing or a gesture command.

【0127】図30(a)および図30(b)は、描画
とジェスチャコマンドとをそれぞれ例示して示す説明図
である。図30に示すように、ここで定義された描画と
ジェスチャコマンドとにおける指Cの動きは、X−Y方
向では同一であるが、Z方向において異なっている。こ
のように、X−Y方向の動きとZ方向の位置とを組み合
わせることにより、指Cの動きに基づくジェスチャコマ
ンドを構築することができる。図30(b)に示したジ
ェスチャコマンドに割り当てるコマンドとしては、例え
ば「ページめくり」が考えられる。
FIGS. 30 (a) and 30 (b) are explanatory diagrams showing examples of drawing and gesture commands, respectively. As shown in FIG. 30, the movement of the finger C in the drawing and the gesture command defined here is the same in the XY directions but different in the Z direction. As described above, by combining the movement in the XY direction and the position in the Z direction, a gesture command based on the movement of the finger C can be constructed. As a command assigned to the gesture command shown in FIG. 30B, for example, “page turning” can be considered.

【0128】前述した(1)〜(5)式は制御プログラ
ムの一部として予めROM41に格納しておくことがで
きる。
The equations (1) to (5) can be stored in the ROM 41 in advance as a part of the control program.

【0129】XYZ演算器45で算出された指Cの位置
座標(x,y,z)は、座標メモリ42aに一時的に格
納された後、I/F39を介してコンピュータに転送さ
れる。この際の処理について、図14を用いて具体的に
説明する。マイコン38は、XYZ演算器45によって
指Cの位置座標(x2,y2,z2)が算出された場
合、即ちペンダウン状態が検出された場合(ステップS
1:Yes)、タイマ43による所定の時間の計時を開
始させる(ステップS2)。
The position coordinates (x, y, z) of the finger C calculated by the XYZ calculator 45 are temporarily stored in the coordinate memory 42a and then transferred to the computer via the I / F 39. The process at this time will be specifically described with reference to FIG. The microcomputer 38 calculates the position coordinates (x2, y2, z2) of the finger C by the XYZ calculator 45, that is, detects the pen down state (step S).
1: Yes), the timer 43 starts counting a predetermined time (step S2).

【0130】続いて、マイコン38は、算出された位置
座標(x2,y2,z2)と座標メモリ42aに格納さ
れている位置座標(x1,y1,z1)とが一致するか
否かを判定する(ステップS3)。二つの位置座標が一
致しないと判定した場合(ステップS3:No)、マイ
コン38は、座標メモリ42a中の位置座標を新たに算
出された位置座標(x2,y2,z2)に更新すると共
に、タイマ43による計時をクリアする(ステップS
4)。その後、マイコン38は、座標メモリ42a中の
位置座標をコンピュータに転送し(ステップS5)、ス
テップS1に戻って新たにペンダウンが検出されるのを
待つ。なお、コンピュータは、転送された位置座標に基
づいて、指Cの動きに応じた処理を実行する。例えば、
コンピュータは、文字や図形をディスプレイに描画する
処理を実行する。
Subsequently, the microcomputer 38 determines whether or not the calculated position coordinates (x2, y2, z2) match the position coordinates (x1, y1, z1) stored in the coordinate memory 42a. (Step S3). When it is determined that the two position coordinates do not match (step S3: No), the microcomputer 38 updates the position coordinates in the coordinate memory 42a to the newly calculated position coordinates (x2, y2, z2), 43 (step S)
4). Thereafter, the microcomputer 38 transfers the position coordinates in the coordinate memory 42a to the computer (step S5), and returns to step S1 to wait for a newly detected pen-down. The computer executes a process according to the movement of the finger C based on the transferred position coordinates. For example,
The computer executes a process of drawing characters and graphics on a display.

【0131】一方、二つの位置座標が一致したと判定し
た場合には(ステップS3:Yes)、マイコン38
は、タイマ43によって所定の時間が計時されるまでの
間、XYZ演算器45によって座標メモリ42aに格納
されている位置座標とは異なる新たな位置座標(x3,
y3,z3)が算出されるのを待つ(ステップS6,ス
テップS7,ステップS3)。具体的に、マイコン38
は、XYZ演算器45によって新たな位置座標が算出さ
れるのを待ち(ペンダウン検出)、新たな位置座標が算
出された場合(ステップS7:Yes)、ステップS3
に進んで算出された位置座標と座標メモリ42a中の位
置座標とが一致するか否かを判定する。そして、二つの
位置座標が一致しないと判定した場合(ステップS3:
No)。マイコン38は、前述した通りステップS4お
よびS5の処理を実行する。一方、二つの位置座標が一
致すると判定した場合(ステップS3:Yes)、マイ
コン38は、再びステップS6に進む。
On the other hand, if it is determined that the two position coordinates match (step S3: Yes), the microcomputer 38
Until a predetermined time is measured by the timer 43, the new position coordinates (x3, x3) that are different from the position coordinates stored in the coordinate memory 42a by the XYZ calculator 45.
Wait for calculation of y3, z3) (Step S6, Step S7, Step S3). Specifically, the microcomputer 38
Waits for the XYZ arithmetic unit 45 to calculate new position coordinates (pen-down detection), and when new position coordinates are calculated (step S7: Yes), step S3
Then, it is determined whether or not the calculated position coordinates match the position coordinates in the coordinate memory 42a. When it is determined that the two position coordinates do not match (step S3:
No). The microcomputer 38 performs the processing of steps S4 and S5 as described above. On the other hand, when it is determined that the two position coordinates match (Step S3: Yes), the microcomputer 38 proceeds to Step S6 again.

【0132】そして、マイコン38は、所定の時間が経
過したと判定した場合(ステップS6:Yes)、エラ
ー処理を実行し(ステップS8)、ステップS1に戻っ
て新たにペンダウンが検出されるのを待つ。すなわち、
所定の時間が経過するまでステップS3において座標が
一致しないと判定されない場合、指Cに動きがないと考
えられる。そのため、XYZ演算器45で算出された位
置座標は、例えばディスプレイ面d上に付着したゴミに
基づくものであるとみなし、ステップS8においてエラ
ー処理を実行することにする。このエラー処理として、
マイコン38は、座標メモリ42aに格納された位置座
標を更新せずに、ステップS1で算出された位置座標を
破棄し、コンピュータに座標メモリ42a中の位置座標
を転送しないようにする。
If the microcomputer 38 determines that the predetermined time has elapsed (step S6: Yes), it executes an error process (step S8), and returns to step S1 to detect that a new pen down is detected. wait. That is,
If it is not determined in step S3 that the coordinates do not match until a predetermined time has elapsed, it is considered that the finger C does not move. Therefore, the position coordinates calculated by the XYZ calculator 45 are considered to be based on, for example, dust adhering on the display surface d, and error processing is executed in step S8. As this error handling,
The microcomputer 38 discards the position coordinates calculated in step S1 without updating the position coordinates stored in the coordinate memory 42a, and does not transfer the position coordinates in the coordinate memory 42a to the computer.

【0133】加えて、マイコン38は、破棄する位置座
標の検出源である撮影画像48を新たな基準画像49と
してEEPROM46の基準画像メモリ47に記憶す
る。これにより、たとえ入力領域33にゴミ等が存在し
ている場合であっても、そのゴミの画像が基準画像49
の一部とされるので、ゴミを指示物体と認識してしまう
ことを防止することができる。
In addition, the microcomputer 38 stores in the reference image memory 47 of the EEPROM 46 a photographed image 48 which is a detection source of the position coordinates to be discarded as a new reference image 49. Thus, even if dust or the like exists in the input area 33, the dust image is displayed in the reference image 49.
Therefore, it is possible to prevent the dust from being recognized as the pointing object.

【0134】このように、構成例2の座標入力装置31
によれば、各カメラ34Lおよび34Rで予め撮像した
入力領域33の画像を基準画像としてそれぞれ記憶して
おき、その後各カメラ34Lおよび34Rで撮像した入
力領域33の画像および対応する基準画像の差分をそれ
ぞれ抽出することにより、入力領域33に挿入された指
示物体の画像をそれぞれ抽出し、抽出された指示物体の
各画像に基づいて各CCD5上における指示物体の像の
結像位置をそれぞれ求め、求めた各結像位置を利用して
指示物体の位置座標を特定することにより、特殊な指示
物体を用いることなく、指先や一般的なペン等の任意の
指示物体を使用して指示された入力領域の位置の座標を
特定することを可能にしたため、座標入力装置の操作性
の向上を図ることができる。
As described above, the coordinate input device 31 of the configuration example 2
According to the above, the image of the input area 33 captured in advance by each of the cameras 34L and 34R is stored as a reference image, and then the difference between the image of the input area 33 captured by each of the cameras 34L and 34R and the corresponding reference image is calculated. By extracting each, the image of the pointing object inserted into the input area 33 is extracted, and the imaging position of the image of the pointing object on each CCD 5 is calculated based on each image of the extracted pointing object. By specifying the position coordinates of the pointing object using the respective image forming positions, the input area specified using an arbitrary pointing object such as a fingertip or a general pen without using a special pointing object. Since it is possible to specify the coordinates of the position, the operability of the coordinate input device can be improved.

【0135】なお、構成例2の座標入力装置31におい
ては、カメラ34Lおよび34Rの二次元イメージセン
サ(二次元撮像素子)35として二次元CCD撮像画像
を用いたが、これに限るものではなく、複数個の一次元
CCD撮像素子を用いることにしても良い。また、カラ
ー用二次元イメージセンサ(二次元撮像素子)を用いる
と、位置座標(x,y,z)のみならず、指示物体(例
えばカラーサインペン等)に付与されている色のデータ
をもパソコンに転送することが可能となる。
In the coordinate input device 31 of the configuration example 2, a two-dimensional CCD image is used as the two-dimensional image sensor (two-dimensional image sensor) 35 of the cameras 34L and 34R. However, the present invention is not limited to this. A plurality of one-dimensional CCD image sensors may be used. When a two-dimensional color image sensor (two-dimensional image sensor) is used, not only the position coordinates (x, y, z) but also the color data given to the pointing object (for example, a color felt-tip pen) can be transmitted to a personal computer. Can be transferred to

【0136】さらに、構成例2の座標入力装置31にお
いては、2台のカメラ34Lおよび34Rを用いたが、
カメラの数を2台に限定するものではない。すなわち、
カメラは少なくも2台あれば良い。また、カメラ34L
および34Rの取り付け位置は入力領域33の上部に限
定されるものではなく、カメラ34Lおよび34Rを任
意の位置に取り付けることができる。
Further, in the coordinate input device 31 of the configuration example 2, two cameras 34L and 34R are used.
The number of cameras is not limited to two. That is,
At least two cameras are sufficient. In addition, camera 34L
The mounting positions of the cameras 34L and 34R are not limited to the upper part of the input area 33, and the cameras 34L and 34R can be mounted at arbitrary positions.

【0137】なお、構成例2においては、座標入力装置
31をディスプレイの前面に装着することにしたが、こ
れに限るものではなく、電子黒板等に装着するようにし
ても良い。また、ディスプレイの筐体を利用することに
より、構成例2の座標入力装置31をディスプレイと一
体的に構成することも可能である。さらに、電子黒板の
筐体を利用することにより、構成例2の座標入力装置3
1を電子黒板と一体的に構成することも可能である。
In the configuration example 2, the coordinate input device 31 is mounted on the front of the display. However, the present invention is not limited to this, and the coordinate input device 31 may be mounted on an electronic blackboard or the like. In addition, by using the housing of the display, the coordinate input device 31 of the configuration example 2 can be integrally formed with the display. Further, by utilizing the housing of the electronic blackboard, the coordinate input device 3 of the configuration example 2 is used.
It is also possible to constitute 1 integrally with the electronic blackboard.

【0138】また、本発明のディスプレイ装置は、コン
ピュータとして以上述べた構成の座標入力装置と組み合
わせられるものに限定されるものではない。図31は、
本発明のディスプレイ装置の他の構成例について示す図
である。図示したディスプレイ装置は、図7に示した構
成例1においては、マイコン17の内部でタイマ302
をCPU19に接続し、遮光信号をI/F18を介して
コンピュータに出力する。また。図21に示した構成例
2においては、マイコン38の内部でタイマ302をC
PU40に接続し、遮光信号をI/F39を介してコン
ピュータに出力する。
The display device of the present invention is not limited to a computer combined with the coordinate input device having the configuration described above. FIG.
FIG. 11 is a diagram illustrating another configuration example of the display device of the present invention. The illustrated display device has a timer 302 inside the microcomputer 17 in the configuration example 1 shown in FIG.
Is connected to the CPU 19, and a light-shielded signal is output to the computer via the I / F 18. Also. In the configuration example 2 shown in FIG.
It is connected to the PU 40 and outputs a light-shielded signal to the computer via the I / F 39.

【0139】[0139]

【発明の効果】以上説明したように、請求項1に記載の
発明は、遮光条件合致信号をイベントのトリガーとして
利用することができるため、プレゼンテーションの流れ
を妨げることなく動作を指示することができるディスプ
レイ装置を提供することができるという効果を奏する。
このため、遮光条件合致信号を例えばツールバーやメニ
ューバーなどの動作指示のための表示物をディスプレイ
画面に表示しておく必要がなく、ディスプレイ画面を有
効に利用できるディスプレイ装置を提供することができ
るという効果を奏する。
As described above, according to the first aspect of the present invention, since the light-shielding condition matching signal can be used as an event trigger, the operation can be instructed without interrupting the flow of the presentation. There is an effect that a display device can be provided.
Therefore, there is no need to display a light shielding condition matching signal on the display screen for displaying an operation instruction such as a toolbar or a menu bar, and a display device that can effectively use the display screen can be provided. It works.

【0140】この請求項2に記載の発明によれば、オペ
レータの使用状況や好みに適した条件で遮光信号を出力
し、ディスプレイ画面の表示を制御することができるデ
ィスプレイ装置を提供することができるという効果を奏
する。
According to the second aspect of the present invention, it is possible to provide a display device capable of outputting a light-shielded signal under conditions suitable for the use situation and preferences of an operator and controlling display on a display screen. This has the effect.

【0141】請求項3に記載の発明は、座標入力時とは
異なる範囲を遮光することによって簡単に遮光信号を出
力させることができるディスプレイ装置を提供すること
ができるという効果を奏する。
The invention described in claim 3 has an effect that it is possible to provide a display device that can easily output a light-shielded signal by shielding a range different from that at the time of inputting coordinates.

【0142】請求項4に記載の発明は、座標入力時とは
異なる時間遮光することによって簡単に遮光信号を出力
させることができるディスプレイ装置を提供することが
できるという効果を奏する。
The invention described in claim 4 has an effect that it is possible to provide a display device which can easily output a light shielding signal by shielding light for a time different from the time of inputting coordinates.

【0143】請求項5に記載の発明は、ツールバーやメ
ニューバーなどの動作指示のための表示物をディスプレ
イ画面に表示しておく必要がなく、ディスプレイ画面を
有効に利用できるディスプレイ装置を提供することがで
きるという効果を奏する。
[0143] The invention according to claim 5 provides a display device capable of effectively using a display screen without displaying a display object for operation instructions such as a toolbar or a menu bar on the display screen. This has the effect that it can be performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明のディスプレイ装置の一実施の形態を説
明するための図である。
FIG. 1 is a diagram for explaining an embodiment of a display device of the present invention.

【図2】光学ユニットによって検出された遮光の状態を
説明するための図である。
FIG. 2 is a diagram illustrating a state of light blocking detected by an optical unit.

【図3】図1に示したコンピュータの構成をより詳細に
説明するための図である。
FIG. 3 is a diagram for explaining the configuration of the computer shown in FIG. 1 in more detail;

【図4】本発明のディスプレイ装置の一実施の形態で行
われる処理を説明するためのフローチャートである。
FIG. 4 is a flowchart illustrating a process performed in one embodiment of the display device of the present invention.

【図5】本発明のディスプレイ装置に適用可能な座標入
力装置の概略構成を示す正面図である。
FIG. 5 is a front view showing a schematic configuration of a coordinate input device applicable to the display device of the present invention.

【図6】図5に示す座標入力装置を構成する照明装置の
概略構成図である。
FIG. 6 is a schematic configuration diagram of a lighting device constituting the coordinate input device shown in FIG. 5;

【図7】本発明のディスプレイ装置に適用可能な座標入
力装置のブロック図である。
FIG. 7 is a block diagram of a coordinate input device applicable to the display device of the present invention.

【図8】本発明のディスプレイ装置に適用可能な座標入
力装置において、入力領域内に挿入された指示物体の位
置座標を求める処理の説明図である。
FIG. 8 is an explanatory diagram of a process for obtaining position coordinates of a pointing object inserted in an input area in a coordinate input device applicable to the display device of the present invention.

【図9】本発明のディスプレイ装置に適用可能な座標入
力装置において、入力領域内に挿入された指示物体の位
置座標を求める処理の説明図である。
FIG. 9 is an explanatory diagram of a process for obtaining position coordinates of a pointing object inserted in an input area in a coordinate input device applicable to the display device of the present invention.

【図10】本発明のディスプレイ装置に適用可能な座標
入力装置において、CCD上に結像された被写体像の位
置およびCCDによって撮像された被写体像の光量の関
係を示すグラフである。
FIG. 10 is a graph showing the relationship between the position of a subject image formed on a CCD and the amount of light of the subject image captured by the CCD in a coordinate input device applicable to the display device of the present invention.

【図11】本発明のディスプレイ装置に適用可能な座標
入力装置において、指示物体に発生する影の説明図であ
る。
FIG. 11 is an explanatory diagram of a shadow generated on a pointing object in a coordinate input device applicable to the display device of the present invention.

【図12】本発明のディスプレイ装置に適用可能な座標
入力装置において、CCD上に結像された被写体像の位
置およびCCDによって撮像された被写体像の光量の関
係を、指示物体に影がある場合とない場合とで比較した
様子を示すグラフである。
FIG. 12 shows a relationship between the position of the subject image formed on the CCD and the light amount of the subject image captured by the CCD in the coordinate input device applicable to the display device of the present invention when the pointing object has a shadow. It is a graph which shows a mode compared with the case without.

【図13】本発明のディスプレイ装置に適用可能な座標
入力装置において、CCD上に結像された被写体像の位
置,CCDによって撮像された被写体像の光量および距
離Dの関係を示すグラフである。
FIG. 13 is a graph showing the relationship between the position of a subject image formed on a CCD, the amount of light of the subject image captured by the CCD, and the distance D in a coordinate input device applicable to the display device of the present invention.

【図14】本発明のディスプレイ装置に適用可能な座標
入力装置において、算出された位置座標をコンピュータ
に転送する際の処理を示すフローチャートである。
FIG. 14 is a flowchart illustrating a process for transferring calculated position coordinates to a computer in a coordinate input device applicable to the display device of the present invention.

【図15】本発明のディスプレイ装置に適用可能な座標
入力装置において、2本のペンを同時に用いて手書き文
字や図形をコンピュータに入力する操作を行った場合の
処理を説明するための説明図である。
FIG. 15 is an explanatory diagram for explaining a process in a case where an operation of inputting handwritten characters and graphics to a computer using two pens simultaneously is performed in a coordinate input device applicable to the display device of the present invention. is there.

【図16】本発明のディスプレイ装置に適用可能な座標
入力装置の変形例の概略構成を示す正面図である。
FIG. 16 is a front view showing a schematic configuration of a modified example of the coordinate input device applicable to the display device of the present invention.

【図17】本発明のディスプレイ装置に適用可能な他の
座標入力装置の概略構成を示す正面図である。
FIG. 17 is a front view showing a schematic configuration of another coordinate input device applicable to the display device of the present invention.

【図18】本発明のディスプレイ装置に適用可能な他の
座標入力装置に設けられる背景板の説明図である。
FIG. 18 is an explanatory diagram of a background plate provided in another coordinate input device applicable to the display device of the present invention.

【図19】本発明のディスプレイ装置に適用可能な他の
座標入力装置に設けられる遮光板の説明図である。
FIG. 19 is an explanatory diagram of a light shielding plate provided in another coordinate input device applicable to the display device of the present invention.

【図20】本発明のディスプレイ装置に適用可能な他の
座標入力装置の断面図である。
FIG. 20 is a sectional view of another coordinate input device applicable to the display device of the present invention.

【図21】本発明のディスプレイ装置に適用可能な他の
座標入力装置のブロック図である。
FIG. 21 is a block diagram of another coordinate input device applicable to the display device of the present invention.

【図22】本発明のディスプレイ装置に適用可能な他の
座標入力装置において、入力領域内に挿入された指示物
体の位置座標を求める処理の説明図である。
FIG. 22 is an explanatory diagram of a process for obtaining the position coordinates of the pointing object inserted in the input area in another coordinate input device applicable to the display device of the present invention.

【図23】本発明のディスプレイ装置に適用可能な他の
座標入力装置において、入力領域内に挿入された指示物
体の位置座標を求める処理の説明図である。
FIG. 23 is an explanatory diagram of a process of obtaining the position coordinates of the pointing object inserted into the input area in another coordinate input device applicable to the display device of the present invention.

【図24】本発明のディスプレイ装置に適用可能な他の
座標入力装置において、入力領域内に挿入された指示物
体の位置座標を求める処理の流れを示す説明図である。
FIG. 24 is an explanatory diagram showing a flow of a process of obtaining the position coordinates of the pointing object inserted into the input area in another coordinate input device applicable to the display device of the present invention.

【図25】図24に示す基準画像の一例を示す説明図で
ある。
FIG. 25 is an explanatory diagram showing an example of the reference image shown in FIG. 24.

【図26】図24に示す撮影画像の一例を示す説明図で
ある。
FIG. 26 is an explanatory diagram illustrating an example of the captured image illustrated in FIG. 24;

【図27】図24に示す差分画像の一例を示す説明図で
ある。
FIG. 27 is an explanatory diagram showing an example of the difference image shown in FIG. 24.

【図28】本発明のディスプレイ装置に適用可能な他の
座標入力装置において、入力領域の一点が指で指し示さ
れた様子を示す説明図である。
FIG. 28 is an explanatory diagram showing a state where one point of the input area is pointed by a finger in another coordinate input device applicable to the display device of the present invention.

【図29】本発明のディスプレイ装置に適用可能な他の
座標入力装置において、二次元イメージセンサに結像さ
れるZ方向の差分画像の結像中心点と距離Dとの関係を
示す説明図である。
FIG. 29 is an explanatory diagram showing the relationship between the center D of the difference image in the Z direction formed on the two-dimensional image sensor and the distance D in another coordinate input device applicable to the display device of the present invention. is there.

【図30】本発明のディスプレイ装置に適用可能な他の
座標入力装置において使用可能な描画およびジェスチャ
コマンドを示す説明図である。
FIG. 30 is an explanatory diagram showing drawing and gesture commands usable in another coordinate input device applicable to the display device of the present invention.

【図31】本発明のディスプレイ装置の他の構成例を示
す図である。
FIG. 31 is a diagram showing another configuration example of the display device of the present invention.

【符号の説明】[Explanation of symbols]

1,31 座標入力装置 1a,32 筐体 2,33 入力領域 3 光源 4 照明装置 5 CCD 6,36 結像光学レンズ 7L,7R 撮像装置 8 シェード 9 光吸収部材 10 受光素子 11 光学レンズ 12 円弧型スリット 13 円錐ミラー 13a 傾斜面 14 軸 15 角度調整部 16 アクチュエータ 17,38 マイコン 18,39 I/F 19,40 CPU 20,41 ROM 21,42 RAM 22,43 タイマ 23 xy演算器 24,42a 座標メモリ 25 ひずみ補正部 26 パターン認識部 27 影部補正部 28,51 バス 34L,34R カメラ 37 背景板 35 二次元イメージセンサ 44 差分器 45 XYZ演算器 46 EEPROM 47 基準画像メモリ 48 撮影画像 49 基準画像 50 差分画像 101 タッチパネル 102 座標入力面 103L 光学ユニット 103R 光学ユニット 103a 光源 104 制御部 105 コンピュータ 105a キーボード 106 再帰性反射部材 301 ソフトウェア制御部 302 タイマ 302a タイマA 302b タイマB 302c タイマC 1, 31 coordinate input device 1a, 32 housing 2, 33 input area 3 light source 4 illumination device 5 CCD 6, 36 imaging optical lens 7L, 7R imaging device 8 shade 9 light absorbing member 10 light receiving element 11 optical lens 12 arc type Slit 13 Conical mirror 13a Inclined surface 14 Axis 15 Angle adjustment unit 16 Actuator 17, 38 Microcomputer 18, 39 I / F 19, 40 CPU 20, 41 ROM 21, 42 RAM 22, 43 Timer 23 xy calculator 24, 42a Coordinate memory 25 distortion correction unit 26 pattern recognition unit 27 shadow correction unit 28, 51 bus 34L, 34R camera 37 background plate 35 two-dimensional image sensor 44 subtractor 45 XYZ calculator 46 EEPROM 47 reference image memory 48 photographed image 49 reference image 50 difference Image 101 Touch panel 10 2 Coordinate input surface 103L Optical unit 103R Optical unit 103a Light source 104 Control unit 105 Computer 105a Keyboard 106 Retroreflective member 301 Software control unit 302 Timer 302a Timer A 302b Timer B 302c Timer C

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 タッチパネルの座標入力面に光を照射す
る光源、該光源によって照射された照射光が遮られたこ
とを検出する遮光検出手段、該遮光検出手段の検出結果
に基づいてディスプレイ面の表示内容を制御する表示制
御手段と、を備えるディスプレイ装置であって、 前記遮光検出手段は検出された遮光の状態が所定の条件
である遮光条件に合致したことを示す遮光条件合致信号
を出力し、かつ、前記表示制御手段は前記遮光条件合致
信号をイベントとして表示内容の制御を実行することを
特徴とするディスプレイ装置。
1. A light source for irradiating light to a coordinate input surface of a touch panel, light-shielding detecting means for detecting that the irradiation light emitted by the light source is interrupted, Display control means for controlling display contents, wherein the light-shielding detection means outputs a light-shielding condition matching signal indicating that the detected light-shielding state matches a predetermined light-shielding condition. A display control unit that controls display contents using the light-shielding condition matching signal as an event.
【請求項2】 さらに、前記遮光条件を設定するための
遮光条件設定手段を備えることを特徴とする請求項1に
記載のディスプレイ装置。
2. The display device according to claim 1, further comprising a light-shielding condition setting unit for setting the light-shielding condition.
【請求項3】 前記遮光条件が、遮光の範囲に基づいて
設定されることを特徴とする請求項1または2に記載の
ディスプレイ装置。
3. The display device according to claim 1, wherein the light blocking condition is set based on a light blocking range.
【請求項4】 前記遮光条件が、遮光の時間に基づいて
設定されることを特徴とする請求項1〜3のいずれか一
つに記載のディスプレイ装置。
4. The display device according to claim 1, wherein the light blocking condition is set based on a light blocking time.
【請求項5】 前記表示制御手段は、前記遮光条件合致
信号をイベントとして動作指示のための表示物をディス
プレイ画面に表示する、または消去することを特徴とす
る請求項1〜4のいずれか一つに記載のディスプレイ装
置。
5. The display control device according to claim 1, wherein the display control unit displays or deletes a display object for an operation instruction on a display screen using the light-shielding condition matching signal as an event. A display device according to any one of the preceding claims.
JP2001156109A 2001-05-24 2001-05-24 Display device Pending JP2002351615A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001156109A JP2002351615A (en) 2001-05-24 2001-05-24 Display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001156109A JP2002351615A (en) 2001-05-24 2001-05-24 Display device

Publications (1)

Publication Number Publication Date
JP2002351615A true JP2002351615A (en) 2002-12-06

Family

ID=19000165

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001156109A Pending JP2002351615A (en) 2001-05-24 2001-05-24 Display device

Country Status (1)

Country Link
JP (1) JP2002351615A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006099273A (en) * 2004-09-28 2006-04-13 Canon Inc Coordinate input device and its method
JP2006301740A (en) * 2005-04-15 2006-11-02 Canon Inc Coordinate input device and its control method, and program
KR100796771B1 (en) 2006-09-15 2008-01-22 김해철 Image Shutter based Virtual Touch Screen System and Method
JP2008152752A (en) * 2006-12-13 2008-07-03 Lg Phillips Lcd Co Ltd Display device having multi-touch recognition function, and its driving method
WO2008102767A1 (en) * 2007-02-23 2008-08-28 Sony Corporation Imaging device, display imaging device, and imaging process device
US7456824B2 (en) 2003-07-01 2008-11-25 Canon Kabushiki Kaisha Coordinate input apparatus with region recognition
US7525536B2 (en) 2004-06-03 2009-04-28 Canon Kabushiki Kaisha Coordinate input device, control method therefor, and control program for implementing the method
JP2011028746A (en) * 2009-07-21 2011-02-10 Pixart Imaging Inc Gesture recognition method and touch system incorporating the same
JP2011048810A (en) * 2009-07-31 2011-03-10 Seiko Epson Corp Optical position detection apparatus and display apparatus having position detection function
JP2012252702A (en) * 2011-06-01 2012-12-20 Thales Touch sensor system including optical transmitter and receiver
WO2013042194A1 (en) * 2011-09-20 2013-03-28 Necディスプレイソリューションズ株式会社 Interactive unit attachment structure for projector
JP2013125482A (en) * 2011-12-15 2013-06-24 Canon Inc Coordinate input device, method of controlling coordinate input device, and program
JP2013235416A (en) * 2012-05-09 2013-11-21 Seiko Epson Corp Image display system
TWI417774B (en) * 2010-06-28 2013-12-01 Pixart Imaging Inc Optical distance determination device, optical touch monitor system and method for measuring distance of a touch point on an optical touch panel
JP2014149740A (en) * 2013-02-01 2014-08-21 Seiko Epson Corp Position detector, adjustment method, and adjustment program
JPWO2017013953A1 (en) * 2015-07-17 2018-04-12 富士電機株式会社 Optical touch panel and vending machine

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7456824B2 (en) 2003-07-01 2008-11-25 Canon Kabushiki Kaisha Coordinate input apparatus with region recognition
US7525536B2 (en) 2004-06-03 2009-04-28 Canon Kabushiki Kaisha Coordinate input device, control method therefor, and control program for implementing the method
JP2006099273A (en) * 2004-09-28 2006-04-13 Canon Inc Coordinate input device and its method
JP2006301740A (en) * 2005-04-15 2006-11-02 Canon Inc Coordinate input device and its control method, and program
JP4590295B2 (en) * 2005-04-15 2010-12-01 キヤノン株式会社 Coordinate input device, control method therefor, and program
KR100796771B1 (en) 2006-09-15 2008-01-22 김해철 Image Shutter based Virtual Touch Screen System and Method
JP2008152752A (en) * 2006-12-13 2008-07-03 Lg Phillips Lcd Co Ltd Display device having multi-touch recognition function, and its driving method
DE102007021537B4 (en) 2006-12-13 2020-01-02 Lg Display Co., Ltd. Display unit with multi-touch detection function
US9552105B2 (en) 2006-12-13 2017-01-24 Lg Display Co., Ltd. Display device having multi-touch recognizing function and driving method thereof
JP5093523B2 (en) * 2007-02-23 2012-12-12 ソニー株式会社 IMAGING DEVICE, DISPLAY IMAGING DEVICE, AND IMAGING PROCESSING DEVICE
US8319749B2 (en) 2007-02-23 2012-11-27 Sony Corporation Image pickup apparatus, display-and-image-pickup apparatus and image pickup processing apparatus
WO2008102767A1 (en) * 2007-02-23 2008-08-28 Sony Corporation Imaging device, display imaging device, and imaging process device
JP2011028746A (en) * 2009-07-21 2011-02-10 Pixart Imaging Inc Gesture recognition method and touch system incorporating the same
JP2011048810A (en) * 2009-07-31 2011-03-10 Seiko Epson Corp Optical position detection apparatus and display apparatus having position detection function
CN101989155A (en) * 2009-07-31 2011-03-23 精工爱普生株式会社 Optical position detection apparatus and display apparatus having position detection function
US8564790B2 (en) 2009-07-31 2013-10-22 Seiko Epson Corporation Optical position detection apparatus and display apparatus having position detection function
TWI417774B (en) * 2010-06-28 2013-12-01 Pixart Imaging Inc Optical distance determination device, optical touch monitor system and method for measuring distance of a touch point on an optical touch panel
US9116578B2 (en) 2010-06-28 2015-08-25 Pixart Imaging Inc. Optical distance determination device, optical touch monitoring system and method for measuring distance of a touch point on an optical touch panel
JP2012252702A (en) * 2011-06-01 2012-12-20 Thales Touch sensor system including optical transmitter and receiver
WO2013042194A1 (en) * 2011-09-20 2013-03-28 Necディスプレイソリューションズ株式会社 Interactive unit attachment structure for projector
JP2013125482A (en) * 2011-12-15 2013-06-24 Canon Inc Coordinate input device, method of controlling coordinate input device, and program
JP2013235416A (en) * 2012-05-09 2013-11-21 Seiko Epson Corp Image display system
JP2014149740A (en) * 2013-02-01 2014-08-21 Seiko Epson Corp Position detector, adjustment method, and adjustment program
JPWO2017013953A1 (en) * 2015-07-17 2018-04-12 富士電機株式会社 Optical touch panel and vending machine
US10635240B2 (en) 2015-07-17 2020-04-28 Fuji Electric Co., Ltd. Optical touch panel and automatic vending machine

Similar Documents

Publication Publication Date Title
TWI483143B (en) Hybrid pointing device
JP4442877B2 (en) Coordinate input device and control method thereof
KR102335132B1 (en) Multi-modal gesture based interactive system and method using one single sensing system
JP2002351615A (en) Display device
TWI501121B (en) Gesture recognition method and touch system incorporating the same
US6760009B2 (en) Coordinate position inputting/detecting device, a method for inputting/detecting the coordinate position, and a display board system
US10452206B2 (en) Projection video display device and video display method
US20030034961A1 (en) Input system and method for coordinate and pattern
JP4891179B2 (en) Coordinate input device, coordinate input method
US20030234346A1 (en) Touch panel apparatus with optical detection for location
US20120169671A1 (en) Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and an imaging sensor
TWI420357B (en) Touch system and pointer coordinate detecting method therefor
WO2012026347A1 (en) Electronic blackboard system and program
JP2011521331A (en) Interactive input device with optical bezel
KR20120135184A (en) System and method for a virtual multi-touch mouse and stylus apparatus
TWI498785B (en) Touch sensor apparatus and touch point detection method
US7456824B2 (en) Coordinate input apparatus with region recognition
WO2005031554A1 (en) Optical position detector
US20120044143A1 (en) Optical imaging secondary input means
US20110193969A1 (en) Object-detecting system and method by use of non-coincident fields of light
WO2011118313A1 (en) Coordinate input device, and program
JP2020135096A (en) Display method, display unit, and interactive projector
TWI410842B (en) Touch-sensed controlled monitor system
JP2009070160A (en) Coordinate input device and handwriting input display device
JP2001067183A (en) Coordinate input/detection device and electronic blackboard system