JP5158057B2 - Image display device, image display method, and program - Google Patents

Image display device, image display method, and program Download PDF

Info

Publication number
JP5158057B2
JP5158057B2 JP2009264687A JP2009264687A JP5158057B2 JP 5158057 B2 JP5158057 B2 JP 5158057B2 JP 2009264687 A JP2009264687 A JP 2009264687A JP 2009264687 A JP2009264687 A JP 2009264687A JP 5158057 B2 JP5158057 B2 JP 5158057B2
Authority
JP
Japan
Prior art keywords
spot
unit
value
variable
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009264687A
Other languages
Japanese (ja)
Other versions
JP2010044425A (en
Inventor
毅 松岡
紳一 松井
宣男 飯塚
毅 笠原
隆 松田
浩一 中込
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009264687A priority Critical patent/JP5158057B2/en
Publication of JP2010044425A publication Critical patent/JP2010044425A/en
Application granted granted Critical
Publication of JP5158057B2 publication Critical patent/JP5158057B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

この発明は、操作者等の操作に従った画像を表示画面上に描画する画像表示装置、画像表示方法、および、プログラムに関する。   The present invention relates to an image display device, an image display method, and a program for drawing an image in accordance with an operation of an operator or the like on a display screen.

スクリーンに映像を投影するとともに、このスクリーンに補助光が投影されたとき、レーザポインタ等が発する補助光の位置を検出して、映像のうち補助光が投射された位置にあたる部分を変更する技術として特許2622620号が知られている。   As a technique for projecting an image on the screen and detecting the position of the auxiliary light emitted by a laser pointer or the like when the auxiliary light is projected on the screen and changing the portion of the image corresponding to the position where the auxiliary light is projected Japanese Patent No. 2622620 is known.

しかし、特許2622620号の技術はスクリーンに投影された補助光(スポット)の位置を検出するため、スクリーンに投影された補助光を撮像する場合、撮像を行う撮像装置の受光面がスクリーン正面に正確に対向していないと、補助光の位置を正しく検出できなかった。   However, since the technology of Japanese Patent No. 2622620 detects the position of the auxiliary light (spot) projected on the screen, when the auxiliary light projected on the screen is imaged, the light-receiving surface of the imaging device that performs imaging is accurately positioned on the front of the screen. If not, the position of the auxiliary light could not be detected correctly.

従って、撮像装置を設置する位置が制約され、更には、レーザポインタ等の操作者の位置も制約される結果、操作性が悪くなっていた。また、撮像装置を設置する作業を正しく行うことも困難になり、特に撮像装置の光学系に収差等がある場合、正しい設置位置の決定は極めて困難であった。また、撮像装置とスクリーンの位置関係を、撮像装置が正確に設置された状態で固定してしまうと、撮像装置の位置が変更できないので、撮像装置を他の用途に用いることができなくなっていた。   Therefore, the position where the image pickup apparatus is installed is restricted, and further, the position of the operator such as a laser pointer is restricted, resulting in poor operability. In addition, it is difficult to correctly perform the operation of installing the imaging device, and in particular when the optical system of the imaging device has aberration or the like, it is extremely difficult to determine the correct installation position. In addition, if the positional relationship between the imaging device and the screen is fixed in a state where the imaging device is correctly installed, the position of the imaging device cannot be changed, so the imaging device cannot be used for other purposes. .

この発明は、上記実状に鑑みてなされたもので、撮像装置を任意の位置に置いても適正な表示画面を提供するとともに、撮像されたスポット(補助光)の位置を表示画面に正しく反映することができる、操作性が良好な画像表示装置、画像表示方法、および、プログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and provides an appropriate display screen even when the imaging device is placed at an arbitrary position, and correctly reflects the position of the imaged spot (auxiliary light) on the display screen. An object of the present invention is to provide an image display device, an image display method, and a program that can be operated with good operability.

本願の請求項1記載の発明は、スポットと、このスポットを含む領域を複数の任意の位置から撮像する撮像手段と、この撮像手段によって撮像された空間内の面の画像データを生成する生成手段と、この生成手段によって生成された画像データに基づく画像を表示する表示手段とを備えた画像表示装置において、前記生成手段は、前記表示手段の表示画面に適正に表示されるように前記画像データを加工する加工手段と、前記空間内における前記スポットの位置座標を計測する計測手段と、この計測手段によって計測された前記スポットの位置座標に基づいて、前記加工手段による加工後の画像データが表示すべきスポットの形状を決定するスポット形状決定手段と、この計測手段によって計測された前記スポットの位置座標を、加工後の画像データに反映される位置座標に変換する座標変換手段と、この座標変換手段によって変換された位置座標に、前記スポット形状決定手段によって決定された形状のスポットを表示するよう制御する表示制御手段と、を備えることを特徴とする。 The invention according to claim 1 of the present application is an imaging means for imaging a spot, an area including the spot from a plurality of arbitrary positions, and a generation means for generating image data of a surface in a space imaged by the imaging means. And a display means for displaying an image based on the image data generated by the generating means, wherein the generating means displays the image data so as to be properly displayed on the display screen of the display means. Processing means for processing the image, measurement means for measuring the position coordinates of the spot in the space, and display of image data processed by the processing means based on the position coordinates of the spot measured by the measurement means A spot shape determining means for determining the shape of the spot to be processed, and the position coordinates of the spot measured by the measuring means, A coordinate transformation means for transforming the position coordinates that are reflected in the data, the position coordinates converted by the coordinate conversion means, and display control means for controlling to display the spot shape determined by the spot shape determining means, It is characterized by providing .

本願の請求項2記載の発明は、上記請求項1記載の発明において、前記スポットの光源が発光していることを示す信号を外部より受信する受信手段を更に備え、前記計測手段は、前記受信手段が前記信号を受信したことに応答して前記スポットの位置座標を計測することを特徴とする。
本願の請求項3記載の発明は、上記請求項1記載の発明において、前記撮像手段は前記スポットを含む領域を複数の任意の位置から連続的に撮像し、前記計測手段はこの連続的に撮像された空間における前記スポットの位置座標を連続的に計測し、前記表示制御手段は、前記計測手段によって連続的に計測された結果により決定された形状のスポットからなる軌跡を表示するよう制御することを特徴とする。
本願の請求項4記載の発明は、上記請求項1又は3記載の発明において、前記計測手段は少なくとも2つのスポットの位置座標を計測するとともにこれらのスポット間の直線距離も計測し、前記スポット形状決定手段は、前記計測手段によって計測された前記スポットの位置座標と長剣距離とに基づいて、前記加工手段による加工後の画像データが表示すべきスポットの形状を決定することを特徴とする。
The invention according to claim 2 of the present application further includes receiving means for receiving from outside the signal indicating that the light source of the spot is emitting light in the invention according to claim 1 , wherein the measuring means is the receiving device. The means measures the position coordinates of the spot in response to receiving the signal .
The invention according to claim 3 of the present application is the invention according to claim 1, wherein the imaging unit continuously captures an area including the spot from a plurality of arbitrary positions, and the measuring unit continuously captures the image. Continuously measuring the position coordinates of the spot in the defined space, and controlling the display control means to display a trajectory composed of spots of a shape determined by the result of continuous measurement by the measuring means. It is characterized by.
The invention according to claim 4 of the present application is the invention according to claim 1 or 3, wherein the measuring means measures the position coordinates of at least two spots and also measures a linear distance between these spots, and the spot shape. The determining means determines the shape of the spot to be displayed by the image data processed by the processing means based on the position coordinates of the spot and the long sword distance measured by the measuring means.

本願の請求項記載の発明は、スポットと、このスポットを含む領域を複数の任意の位置から撮像する撮像ステップと、この撮像ステップにて撮像された空間内の面の画像データを生成する生成ステップと、この生成ステップにて生成された画像データに基づく画像を表示する表示ステップとからなる画像表示方法であって、前記生成ステップは、前記表示ステップにて表示画面に適正に表示されるように前記画像データを加工する加工ステップと、前記空間内における前記スポットの位置座標を計測する計測ステップと、この計測ステップにて計測された前記スポットの位置座標に基づいて、前記加工ステップでの加工の結果得られる加工後の画像データが表示すべきスポットの形状を決定するスポット形状決定ステップと、この計測ステップにて計測された前記スポットの位置座標を、加工後の画像データに反映される位置座標に変換する座標変換ステップと、この座標変換ステップにて変換された位置座標に、前記スポット形状決定ステップにて決定された形状のスポットを表示するよう制御する表示制御ステップと、を含むことを特徴とする。 The invention according to claim 5 of the present application is to generate a spot, an imaging step of imaging an area including the spot from a plurality of arbitrary positions, and image data of a surface in the space imaged at the imaging step. An image display method comprising a step and a display step for displaying an image based on the image data generated in the generation step, wherein the generation step is appropriately displayed on a display screen in the display step. A processing step for processing the image data, a measurement step for measuring the position coordinates of the spot in the space, and processing in the processing step based on the position coordinates of the spot measured in the measurement step A spot shape determining step for determining a spot shape to be displayed by the processed image data obtained as a result of The position coordinates of the spot measured by flop, a coordinate conversion step of converting the position coordinates that are reflected in the image data after processing, the transformed coordinates in the coordinate conversion step, the spot shape determining step And a display control step for controlling to display the spot having the shape determined in (1 ).

本願の請求項記載の発明は、表示装置と複数の撮像装置とに接続されるコンピュータを、前記複数の撮像装置に対し、スポットと、このスポットを含む領域を複数の任意の位置から撮像させる撮像制御手段この撮像制御手段によって撮像された空間内の面の画像データを生成する生成手段この生成手段によって生成された画像データに基づく画像を前記表示装置に表示させる表示制御手段として機能させ、更に、前記生成手段によって生成された画像データを、前記表示手段の表示画面に適正に表示されるように加工する加工手段前記空間内における前記スポットの位置座標を計測する計測手段この計測手段によって計測された前記スポットの位置座標に基づいて、前記加工手段による加工後の画像データが表示すべきスポットの形状を決定するスポット形状決定手段この計測手段によって計測された前記スポットの位置座標を、加工後の画像データに反映される位置座標に変換する座標変換手段、この座標変換手段によって変換された位置座標に、前記スポット形状決定手段によって決定された形状のスポットを表示するよう制御する表示制御手段、として機能させる。 According to a sixth aspect of the present invention, a computer connected to a display device and a plurality of imaging devices causes the plurality of imaging devices to image a spot and a region including the spot from a plurality of arbitrary positions. imaging control means, generating means for generating image data of the surface in the space captured by the imaging control means, to function an image based on image data generated by the generating means as a display control means for displaying on said display device further processing means, measuring means for measuring the position coordinates of the spot in the space of the image data generated by said generating means, processed to be properly displayed on the display screen of the display unit, the measured Based on the position coordinates of the spot measured by the means, the image data after processing by the processing means should be displayed. Spot shape determination means for determining a Jo, the position coordinates of the spot measured by the measuring means, the coordinate conversion means for converting the position coordinates that are reflected in the image data after processing, it converted position by the coordinate transformation means The coordinates function as display control means for controlling to display the spot having the shape determined by the spot shape determination means .

以上説明したように、この発明によれば、撮像装置を任意の位置に置いても適正な表示画面を提供するとともに、撮像されたスポット(補助光)の位置を表示画面に正しく反映することができる、操作性が良好な画像表示装置及び画像表示方法が実現される。   As described above, according to the present invention, an appropriate display screen can be provided even when the imaging device is placed at an arbitrary position, and the position of the captured spot (auxiliary light) can be correctly reflected on the display screen. An image display apparatus and an image display method with good operability are realized.

この発明の第1の実施の形態に係る描画システムの構成を示す図である。It is a figure which shows the structure of the drawing system which concerns on 1st Embodiment of this invention. 図1の描画システムの各部の接続関係及びデータ処理装置の構成を示すブロック図である。It is a block diagram which shows the connection relationship of each part of the drawing system of FIG. 1, and the structure of a data processor. 図1の描画システムの描画処理を示すフローチャートである。It is a flowchart which shows the drawing process of the drawing system of FIG. 図1の描画システムの画像解析処理を示すフローチャートである。It is a flowchart which shows the image analysis process of the drawing system of FIG. 図1の描画システムのスポット光抽出処理を示すフローチャートである。It is a flowchart which shows the spot light extraction process of the drawing system of FIG. 図1の描画システムの座標変換処理を示すフローチャートである。It is a flowchart which shows the coordinate transformation process of the drawing system of FIG. (a)は、画像入力部が撮像した画像の形状を示す図であり、(b)は、表示部の表示画面上で画像が占める領域の形状を示す図である。(A) is a figure which shows the shape of the image which the image input part imaged, (b) is a figure which shows the shape of the area | region which an image occupies on the display screen of a display part. 図1の描画システムの変形例の構成を示す図である。It is a figure which shows the structure of the modification of the drawing system of FIG. 座標変換処理を示すフローチャートである。It is a flowchart which shows a coordinate transformation process. 変換前の表示領域及び変換後の表示領域を示す図である。It is a figure which shows the display area before conversion, and the display area after conversion. 第1の実施の形態の変形例におけるデータ処理装置の動作フローチャートである。It is an operation | movement flowchart of the data processor in the modification of 1st Embodiment. 第1の実施の形態の変形例におけるキャリブレーション処理を示すフローチャートである。It is a flowchart which shows the calibration process in the modification of 1st Embodiment. 第1の実施の形態の変形例における座標変換処理を示すフローチャートである。It is a flowchart which shows the coordinate transformation process in the modification of 1st Embodiment. 第1の実施の形態の変形例における座標変換処理を説明する図である。It is a figure explaining the coordinate conversion process in the modification of 1st Embodiment. 第1の実施の形態の変形例における座標変換処理を示すフローチャートである。It is a flowchart which shows the coordinate transformation process in the modification of 1st Embodiment. (a)は変換前の表示領域を示す図であり、(b)は変換後の表示領域を示す図である。(A) is a figure which shows the display area before conversion, (b) is a figure which shows the display area after conversion. 第2の実施の形態におけるキャリブレーション処理を示すフローチャートである。It is a flowchart which shows the calibration process in 2nd Embodiment. 第2の実施の形態における描画処理を示すフローチャートである。It is a flowchart which shows the drawing process in 2nd Embodiment. 第3の実施の形態におけるレベル閾値設定の処理を示すフローチャートである。It is a flowchart which shows the process of the level threshold value setting in 3rd Embodiment. 第3の実施の形態におけるレベル検出処理を示すフローチャートである。It is a flowchart which shows the level detection process in 3rd Embodiment. レベル閾値設定の処理の変形例を示すフローチャートである。It is a flowchart which shows the modification of the process of a level threshold value setting. (a)、(b)、(c)及び(d)は、発光部が発するスポット光のパターンを模式的に示す図である。(A), (b), (c) and (d) is a figure which shows typically the pattern of the spotlight which a light emission part emits. スポット光のパターンを検出するスポット光抽出処理を示すフローチャートである。It is a flowchart which shows the spot light extraction process which detects the pattern of a spot light. スポット光のパターンを検出するスポット光抽出処理の変形例を示すフローチャートである。It is a flowchart which shows the modification of the spot light extraction process which detects the pattern of a spot light. 図24のフローチャートの続きである。It is a continuation of the flowchart of FIG. 図25のフローチャートの続きである。It is a continuation of the flowchart of FIG. 図26のフローチャートの続きである。It is a continuation of the flowchart of FIG. スポット光の検出の誤りが防止される様子を説明する図である。It is a figure explaining a mode that the mistake of detection of spot light is prevented. (a)及び(b)は、発光部が発する単色のスポット光のパターンを模式的に示す図である。(A) And (b) is a figure which shows typically the pattern of the monochromatic spot light which a light emission part emits. 単色のスポット光のパターンを検出するスポット光抽出処理を示すフローチャートである。It is a flowchart which shows the spot light extraction process which detects the pattern of a monochromatic spot light. 重み関数を表すグラフである。It is a graph showing a weight function. この発明の第4の実施の形態に係る描画システムの構成を示す図である。It is a figure which shows the structure of the drawing system which concerns on 4th Embodiment of this invention. 補間処理を示すフローチャートである。It is a flowchart which shows an interpolation process. スポットの平均位置を求める処理を示すフローチャートである。It is a flowchart which shows the process which calculates | requires the average position of a spot. スポットの平均位置を求める処理の変形例を示すフローチャートである。It is a flowchart which shows the modification of the process which calculates | requires the average position of a spot. スポットの平均位置を求める処理の変形例を示すフローチャートである。It is a flowchart which shows the modification of the process which calculates | requires the average position of a spot. スポットの平均位置を求める処理の変形例を示すフローチャートである。It is a flowchart which shows the modification of the process which calculates | requires the average position of a spot. スポット光抽出処理を示すフローチャートである。It is a flowchart which shows a spot light extraction process. この発明の第5の実施の形態に係る描画システムの構成を示す図である。It is a figure which shows the structure of the drawing system which concerns on 5th Embodiment of this invention. 補間処理を示すフローチャートである。It is a flowchart which shows an interpolation process. 表示画面上の位置と関数Nの値との関係を示す図である。It is a figure which shows the relationship between the position on a display screen, and the value of the function N. この発明の第5の実施の形態に係る描画システムの変形例の構成を示す図である。It is a figure which shows the structure of the modification of the drawing system which concerns on the 5th Embodiment of this invention. 図43の描画システムが行うスポット光抽出処理の各要素の配置を模式的に示す図である。It is a figure which shows typically arrangement | positioning of each element of the spot light extraction process which the drawing system of FIG. 43 performs. 図43の描画システムの各要素の配置を模式的に示す図である。It is a figure which shows typically arrangement | positioning of each element of the drawing system of FIG. 筆先形状データのデータ構造を模式的に示す図である。It is a figure which shows typically the data structure of brush-tip shape data. 図43の描画システムが表示するスポットの軌跡を模式的に示す図である。It is a figure which shows typically the locus | trajectory of the spot which the drawing system of FIG. 43 displays. この発明の第6の実施の形態に係る描画システムの構成を示す図である。It is a figure which shows the structure of the drawing system which concerns on the 6th Embodiment of this invention. この発明の第7の実施の形態に係る描画システムの構成を示す図である。It is a figure which shows the structure of the drawing system which concerns on the 7th Embodiment of this invention. 図48の描画システムが実行する処理を示すフローチャートである。It is a flowchart which shows the process which the drawing system of FIG. 48 performs. 発光部の変形例を模式的に示す図である。It is a figure which shows typically the modification of a light emission part. 発光部の変形例を模式的に示す図である。It is a figure which shows typically the modification of a light emission part. この発明の第7の実施の形態に係る描画システムの変形例の構成を示す図である。It is a figure which shows the structure of the modification of the drawing system which concerns on 7th Embodiment of this invention. (a)、(b)(c)及び(d)は、図52の描画システムが実行する処理を示すフローチャートである。(A), (b), (c), and (d) are flowcharts showing processing executed by the drawing system of FIG. 図52の描画システムが表示する画像を模式的に示す図である。FIG. 53 is a diagram schematically showing an image displayed by the drawing system of FIG. 52. 図54の画像内のボタンをクリックする様子を模式的に示す図である。It is a figure which shows typically a mode that the button in the image of FIG. 54 is clicked. この発明の第8の実施の形態に係る文字入力装置の構成を示す図である。It is a figure which shows the structure of the character input device which concerns on 8th Embodiment of this invention. 図56の文字入力装置が一体に形成されている様子を模式的に示す図である。It is a figure which shows typically a mode that the character input device of FIG. 56 is integrally formed. 図56の文字入力装置が実行する処理を示すフローチャートである。It is a flowchart which shows the process which the character input device of FIG. 56 performs. 図56の文字入力装置が表示するキートップの画像を模式的に示す図である。It is a figure which shows typically the image of the key top which the character input device of FIG. 56 displays.

以下、この発明の実施の形態に係る画像表示装置及び画像表示方法を、描画システムを例とし、図面を参照して説明する。   Hereinafter, an image display apparatus and an image display method according to embodiments of the present invention will be described with reference to the drawings, taking a drawing system as an example.

(第1の実施の形態)
図1は、この発明の第1の実施の形態にかかる描画システムの構成を示す図である。
図示するように、この描画システムは、データ処理装置1と、画像入力部2と、表示部3と、発光部4とより構成されている。データ処理装置1は、画像入力部2及び表示部3に接続されている。
(First embodiment)
FIG. 1 is a diagram showing the configuration of a drawing system according to the first embodiment of the present invention.
As shown in the figure, this drawing system includes a data processing device 1, an image input unit 2, a display unit 3, and a light emitting unit 4. The data processing device 1 is connected to the image input unit 2 and the display unit 3.

データ処理装置1は、図2に示すように、中央制御部11と、画像解析部12と、RAM(Random Access Memory)13と、外部記憶部14と、ユーザ操作入力部15とより構成されている。
中央制御部11は、バスBを介し、画像解析部12、RAM13及び外部記憶部14に接続されており、ユーザ操作入力部15は中央制御部11に接続されている。また、画像入力部2及び表示部3は、バスBに接続されている。
As shown in FIG. 2, the data processing apparatus 1 includes a central control unit 11, an image analysis unit 12, a RAM (Random Access Memory) 13, an external storage unit 14, and a user operation input unit 15. Yes.
The central control unit 11 is connected to the image analysis unit 12, the RAM 13, and the external storage unit 14 via the bus B, and the user operation input unit 15 is connected to the central control unit 11. The image input unit 2 and the display unit 3 are connected to the bus B.

中央制御部11は、CPU(Central Processing Unit)等より構成されている。中央制御部11は、ユーザがユーザ操作入力部15を操作して入力した指示に応答して、外部記憶部14が記憶しているプログラムを読み込み、このプログラムに従って、後述する処理を実行する。
RAM13は、中央制御部11及び画像解析部12の作業用メモリとして機能する。
The central control unit 11 includes a CPU (Central Processing Unit) and the like. In response to an instruction input by the user operating the user operation input unit 15, the central control unit 11 reads a program stored in the external storage unit 14 and executes processing described later according to this program.
The RAM 13 functions as a working memory for the central control unit 11 and the image analysis unit 12.

画像解析部12は、CPUやDSP(Digital Signal Processor)等より構成されており、スポット光抽出部12aと、座標変換部12bとより構成されていて、後述する画像解析処理を実行する。なお、同一のCPU等が中央制御部11及び画像解析部12の機能を行っていてもよい。   The image analysis unit 12 includes a CPU, a DSP (Digital Signal Processor), and the like. The image analysis unit 12 includes a spot light extraction unit 12a and a coordinate conversion unit 12b, and executes image analysis processing described later. Note that the same CPU or the like may perform the functions of the central control unit 11 and the image analysis unit 12.

スポット光抽出部12aは、画像入力部2が撮像した画像(つまり、画像入力部2が作成して中央制御部11がRAM13に格納した画像データが示す画像)のうち、発光部4が照射したスポット光に相当する部分を特定する処理(スポット光抽出処理)を、図5のフローチャートに基づいた手順で行う。   The spot light extraction unit 12a is irradiated by the light emitting unit 4 out of the image captured by the image input unit 2 (that is, the image indicated by the image data created by the image input unit 2 and stored in the RAM 13 by the central control unit 11). A process (spot light extraction process) for specifying a portion corresponding to the spot light is performed according to a procedure based on the flowchart of FIG.

座標変換部12bは、スポット光抽出部12aが特定した部分が、表示部3の後述する表示画面上のどの位置にあるかを、画像入力部2が作成した画像データに基づいて特定する処理(座標変換処理)を図6のフローチャートに基づいた手順で行う。   The coordinate conversion unit 12b specifies the position on the display screen, which will be described later, of the display unit 3 based on the image data created by the image input unit 2 (the position specified by the spot light extraction unit 12a) ( The coordinate conversion process is performed according to the procedure based on the flowchart of FIG.

外部記憶部14は、ハードディスク装置等より構成されており、中央制御部11が実行するプログラムを予め記憶する。
ユーザ操作入力部15は、キーボードやマウス等より構成されており、ユーザ等の操作に従った情報(例えば、外部記憶部14が記憶しているプログラムの実行の指示)を入力し、中央制御部11に供給する。
The external storage unit 14 is configured by a hard disk device or the like, and stores a program executed by the central control unit 11 in advance.
The user operation input unit 15 includes a keyboard, a mouse, and the like. The user operation input unit 15 inputs information (for example, an instruction to execute a program stored in the external storage unit 14) according to the operation of the user, and the central control unit. 11 is supplied.

画像入力部2は、ビデオカメラ等より構成されており、表示部3が備える表示画面を撮像し、撮像した画像を表す上述の画像データを作成して、この画像データを中央制御部11に供給する。
表示部3は、フラットスクリーンのCRT(Cathode Ray Tube)及び制御回路等より構成されており、中央制御部11が供給する指示に従い、自己に供給された画像データが表す画像を、自己の表示画面上に表示する。
The image input unit 2 is composed of a video camera or the like, images a display screen provided in the display unit 3, creates the above-described image data representing the captured image, and supplies the image data to the central control unit 11. To do.
The display unit 3 includes a flat screen CRT (Cathode Ray Tube), a control circuit, and the like, and displays an image represented by the image data supplied to the display unit 3 according to an instruction supplied by the central control unit 11. Display above.

発光部4はライトペン等より構成されており、ユーザの操作に従った明るさの単色のスポット光を発する。具体的には、例えば発光部4は、自己の発光部分に加えられた圧力の大きさを表す信号を生成する圧力センサを備え、この発光部分が表示部3の表示画面上に押しつけられる強さにより決まる明るさで発光するものとする。そして、この発光部分が発するスポット光の明るさは、この発光部分が表示部3の表示画面上に押しつけられる強さに従って単調増加するものとする。尚、本実施の形態では発光部4は赤色発光するものとする。   The light emitting unit 4 is composed of a light pen or the like, and emits a monochromatic spot light with brightness according to a user operation. Specifically, for example, the light emitting unit 4 includes a pressure sensor that generates a signal indicating the magnitude of the pressure applied to the light emitting part of the light emitting unit 4, and the intensity with which the light emitting part is pressed onto the display screen of the display unit 3. It is assumed that light is emitted at a brightness determined by. The brightness of the spot light emitted from the light emitting portion is monotonously increased according to the strength with which the light emitting portion is pressed onto the display screen of the display unit 3. In the present embodiment, the light emitting unit 4 emits red light.

(第1の実施の形態:動作)
次に、この描画システムの動作を、図3〜図6を参照して説明する。
図3は、描画処理を示すフローチャートである。
図4は、画像解析処理を示すフローチャートである。
図5は、スポット光抽出処理を示すフローチャートである。
図6は、座標変換処理を示すフローチャートである。
(First Embodiment: Operation)
Next, the operation of this drawing system will be described with reference to FIGS.
FIG. 3 is a flowchart showing the drawing process.
FIG. 4 is a flowchart showing image analysis processing.
FIG. 5 is a flowchart showing spot light extraction processing.
FIG. 6 is a flowchart showing the coordinate conversion process.

この描画システムが描画処理を開始すると、まず、画像入力部2が、表示部3の表示画面を撮像して、撮像した画像を表す画像データを作成し、この画像データを、データ処理装置1の中央制御部11に供給する(図3、ステップS1)。この処理により表示部3の表示画面の画像が入力される。   When the drawing system starts drawing processing, first, the image input unit 2 images the display screen of the display unit 3 to create image data representing the captured image, and the image data is stored in the data processing apparatus 1. It supplies to the central control part 11 (FIG. 3, step S1). By this processing, an image on the display screen of the display unit 3 is input.

画像入力部2が作成する画像データは、表示部3の表示画面をマトリクス状に配列された画素の集合としてみた場合における各画素の位置及び画素値を表す画素データより構成されている。なお、画素値は、画素の色を、赤、緑及び青の各原色成分の輝度の組み合わせとして表す変数である。また、画素の位置は、画像入力部2が撮像した画像をx軸及びy軸を含む直交座標平面上においた場合における、この画素の位置のx軸方向成分及びy軸方向成分の値の組として表されているものとする。   The image data created by the image input unit 2 is composed of pixel data representing the position and pixel value of each pixel when the display screen of the display unit 3 is viewed as a set of pixels arranged in a matrix. The pixel value is a variable that represents the color of the pixel as a combination of the luminances of the primary color components of red, green, and blue. The pixel position is a set of values of the x-axis direction component and the y-axis direction component of the pixel position when the image captured by the image input unit 2 is placed on an orthogonal coordinate plane including the x-axis and the y-axis. It shall be expressed as

ステップS1で画像が入力された時点で、ユーザが発光部4を操作し、表示部3の表示画面上にスポット光を照射していれば、ステップS1で画像入力部2が作成する画像データは、このスポット光が表示部3の表示画面上に作る輝点(スポット)の画像も表すものとなる。   If the user operates the light emitting unit 4 and irradiates the spot light on the display screen of the display unit 3 when the image is input in step S1, the image data created by the image input unit 2 in step S1 is The spot light also represents an image of a bright spot (spot) created on the display screen of the display unit 3.

なお以下では、理解を容易にするため、表示部3の表示画面上に表示される画像が占め得る領域は、図7(b)に示すように、点A’〜点D’を頂点とし、辺A’B’、辺B’C’、辺C’D’及び辺D’A’を有する長方形A’B’C’D’からなるものとする。
そして、画像入力部2は、必ずしも表示部3の表示画面を正面から撮像するものではない。このため、画像入力部2がステップS1で作成する画像データが表す画像のうち上述の領域に相当する領域は、必ずしも長方形A’B’C’D’に相似な形状とはならない。
In the following, in order to facilitate understanding, the area that can be occupied by the image displayed on the display screen of the display unit 3 has points A ′ to D ′ as vertices, as shown in FIG. Assume that the rectangle A′B′C′D ′ has sides A′B ′, B′C ′, C′D ′, and D′ A ′.
And the image input part 2 does not necessarily image the display screen of the display part 3 from the front. For this reason, the area | region corresponded to the above-mentioned area | region among the images which the image input part 2 produces by the image data produced by step S1 does not necessarily become a shape similar to rectangle A'B'C'D '.

以下では、理解を容易にするため、画像入力部2がステップS1で作成する画像データが表す画像のうち長方形A’B’C’D’が占める領域に相当する領域は、図7(a)に示すように、点A、点B、点C及び点Dを頂点とし、辺AB、辺BC、辺CD及び辺DAを有する四角形ABCDからなるものとする。なお、作成された入力画像データに基づく画像において、点Aの位置座標(x,y)、点Bの位置座標(x,y)、点Cの位置座標(x,y)、及び点Dの位置座標(x,y)は、画像解析処理以前の初期設定時においてユーザーが所定の操作、例えば、発光部4を用いて表示部3の表示画面上の4点をポイントし、その4点の位置座標を示すデータをインプットする、等の操作を行うことにより設定されるものとする。そして、四角形ABCDの辺AB、辺BC、辺CD及び辺DAは、順に、長方形A’B’C’D’の辺A’B’、辺B’C’、辺C’D’及び辺D’A’に相当するようになっているものとする。 In the following, for easy understanding, the area corresponding to the area occupied by the rectangle A′B′C′D ′ in the image represented by the image data created by the image input unit 2 in step S1 is shown in FIG. As shown in FIG. 4, the point A, the point B, the point C, and the point D are vertices, and the rectangle ABCD includes a side AB, a side BC, a side CD, and a side DA. Note that in the image based on the created input image data, the position coordinates (x a , y a ) of the point A, the position coordinates (x b , y b ) of the point B, and the position coordinates (x c , y c ) of the point C ) And the position coordinates (x d , y d ) of the point D are four points on the display screen of the display unit 3 by a predetermined operation by the user at the initial setting before the image analysis processing, for example, using the light emitting unit 4 It is set by performing operations such as pointing to and inputting data indicating the position coordinates of the four points. Then, the side AB, the side BC, the side CD, and the side DA of the quadrangle ABCD are in order of the side A′B ′, the side B′C ′, the side C′D ′, and the side D of the rectangle A′B′C′D ′. Assume that it corresponds to 'A'.

(画像解析処理:スポット光抽出処理)
中央制御部11は、画像入力部2より画像データを供給されるとこの画像データをRAM13に格納し、画像解析部12に、画像解析処理の開始を指示する。画像解析部2は、この指示に従って、画像解析処理を開始する(ステップS2)。
(Image analysis processing: spot light extraction processing)
When the image data is supplied from the image input unit 2, the central control unit 11 stores the image data in the RAM 13 and instructs the image analysis unit 12 to start image analysis processing. The image analysis unit 2 starts image analysis processing according to this instruction (step S2).

画像解析部12は、ステップS2で、具体的にはまず、スポット光抽出処理を実行する(図4、ステップS21)。
スポット光抽出処理を開始すると、画像解析部12のスポット光抽出部12aは、入力された画像データにおける各画素値の赤成分(R)、緑成分(G)、青成分(B)のうち赤成分(R)の輝度が最大である輝点(スポット)の赤成分の輝度を表す変数Rmaxと、このスポットの位置座標を示す変数(x,y)の使用を宣言し(つまり、RAM13の記憶領域内に、変数Rmax、変数x及び変数yの値を格納するための記憶領域を確保し)、変数Rmax及び変数(x,y)を初期化する(図5、ステップS211)。
Specifically, in step S2, the image analysis unit 12 first executes spot light extraction processing (FIG. 4, step S21).
When the spot light extraction process is started, the spot light extraction unit 12a of the image analysis unit 12 uses red among the red component (R), green component (G), and blue component (B) of each pixel value in the input image data. Declaring the use of a variable R max indicating the luminance of the red component of the bright spot (spot) where the luminance of the component (R) is maximum and variables (x, y) indicating the position coordinates of this spot are declared (that is, in the RAM 13). A storage area for storing the values of the variable R max , the variable x, and the variable y is secured in the storage area), and the variable R max and the variable (x, y) are initialized (step S211 in FIG. 5).

次に、スポット光抽出部12aは、RAM13に格納された画像データを構成する画素データのうちの1個を特定し、特定した画素データの画素値が示す赤色成分の輝度の値を取得する(ステップS212)。ただし、ステップS212では、既にステップS212の処理で特定された画素データは、特定の対象から除外するものとする。   Next, the spot light extraction unit 12a identifies one of the pixel data constituting the image data stored in the RAM 13, and acquires the luminance value of the red component indicated by the pixel value of the identified pixel data ( Step S212). However, in step S212, pixel data that has already been specified in the process of step S212 is excluded from a specific target.

次に、スポット光抽出部12aは、ステップS212で最も新しく取得した赤色成分の輝度の値が、Rmaxより大きいか否かを判別する(ステップS213)。そして、赤色成分の輝度の値がRmax以下であると判別すると、処理をステップS215へと移す。 Next, the spot light extraction section 12a, the value of the luminance of the most recently acquired red component in step S212 it is determined whether or not larger than R max (step S213). When the value of the luminance of the red component is determined to be less R max, it moves the process to step S215.

一方、赤色成分の輝度の値がRmaxより大きいと判別したとき、スポット光抽出部12aは、ステップS212で新しく取得した赤色成分の輝度の値にRmaxを更新する(ステップS214)。また、ステップS214でスポット光抽出部12aは、(x,y)を、ステップS212で最も新しく特定した画素データが示す位置のx軸方向成分の値及びy軸方向成分の値へと更新する。ステップS214の処理が終わると、スポット光抽出部12aは処理をステップS215へと移す。 On the other hand, when it is determined that the luminance value of the red component is greater than R max , the spot light extraction unit 12a updates R max to the luminance value of the red component newly acquired in step S212 (step S214). In step S214, the spot light extraction unit 12a updates (x, y) to the value of the x-axis direction component and the value of the y-axis direction component at the position indicated by the pixel data specified most recently in step S212. When the process of step S214 ends, the spot light extraction unit 12a moves the process to step S215.

ステップS215で、スポット光抽出部12aは、ステップS212の処理で特定されていない画素データがまだ残っているか否かを判別する。そして、残っていると判別すると、スポット光抽出部12aは処理をステップS212に戻す。一方、残っていないと判別すると、画像解析部12はスポット光抽出処理を終了し、処理を画像解析処理のステップS22へと移す。   In step S215, the spot light extraction unit 12a determines whether pixel data that has not been specified in the process of step S212 still remains. If it is determined that there is any remaining light, the spot light extraction unit 12a returns the process to step S212. On the other hand, if it is determined that there is no remaining image, the image analysis unit 12 ends the spot light extraction process and moves the process to step S22 of the image analysis process.

スポット光抽出処理が終了した時点での(x,y)は、ステップS1で画像入力部2が撮像した画像におけるスポットの位置のx軸方向成分及びy軸方向成分の値を表す。また、スポット光抽出処理が終了した時点でのRmaxは、このスポットの位置の赤成分の輝度を表す。
なお、以下では、スポット光抽出処理が終了した時点での(x,y)の値を、(xspot,yspot)とする。
(X, y) at the time when the spot light extraction process is completed represents the values of the x-axis direction component and the y-axis direction component of the spot position in the image captured by the image input unit 2 in step S1. R max at the time when the spot light extraction process is completed represents the luminance of the red component at the spot position.
In the following, the value of (x, y) at the time when the spot light extraction process is completed is assumed to be (x spot , y spot ).

画像解析部12は、スポット光抽出処理を終えると、座標変換処理を開始する(ステップS22)。座標変換処理が始まると、画像解析部12の座標変換部12bは、まず、図6に示すように、ステップS221の処理を実行する。   When finishing the spot light extraction process, the image analysis unit 12 starts the coordinate conversion process (step S22). When the coordinate conversion process starts, the coordinate conversion unit 12b of the image analysis unit 12 first executes the process of step S221 as shown in FIG.

ステップS221で、座標変換部12bは、初期設定により定められた点A、B、C、Dの座標と、スポット光抽出処理によって分かったスポット(図7(a)に示す点P)の座標とに基づいて、以下説明する内分比s及びt(ただし、s及びtはいずれも0以上1以下の値)を求める。   In step S221, the coordinate conversion unit 12b determines the coordinates of the points A, B, C, and D determined by the initial setting, and the coordinates of the spot (point P shown in FIG. 7A) determined by the spot light extraction process. The internal ratios s and t described below (where s and t are values of 0 or more and 1 or less) are obtained.

以下、s及びtを求める手順を詳細に示す。まず、図7(a)に示すように、点A、点S及び点Pの位置には、数式1に示す関係がある。

Figure 0005158057
Hereinafter, a procedure for obtaining s and t will be described in detail. First, as shown in FIG. 7A, the positions of the point A, the point S, and the point P have the relationship shown in Formula 1.
Figure 0005158057

任意に設定された基準点を図7(a)に示す点Oとすると、図7(a)に示すように、点A、点D、点O、点Q及び点Sの位置には、数式2に示す関係がある。

Figure 0005158057
Assuming that the arbitrarily set reference point is point O shown in FIG. 7 (a), the positions of point A, point D, point O, point Q and point S as shown in FIG. There is a relationship shown in FIG.
Figure 0005158057

従って、図7(a)に示すように、点A、点B、点C、点D及び点Pの位置には、数式3に示す関係がある。

Figure 0005158057
Therefore, as shown in FIG. 7A, the positions of point A, point B, point C, point D, and point P have the relationship shown in Equation 3.
Figure 0005158057

そして、座標変換部12bは、数式3に対し点A、B、C、D、Pの各X座標値、Y座標値を代入し、X、Yの連立方程式を解くことにより内分比s,tを導出する。   Then, the coordinate conversion unit 12b substitutes the X coordinate values and Y coordinate values of the points A, B, C, D, and P into the mathematical formula 3, and solves the simultaneous equations of X and Y, thereby dividing the internal ratio s, t is derived.

次に、座標変換部12bは、上記ステップS222で導出された内分比s、tに基づいて、表示画面、すなわち図7(b)に示す平面における点P’の座標(xdisp,ydisp)を求め、求めた各座標値xdisp及びydispと、スポット光抽出処理を終了した時点でのRmaxとを、互いに対応付けてRAM13に格納し(ステップS222)、座標変換処理を終える。つまり、点P’は、長方形A’B’C’D’の辺A’D’、及び辺B’C’をt:(1−t)に内分し、更に辺A’D’、及び辺B’C’をt:(1−t)に内分する線S’Q’をs:(1−s)に内分する点である。 Next, the coordinate conversion unit 12b determines the coordinates (x disp , y disp ) of the point P ′ on the display screen, that is, the plane shown in FIG. ) And the obtained coordinate values x disp and y disp and R max when the spot light extraction process is completed are stored in the RAM 13 in association with each other (step S222), and the coordinate conversion process is completed. That is, the point P ′ internally divides the side A′D ′ and the side B′C ′ of the rectangle A′B′C′D ′ into t: (1−t), and further, the side A′D ′, A line S′Q ′ that internally divides the side B′C ′ into t: (1−t) is a point that internally divides into s: (1−s).

具体的には、座標変換部12bは、例えば、数式4及び数式5の各右辺の値を計算することにより、xdisp及びydispを求める。尚、w及びhは、長方形(表示画面)A’B’C’D’の幅及び高さであり、xdisp0、ydisp0は表示画面における基準位置(原点O’)を表す。 Specifically, the coordinate conversion unit 12b calculates x disp and y disp by calculating the value of each right side of Equation 4 and Equation 5, for example. W and h are the width and height of the rectangle (display screen) A′B′C′D ′, and x disp0 and y disp0 represent the reference position (origin O ′) on the display screen.

(数4)
disp=(w×s)+xdisp0
(数5)
disp=(h×t)+ydisp0
(Equation 4)
x disp = (w × s) + x disp0
(Equation 5)
y disp = (h × t) + y disp0

画像解析部12は、座標変換処理を終えると、画像解析処理を終え、描画処理のステップS3へと処理を移す。
ステップS3で、中央制御部11は、ステップS222でRAM13に格納されたxdisp、ydisp及びRmaxをRAM13より読み出す。そして、中央制御部11は、表示部3の表示画面上、座標(xdisp,ydisp)に相当する位置に、Rmaxに相当する輝度を有するスポットを表示するよう、表示部3に指示する。表示部3は、この指示に従ったスポットを表示画面上に表示する。従って、座標(xdisp,ydisp)が、ステップS3で表示される輝点(スポット)の表示位置となる。
When the image analysis unit 12 finishes the coordinate conversion process, the image analysis process ends, and the process proceeds to step S3 of the drawing process.
In step S <b > 3 , the central controller 11 reads x disp , y disp and R max stored in the RAM 13 in step S <b > 222 from the RAM 13. Then, the central control unit 11 instructs the display unit 3 to display a spot having a luminance corresponding to R max at a position corresponding to the coordinates (x disp , y disp ) on the display screen of the display unit 3. . The display unit 3 displays the spot according to this instruction on the display screen. Accordingly, the coordinates (x disp , y disp ) are the display positions of the bright spots (spots) displayed in step S3.

ステップS3でスポットが表示される位置は、表示画面上、発光部4が発する光が当たった位置となる。
なお、ステップS3において、この描画システムは、従前から表示されていたスポットを表示画面上から消去してもよいし、消去しなくてもよい。また、消去するか否かを、ユーザ等がユーザ操作入力部15を操作して入力する指示に基づいて決定するようにしてもよい。
従前から表示されていたスポットを表示画面上から消去しない場合、表示画面上には、発光部4が発する光が表示画面上で当たった位置の軌跡が表示されるので、発光部4の操作者は、発光部4を用いて表示画面上に文字や図形を描画することができる。
The position where the spot is displayed in step S3 is the position on the display screen where the light emitted from the light emitting unit 4 has hit.
In step S3, the drawing system may or may not erase the previously displayed spot from the display screen. Further, whether or not to delete may be determined based on an instruction input by the user or the like by operating the user operation input unit 15.
When the spot that has been displayed before is not erased from the display screen, the locus of the position where the light emitted from the light emitting unit 4 hits the display screen is displayed on the display screen. Can draw characters and figures on the display screen using the light emitting unit 4.

次に、中央制御部11は、ユーザ等がユーザ操作入力部15を操作して画像の表示の終了を指示したか否かを判別する(ステップS4)。そして、指示していないと判別すると、処理をステップS1に戻す。一方、画像の表示の終了を指示したと判別すると、描画処理を終了する。   Next, the central control unit 11 determines whether or not the user or the like has operated the user operation input unit 15 to instruct the end of image display (step S4). If it is determined that no instruction has been given, the process returns to step S1. On the other hand, if it is determined that the end of image display has been instructed, the drawing process ends.

なお、この描画システムの構成は上述のものに限定されることなく、種々の変形及び応用が可能である。
例えば、表示部3は液晶ディスプレイ等から構成されていてもよく、また、ステップS3で表示部3の表示画面上に表示されるスポットは必ずしも輝点である必要はなく、任意の色、若しくは図形であってもよい。また、発光部4による発光強度は必ずしも可変である必要はなく、また、発光部4が発する光は単色光である必要はない。
Note that the configuration of the drawing system is not limited to that described above, and various modifications and applications are possible.
For example, the display unit 3 may be composed of a liquid crystal display or the like, and the spot displayed on the display screen of the display unit 3 in step S3 is not necessarily a bright spot, and any color or figure It may be. Moreover, the light emission intensity by the light emitting part 4 does not necessarily have to be variable, and the light emitted from the light emitting part 4 does not have to be monochromatic light.

また、スポット光抽出部12aは、互いに異なる色の複数のスポットを抽出し、座標変換部12bは、スポット光抽出部12aが抽出した各々のスポットについて、表示画面上での表示位置を決定するようにしてもよい。この場合、この描画システムは、ステップS3で、座標変換部12bが表示位置を決定した各スポットを互いに異なる色あるいは互いに異なる形状で表示するようにすればよい。
またこの場合、この描画システムは互いに異なる色の光を発する複数の発光部4を備えていてもよい。これらの発光部4は、互いに異なる操作者により操作され得る。
The spot light extraction unit 12a extracts a plurality of spots having different colors, and the coordinate conversion unit 12b determines the display position on the display screen for each spot extracted by the spot light extraction unit 12a. It may be. In this case, the drawing system may display each spot with the display position determined by the coordinate conversion unit 12b in a different color or a different shape in step S3.
In this case, the drawing system may include a plurality of light emitting units 4 that emit different colors of light. These light emitting units 4 can be operated by different operators.

また、図8に示すように、表示部3は、自ら表示画面を備える代わりに、壁面等の投影面に画像を投影するプロジェクタ等を備えていてもよい。この場合、画像入力部2は、表示部3が画像を投影している投影面の画像を撮像するものとし、この描画システムは、この投影面を表示部3の表示画面として扱い、上述の処理を実行するようにすればよい。   As shown in FIG. 8, the display unit 3 may include a projector or the like that projects an image on a projection surface such as a wall surface, instead of including a display screen. In this case, the image input unit 2 captures an image of a projection plane on which the display unit 3 projects an image, and the drawing system treats the projection plane as a display screen of the display unit 3 and performs the above-described processing. Should be executed.

また、この描画システムにおいては、画像入力部2が、単位格子をなす長方形が格子状に配列されたパターンの画像を撮像し、撮像した画像(歪みを有する格子パターン)を表す画像データを、表示部3が表示するようにしてもよい。
この場合、ユーザ等がユーザ操作入力部15のマウスを操作する等して、表示部3の表示画面上に表示された歪みを有する格子パターンの単位格子の頂点をなす4点の組を指定したとき、座標変換部12bが、この4点の表示画面上での位置を互いに対応付けて記憶するものとする。
In this drawing system, the image input unit 2 captures an image of a pattern in which rectangles forming a unit lattice are arranged in a lattice shape, and displays image data representing the captured image (a lattice pattern having distortion). The part 3 may be displayed.
In this case, the user or the like operates the mouse of the user operation input unit 15 and designates a set of four points forming the vertex of the unit cell of the lattice pattern having distortion displayed on the display screen of the display unit 3. At this time, the coordinate conversion unit 12b stores the positions of the four points on the display screen in association with each other.

そして、座標変換部12bが視野領域の頂点の位置を記憶している場合、座標変換部12bは、座標変換処理として、上述のステップS221及びS222の処理に代えて、図9に示すステップS231〜S234の処理を行う。   Then, when the coordinate conversion unit 12b stores the position of the vertex of the visual field area, the coordinate conversion unit 12b replaces the processes of steps S221 and S222 described above as the coordinate conversion process with steps S231 to S231 illustrated in FIG. The process of S234 is performed.

すなわち、まず、座標変換部12bは、スポット光抽出部12aが抽出したスポットの位置(すなわち、値xspot及びyspotの組が表すスポットの位置)が、いずれの視野領域に含まれるものかを、自らが記憶する視野領域の頂点の位置に基づいて判別する(図9、ステップS231)。 That is, first, the coordinate conversion unit 12b determines in which visual field region the spot position extracted by the spot light extraction unit 12a (that is, the spot position represented by the set of values x spot and y spot ) is included. The determination is made based on the position of the vertex of the visual field area stored by itself (FIG. 9, step S231).

次に、座標変換部12bは、スポット光抽出部12aが抽出したスポットの位置を含むと判別された視野領域を上述の四角形ABCDであるものとして扱い、また、表示部3の表示画面の一部を占める、各辺が所定の長さの長方形の領域(変換後の視野領域)を、上述の長方形A’B’C’D’であるものとして扱うものとして、上述のステップS221の処理と実質的に同一の処理を行う(ステップS232)。   Next, the coordinate conversion unit 12b treats the visual field area determined to include the position of the spot extracted by the spot light extraction unit 12a as being the above-described rectangular ABCD, and a part of the display screen of the display unit 3 The rectangular region (the converted visual field region) having a predetermined length on each side is treated as being the above-described rectangle A′B′C′D ′, and is substantially the same as the processing in step S221 described above. The same process is performed (step S232).

次に、座標変換部12bは、ステップS222の処理と実質的に同一の処理を行う(ステップS233)。ただし、求める対象の座標(線分PR及び線分QSの交点の座標)は、表示部3の表示画面上の特定の点を原点とした座標である必要はない。   Next, the coordinate conversion unit 12b performs substantially the same process as the process of step S222 (step S233). However, the coordinates to be obtained (the coordinates of the intersection of the line segment PR and the line segment QS) do not need to be coordinates with a specific point on the display screen of the display unit 3 as the origin.

次に、座標変換部12bは、ステップS233で求めた座標と、スポット光抽出部12aが抽出したスポットの位置を含むとステップS231で判別された視野領域の頂点の位置とに基づいて、表示部3の表示画面上で当該スポットを表示する表示位置の座標(xdisp,ydisp)を決定する。そして、求めた値xdisp及びydispと、スポット光抽出処理を終了した時点での変数Rmaxの値とを、互いに対応付けてRAM13に格納し(ステップS234)、座標変換処理を終える。 Next, the coordinate conversion unit 12b displays the display unit based on the coordinates obtained in step S233 and the position of the vertex of the visual field area determined in step S231 if the spot position extracted by the spot light extraction unit 12a is included. The coordinates (x disp , y disp ) of the display position for displaying the spot on the display screen 3 are determined. Then, the obtained values x disp and y disp and the value of the variable R max when the spot light extraction process is completed are stored in the RAM 13 in association with each other (step S234), and the coordinate conversion process is ended.

ただし、変換前の視野領域が複数ある場合、ステップS234で座標変換部12bは、図10に示すように、2個の変換前の視野領域により共有されている辺上にスポットが位置する場合、ステップS231でこれら変換前の視野領域のいずれが特定されても、表示画面上の同一の位置にスポットが表示されるよう、スポットの表示位置を決定するものとする。   However, when there are a plurality of field areas before conversion, in step S234, the coordinate conversion unit 12b, as shown in FIG. 10, when the spot is located on the side shared by the two field areas before conversion, It is assumed that the spot display position is determined so that the spot is displayed at the same position on the display screen regardless of which of the visual field areas before conversion is specified in step S231.

座標変換処理として上述のステップS231〜S234の処理を行うことにより、例えば画像入力部2が備える光学系が収差を有していても、スポットが表示部3の表示画面上の正しい位置(すなわち、表示画面上、発光部4が発する光が当たった位置)に表示される。   By performing the above-described steps S231 to S234 as the coordinate conversion processing, for example, even if the optical system included in the image input unit 2 has aberration, the spot is in the correct position on the display screen of the display unit 3 (that is, On the display screen, it is displayed at a position where the light emitted from the light emitting unit 4 has hit.

また、表示部3が歪みを有する格子パターンを表示するものである場合、画像入力部2は、表示部3が表示する対象である歪みを有する格子パターンの画像データを作成するとき、歪みを有する格子パターンが完全に表示される程度に、撮像の感度を調整してもよい。
この場合、例えばユーザ等がユーザ操作入力部15を操作して歪みを有する格子パターンの表示を指示すると、データ処理装置1の中央制御部11がこの指示を画像入力部2に伝達し、画像入力部2は、伝達された指示に応答して、撮像の感度を、歪みを有する格子パターンが完全に表示されるような値に変化させるものとすればよい。
In addition, when the display unit 3 displays a lattice pattern having distortion, the image input unit 2 has distortion when creating image data of the lattice pattern having distortion, which is an object to be displayed by the display unit 3. Imaging sensitivity may be adjusted to such an extent that the grid pattern is completely displayed.
In this case, for example, when a user or the like operates the user operation input unit 15 to instruct display of a lattice pattern having distortion, the central control unit 11 of the data processing device 1 transmits this instruction to the image input unit 2 to input the image. In response to the transmitted instruction, the unit 2 may change the sensitivity of imaging to a value at which a distorted grid pattern is completely displayed.

(第1の実施の形態の変形例)
上記第1の実施の形態では、画像入力部2により撮像された画像と表示部3に表示された画像とが線型の座標変換で対応付け可能な場合について述べた。しかし実際は、画像入力部2が備えるカメラレンズのゆがみ、及び表示部3の歪み(CRT等、表示画面が多少湾曲しているような場合に生じる歪み)によって、入力画像に樽型歪み等の非線型歪みが生じるような場合がある。
このような場合、上記第1の実施の形態では、正確な座標変換処理が不可能であるため、描画処理以前にキャリブレーション(較正)処理を行うようにする。以下、キャリブレーション処理を行う、この描画システムの変形例を、図11〜図14を参照して詳述する。
尚、この変形例にかかるデータ処理装置1の回路構成は図2と同様であるので、説明を省略する。また、キャリブレーション処理を制御するプログラムは、外部記憶部14若しくは中央制御部11に記憶されているものとし、このプログラムの実行のため、作業用メモリとしてRAM13の所定のメモリエリアが使用されるものとする。
(Modification of the first embodiment)
In the first embodiment, the case where the image captured by the image input unit 2 and the image displayed on the display unit 3 can be associated by linear coordinate transformation has been described. However, in reality, the camera lens provided in the image input unit 2 is distorted and the display unit 3 is distorted (distortion caused when the display screen is slightly curved, such as a CRT). In some cases, linear distortion may occur.
In such a case, in the first embodiment, since accurate coordinate conversion processing is impossible, calibration (calibration) processing is performed before drawing processing. Hereinafter, a modification of the drawing system that performs the calibration process will be described in detail with reference to FIGS.
The circuit configuration of the data processing apparatus 1 according to this modification is the same as that shown in FIG. A program for controlling the calibration process is stored in the external storage unit 14 or the central control unit 11, and a predetermined memory area of the RAM 13 is used as a working memory for executing the program. And

(第1の実施の形態の変形例:動作)
キャリブレーション処理を含む、この変形例にかかる描画システムが行う処理全体のフローチャートを、図11に示す。すなわち、この描画システムは、図3に示す描画処理をステップA2で実行するものとし、その前段階としてキャリブレーション処理(ステップA1)を行う。
(Modification of the first embodiment: Operation)
FIG. 11 shows a flowchart of the entire processing performed by the drawing system according to this modification including calibration processing. That is, this drawing system executes the drawing process shown in FIG. 3 in step A2, and performs a calibration process (step A1) as a previous stage.

図12は、キャリブレーション処理のフローチャートである。
キャリブレーション処理では、この描画システムは、まず、領域の設定を行う。入力画像のどの領域を座標変換するかを予め設定する。例えば対象となる領域の四隅の座標A、B、C、Dをユーザ操作入力部15が備えるマウス等を用いて設定したり、上記第1の実施の形態で詳述したように、発光部4を用いて表示部3の表示画面上の4点をポイントすることにより、領域を設定する(ステップA11)。
FIG. 12 is a flowchart of the calibration process.
In the calibration process, the drawing system first sets a region. It is set in advance which area of the input image is subjected to coordinate conversion. For example, the coordinates A, B, C, and D of the four corners of the target region are set using a mouse or the like provided in the user operation input unit 15, or as described in detail in the first embodiment, the light emitting unit 4 A region is set by pointing four points on the display screen of the display unit 3 using (Step A11).

ステップA11において、マウスを用いて領域を設定する手法をとった場合は、画像入力部2の視野と操作者の視野との視差や、表示部3の表示画面を覆う透明材質の表面での光の屈折などのため、操作者から見て、発光部4が発するスポット光が表示部3の表示画面上に当たって見える位置と、ステップS3で表示される輝点の位置とが、実質的に一致しなくなる、という問題が起こり得る。しかし、発光部4を用いて表示部3の表示画面上の4点をポイントする手法をとった場合、発光部4が発するスポット光は表示部3の表示画面の表面に当たって反射し、反射したスポット光が画像入力部2により撮像される。従って、スポット光が見える位置と表示される輝点の位置とが一致しなくなるという問題を回避することが可能となる。   In step A11, when a method of setting an area using a mouse is taken, parallax between the visual field of the image input unit 2 and the visual field of the operator, or light on the surface of a transparent material that covers the display screen of the display unit 3 For example, the position where the spot light emitted from the light emitting unit 4 is seen on the display screen of the display unit 3 and the position of the bright spot displayed in step S3 substantially coincide with each other due to refraction of the light. The problem of disappearing can occur. However, when the light emitting unit 4 is used to point four points on the display screen of the display unit 3, the spot light emitted from the light emitting unit 4 hits the surface of the display screen of the display unit 3 and is reflected and reflected. Light is imaged by the image input unit 2. Therefore, it is possible to avoid the problem that the position where the spot light can be seen does not match the position of the bright spot displayed.

次に、この描画システムは、非線型歪みに関する情報の取得を行う(ステップA12)。具体的には、例えば、表示部3の表示画面上に格子を表示させ、ユーザが、この格子の各格子点の座標をユーザ操作入力部15のマウス等を用いて指定する。そして、中央制御部11が、指定の結果に基づき、非線型歪みに関する情報として格子点の座標を取得する。   Next, this drawing system acquires information about nonlinear distortion (step A12). Specifically, for example, a grid is displayed on the display screen of the display unit 3, and the user designates the coordinates of each grid point of the grid using the mouse of the user operation input unit 15 or the like. And the central control part 11 acquires the coordinate of a lattice point as information regarding nonlinear distortion based on the designation | designated result.

キャリブレーション処理の最後に、この描画システムは、画像入力部2の撮像に関する情報の設定、特に画像入力部2が備える図示しない撮像カメラ等(撮像カメラ部)のゲインの設定を行う(ステップA13)。ステップA13の処理は、投影像とスポットとを区別するため、スポットの輝度に対する投影像の輝度を絞る必要があるために行うものである。ステップA11の処理時(領域設定時)は、投影像の輝度を絞った状態では投影像は黒くつぶれるかスポットの輝度に対する輝度の差が極めて小さい場合もあり得る。そのため、領域設定時では、投影像が完全に表示されるように撮像カメラのゲイン設定を行い、領域設定を行い、非線型歪みに関する情報(補正情報)を取得した後、投影像とスポットとが区別される程度に、スポットの輝度に対する投影像の輝度を絞るのが望ましい。   At the end of the calibration process, the drawing system sets information relating to imaging of the image input unit 2, and in particular, sets a gain of an imaging camera (not shown) (imaging camera unit) provided in the image input unit 2 (step A 13). . The process of step A13 is performed because it is necessary to reduce the brightness of the projection image with respect to the brightness of the spot in order to distinguish the projection image from the spot. During the processing of step A11 (at the time of area setting), the projection image may be blackened or the difference in luminance with respect to the spot luminance may be extremely small when the luminance of the projection image is reduced. Therefore, when setting the area, the gain of the imaging camera is set so that the projected image is completely displayed, the area is set, and information (correction information) about nonlinear distortion is acquired. It is desirable to reduce the brightness of the projected image with respect to the brightness of the spot to the extent that it is distinguished.

また、この変形例にかかる描画システムは、座標変換処理として、図13に示す処理を行う。
まず、ステップA12で取得した非線型歪みに関する情報、(即ち、格子点の座標)を利用して、スポットが含まれる格子領域を選択する(ステップS241)。次に、このスポットが含まれる格子領域に対し、図6のステップS221、S222の処理を行う(ステップS242)。そして座標変換処理の結果と、選択された格子領域の位置とに基づいて、領域全体におけるスポットの位置を取得する(ステップS243)。
Further, the drawing system according to this modification performs the process shown in FIG. 13 as the coordinate conversion process.
First, a lattice region including a spot is selected using the information on the nonlinear distortion acquired in step A12 (that is, the coordinates of the lattice point) (step S241). Next, the processing of steps S221 and S222 in FIG. 6 is performed on the lattice region including this spot (step S242). Based on the result of the coordinate conversion process and the position of the selected lattice area, the position of the spot in the entire area is acquired (step S243).

なお、画像入力部2は、描画処理が開始されたとき、表示部3の表示画面上に当たるスポット光の輝度が発光部4の発する光の最大強度に至ってもステップS3で表示されるスポットの輝度が飽和しないように、撮像の感度(ゲイン)を調整するが、変形例として、描画処理が開始されると、中央制御部11が感度調整の指示を画像入力部2に伝達し、画像入力部2がこの指示に応答して、撮像の感度を、表示部3の表示画面上に当たるスポット光の輝度が発光部4の発する光の最大強度に至ってもステップS3で表示されるスポットの輝度が飽和しないような値に変化させるものとしてもよい。   Note that when the drawing process is started, the image input unit 2 displays the luminance of the spot displayed in step S3 even if the luminance of the spot light hitting the display screen of the display unit 3 reaches the maximum intensity of the light emitted from the light emitting unit 4. As a modification, when the drawing process is started, the central control unit 11 transmits a sensitivity adjustment instruction to the image input unit 2, and the image input unit is adjusted. 2 responds to this instruction, the sensitivity of the image pickup, the brightness of the spot displayed in step S3 is saturated even if the brightness of the spot light hitting the display screen of the display unit 3 reaches the maximum intensity of the light emitted by the light emitting unit 4 It may be changed to a value that does not.

また、画像入力部2は、この描画システムが描画処理を行っている間も、表示部3の表示画面上に当たるスポット光の輝度が発光部4の発する光の最大強度に至ってもステップS3で表示されるスポットの輝度が飽和しないように、撮像の感度を調整するようにしてもよい。
この場合は、例えば、描画処理が開始されると、中央制御部11又は画像解析部12が、画像入力部2から供給された画像データに基づいて画像入力部2の撮像の感度の値を決定し、決定した値へと感度を調整する指示を画像入力部2に伝達すればよい。そして、画像入力部2はこの指示に応答し、撮像の感度を、この指示に従った値に変化させるものとすればよい。
Further, the image input unit 2 displays in step S3 even when the drawing system performs the drawing process, even if the luminance of the spot light hitting the display screen of the display unit 3 reaches the maximum intensity of the light emitted from the light emitting unit 4. The sensitivity of imaging may be adjusted so that the brightness of the spot to be spotted is not saturated.
In this case, for example, when the drawing process is started, the central control unit 11 or the image analysis unit 12 determines the value of the imaging sensitivity of the image input unit 2 based on the image data supplied from the image input unit 2. Then, an instruction to adjust the sensitivity to the determined value may be transmitted to the image input unit 2. The image input unit 2 may respond to this instruction and change the imaging sensitivity to a value according to this instruction.

さらに、第1の実施の形態およびその変形例では、スポット光の抽出、及び座標変換について述べているが、画像入力部2がデータ処理装置1の制御により連続的に撮像して、スポット光の時系列的な軌跡を逐次抽出して座標変換を行うようにすれば、スポットによって描画される軌跡を表示画面に反映させることができる。   Furthermore, in the first embodiment and its modifications, spot light extraction and coordinate conversion are described. However, the image input unit 2 continuously captures images under the control of the data processing device 1 to detect spot light. If a time-series locus is sequentially extracted and coordinate conversion is performed, the locus drawn by the spot can be reflected on the display screen.

また、画像解析部12の座標変換部12bは、ステップS22の座標変換処理を、図15に示す手順で行ってもよい。   Further, the coordinate conversion unit 12b of the image analysis unit 12 may perform the coordinate conversion process of step S22 according to the procedure shown in FIG.

すなわち、座標変換部12bは、スポット光抽出処理を終え、座標変換処理を開始すると、まず、変数dの使用を宣言する。また、上述の点P’の座標のx軸方向成分の値を示す変数xdisp及びy軸方向成分の値を示す変数ydisp)の使用も宣言する(図15、ステップSA1)。 That is, when the coordinate conversion unit 12b finishes the spot light extraction process and starts the coordinate conversion process, it first declares the use of the variable d. In addition, the use of the variable x disp indicating the value of the x-axis direction component of the coordinates of the point P ′ and the variable y disp indicating the value of the y-axis direction component is also declared (FIG. 15, step SA1).

そして、座標変換部12bは、点P’の座標(xdisp,ydisp)及び変数dの値を初期化し、上述の点A〜点Dの座標を規格化する(ステップSA2)。具体的には、変数xdispに値「0.5」を代入し、変数ydispに値「0.5」を代入し、変数dに値「0.25」を代入し、また、ステップSA2の処理以降、点Aの座標を(0,0)、点Cの座標を(1,1)として扱うことと決定する。 Then, the coordinate conversion unit 12b initializes the coordinates of the point P ′ (x disp , y disp ) and the value of the variable d, and normalizes the coordinates of the above points A to D (step SA2). Specifically, the value “0.5” is substituted into the variable x disp , the value “0.5” is substituted into the variable y disp , the value “0.25” is substituted into the variable d, and step SA2 After the above processing, it is determined that the coordinates of the point A are treated as (0, 0) and the coordinates of the point C as (1, 1).

次に、座標変換部12bは、図16(a)に示すような、消失点V(すなわち、直線ABと直線DCとの交点)の座標及び消失点V(すなわち、直線BCと直線ADとの交点)の座標を求める(ステップSA3)。次に、座標変換部12bは、線分ACと線分BDとの交点Gの座標を求める(ステップSA4)。 Next, the coordinate conversion unit 12b performs the coordinates of the vanishing point V 1 (that is, the intersection of the straight line AB and the straight line DC) and the vanishing point V 2 (that is, the straight line BC and the straight line AD as illustrated in FIG. The coordinates of (intersection point with) are obtained (step SA3). Next, the coordinate conversion unit 12b obtains the coordinates of the intersection point G between the line segment AC and the line segment BD (step SA4).

次に、座標変換部12bは、交点Gと上述の点Pとの距離が所定量αより小さいか否かを判別し(ステップSA5)、小さいと判別すると、処理を後述のステップSA17に移す。 Next, the coordinate conversion unit 12b, the distance between the intersection G and P of the above points, it is determined whether or not a predetermined amount alpha 1 is smaller than (step SA5), when determining that small shifts the processing to step SA17 described later .

一方、交点Gと上述の点Pとの距離が所定量α以上であると判別すると、座標変換部12bは、直線VGと線分BCとの交点Mの座標と、直線VGと線分DAとの交点Nの座標とを求める(ステップSA6)。また、座標変換部12bは、直線VGと線分CDとの交点Rの座標と、直線VGと線分ABとの交点Sの座標とを求める(ステップSA7)。 On the other hand, if the distance between the intersection G and P of the above points is determined to be the predetermined amount alpha 1 or more, the coordinate conversion unit 12b, a coordinate of the intersection point M of the straight line V 1 G and the line segment BC, linear V 1 G And the coordinates of the intersection N of the line segment DA are obtained (step SA6). Further, the coordinate conversion unit 12b obtains the coordinates of the intersection point R between the straight line V 2 G and the line segment CD and the coordinates of the intersection point S between the straight line V 2 G and the line segment AB (step SA7).

次に、座標変換部12bは、変数xdisp及び変数ydispの現在の値により表される点P’が、直線RSより右側にあるか否か(換言すれば、線分AP’が直線RSと交わるか否か)を判別する(ステップSA8)。そして、右側にあると判別すると、変数xdispの値を変数dの値に相当する分増加させ(ステップSA9)、一方、右側にないと判別すると、変数xdispの値を変数dの値に相当する分減少させる(ステップSA10)。 Next, the coordinate conversion unit 12b determines whether or not the point P ′ represented by the current values of the variable x disp and the variable y disp is on the right side of the straight line RS (in other words, the line segment AP ′ is a straight line RS). (Step SA8). If it is determined that it is on the right side, the value of the variable x disp is increased by an amount corresponding to the value of the variable d (step SA9). If it is determined that it is not on the right side, the value of the variable x disp is changed to the value of the variable d. Decrease by a corresponding amount (step SA10).

ステップSA9又はSA10の処理を終えると、座標変換部12bは、変数xdisp及び変数ydispの現在の値により表される点P’が、直線MNより上側にあるか否か(換言すれば、線分AP’が直線MNと交わるか否か)を判別する(ステップSA11)。
そして、上側にあると判別すると、変数ydispの値を変数dの値に相当する分増加させ(ステップSA12)、一方、上側にないと判別すると、変数ydispの値を変数dの値に相当する分減少させる(ステップSA13)。
When the process of step SA9 or SA10 is completed, the coordinate conversion unit 12b determines whether or not the point P ′ represented by the current values of the variable x disp and the variable y disp is above the straight line MN (in other words, It is determined whether or not the line segment AP ′ intersects the straight line MN (step SA11).
If it is determined that the value is on the upper side, the value of the variable y disp is increased by an amount corresponding to the value of the variable d (step SA12). If it is determined that the value is not on the upper side, the value of the variable y disp is changed to the value of the variable d. Decrease by a corresponding amount (step SA13).

ステップSA12又はSA13の処理を終えると、座標変換部12bは、変数dの値を、変数dの現在の2分の1に変更し(ステップSA14)、変更後の変数dの値が所定量αより小さいか否かを判別する(ステップSA15)。そして、小さいと判別すると、処理をステップSA17に移す。 When the process of step SA12 or SA13 is completed, the coordinate conversion unit 12b changes the value of the variable d to the current half of the variable d (step SA14), and the value of the variable d after the change is a predetermined amount α. It is determined whether or not it is smaller than 2 (step SA15). If it is determined that the value is smaller, the process proceeds to step SA17.

一方、変数dの値が所定量α以上であると判別すると、座標変換部12bは、四角形ASGN、四角形SBMG、四角形GMCR及び四角形NGRDのうちから、変数xdisp及び変数ydispの現在の値により表される点P’を内部に含む四角形を特定し、特定した四角形を新たに四角形ABCDとして扱うことと決定して(ステップSA16)、処理をステップSA4に移す。 On the other hand, when the value of the variable d is determined to be the predetermined amount alpha 2 or more, the coordinate conversion unit 12b, a square ASGN, square SBMG, among square GMCR and square NGRD, variable x disp and current value of the variable y disp The quadrangle including the point P ′ represented by is specified, it is determined that the specified quadrangle is newly handled as the quadrangle ABCD (step SA16), and the process proceeds to step SA4.

ただし、座標変換部12bは、四角形ASGNを新たに四角形ABCDとして扱う場合は、点Aをそのまま新たな点Aとして扱い、点Sを新たな点Bとして扱い、点Gを新たな点Cとして扱い、点Nを新たな点Dとして扱うものとする。
また、四角形SBMGを新たに四角形ABCDとして扱う場合は、点Sを新たな点Aとして扱い、点Bをそのまま新たな点Bとして扱い、点Mを新たな点Cとして扱い、点Gを新たな点Dとして扱うものとする。
また、四角形GMCRを新たに四角形ABCDとして扱う場合は、点Gを新たな点Aとして扱い、点Mを新たな点Bとして扱い、点Cをそのまま新たな点Cとして扱い、点Rを新たな点Dとして扱うものとする。
また、四角形NGRDを新たに四角形ABCDとして扱う場合は、点Nを新たな点Aとして扱い、点Gを新たな点Bとして扱い、点Rを新たな点Cとして扱い、点Dをそのまま新たな点Dとして扱うものとする。
However, the coordinate conversion unit 12b treats the point AS as a new point A, treats the point S as a new point B, and treats the point G as a new point C when the rectangle ASGN is treated as a new rectangle ABCD. , Point N is treated as a new point D.
Also, when the quadrilateral SBMG is newly treated as a quadrilateral ABCD, the point S is treated as a new point A, the point B is treated as a new point B, the point M is treated as a new point C, and the point G is treated as a new point. It shall be handled as point D.
Further, when the rectangle GMCR is newly treated as the rectangle ABCD, the point G is treated as a new point A, the point M is treated as a new point B, the point C is treated as a new point C, and the point R is treated as a new point A. It shall be handled as point D.
Further, when the rectangle NGRD is newly treated as a rectangle ABCD, the point N is treated as a new point A, the point G is treated as a new point B, the point R is treated as a new point C, and the point D is treated as a new point. It shall be handled as point D.

ステップSA5又はSA15から処理がステップSA17へと移ると、座標変換部12bは、変数xdisp及び変数ydispの現在の値により表される座標を、規格化されていない状態へと戻す。すなわち、変数xdispの現在の値をXとして、変数xdispの値を{X・(x−x)+x}へと変更し、変数ydispの現在の値をYとして、変数ydispの値を{Y・(y−y)+y}へと変更する。 When the process proceeds from step SA5 or SA15 to step SA17, the coordinate conversion unit 12b returns the coordinates represented by the current values of the variable x disp and the variable y disp to a non-standardized state. That is, the current value of the variable x disp as X, and change the value of the variable x disp to {X · (x c -x a ) + x a}, the current value of the variable y disp as Y, a variable y The value of disp is changed to {Y · (y c −y a ) + y a }.

そして、座標変換部12bは、規格化されていない状態へと戻された変数xdisp及び変数ydispの値により表される座標を点P’の座標と決定し、規格化されていない状態へと戻されたこれらの変数xdisp及びydispと、スポット光抽出処理を終了した時点でのRmaxとを、互いに対応付けてRAM13に格納し、座標変換処理を終了して処理をステップS3に移す。 Then, the coordinate conversion unit 12b determines the coordinates represented by the values of the variable x disp and the variable y disp returned to the non-standardized state as the coordinates of the point P ′, and goes to the non-standardized state. These returned variables x disp and y disp and R max when the spot light extraction process is completed are stored in the RAM 13 in association with each other, the coordinate conversion process is terminated, and the process goes to step S3. Move.

以上説明したステップSA1〜236の処理の結果、図16(a)に示す四角形A’B’C’D’点Pに対応する、長方形A’B’C’D’内の点P’が、例えば図16(b)に示すように決定される。   As a result of the processing of steps SA1 to 236 described above, the point P ′ in the rectangle A′B′C′D ′ corresponding to the quadrangle A′B′C′D ′ point P shown in FIG. For example, it is determined as shown in FIG.

また、この描画システムは、座標変換の対象となる領域を設定するための情報として、この領域の四隅を表す情報に限らず任意の情報を取得するようにしてよく、従って、例えば、この領域を複数の格子に分割した場合の各格子の頂点を表す情報を取得してもよい。一方、中央処理部11は、例えばステップA11の処理において、表示部3に、座標変換の対象となる領域の設定を容易にするための格子模様(あるいは市松模様等)を表示させるようにしてもよい。   In addition, the drawing system may acquire arbitrary information as information for setting an area to be coordinate-transformed, not limited to information representing the four corners of the area. You may acquire the information showing the vertex of each grating | lattice at the time of dividing | segmenting into a some grating | lattice. On the other hand, the central processing unit 11 may cause the display unit 3 to display a lattice pattern (or checkered pattern or the like) for facilitating the setting of the area to be coordinate-transformed in the process of step A11, for example. Good.

この描画システムが、座標変換の対象となる領域の設定を容易にするための格子模様を表示部3の表示画面上に表示し、一方、座標変換の対象となる領域を格子に分割した場合の各格子の頂点を表す情報をステップA11の処理等により取得するとする。
この場合、例えば、画像解析部12の座標変換部12bが、各格子の頂点を表す情報と、スポット光抽出処理により得られたスポットの位置の座標(xspot,yspot)とに基づき、スポットが存在する格子を特定するものとする。そして、座標変換部12bは、画像入力部2がステップS1で作成した画像データが表す画像のうち、自己が特定した格子に相当する領域を上述の長方形ABCDであるとみなして上述の座標変換処理(例えば、ステップS221〜S222の処理や、あるいはステップSA1〜SA17の処理)を行うものとする。
When this drawing system displays a lattice pattern on the display screen of the display unit 3 for facilitating the setting of a region to be coordinate-transformed, while the region to be coordinate-transformed is divided into lattices It is assumed that information representing the vertices of each lattice is acquired by the processing in step A11 or the like.
In this case, for example, the coordinate conversion unit 12b of the image analysis unit 12 determines the spot based on the information representing the vertexes of each grid and the coordinates (x spot , y spot ) of the spot position obtained by the spot light extraction process. Let's specify the grid in which. Then, the coordinate conversion unit 12b regards the area corresponding to the lattice specified by the image input unit 2 in the image data generated in step S1 as the above-described rectangular ABCD and regards the above-described coordinate conversion process. (For example, the processing of steps S221 to S222 or the processing of steps SA1 to SA17) is performed.

次いで、座標変換部12bは、ステップS3に処理を移す前に、座標変換処理により得られた座標(xdisp,ydisp)と、特定した格子が座標変換の対象となる領域内で占める位置とに基づき、この領域全体のうちでのスポットの表示位置の座標を特定するものとする。こうすることにより、座標変換部12bは座標変換の対象となる領域の全体について座標変換領域を行うことを要せずに、この領域全体のうちでのスポットの表示位置の座標を特定する。このため、スポットの表示位置の座標を特定する処理の高速化が図られる。 Next, the coordinate conversion unit 12b determines the coordinates (x disp , y disp ) obtained by the coordinate conversion process and the position occupied by the identified grid in the area to be coordinate converted before moving the process to step S3. Based on the above, it is assumed that the coordinates of the display position of the spot in the entire area are specified. By doing so, the coordinate conversion unit 12b specifies the coordinates of the display position of the spot in the entire area without requiring the coordinate conversion area for the entire area to be coordinate-converted. For this reason, it is possible to speed up the process of specifying the coordinates of the spot display position.

具体的には、例えば、座標変換の対象となる領域が行数J、列数Kのマトリクス状に配列された複数の長方形の格子が全体として形成する長方形を表示部3の表示画面上に表示して画像入力部2が撮像したものに相当する場合、座標変換部12bは、座標(xspot,yspot)が、座標変換の対象となる領域のうち、何行何列目の格子に相当する部分に含まれるかを特定すればよい。そして、特定した格子に相当する領域を上述の長方形ABCDであるとみなして座標変換処理を行い、得られた座標(xdisp,ydisp)を用い、数式6及び数式7の各右辺の値xdisp1及びydisp1を表すデータを生成することにより、座標変換の対象となる領域全体のうちでのスポットの表示位置の座標(xdisp1,ydisp1)を特定すればよい。 Specifically, for example, a rectangle formed as a whole by a plurality of rectangular grids in which a region to be coordinate-transformed is arranged in a matrix of J rows and K columns is displayed on the display screen of the display unit 3. When the image input unit 2 corresponds to the image captured by the image input unit 2, the coordinate conversion unit 12 b corresponds to the grid in which row and column in the region whose coordinates (x spot , y spot ) are coordinate conversion targets. What is necessary is just to specify whether it is contained in the part to do. Then, the region corresponding to the specified grid is regarded as the above-described rectangle ABCD, coordinate conversion processing is performed, and the value x on each right side of Equation 6 and Equation 7 is obtained using the obtained coordinates (x disp , y disp ). By generating data representing disp1 and y disp1 , the coordinates (x disp1 , y disp1 ) of the display position of the spot in the entire region to be coordinate-transformed may be specified.

(数6)
disp1=xdisp+w・{(k−1)/K}
(ただし、wは、長方形A’B’C’D’の幅)
(Equation 6)
x disp1 = x disp + w · {(k−1) / K}
(W is the width of rectangle A'B'C'D ')

(数7)
disp1=ydisp+h・{(j−1)/J}
(ただし、hは、長方形A’B’C’D’の高さ)
(Equation 7)
y disp1 = y disp + h · {(j−1) / J}
(Where h is the height of the rectangle A'B'C'D ')

次に、ステップS3で、中央制御部11は、座標(xdisp,ydisp)に代えて、この領域全体のうちでのスポットの表示位置の座標として特定した座標に相当する位置に、Rmaxに相当する輝度を有するスポットを表示するよう、表示部3に指示するものとする。 Next, in step S3, the central control unit 11 replaces the coordinates (x disp , y disp ) with R max at a position corresponding to the coordinates specified as the coordinates of the spot display position in the entire area. It is assumed that the display unit 3 is instructed to display a spot having a luminance corresponding to.

(第2の実施の形態)
上述のステップA11で、この描画システムは、ユーザ等が表示部3の表示画面上の点をポイントする手順を経ず自動的に領域の設定を行うようにしてもよい。以下、領域の設定を自動的に行う、この発明の第2の実施の形態を説明する。
(Second Embodiment)
In step A <b> 11 described above, the drawing system may automatically set the region without going through a procedure in which the user or the like points to a point on the display screen of the display unit 3. The second embodiment of the present invention for automatically setting the area will be described below.

この描画システムの物理的構成は、図2に示す構成と実質的に同一である。
一方、機能的には、この描画システムのデータ処理装置1は、ステップA11の処理として、図17に示す処理を行うことにより、四角形ABCDの頂点をなす点A、点B、点C及び点Dの位置を取得する。
The physical configuration of this drawing system is substantially the same as the configuration shown in FIG.
On the other hand, functionally, the data processing apparatus 1 of this drawing system performs the process shown in FIG. 17 as the process of step A11, thereby performing the points A, B, C, and D forming the vertices of the rectangle ABCD. Get the position of.

すなわち、まず、中央制御部11は、表示部3に指示して、表示部3の表示画面上に、上述の長方形A’B’C’D’を表す長方形の枠を表示させる(図17、ステップSB1)。次いで、中央制御部11は、2次元配列変数の使用を宣言し、この2次元配列変数を構成する各要素に初期値「0」を代入することにより、この2次元配列変数を初期化する(ステップSB2)。   That is, first, the central control unit 11 instructs the display unit 3 to display a rectangular frame representing the above-described rectangle A′B′C′D ′ on the display screen of the display unit 3 (FIG. 17). Step SB1). Next, the central control unit 11 declares the use of the two-dimensional array variable, and initializes the two-dimensional array variable by assigning an initial value “0” to each element constituting the two-dimensional array variable ( Step SB2).

ステップSB2で初期化された2次元配列変数を構成する要素は、後述する変数ρ及び変数θの各値を表すためのρθ直交座標平面内にある格子に、1対1に対応付けられているものとする。この格子は、四辺がρ軸又はθ軸に平行な長方形をマトリクス状に分割して得られるものであるとする。   The elements constituting the two-dimensional array variable initialized in step SB2 are associated one-to-one with a grid in the ρθ orthogonal coordinate plane for representing each value of a variable ρ and a variable θ described later. Shall. This lattice is obtained by dividing a rectangle whose four sides are parallel to the ρ axis or the θ axis into a matrix.

画像入力部2は、ステップSB1で表示された長方形の枠を撮像して画像データを作成して中央制御部11に供給し、中央制御部11はこの画像データをRAM13に格納する。   The image input unit 2 captures the rectangular frame displayed in step SB1 to create image data and supplies the image data to the central control unit 11. The central control unit 11 stores the image data in the RAM 13.

次に、中央制御部11は、画像入力部2がRAM13に格納した画像データのが表す画像に含まれる画素(ただし、過去にステップSB3の処理の対象になっていない画素)1個につき、この画素が、表示部3の表示画面上に表示された枠上の点を表すか否かを判別する(ステップSB3)。そして、枠上の点を表すと判別すると処理をステップSB4に移し、表さないと判別すると処理をステップSB5に移す。   Next, the central control unit 11 performs this operation for each pixel (however, a pixel that has not been processed in step SB3 in the past) included in the image represented by the image data stored in the RAM 13 by the image input unit 2. It is determined whether or not the pixel represents a point on the frame displayed on the display screen of the display unit 3 (step SB3). If it is determined that the point on the frame is represented, the process proceeds to step SB4, and if it is not represented, the process proceeds to step SB5.

なお、ステップSB1で表示された枠の色が赤色であるとした場合、ステップSB3での判別は、例えば、「この画素の画素値の赤成分(R)が所定値以上で、且つ、緑成分(G)及び青成分(B)がいずれも所定値以下である」か否かを判別することにより行えばよい。   When the color of the frame displayed in step SB1 is red, the determination in step SB3 is, for example, “the red component (R) of the pixel value of this pixel is equal to or greater than a predetermined value and the green component What is necessary is just to discriminate | determine whether (G) and a blue component (B) are below a predetermined value.

ステップSB4で、中央制御部11は、枠上の点を表すとステップSB3でもっとも新しく判別された画素のxy直交座標平面内の位置(u,v)を特定する。そして、数式8により示される関係を満たすρ及びθの値の組を表すρθ直交座標平面内の曲線が通過する各格子を特定し、ステップSB2で使用を宣言した2次元配列変数に含まれる各要素のうち、特定した各格子に対応付けられたものの値をインクリメントする(すなわち、1だけ増加させる)。そして、処理をステップSB5へと移す。   In step SB4, the central control unit 11 specifies the position (u, v) in the xy orthogonal coordinate plane of the pixel most recently determined in step SB3 when representing a point on the frame. Then, each grid through which a curve in the ρθ orthogonal coordinate plane representing a set of ρ and θ values satisfying the relationship represented by Expression 8 passes, and included in the two-dimensional array variable declared in step SB2 is used. Among the elements, the value of the element associated with each specified grid is incremented (that is, increased by 1). Then, the process proceeds to step SB5.

なお、数式8を満たすθは、xy直交座標平面の原点からこのxy直交座標平面内の直線[{x・(sinθ)}+{y・(cosθ)}=ρ]におろした垂線とx軸とがなす角を表し、ρは、この直線と原点との距離を表す。   Note that θ satisfying Expression 8 is a perpendicular line and an x axis from the origin of the xy orthogonal coordinate plane to a straight line [{x · (sin θ)} + {y · (cos θ)} = ρ] in the xy orthogonal coordinate plane. And ρ represents the distance between this straight line and the origin.

(数8)
{u・(sinθ)}+{v・(cosθ)}=ρ
(Equation 8)
{U · (sin θ)} + {v · (cos θ)} = ρ

ステップSB5で、中央制御部11は、画像入力部2がRAM13に格納した画像データが表す画像に含まれる画素のうち、未だステップSB3の処理の対象になっていない画素が残っているか否かを判別する。そして、残っていると判別すると処理をステップSB3に戻し、残っていないと判別すると、処理をステップSB6に進める。   In step SB5, the central control unit 11 determines whether or not there remains any pixel that is not yet the target of the processing in step SB3 among the pixels included in the image represented by the image data stored in the RAM 13 by the image input unit 2. Determine. Then, if it is determined that it remains, the process returns to step SB3. If it is determined that it does not remain, the process proceeds to step SB6.

ステップSB6で、中央制御部11は、2次元配列変数に含まれる各要素のうち、値がもっとも大きいもの4個を特定する。次に、中央制御部11は、特定した4個の要素が表す4個の格子の位置を表すρ及びθの値の組4組を特定する。
この結果、特定した各々の組を数式8に代入して得られる、xy直交座標平面内の4本の直線が特定される。そして、中央制御部11は、特定された4本の直線がxy直交座標平面を切り取ることで形成される四角形を、上述の四角形ABCDとして特定する。
In step SB6, the central control unit 11 specifies four elements having the largest value among the elements included in the two-dimensional array variable. Next, the central control unit 11 specifies four sets of values of ρ and θ representing the positions of the four lattices represented by the specified four elements.
As a result, four straight lines in the xy orthogonal coordinate plane obtained by substituting each identified pair into Equation 8 are identified. Then, the central control unit 11 specifies a quadrangle formed by cutting the four specified straight lines from the xy orthogonal coordinate plane as the above-described quadrilateral ABCD.

なお、ρθ直交座標平面内の格子の位置は、この格子内の任意の点の位置で代表させてよく、例えば、この格子をなす四角形の対角線の交点の位置で代表させるものとすればよい。   Note that the position of the grid in the ρθ orthogonal coordinate plane may be represented by the position of an arbitrary point in the grid. For example, it may be represented by the position of the intersection of the diagonal lines of the quadrangle forming the grid.

また、表示部3の表示画面上に表示させる枠の色は赤色である必要はなく、緑色でもよいし、青色でもよいし、その他、赤色、緑色及び青色の加色混合により得られる任意の色であってよい。そして、ステップSB3では、画素が、表示させた枠の色に合致する色を表すか否かを判定することにより、この画素が枠上の点を表すか否かを判別するようにすればよい。   The color of the frame displayed on the display screen of the display unit 3 does not need to be red, and may be green, blue, or any other color obtained by additive mixing of red, green, and blue. It may be. In step SB3, it is determined whether the pixel represents a point on the frame by determining whether the pixel represents a color that matches the color of the displayed frame. .

また、ステップA11でこの描画システムが表示部3の表示画面上に表示させる図形は、必ずしも枠状の図形である必要はなく、例えば、座標変換の対象となる領域の四隅を示す点状の図形より構成されていてもよい。   In addition, the graphic displayed by the drawing system on the display screen of the display unit 3 in step A11 is not necessarily a frame-shaped graphic. For example, dot-shaped graphic indicating the four corners of the area to be coordinate-transformed. It may be configured.

ステップA11でこの描画システムが表示部3の表示画面上に表示させる図形が、座標変換の対象となる領域の四隅を示す点状の図形より構成されている場合、中央制御部11はステップSB6で、2次元配列変数に含まれる各要素のうち、値がもっとも大きい要素6個が表す6個の格子の位置を表す、ρ及びθの値の組6組を特定するものとする。そして、特定した6組を各々数式8に代入して得られる6本の直線を特定し、特定した6本の直線のうち3本が実質的に交わる点を4点特定するものとする。特定したこれら4点が、上述の四角形ABCDの頂点である点A、点B、点C及び点Dに相当する。   If the graphic displayed by the drawing system on the display screen of the display unit 3 in step A11 is composed of dot-shaped graphics indicating the four corners of the area to be coordinate-transformed, the central control unit 11 determines in step SB6. Among the elements included in the two-dimensional array variable, six sets of values of ρ and θ representing the positions of the six lattices represented by the six elements having the largest values are specified. Then, six straight lines obtained by substituting the specified six sets into Formula 8 are specified, and four points at which three of the specified six straight lines substantially intersect are specified. These identified four points correspond to points A, B, C, and D, which are the vertices of the above-described quadrilateral ABCD.

(第2の実施の形態の変形例)
なお、ステップA11の処理として上述のステップSB1〜SB6の処理を行う場合、この描画システムは、描画処理において、キャリブレーション処理(ステップA1の処理)を、ステップS1の直前に行う代わりに、図18に示すタイミングで行うようにしてもよい。
(Modification of the second embodiment)
In the case where the processing of steps SB1 to SB6 described above is performed as the processing of step A11, the drawing system replaces the calibration processing (step A1 processing) immediately before step S1 in the drawing processing with reference to FIG. It may be performed at the timing shown in FIG.

ただし、この描画システムが図18に示す処理を行う場合、画像入力部2が生成する画像データが表す画像は、行数H、列数Wのマトリクス状に配列された、(H・W)個の画素より構成されているものとする。また、中央制御部11は、RAM13に、画像入力部2が生成した画像データを、少なくとも、最も新しく撮像した画像2枚分、記憶させておくものとする。 However, when this drawing system performs the processing shown in FIG. 18, the image represented by the image data generated by the image input unit 2 is arranged in a matrix of rows H d and columns W d (H d. It is assumed that it is composed of W d ) pixels. In addition, the central control unit 11 stores the image data generated by the image input unit 2 in the RAM 13 for at least the two most recently captured images.

この描画システムが図18に示す処理を行う場合、中央処理部1は、ステップS3で表示部3にスポットを新たに表示させた後、ステップS1で入力されRAM13に格納された画像データのうち、最も新しく格納された画像2枚分の画像データに基づいて、キャリブレーションを行うか否かを決定する(図18、ステップS3A)。   When the drawing system performs the process shown in FIG. 18, the central processing unit 1 causes the display unit 3 to newly display a spot in step S3, and then, among the image data input in step S1 and stored in the RAM 13, Based on the image data of the two most recently stored images, it is determined whether or not to perform calibration (FIG. 18, step S3A).

ステップS3Aで中央制御部11は、具体的には、例えば、もっとも新しく格納された画像データが表すi行j列目(iはH以下の自然数、jはW以下の自然数)の画素の輝度ともっとも新しい方から2番目に格納された画像データが表すi行j列目の画素の輝度との差を2乗した値(又は、差の絶対値)を、取り得るすべてのi及びjの値について求め、求めた計(H・W)個の値の和を求める。そして、求めた和が所定の環境変化検出用の閾値を超えているか否かを判別し、超えていると判別したときはキャリブレーションを行うと決定し、超えていないと判別したときはキャリブレーションを行わないと決定する。 In step S3A, the central control unit 11 specifically, for example, the i-th row and j-th column (i is a natural number equal to or less than H d , j is a natural number equal to or less than W d ) represented by the most recently stored image data. All i and j that can be obtained are values obtained by squaring the difference between the luminance and the luminance of the pixel in the i-th row and j-th column represented by the image data stored second most recently (or the absolute value of the difference). And the sum of the obtained total (H d · W d ) values is obtained. Then, it is determined whether or not the obtained sum exceeds a predetermined environmental change detection threshold value. When it is determined that the sum is exceeded, it is determined that calibration is performed, and when it is determined that the sum is not exceeded, calibration is performed. Decide not to do.

なお、画像データを構成する画素の輝度が0以上255までの整数により256段階に表されるものである場合、中央制御部11が、もっとも新しく格納された画像2枚分の画像データが表すi行j列目の画素の輝度の差を2乗した値を求めるものならば、環境変化検出用の閾値は、例えば{(128)・H・W}であればよい。また、もっとも新しく格納された画像2枚分の画像データが表すi行j列目の画素の輝度の差の絶対値を求めるものならば、環境変化検出用の閾値は、例えば(128・H・W)であればよい。 When the luminance of the pixels constituting the image data is represented in 256 levels by integers ranging from 0 to 255, the central control unit 11 indicates that the image data for the two most recently stored images is represented by i. If a value obtained by squaring the luminance difference of the pixel in the row j column is to be obtained, the threshold for detecting the environmental change may be, for example, {(128) 2 · H d · W d }. If the absolute value of the luminance difference between the pixels in the i-th row and j-th column represented by the image data for the two most recently stored images is to be obtained, the threshold value for detecting the environmental change is, for example, (128 · H d W d )

そして、中央制御部11は、キャリブレーションを行わないと決定したときは処理をステップS4に移し、行うと決定したときは、上述のステップA1の処理と実質的に同一の処理を行うことによりキャリブレーションを実行し(ステップS3B)、キャリブレーションが終了すると、処理をステップS4に移す。   When the central control unit 11 determines not to perform calibration, the central control unit 11 proceeds to step S4. When the central control unit 11 determines to perform calibration, the central control unit 11 performs calibration by performing substantially the same processing as that in step A1 described above. Is executed (step S3B), and when calibration is completed, the process proceeds to step S4.

(第3の実施の形態)
表示部3に表示される輝点は、発光部4が発するスポット光の明るさの段階に相当する所定の輝度を有するようにしてもよい。以下、表示部3に表示される輝点が、撮像されたスポット光の明るさの段階に相当する所定の輝度を有するような、この発明の第3の実施の形態にかかる描画システムを説明する。
(Third embodiment)
The bright spot displayed on the display unit 3 may have a predetermined luminance corresponding to the brightness level of the spot light emitted from the light emitting unit 4. Hereinafter, a drawing system according to the third embodiment of the present invention in which the bright spot displayed on the display unit 3 has a predetermined luminance corresponding to the brightness level of the spotlight imaged will be described. .

この描画システムの物理的構成は、図2に示す構成と実質的に同一である。ただし、発光部4が発するスポット光の明るさは、ユーザの操作に従って、N段階(Nは2以上の任意の整数)のいずれかに設定されるようになっているものとする。(なお、以下では、スポット光を発していない状態を、「暗い方から0段階目の明るさ」であるものとして扱う。また、理解を容易にするため、スポット光は赤色であるものとする。)   The physical configuration of this drawing system is substantially the same as the configuration shown in FIG. However, the brightness of the spot light emitted from the light emitting unit 4 is set to any one of N stages (N is an arbitrary integer equal to or greater than 2) in accordance with the user's operation. (In the following, the state where no spot light is emitted is treated as “brightness from the dark side to the 0th stage”. Also, for easy understanding, the spot light is assumed to be red. .)

この描画システムは、表示部3に表示されるスポットの輝度と発光部4が発するスポット光の明るさの範囲との対応関係を指定する値である「レベル閾値」を示すデータを、予め、又は操作者の操作に従って記憶する。そして、レベル閾値を示すデータと、撮像されたスポット光の明るさとに基づいて、表示部3に表示されるスポットの輝度を決定する。   In this drawing system, data indicating a “level threshold value” that is a value for designating a correspondence relationship between the brightness of the spot displayed on the display unit 3 and the brightness range of the spot light emitted from the light emitting unit 4 is stored in advance or Store according to the operation of the operator. And the brightness | luminance of the spot displayed on the display part 3 is determined based on the data which show a level threshold value, and the brightness of the imaged spot light.

具体的には、操作者の操作に従ってレベル閾値を記憶するため、この描画システムは、例えば、上述のステップS1の処理を行う前に、図19に示す手順に従ってレベル閾値を決定するものとする。なお、表示部3に表示されるスポットの輝度は、L〜LN−1のN段階に変わるものとし、暗い方からk段階目(kは0以上(N−1)以下の整数)の輝度はLであり、輝度Lは、k番目のレベル閾値θRkに対応付けられているものとする。そして、外部記憶部14は、輝度L〜LN−1を表すN個のデータを予め記憶するものとする。 Specifically, in order to store the level threshold according to the operation of the operator, the drawing system determines the level threshold according to the procedure shown in FIG. 19, for example, before performing the process of step S1 described above. Incidentally, the brightness of the spot displayed on the display unit 3, and an alternative to N stages of L 0 ~L N-1, k stage from darker (k is 0 or more (N-1) an integer) It is assumed that the luminance is L k and the luminance L k is associated with the kth level threshold value θ Rk . The external storage unit 14 is assumed to previously store N data representing the luminance L 0 ~L N-1.

以下、手順を具体的に説明すると、まず、この描画システムの中央制御部11は、四角形ABCDの設定が終わったとき等のタイミングで変数Iの使用を宣言し、変数Iに値0を代入することにより、変数Iを初期化する(図19、ステップSC1)。   Hereinafter, the procedure will be described in detail. First, the central control unit 11 of this drawing system declares the use of the variable I at the timing when the setting of the rectangle ABCD is finished, and assigns the value 0 to the variable I. As a result, the variable I is initialized (FIG. 19, step SC1).

次に、中央処理部11は、変数Iの現在の値iが値Nより小さいか否かを判別する(ステップSC2)。そして、N以上であると判別すると、レベル閾値設定の処理を終了し、例えばステップS1へと処理を移す。一方、変数Iの値がNより小さいと判別すると、中央処理部11は、後述のステップSC5の処理を行うため、画像入力部2がステップSC4の処理を行うのを待機する。   Next, the central processing unit 11 determines whether or not the current value i of the variable I is smaller than the value N (step SC2). If it is determined that the number is N or more, the level threshold setting process is terminated, and the process proceeds to, for example, step S1. On the other hand, when determining that the value of the variable I is smaller than N, the central processing unit 11 waits for the image input unit 2 to perform the process of step SC4 in order to perform the process of step SC5 described later.

一方、操作者は、発光部4を操作して、発光部4に、暗い方からi段階目の明るさのスポット光を発させて、このスポット光を表示部3の表示画面に当てる(ステップSC3)。(ただし、i=0であるとき、操作者は、例えば発光部4を消灯させればよい。)   On the other hand, the operator operates the light emitting unit 4 to cause the light emitting unit 4 to emit spot light having the i-th brightness from the darker side, and strikes the spot light on the display screen of the display unit 3 (step). SC3). (However, when i = 0, the operator may turn off the light emitting unit 4, for example).

一方、画像入力部2は、表示部3の表示画面を撮像して、撮像した画像を表す画像データを中央制御部11に供給する(ステップSC4)。中央制御部11は、この画像データが表す画像を表示部3に表示させる(ステップSC5)。
ステップSC5で表示部3が画像を表示すると、操作者は、ユーザ操作入力部15のマウスを操作する等して、表示部3の表示画面上、スポット光に相当する部分を指定する(ステップSC6)。(ただし、i=0であるとき、操作者は、表示部3の表示画面上、スポット光が当たっていない部分を指定すればよい。)
On the other hand, the image input unit 2 images the display screen of the display unit 3 and supplies image data representing the captured image to the central control unit 11 (step SC4). The central control unit 11 displays the image represented by the image data on the display unit 3 (step SC5).
When the display unit 3 displays an image in step SC5, the operator designates a portion corresponding to the spot light on the display screen of the display unit 3 by operating the mouse of the user operation input unit 15 (step SC6). ). (However, when i = 0, the operator may designate a portion on the display screen of the display unit 3 that is not irradiated with the spot light.)

すると、中央処理部11は、画像入力部2が供給した画像データに含まれる画素データのうち、操作者が指定した箇所を表すものを読み出して、この画素データが表す赤色成分の画素値を取得する(ステップSC7)。   Then, the central processing unit 11 reads out the pixel data included in the image data supplied from the image input unit 2 and represents the portion designated by the operator, and acquires the pixel value of the red component represented by the pixel data. (Step SC7).

そして、中央処理部11は、取得した画素値に基づいて、i番目のレベル閾値θRiの値を表すデータを生成し、外部記憶部14に記憶させる(ステップSC8)。具体的には、中央処理部11は、数式9の右辺の値を求めることによりi番目のレベル閾値θRiの値を求め、θRiの値を表すデータを生成して、輝度Lに対応付けた形で外部記憶部14に記憶させるものとする。 Then, the central processing unit 11 generates data representing the value of the i-th level threshold θ Ri based on the acquired pixel value, and stores it in the external storage unit 14 (step SC8). Specifically, the central processing unit 11 obtains the value of the i-th level threshold theta Ri by finding the value on the right side of Equation 9, and generates data representing the value of theta Ri, corresponding to the luminance L i It is assumed that the external storage unit 14 stores the attached form.

(数9)
θRi=(Ri−1+R)/2
(ただし、Rは、Iの値がiであるときにステップSC7で取得した赤色成分の画素値。また、R−1=0であるものとする。)
(Equation 9)
θ Ri = (R i-1 + R i ) / 2
(However, R i is the pixel value of the red component acquired in step SC7 when the value of I is i. It is also assumed that R −1 = 0.)

そして、中央処理部11は、変数Iをインクリメントして(ステップSC9)、処理をステップSC2に戻す。   Then, central processing unit 11 increments variable I (step SC9), and returns the process to step SC2.

この描画システムがレベル閾値を記憶する場合、この描画システムの画像解析部12のスポット光抽出部12aは、スポット光抽出処理を終えると、例えば、図20に示すレベル検出処理を行う。   When the drawing system stores the level threshold value, the spot light extraction unit 12a of the image analysis unit 12 of the drawing system performs the level detection process illustrated in FIG.

すなわち、スポット光抽出部12aは、スポット光抽出処理を終えると、まず、変数V及び変数Iの使用を宣言し、変数V及び変数Iに、それぞれ値0を代入することにより、変数V及びIの初期化を行う(図20、ステップSD1)   That is, when the spot light extraction unit 12a finishes the spot light extraction process, first, the use of the variable V and the variable I is declared, and the variables V and I are substituted with the value 0, respectively. Is initialized (FIG. 20, step SD1).

次に、スポット光抽出部12aは、変数Iの現在の値iが上述の値Nより小さいか否かを判別し(ステップSD2)、値iが値N以上であると判別すると、レベル検出の処理を終了し、表示部3が表示すべきスポットの輝度を、暗い方からv番目(ただし、vは変数Vの現在の値)の輝度Lと決定する。 Next, the spot light extraction unit 12a determines whether or not the current value i of the variable I is smaller than the above-described value N (step SD2), and if it is determined that the value i is greater than or equal to the value N, level detection is performed. the process ends, the brightness of the spot to be displayed the display unit 3, v-th from darker (Here, v current value of the variable V) determining the luminance L v of.

一方、値iが値Nより小さいと判別すると、スポット光抽出部12aは、スポット光抽出処理の結果得られた上述の値Rmaxが、値θRiより大きいか否かを判別する(ステップSD3)。そして、値Rmaxが値θRi以下であると判別すると、レベル検出の処理を終了し、表示部3が表示すべきスポットの輝度を、暗い方からv番目の輝度Lと決定する。 On the other hand, when determining that the value i is smaller than the value N, the spot light extraction unit 12a determines whether or not the above-described value R max obtained as a result of the spot light extraction process is larger than the value θ Ri (step SD3). ). When it is determined that the value R max is equal to or smaller than the value θ Ri , the level detection process is terminated, and the luminance of the spot to be displayed by the display unit 3 is determined as the v-th luminance L v from the dark side.

一方、値Rmaxが、値θRiより大きいと判別すると、スポット光抽出部12aは変数Iの値(すなわち、値i)を変数Vに代入し(ステップSD4)、変数Iをインクリメントして(ステップSD5)、処理をステップSD2に戻す。 On the other hand, if it is determined that the value R max is larger than the value θ Ri , the spot light extraction unit 12a substitutes the value of the variable I (that is, the value i) for the variable V (step SD4), and increments the variable I ( Step SD5), the process returns to step SD2.

一方、ステップS3で、中央制御部11は、値Rmaxに相当する輝度を有するスポットを表示部3に表示させる代わりに、レベル検出処理により決定された値Lに相当する輝度を有するスポットを表示部3に表示させるものとする。
なお、この描画システムは、レベル検出処理で決定したスポットの輝度に対応付けられた所定の処理を更に実行するようにしてもよい。換言すれば、ユーザは、発光部4を操作してスポットの輝度を変えることにより、データ処理装置1にN通りの情報を供給することができる。
On the other hand, in step S3, the central control unit 11, instead of displaying the spot having a brightness corresponding to the value R max in the display unit 3, a spot having a brightness corresponding to the value L v determined by the level detection process It is assumed to be displayed on the display unit 3.
The drawing system may further execute a predetermined process associated with the brightness of the spot determined by the level detection process. In other words, the user can supply N types of information to the data processing apparatus 1 by operating the light emitting unit 4 to change the brightness of the spot.

なお、この描画システムは、図19に示す手順に代えて、図21に示す手順でレベル閾値を示すデータを取得して記憶するようにしてもよい。   Note that this drawing system may acquire and store data indicating the level threshold by the procedure shown in FIG. 21 instead of the procedure shown in FIG.

すなわち、まず、四角形ABCDの設定が終わると、中央処理部11は、後述のステップSE4の処理を行うため、画像入力部2がステップSE3の処理を行うのを待機する。   That is, first, when the setting of the rectangle ABCD is completed, the central processing unit 11 waits for the image input unit 2 to perform the process of step SE3 in order to perform the process of step SE4 described later.

一方、操作者は、発光部4を操作して、発光部4に、N段階のうちもっとも暗い段階の明るさのスポット光を発させて、このスポット光を表示部3の表示画面に当てる(図21、ステップSE1)。または、ステップSE1においては、表示部3にスポット光を当てないようにしてもよい。   On the other hand, the operator operates the light emitting unit 4 to cause the light emitting unit 4 to emit spot light having the darkest brightness level among the N levels, and to apply the spot light to the display screen of the display unit 3 ( FIG. 21, step SE1). Alternatively, in step SE1, spot light may not be applied to the display unit 3.

画像入力部2は、表示部3の表示画面を撮像して、撮像した画像を表す画像データを中央制御部11に供給する(ステップSE2)。中央制御部11は、この画像データが表す画像を表示部3に表示させる(ステップSE3)。   The image input unit 2 captures the display screen of the display unit 3 and supplies image data representing the captured image to the central control unit 11 (step SE2). The central control unit 11 displays the image represented by the image data on the display unit 3 (step SE3).

ステップSE3で表示部3が画像を表示すると、操作者は、上述のステップSC6と実質的に同一の操作を行って、表示部3の表示画面上、スポット光に相当する部分を指定する(ステップSE4)。
すると、中央処理部11は、画像入力部2が供給した画像データに含まれる画素データのうち、操作者が指定した箇所を表すものを読み出して、この画素データが表す赤色成分の画素値を取得する(ステップSE5)。
When the display unit 3 displays an image in step SE3, the operator performs substantially the same operation as in step SC6 described above, and designates a portion corresponding to the spot light on the display screen of the display unit 3 (step S3). SE4).
Then, the central processing unit 11 reads out the pixel data included in the image data supplied from the image input unit 2 and represents the portion designated by the operator, and acquires the pixel value of the red component represented by the pixel data. (Step SE5).

次に、操作者は、発光部4に、N段階のうちもっとも明るい段階の明るさのスポット光を発させて、このスポット光を表示部3の表示画面に当てる(ステップSE6)。画像入力部2は、表示部3の表示画面を撮像した画像の画像データを中央制御部11に供給し(ステップSE7)。中央制御部11は、この画像を表示部3に表示させる(ステップSE8)。   Next, the operator causes the light emitting unit 4 to emit spot light having the brightest level among the N levels, and applies this spot light to the display screen of the display unit 3 (step SE6). The image input unit 2 supplies image data of an image obtained by capturing the display screen of the display unit 3 to the central control unit 11 (step SE7). The central control unit 11 displays this image on the display unit 3 (step SE8).

ステップSE8で表示部3が画像を表示すると、操作者は、上述のステップSE4と同様に、表示部3の表示画面上、スポット光に相当する部分を指定する(ステップSE9)。中央処理部11は、画像入力部2がステップSE7で供給した画像データに含まれる画素データのうち、操作者が指定した箇所を表す画素データが表す赤色成分の画素値を取得する(ステップSE10)。   When the display unit 3 displays an image in step SE8, the operator designates a portion corresponding to the spot light on the display screen of the display unit 3 as in step SE4 described above (step SE9). The central processing unit 11 acquires the pixel value of the red component represented by the pixel data representing the location designated by the operator from the pixel data included in the image data supplied by the image input unit 2 in step SE7 (step SE10). .

そして、中央処理部11は、ステップSE5及びSE10で取得した2個の画素値に基づき、N個のレベル閾値θR0〜θR(N−1)の値を表すN個のデータを生成して、外部記憶部14に記憶させる(ステップSE11)。
具体的には、中央処理部11は、例えば、数式10の右辺の値を求めることによりレベル閾値θR0の値を求め、また、数式11の右辺の値を、iの値を1から(N−1)までの各整数とした場合についてそれぞれ求めることにより、レベル閾値θR1〜θR(N−1)の値を求めるものとする。そして、θR0〜θR(N−1)の値を表す合計N個のデータを生成し、外部記憶部14に記憶させるものとする。
Then, the central processing unit 11 generates N pieces of data representing the values of the N level threshold values θ R0 to θ R (N−1) based on the two pixel values acquired in steps SE5 and SE10. And stored in the external storage unit 14 (step SE11).
Specifically, the central processing unit 11 obtains the value of the level threshold θ R0 by, for example, obtaining the value on the right side of Equation 10, and the value on the right side of Equation 11 is changed from 1 to (N The values of the level threshold values θ R1 to θ R (N−1) are obtained by obtaining each of the integers up to −1). Then, a total of N pieces of data representing the values of θ R0 to θ R (N−1) are generated and stored in the external storage unit 14.

(数10)
θR0=RMIN/2
(ただし、RMINは、ステップSE5で取得した画素値)
(Equation 10)
θ R0 = R MIN / 2
(Where R MIN is the pixel value acquired in step SE5)

(数11)
θRi=RMIN+i・(RMAX−RMAX)/(N−1)
−(RMAX−RMIN)/{2・(N−1)}
(ただし、RMAXは、ステップSE10で取得した画素値)
(Equation 11)
θ Ri = R MIN + i · (R MAX −R MAX ) / (N−1)
− (R MAX −R MIN ) / {2 · (N−1)}
(However, R MAX is the pixel value acquired in step SE10)

(第3の実施の形態の変形例)
発光部4は、互いに異なる単色のスポット光を複数発する構成を有していてもよい(具体的には、例えば、発光部4は、互いに異なる単色のスポット光を発する複数の発光ダイオードを備えていてもよい)。
この場合、この描画システムは、当該発光部4が発するスポット光が表示部3の表示画面上に当たったときに表示画面上に形成される、当該発光部4に固有の配置を有するスポット光のパターンを抽出するようにしてもよい。スポットのパターンとしては、例えば図22(a)〜(d)に示すように、赤色、緑色及び青色のスポットが1個ずつ合計3個、ほぼ等間隔で直線上に並ぶようなパターンであればよい。スポット光のパターンを抽出するようにすれば、スポット1個を抽出する場合に比べ、スポットでない点を誤ってスポットとして検出する危険が減少する。
(Modification of the third embodiment)
The light emitting section 4 may have a configuration that emits a plurality of different single color spot lights (specifically, for example, the light emitting section 4 includes a plurality of light emitting diodes that emit different single color spot lights. May be)
In this case, in this drawing system, spot light having an arrangement specific to the light emitting unit 4 is formed on the display screen when the spot light emitted from the light emitting unit 4 hits the display screen of the display unit 3. A pattern may be extracted. For example, as shown in FIGS. 22 (a) to 22 (d), the spot pattern is a pattern in which a total of three red, green, and blue spots are arranged on a straight line at almost equal intervals. Good. If the spot light pattern is extracted, the risk of erroneously detecting a spot that is not a spot is reduced as compared with the case of extracting one spot.

なお、この描画システムが発光部4を複数備える場合、スポット光のパターンが当該発光部4に固有のものとなるようにするためには、例えば、当該発光部4のスポット光のパターンを回転させることで他の発光部4のスポット光のパターンと重なることがないように、スポット光を配置することが望ましい。従って、図22(a)及び(d)のパターンは、重複して用いないことが望ましい。   When the drawing system includes a plurality of light emitting units 4, for example, the spot light pattern of the light emitting unit 4 is rotated in order to make the spot light pattern unique to the light emitting unit 4. Therefore, it is desirable to arrange the spot light so as not to overlap the spot light pattern of the other light emitting units 4. Therefore, it is desirable that the patterns in FIGS. 22A and 22D are not used redundantly.

発光部4が発するスポット光は、例えば、第1のスポット光と、第1のスポット光を中心として互いに点対称の位置に来るように配置された第2、第3のスポット光とからなるパターンを形成していればよい。この場合、この描画システムは、例えば、スポット光抽出処理(ステップS21の処理)として図23に示す処理を行うことにより、スポット光のパターンを抽出すればよい。なお、以下では、理解を容易にするため、第1のスポット光が赤色、第2のスポット光が緑色、第3のスポット光が青色であるものとする。(すなわち、図22(c)に示すようなパターンを形成するものとする。)   The spot light emitted from the light emitting unit 4 is, for example, a pattern made up of a first spot light and second and third spot lights arranged so as to be point-symmetric with respect to each other with the first spot light as a center. As long as it is formed. In this case, for example, the drawing system may extract the spot light pattern by performing the process shown in FIG. 23 as the spot light extraction process (the process of step S21). Hereinafter, in order to facilitate understanding, it is assumed that the first spot light is red, the second spot light is green, and the third spot light is blue. (That is, a pattern as shown in FIG. 22C is formed.)

すなわち、スポット光抽出処理を開始すると、まず、スポット光抽出部12aは、変数max、変数ss、変数tt、変数uu及び変数vvの使用を宣言し、これら5個の変数にそれぞれ値0を代入することにより、これら5個の変数を初期化する(図23、ステップSF1)。   That is, when the spot light extraction process is started, first, the spot light extraction unit 12a declares the use of the variable max, the variable ss, the variable tt, the variable uu, and the variable vv, and substitutes a value 0 for each of these five variables. By doing so, these five variables are initialized (FIG. 23, step SF1).

次に、スポット光抽出部12aは、RAM13に格納された画像データを構成する画素データのうちの1個を、第1のスポット光の候補を表す画素データとして特定する(ステップSF2)。ただし、ステップSF2では、既にステップSF2の処理で第1のスポット光の候補として特定された画素は、第1のスポット光として再び特定しないようにするものとする。   Next, the spot light extraction unit 12a identifies one of the pixel data constituting the image data stored in the RAM 13 as pixel data representing the first spot light candidate (step SF2). However, in step SF2, pixels that have already been identified as candidates for the first spot light in the process of step SF2 are not identified again as the first spot light.

次に、スポット光抽出部12aは、ステップSF2でもっとも新しく特定された第1のスポット光の候補と所定の位置関係にある画素を表す画素データを、第2のスポット光の候補を表す画素データとして特定する。さらに、第1のスポット光の候補を中心として第2のスポット光の候補と実質的に点対称の位置にある画素を表す画素データを、第3のスポット光の候補を表す画素データとして特定する(ステップSF3)。
ただし、ステップSF3は、ステップSF2でもっとも新しく特定された第1のスポット光の候補との関係で既にステップSF3の処理で第2(又は第3)のスポットの候補として特定された画素は、この第1のスポット光の候補との関係では、第2(又は第3)のスポットとして再び特定しないようにするものとする。
Next, the spot light extraction unit 12a obtains pixel data representing a pixel having a predetermined positional relationship with the first spot light candidate most recently identified in step SF2, and pixel data representing a second spot light candidate. As specified. Further, pixel data representing a pixel that is substantially point-symmetric with the second spot light candidate with the first spot light candidate as the center is specified as pixel data representing the third spot light candidate. (Step SF3).
However, in step SF3, the pixel already specified as the second (or third) spot candidate in the process of step SF3 in relation to the first spot light candidate specified most recently in step SF2 In the relationship with the first spot light candidate, the second (or third) spot is not specified again.

そして、スポット光抽出部12aは、特定した3個の画素データが示す、第1、第2及び第3のスポット光の候補の特定の色成分の評価値を取得する(ステップSF4)。具体的には、第1のスポット光の候補の赤評価値ER、第2のスポット光の候補の緑評価値EG、及び、第3のスポット光の候補の青評価値EBを取得するものとする。なお、赤評価値ERは、数式12の右辺の値に実質的に等しい値であり、緑評価値EGは、数式13の右辺の値に実質的に等しい値であり、青評価値EBは、数式14の右辺の値に実質的に等しい値である。 Then, the spot light extraction unit 12a acquires evaluation values of specific color components of the first, second, and third spot light candidates indicated by the specified three pixel data (step SF4). Specifically, the red evaluation value ER of the first spot light candidate, the green evaluation value EG of the second spot light candidate, and the blue evaluation value EB of the third spot light candidate are acquired. To do. The red evaluation value ER is a value substantially equal to the value on the right side of Equation 12 , the green evaluation value EG is a value substantially equal to the value on the right side of Equation 13 , and the blue evaluation value EB is This value is substantially equal to the value on the right side of Equation 14 .

(数12)
ER=R−{(G+B)/2}
(ただし、Rは、赤色成分の輝度値、Gは緑色成分の輝度値、Bは青色成分の輝度値)
(数13)
EG=G−{(R+B)/2}
(数14)
EB=B−{(R+G)/2}
(Equation 12)
ER = R-{(G + B) / 2}
(Where R is the luminance value of the red component, G is the luminance value of the green component, and B is the luminance value of the blue component)
(Equation 13)
EG = G-{(R + B) / 2}
(Equation 14)
EB = B-{(R + G) / 2}

次に、スポット光抽出部12aは、取得した第1〜第3のスポット光の候補の各評価値のうちの最小値が、変数maxの現在の値より大きいか否かを判別する(ステップSF5)。そして、当該最小値が変数maxの値以下であると判別すると、処理をステップSF7へと進める。   Next, the spot light extraction unit 12a determines whether or not the minimum value among the obtained evaluation values of the obtained first to third spot light candidates is larger than the current value of the variable max (step SF5). ). If it is determined that the minimum value is equal to or less than the value of the variable max, the process proceeds to step SF7.

一方、最小値が変数maxの値より大きいと判別すると、スポット光抽出部12aは、変数maxの値を、ステップSF4で新しく取得した3個の評価値のうちの最小値へと更新する(ステップSF6)。
また、ステップSF6でスポット光抽出部12aは、変数ssの値を、ステップSF2で最も新しく第1のスポット光の候補として特定した画素の位置のx軸方向成分の値へと更新し、変数ttの値を、この画素のy軸方向成分の値へと更新する。
また、変数uuの値を、ステップSF2で最も新しく第1のスポット光の候補として特定した画素の位置のx軸方向成分の値とステップSF3で最も新しく第2のスポット光の候補として特定した画素の位置のx軸方向成分の値との差へと更新する。
また、変数vvの値を、ステップSF2で最も新しく第1のスポット光の候補として特定した画素の位置のy軸方向成分の値とステップSF3で最も新しく第2のスポット光の候補として特定した画素の位置のy軸方向成分の値との差へと更新する。
On the other hand, when determining that the minimum value is larger than the value of the variable max, the spot light extraction unit 12a updates the value of the variable max to the minimum value among the three evaluation values newly acquired in Step SF4 (Step S4). SF6).
In step SF6, the spot light extraction unit 12a updates the value of the variable ss to the value of the x-axis direction component at the position of the pixel specified most recently as the first spot light candidate in step SF2. Is updated to the value of the y-axis direction component of this pixel.
Further, the value of the variable uu is the value of the x-axis direction component of the pixel position specified most recently as the first spot light candidate in step SF2, and the pixel specified most recently as the second spot light candidate in step SF3. To the difference from the value of the x-axis direction component of the position of.
Further, the value of the variable vv is set to the value of the y-axis direction component of the pixel position newly specified as the first spot light candidate in step SF2, and the pixel specified as the second spot light candidate most recently in step SF3. To the difference from the value of the y-axis direction component at the position of.

次に、スポット光抽出部12aは、ステップSF2でもっとも新しく特定した第1のスポット光の候補と上述の所定の関係にある画素のうちに、未だ第2のスポット光の候補として特定されていない画素があるか否かを判別する(ステップSF7)。そして、あると判別するとステップSF3へと処理を戻し、ないと判別すると、処理をステップSF8へと進める。   Next, the spot light extraction unit 12a is not yet identified as the second spot light candidate among the pixels having the predetermined relationship with the first spot light candidate most recently identified in step SF2. It is determined whether or not there is a pixel (step SF7). If it is determined that there is, the process returns to step SF3, and if it is determined that there is no, the process proceeds to step SF8.

ステップSF8で、スポット光抽出部12aは、ステップSF2で未だ第1のスポット光の候補として特定されていない画素があるか否かを判別する。そして、あると判別するとステップSF2へと処理を戻し、ないと判別すると、処理を終了する。   In step SF8, the spot light extraction unit 12a determines whether or not there is a pixel that has not yet been specified as the first spot light candidate in step SF2. If it is determined that there is, the process returns to step SF2, and if it is determined that there is no, the process is terminated.

処理を終了した時点での変数ssの値が、第1のスポット光の位置のx軸方向成分を表し、変数ttの値が、第1のスポット光のy軸方向成分の値を表す。また、処理を終了した時点での変数ssの値と変数uuの値との和が、第2のスポット光の位置のx軸方向成分を表し、変数ttの値と変数vvの値との和が、第2のスポット光のy軸方向成分の値を表す。また、処理を終了した時点での変数maxの値が、第1〜第3のスポット光のうちもっとも暗いものの輝度を表す。   The value of the variable ss at the time when the processing is completed represents the x-axis direction component of the position of the first spot light, and the value of the variable tt represents the value of the y-axis direction component of the first spot light. Further, the sum of the value of the variable ss and the value of the variable uu at the time when the processing is completed represents the x-axis direction component of the position of the second spot light, and the sum of the value of the variable tt and the value of the variable vv Represents the value of the y-axis direction component of the second spot light. Further, the value of the variable max at the time when the processing is completed represents the luminance of the darkest of the first to third spot lights.

また、発光部4が発するスポット光が、赤色の第1のスポット光と、第1のスポット光を中心として互いに点対称の位置に来るように配置された緑色の第2のスポット光及び青色の第3のスポット光とからなるパターンを形成している場合、この描画システムは、スポット光抽出処理として図24〜図27に示す処理を行うようにしてもよい。   Further, the spot light emitted from the light emitting unit 4 is the first spot light of red, the second spot light of green and the blue spot light arranged so as to be point-symmetric with respect to the first spot light. When a pattern composed of the third spot light is formed, the drawing system may perform the processes shown in FIGS. 24 to 27 as the spot light extraction process.

すなわち、スポット光抽出処理を開始すると、まず、スポット光抽出部12aは、変数Rm、変数Gm、変数Bm、変数Rx、変数Ry、変数Gx、変数Gy、変数Bx、変数By及び変数maxの使用を宣言し、これら10個の変数にそれぞれ値0を代入することにより初期化する(図24、ステップSG1)。   That is, when the spot light extraction process is started, the spot light extraction unit 12a first uses the variable Rm, variable Gm, variable Bm, variable Rx, variable Ry, variable Gx, variable Gy, variable Bx, variable By, and variable max. Is initialized by substituting the value 0 for each of these 10 variables (FIG. 24, step SG1).

次に、スポット光抽出部12aは、RAM13に格納された画像データを構成する画素データのうちの1個を特定する(ステップSG2)。ただし、ステップSG2では、既にステップSG2の処理で特定されたことのある画素は、再び特定しないようにするものとする。   Next, the spot light extraction unit 12a identifies one of the pixel data constituting the image data stored in the RAM 13 (step SG2). However, in step SG2, pixels that have already been specified in the process of step SG2 are not specified again.

そして、スポット光抽出部12aは、特定した画素の赤評価値ERを取得し(ステップSG3)、取得した赤評価値が、変数Rmの値より大きいか否かを判別する(ステップSG4)。そして、赤評価値がRm以下であると判別すると、処理をステップSG6へと進める。   And the spot light extraction part 12a acquires the red evaluation value ER of the specified pixel (step SG3), and discriminate | determines whether the acquired red evaluation value is larger than the value of the variable Rm (step SG4). If it is determined that the red evaluation value is equal to or less than Rm, the process proceeds to step SG6.

一方、赤評価値がRmより大きいと判別すると、スポット光抽出部12aは、変数Rmの値を、ステップSG3で新しく取得した赤評価値へと更新し、変数Rxの値を、ステップSG2で最も新しく特定した画素の位置のx軸方向成分の値へと更新し、変数Ryの値を、この画素のy軸方向成分の値へと更新する(ステップSG5)。   On the other hand, if it is determined that the red evaluation value is larger than Rm, the spot light extraction unit 12a updates the value of the variable Rm to the red evaluation value newly acquired in step SG3, and sets the value of the variable Rx to the highest in step SG2. The value of the newly specified pixel is updated to the value of the x-axis direction component, and the value of the variable Ry is updated to the value of the y-axis direction component of this pixel (step SG5).

また、スポット光抽出部12aは、特定した画素の緑評価値EGを取得し(ステップSG6)、この緑評価値が変数Gmの値より大きいか否かを判別する(ステップSG7)。そして、緑評価値が変数Gm以下であると判別すると処理をステップSG9へと進める。一方、変数Gmより大きいと判別すると、変数Gmの値を、ステップSG6で新しく取得した緑評価値へと更新し、変数Gxの値を、ステップSG2で最も新しく特定した画素の位置のx軸方向成分の値へと更新し、変数Gyの値を、この画素のy軸方向成分の値へと更新する(ステップSG8)。   Further, the spot light extraction unit 12a acquires the green evaluation value EG of the specified pixel (step SG6), and determines whether or not the green evaluation value is larger than the value of the variable Gm (step SG7). If it is determined that the green evaluation value is equal to or less than the variable Gm, the process proceeds to step SG9. On the other hand, if it is determined that the value is larger than the variable Gm, the value of the variable Gm is updated to the green evaluation value newly acquired in step SG6, and the value of the variable Gx is changed to the x-axis direction of the pixel position specified most recently in step SG2. The value is updated to the component value, and the value of the variable Gy is updated to the value of the y-axis direction component of this pixel (step SG8).

また、スポット光抽出部12aは、特定した画素の青評価値EBを取得し(ステップSG9)、この青評価値が変数Bmの値より大きいか否かを判別する(ステップSG10)。そして、青評価値が変数Bm以下であると判別すると処理をステップSG12へと進める。一方、変数Bmより大きいと判別すると、変数Bmの値を、ステップSG9で新しく取得した青評価値へと更新し、変数Bxの値を、ステップSG2で最も新しく特定した画素の位置のx軸方向成分の値へと更新し、変数Byの値を、この画素のy軸方向成分の値へと更新する(ステップSG11)。   Further, the spot light extraction unit 12a acquires the blue evaluation value EB of the specified pixel (step SG9), and determines whether or not the blue evaluation value is larger than the value of the variable Bm (step SG10). If it is determined that the blue evaluation value is equal to or less than the variable Bm, the process proceeds to step SG12. On the other hand, if it is determined that the value is larger than the variable Bm, the value of the variable Bm is updated to the blue evaluation value newly acquired in step SG9, and the value of the variable Bx is changed to the x-axis direction of the pixel position newly specified in step SG2. The value is updated to the component value, and the value of the variable By is updated to the value of the y-axis direction component of this pixel (step SG11).

ステップSG12で、スポット光抽出部12aは、ステップSG2で未だ特定されていない画素があるか否かを判別し、あると判別するとステップSG2へと処理を戻し、ないと判別すると、処理を、図25に示すステップSG13へと進める。   In step SG12, the spot light extraction unit 12a determines whether or not there is a pixel that has not yet been specified in step SG2. If it is determined that there is a pixel, the process returns to step SG2. Proceed to step SG13 shown in FIG.

ステップSG12までの処理を終了した時点での変数Rxの値が、赤色がもっとも強い画素の位置のx軸方向成分を表し、変数Ryの値が、この画素のy軸方向成分の値を表し、変数Rmの値が、この画素の赤評価値を表す。
同様に、変数Gxの値は、緑色がもっとも強い画素の位置のx軸方向成分を表し、変数Ryの値が、この画素のy軸方向成分の値を表し、変数Gmの値が、この画素の緑評価値を表す。
また、変数Bxの値は、青色がもっとも強い画素の位置のx軸方向成分を表し、変数Byの値が、この画素のy軸方向成分の値を表し、変数Bmの値が、この画素の青評価値を表す。
The value of the variable Rx at the time when the processing up to step SG12 is finished represents the x-axis direction component of the pixel where red is the strongest, and the value of the variable Ry represents the value of the y-axis direction component of this pixel. The value of the variable Rm represents the red evaluation value of this pixel.
Similarly, the value of the variable Gx represents the x-axis direction component at the position of the pixel having the strongest green color, the value of the variable Ry represents the value of the y-axis direction component of this pixel, and the value of the variable Gm represents this pixel. Represents the green evaluation value.
The value of the variable Bx represents the x-axis direction component at the position of the pixel having the strongest blue color, the value of the variable By represents the value of the y-axis direction component of this pixel, and the value of the variable Bm represents the value of this pixel. Represents the blue evaluation value.

ステップSG13で、スポット光抽出部12aは、赤色がもっと強いとして特定された画素を第1のスポット光とした場合に第2及び第3のスポット光となる位置関係にある2個の画素を、第2及び第3のスポット光の候補として特定する。   In step SG13, the spot light extraction unit 12a selects two pixels that are in a positional relationship to be the second and third spot lights when the pixel identified as having a stronger red color is the first spot light. It is specified as a candidate for the second and third spot lights.

ただし、ステップSG13では、既にステップSG13の処理で第2のスポット光の候補として特定された画素は、第2のスポット光の候補として再び特定しないようにするものとする。また、既にステップSG13の処理で第3のスポット光の候補として特定された画素は、第3のスポット光の候補として再び特定しないようにするものとする。   However, in step SG13, pixels that have already been identified as candidates for the second spot light in the process of step SG13 are not identified again as candidates for the second spot light. In addition, pixels that have already been identified as candidates for the third spot light in the process of step SG13 are not identified again as candidates for the third spot light.

そして、スポット光抽出部12aは、赤色がもっと強いとして特定された画素、の赤評価値、もっとも新しく特定された第2のスポット光の候補の緑評価値、及び、もっとも新しく特定された第3のスポット光の候補の青評価値を取得し、取得したこれら3個の評価値のうちの最小値が、変数maxの現在の値より大きいか否かを判別する(ステップSG14)。そして、評価値の最小値が変数maxの値以下であると判別すると、処理をステップSG16へと進める。   The spot light extraction unit 12a then determines the red evaluation value of the pixel identified as having a stronger red color, the green evaluation value of the most recently identified second spot light candidate, and the most recently identified third color. The blue evaluation value of the candidate spot light is acquired, and it is determined whether or not the minimum value of the three evaluation values acquired is larger than the current value of the variable max (step SG14). If it is determined that the minimum value of the evaluation value is equal to or less than the value of the variable max, the process proceeds to step SG16.

一方、評価値の最小値が変数maxの値より大きいと判別すると、スポット光抽出部12aは、maxの値を、ステップSG14で新しく取得した3個の評価値のうちの最小値へと更新する(ステップSG15)。
また、変数ssの値を、赤色がもっとも強いとして特定した画素の位置のx軸方向成分の値へと更新し、変数ttの値を、この画素のy軸方向成分の値へと更新する。
また、変数uuの値を、赤色がもっとも強いとして特定した画素の位置のx軸方向成分の値とステップSG13で最も新しく第2のスポット光の候補として特定した画素の位置のx軸方向成分の値との差へと更新する。
また、変数vvの値を、赤色がもっとも強いとして特定した画素の位置のy軸方向成分の値とステップSG13で最も新しく第2のスポット光の候補として特定した画素の位置のy軸方向成分の値との差へと更新する。
On the other hand, when it is determined that the minimum value of the evaluation value is larger than the value of the variable max, the spot light extraction unit 12a updates the value of max to the minimum value of the three evaluation values newly acquired in step SG14. (Step SG15).
Further, the value of the variable ss is updated to the value of the x-axis direction component at the pixel position identified as having the strongest red color, and the value of the variable tt is updated to the value of the y-axis direction component of this pixel.
Further, the value of the variable uu is the value of the x-axis direction component at the pixel position specified as having the strongest red color, and the x-axis direction component at the pixel position specified as the newest second spot light candidate in step SG13. Update to the difference from the value.
Further, the value of the variable vv is the value of the y-axis direction component of the pixel position specified as having the strongest red color, and the y-axis direction component of the pixel position specified as the newest second spot light candidate in step SG13. Update to the difference from the value.

次に、スポット光抽出部12aは、もっとも赤色が強いとして特定した画素を第1のスポット光としたとき第2のスポット光となり得る画素が、ステップSG13で既に特定したものの他に存在するか否かを判別する(ステップSG16)。そして、存在すると判別するとステップSG13へと処理を戻す。   Next, the spot light extraction unit 12a determines whether there is a pixel that can be the second spot light when the pixel identified as having the strongest red color is the first spot light, in addition to those already identified in step SG13. Is discriminated (step SG16). If it is determined that it exists, the process returns to step SG13.

一方、存在しないと判別すると、変数maxの現在の値MAX、変数ssの現在の値SS、変数ttの現在の値TT、変数uuの現在の値UU及び変数vvの現在の値VVを表すデータtmp1を作成してRAM13に一時記憶させる(ステップSG17)。   On the other hand, if it is determined that it does not exist, data representing the current value MAX of the variable max, the current value SS of the variable ss, the current value TT of the variable tt, the current value UU of the variable uu, and the current value VV of the variable vv. tmp1 is created and temporarily stored in the RAM 13 (step SG17).

次に、スポット光抽出部12aは、変数max、変数ss、変数tt、変数uu及び変数vvを初期化し(図26、ステップSG18)、処理をステップSG19へと進める。
ステップSG19でスポット光抽出部12aは、緑色がもっと強いとして特定された画素を第2のスポット光とした場合に第1及び第3のスポット光となる位置関係にある2個の画素を、第1及び第3のスポット光の候補として特定する。
Next, the spot light extraction unit 12a initializes the variable max, the variable ss, the variable tt, the variable uu, and the variable vv (FIG. 26, step SG18), and advances the process to step SG19.
In step SG19, the spot light extraction unit 12a determines the two pixels that are in the positional relationship to be the first and third spot lights when the pixel identified as having a stronger green color is the second spot light. The first and third spot light candidates are specified.

ただし、ステップSG19では、既にステップSG19の処理で第1のスポット光の候補として特定された画素は、第1のスポット光の候補として再び特定しないようにするものとする。また、既にステップSG19の処理で第3のスポット光の候補として特定された画素は、第3のスポット光の候補として再び特定しないようにするものとする。   However, in step SG19, pixels that have already been identified as candidates for the first spot light in the process of step SG19 are not identified again as candidates for the first spot light. In addition, pixels that have already been identified as candidates for the third spot light in the process of step SG19 are not identified again as candidates for the third spot light.

そして、スポット光抽出部12aは、緑色がもっと強いとして特定された画素、の緑評価値、もっとも新しく特定された第1のスポット光の候補の赤評価値、及び、もっとも新しく特定された第3のスポット光の候補の青評価値を取得し、取得したこれら3個の評価値のうちの最小値が、変数maxの値より大きいか否かを判別する(ステップSG20)。そして、変数maxの値以下であると判別すると、処理をステップSG22へと進める。   Then, the spot light extraction unit 12a outputs the green evaluation value of the pixel specified as having a stronger green color, the red evaluation value of the first spot light candidate specified most recently, and the third specified most recently. The blue evaluation value of the candidate spot light is acquired, and it is determined whether or not the minimum value of the three evaluation values acquired is larger than the value of the variable max (step SG20). If it is determined that the value is equal to or less than the value of variable max, the process proceeds to step SG22.

一方、評価値の最小値が変数maxの値より大きいと判別すると、スポット光抽出部12aは、maxの値を、ステップSG20で新しく取得した3個の評価値のうちの最小値へと更新する(ステップSG21)。
また、変数ssの値を、ステップSG19でもっとも新しく第1のスポット光の候補として特定した画素の位置のx軸方向成分の値へと更新し、変数ttの値を、この画素のy軸方向成分の値へと更新する。
また、変数uuの値を、ステップSG19でもっとも新しく第1のスポット光の候補として特定した画素の位置のx軸方向成分の値ともっとも緑色が強いとして特定した画素の位置のx軸方向成分の値との差へと更新する。
また、変数vvの値を、ステップSG19でもっとも新しく第1のスポット光の候補として特定した画素の位置のy軸方向成分の値ともっとも緑色が強いとして特定した画素の位置のy軸方向成分の値との差へと更新する。
On the other hand, if it is determined that the minimum value of the evaluation value is greater than the value of the variable max, the spot light extraction unit 12a updates the value of max to the minimum value of the three evaluation values newly acquired in step SG20. (Step SG21).
In addition, the value of the variable ss is updated to the value of the x-axis direction component at the position of the pixel specified as the newest first spot light candidate in step SG19, and the value of the variable tt is changed to the y-axis direction of this pixel. Update to component value.
Further, the value of the variable uu is the value of the x-axis direction component of the pixel position specified as the first candidate of the first spot light in step SG19 and the x-axis direction component of the pixel position specified as having the strongest green color. Update to the difference from the value.
Further, the value of the variable vv is set to the value of the y-axis direction component of the pixel position specified most recently as the first spot light candidate in step SG19 and the value of the y-axis direction component of the pixel position specified as having the strongest green color. Update to the difference from the value.

次に、スポット光抽出部12aは、もっとも緑色が強いとして特定した画素を第2のスポット光としたとき第1のスポット光となり得る画素が、ステップSG19で既に特定したものの他に存在するか否かを判別する(ステップSG22)。そして、存在すると判別するとステップSG19へと処理を戻す。
一方、存在しないと判別すると、変数maxの現在の値MAX、変数ssの現在の値SS、変数ttの現在の値TT、変数uuの現在の値UU及び変数vvの現在の値VVを表すデータtmp2を作成してRAM13に一時記憶させ(ステップSG23)、変数max、変数ss、変数tt、変数uu及び変数vvを初期化して(図27、ステップSG24)、処理をステップSG25へと進める。
Next, the spot light extraction unit 12a determines whether there is a pixel that can be the first spot light when the pixel identified as having the strongest green color is the second spot light, in addition to those already identified in step SG19. Is discriminated (step SG22). If it is determined that it exists, the process returns to step SG19.
On the other hand, if it is determined that it does not exist, data representing the current value MAX of the variable max, the current value SS of the variable ss, the current value TT of the variable tt, the current value UU of the variable uu, and the current value VV of the variable vv. tmp2 is created and temporarily stored in the RAM 13 (step SG23), the variable max, the variable ss, the variable tt, the variable uu, and the variable vv are initialized (FIG. 27, step SG24), and the process proceeds to step SG25.

ステップSG25で、スポット光抽出部12aは、青色がもっと強いとして特定された画素を第3のスポット光とした場合に第1及び第2のスポット光となる位置関係にある2個の画素を、第1及び第2のスポット光の候補として特定する。
ただし、ステップSG25では、既にステップSG25の処理で第1のスポット光の候補として特定された画素は、第1のスポット光の候補として再び特定しないようにするものとする。また、既にステップSG25の処理で第2のスポット光の候補として特定された画素は、第2のスポット光の候補として再び特定しないようにするものとする。
In step SG25, the spot light extraction unit 12a determines two pixels that are in a positional relationship to be the first and second spot lights when the pixel specified as having a stronger blue color is the third spot light. The first and second spot light candidates are specified.
However, in step SG25, pixels that have already been specified as candidates for the first spot light in the process of step SG25 are not specified again as candidates for the first spot light. In addition, pixels that have already been identified as candidates for the second spot light in the process of step SG25 are not identified again as candidates for the second spot light.

そして、スポット光抽出部12aは、青色がもっと強いとして特定された画素、の緑評価値、もっとも新しく特定された第1のスポット光の候補の赤評価値、及び、もっとも新しく特定された第2のスポット光の候補の緑評価値を取得し、取得したこれら3個の評価値のうちの最小値が変数maxの現在より大きいか否かを判別する(ステップSG26)。そして、評価値の最小値が変数maxの値以下であると判別すると、処理をステップSG28へと進める。   The spot light extraction unit 12a then determines the green evaluation value of the pixel specified as having a stronger blue color, the red evaluation value of the first spot light candidate specified most recently, and the second specification specified most recently. The green evaluation value of the spot light candidate is acquired, and it is determined whether or not the minimum value among the three evaluation values acquired is larger than the current value of the variable max (step SG26). If it is determined that the minimum evaluation value is equal to or less than the value of the variable max, the process proceeds to step SG28.

一方、評価値がmaxより大きいと判別すると、スポット光抽出部12aは、maxの値を、ステップSG26で新しく取得した3個の評価値のうちの最小値へと更新する(ステップSG27)。
また、変数ssの値を、ステップSG25でもっとも新しく第1のスポット光の候補として特定した画素の位置のx軸方向成分の値へと更新し、変数ttの値を、この画素のy軸方向成分の値へと更新する。
また、変数uuの値を、ステップSG25でもっとも新しく第1のスポット光の候補として特定した画素の位置のx軸方向成分の値ともっとも新しく第2のスポット光の候補として特定した画素の位置のx軸方向成分の値との差へと更新する。
また、変数uuの値を、ステップSG25でもっとも新しく第1のスポット光の候補として特定した画素の位置のy軸方向成分の値ともっとも新しく第2のスポット光の候補として特定した画素の位置のy軸方向成分の値との差へと更新する。
On the other hand, if it is determined that the evaluation value is greater than max, the spot light extraction unit 12a updates the value of max to the minimum value among the three evaluation values newly acquired in step SG26 (step SG27).
Further, the value of the variable ss is updated to the value of the x-axis direction component at the position of the pixel specified as the first candidate for the first spot light in step SG25, and the value of the variable tt is changed to the y-axis direction of this pixel. Update to component value.
Further, the value of the variable uu is set to the value of the x-axis direction component of the pixel position newly specified as the first spot light candidate in step SG25 and the position of the pixel newly specified as the second spot light candidate. Update to the difference from the x-axis direction component value.
Further, the value of the variable uu is set to the value of the y-axis direction component of the position of the pixel newly specified as the first spot light candidate in step SG25 and the position of the pixel specified as the newest candidate of the second spot light. Update to the difference from the y-axis direction component value.

次に、スポット光抽出部12aは、もっとも青色が強いとして特定した画素を第3のスポット光としたとき第1のスポット光となり得る画素が、ステップSG25で既に特定したものの他に存在するか否かを判別する(ステップSG28)。そして、存在すると判別するとステップSG25へと処理を戻す。   Next, the spot light extraction unit 12a determines whether there is a pixel that can be the first spot light when the pixel identified as having the strongest blue color is the third spot light in addition to those already identified in step SG25. Is determined (step SG28). If it is determined that it exists, the process returns to step SG25.

一方、存在しないと判別すると、スポット光抽出部12aは、変数maxの現在の値MAX、変数ssの現在の値SS、変数ttの現在の値TT、変数uuの現在の値UU及び変数vvの現在の値VVを表すデータtmp3を作成する。そして、データtmp1、tmp2及びtmp3のうち、表す値MAXが最大の値をとっているデータを特定し、特定したデータにより表される値SS及び値TTの組により示される座標(SS,TT)にある画素を、第1のスポット光と決定する(ステップSG29)。   On the other hand, if the spot light extraction unit 12a determines that it does not exist, the spot light extraction unit 12a sets the current value MAX of the variable max, the current value SS of the variable ss, the current value TT of the variable tt, the current value UU of the variable uu, and the variable vv. Data tmp3 representing the current value VV is created. Then, among the data tmp1, tmp2, and tmp3, the data that represents the maximum value MAX is specified, and the coordinates (SS, TT) indicated by the set of the value SS and the value TT represented by the specified data Is determined as the first spot light (step SG29).

また、ステップSG29でスポット光抽出部12aは、特定したデータにより表される値SS及び値UUの和と値TT及び値VVの和との組により示される座標((SS+UU),(TT+VV))にある画素を、第2のスポット光と決定する。また、特定したデータにより表される値SS及び値UUの差と値TT及び値VVの差との組により示される座標((SS−UU),(TT−VV))にある画素を、第3のスポット光と決定する。   In step SG29, the spot light extraction unit 12a causes the coordinates ((SS + UU), (TT + VV)) indicated by a set of the sum of the value SS and the value UU represented by the specified data and the sum of the value TT and the value VV. Is determined as the second spot light. Further, the pixel at the coordinates ((SS−UU), (TT−VV)) indicated by the set of the difference between the value SS and the value UU and the difference between the value TT and the value VV represented by the specified data is 3 spot light.

スポット光抽出処理として上述のステップSG1〜SG29の処理を行うことにより、発光部4が発するスポット光以外の光が表示部3の表示画面上に当たることによる誤動作が回避される。   By performing the above-described steps SG1 to SG29 as the spot light extraction process, malfunction due to light other than the spot light emitted from the light emitting unit 4 hitting the display screen of the display unit 3 is avoided.

具体的に説明すると、例えば図28に示すように、発光部4が発するスポット光以外の光が作る青色で輝度200の点PA及び緑色で輝度210の点PBと、発光部4が発するスポット光が作る青色で輝度160の点PC、赤色で輝度180の点PD、及び緑色で輝度200の点PEとが表示部3の表示画面上に形成されたとする。この場合に、この描画システムがスポット光抽出処理としてステップSF1〜SF8の処理を行った場合は、点PA、点PB及び点PDの組が発光部4のスポット光であると誤って決定されることがあり得る。一方、スポット光抽出処理としてステップSG1〜SG29の処理を行った場合は、点PC、点PD及び点PEの組が発光部4のスポット光として正しく決定される。   More specifically, for example, as shown in FIG. 28, a point PA having a blue luminance 200 and a point PB having a green luminance 210 generated by light other than the spot light emitted by the light emitting unit 4, and a spot light emitted by the light emitting unit 4. Are formed on the display screen of the display unit 3 with a blue point PC having a luminance of 160, a red point PD having a luminance of 180, and a green point having a luminance of 200. In this case, when the drawing system performs the processes of steps SF1 to SF8 as the spot light extraction process, it is erroneously determined that the set of the points PA, PB, and PD is the spot light of the light emitting unit 4. It can happen. On the other hand, when the processes of steps SG1 to SG29 are performed as the spot light extraction process, the set of the point PC, the point PD, and the point PE is correctly determined as the spot light of the light emitting unit 4.

発光部4が複数発するスポット光の色は、互いに同一の色であってもよい。具体的には、例えば、図29(a)に示すような、同一色、同一輝度(なお、図29においては、円の面積が輝度の大きさを表すものとする)のスポット3個が直線上にほぼ等間隔に並ぶようなパターンであってもよい。また、図29(b)に示すように、同一色で互いに異なる輝度のスポット3個が直線上にほぼ等間隔に並ぶようなパターンであってもよい。また、図29(c)に示すような、図29(a)のパターンに加え更に、3個のスポットが並ぶ直線に垂直で、3個のスポットのうち中央のスポットを通るような直線上に並ぶ4個目のスポットを含むパターンであってもよい。   The colors of the spot lights emitted by the light emitting unit 4 may be the same color. Specifically, for example, as shown in FIG. 29A, three spots of the same color and the same luminance (in FIG. 29, the area of a circle represents the size of the luminance) are straight lines. The pattern may be arranged on the top at almost equal intervals. In addition, as shown in FIG. 29B, a pattern in which three spots of the same color and different luminance are arranged on a straight line at almost equal intervals may be used. Further, in addition to the pattern of FIG. 29 (a), as shown in FIG. 29 (c), it is perpendicular to the straight line where three spots are arranged, and on a straight line passing through the center spot among the three spots. It may be a pattern including a fourth spot arranged.

発光部4が発するスポット光が、図29(a)に示すように、第1のスポット光と、第1のスポット光を中心として互いに点対称の位置に来るように配置された第2、第3のスポット光とからなるパターンを形成する場合、この描画システムは、例えば、スポット光抽出処理として図30に示す処理を行うことにより、スポット光のパターンを抽出してもよい。(なお、以下では、理解を容易にするため、第1〜第3のスポット光はいずれも赤色であるものとする。)   As shown in FIG. 29A, the spot light emitted from the light emitting unit 4 is arranged so that the first spot light and the first and second spot lights are positioned symmetrically with respect to each other about the first spot light. In the case of forming a pattern composed of three spot lights, the drawing system may extract the spot light pattern by performing, for example, the process shown in FIG. 30 as the spot light extraction process. (Hereinafter, in order to facilitate understanding, it is assumed that the first to third spot lights are all red.)

すなわち、スポット光抽出処理を開始すると、まず、スポット光抽出部12aは、変数Rmax、変数x及び変数yの使用を宣言し、これら3個の変数をそれぞれ初期化する(図30、ステップSH1)。そして、上述のステップS211〜S214の処理と実質的に同一の処理を行うことにより、赤色がもっとも強い画素の座標及び赤評価値を取得する(ステップSH2)。なお、ステップSH2では、赤色成分の強さに代えて、上述の赤評価値を用いるものとする。もっとも、赤色成分の強さの値を用いることも差し支えない。 That is, when the spot light extraction process is started, first, the spot light extraction unit 12a declares the use of the variable R max , the variable x, and the variable y, and initializes these three variables respectively (FIG. 30, step SH1). ). Then, by performing substantially the same processing as the processing in steps S211 to S214 described above, the coordinates and red evaluation value of the pixel having the strongest red color are acquired (step SH2). In step SH2, the above-described red evaluation value is used instead of the intensity of the red component. However, the intensity value of the red component can be used.

次に、スポット光抽出部12aは、RAM13に格納された画像データを構成する画素のうち、ステップSH2で座標が取得された画素を除く画素について、ステップSH2の処理と実質的に同一の処理を行うことにより、赤色が2番目に強い画素の座標及び赤評価値を取得する(ステップSH3)。   Next, the spot light extraction unit 12a performs substantially the same processing as the processing in step SH2 on the pixels constituting the image data stored in the RAM 13 except for the pixels whose coordinates are acquired in step SH2. As a result, the coordinates of the pixel having the second strongest red color and the red evaluation value are acquired (step SH3).

ただし、ステップSH3では、ステップSH3の処理の対象となる画素の元来の画素値に重み関数を乗じた値を、画素値であるものとして扱う。この重み関数は、例えば図31に示すような関数であるものとする。すなわち、ステップSH2で取得された座標からの距離が一定値以下である画素の画素値を元来の値より小さくし、また、ステップSH2で取得された座標からの距離が一定値以下である画素については、ステップSH2で取得された座標に近いものほど、乗じた後の画素値の元来の画素値に対する比率を小さくするような関数であるものとする。   However, in step SH3, a value obtained by multiplying the original pixel value of the pixel to be processed in step SH3 by the weight function is treated as a pixel value. This weight function is assumed to be a function as shown in FIG. 31, for example. That is, the pixel value of the pixel whose distance from the coordinate acquired in step SH2 is less than a certain value is made smaller than the original value, and the pixel whose distance from the coordinate acquired in step SH2 is less than a certain value Is a function that reduces the ratio of the pixel value after multiplication to the original pixel value as the coordinates closer to the coordinates acquired in step SH2.

次に、スポット光抽出部12aは、RAM13に格納された画像データを構成する画素のうち、ステップSH2又はSH3で座標が取得された2個の画素を除く画素について、ステップSH3の処理と実質的に同一の処理を行うことにより、赤色が3番目に強い画素の座標及び赤評価値を取得する(ステップSH4)。   Next, the spot light extraction unit 12a substantially performs the process of step SH3 on the pixels constituting the image data stored in the RAM 13 except for the two pixels whose coordinates are acquired in step SH2 or SH3. By performing the same process, the coordinates of the pixel whose red is the third strongest and the red evaluation value are acquired (step SH4).

ただし、ステップSH4で処理の対象となる画素の元来の画素値に乗じる重み関数は、ステップSH3で取得された座標からの距離が一定値以下である画素の画素値を元来の値より小さくし、また、ステップSH3で取得された座標からの距離が一定値以下である画素については、ステップSH3で取得された座標に近いものほど、乗じた後の画素値の元来の画素値に対する比率を小さくするような関数であるものとする。   However, the weight function that multiplies the original pixel value of the pixel to be processed in step SH4 is such that the pixel value of the pixel whose distance from the coordinates acquired in step SH3 is equal to or smaller than the original value is smaller than the original value. For pixels whose distance from the coordinates acquired in step SH3 is less than or equal to a certain value, the closer to the coordinates acquired in step SH3, the higher the ratio of the pixel value after multiplication to the original pixel value It is assumed that the function is such that

次に、スポット光抽出部12aは、ステップSH2〜SH4で赤評価値及び座標を取得した3個の画素を用いて、上述したステップSG13〜SG29の処理と実質的に同一の処理を行うことにより、第1〜第3のスポット光の位置を決定する(ステップSH5)。   Next, the spot light extraction unit 12a performs substantially the same processing as the processing of steps SG13 to SG29 described above using the three pixels whose red evaluation values and coordinates are acquired in steps SH2 to SH4. The positions of the first to third spot lights are determined (step SH5).

ただし、ステップSH5でスポット光抽出部12aは、もっとも緑色が強いとされた画素を用いる代わりに、2番目に赤色が強いとされた画素を用いる。また、もっとも青色が強いとされた画素を用いる代わりに、3番目に赤色が強いされた画素を用いる。また、緑評価値及び青評価値の代わりに、赤評価値(または、赤色成分の強さ)を用いる。   However, in step SH5, the spot light extraction unit 12a uses the pixel whose red is the second strongest instead of the pixel whose green is the strongest. Further, instead of using the pixel with the strongest blue color, the pixel with the third strongest red color is used. Further, instead of the green evaluation value and the blue evaluation value, the red evaluation value (or the intensity of the red component) is used.

(第4の実施の形態)
ステップS3の処理により表示部3の表示画面上で繰り返し輝点が表示される結果、この表示画面上に当たったスポット光の位置が移動すれば、上述の各実施の形態にかかる描画システムが表示する輝点も移動する。
しかし、スポット光の移動が高速である場合、これらの描画システムが表示する輝点の移動が視覚的にも不連続になって、輝点の移動を視認するユーザにとり不自然に感じられる場合があり得る。
このような場合、輝点の移動量について補間処理を行うことにより視覚上輝点が滑らかに移動するようにすることができる。以下では、補間処理を行うことにより輝点の移動を滑らかにする、この発明の第4の実施の形態を説明する。
(Fourth embodiment)
As a result of repeatedly displaying bright spots on the display screen of the display unit 3 in the process of step S3, if the position of the spot light hit on the display screen moves, the drawing system according to each of the above-described embodiments displays. The bright spot to move also moves.
However, when the spot light moves at high speed, the movement of the bright spots displayed by these drawing systems may be visually discontinuous, which may seem unnatural to the user who visually recognizes the movement of the bright spots. possible.
In such a case, it is possible to smoothly move the bright spot visually by performing interpolation processing on the movement amount of the bright spot. In the following, a fourth embodiment of the present invention will be described in which the bright spot is moved smoothly by performing an interpolation process.

この描画システムは、図32に示す構成を有している。すなわち、この描画システムは、図2に示す構成と実質的に同一の物理的構成を有し、更に、画像解析部12が、CPU等からなり後述する処理を行う補間処理部12cと、水晶発振器等からなるタイマTを備える。タイマTは、現在時刻を表す時刻情報を生成し、補間処理部12cへと連続的に供給する。   This drawing system has a configuration shown in FIG. That is, this drawing system has a physical configuration substantially the same as the configuration shown in FIG. 2, and further, the image analysis unit 12 is composed of a CPU or the like, an interpolation processing unit 12 c that performs processing to be described later, and a crystal oscillator The timer T which consists of etc. is provided. The timer T generates time information indicating the current time and continuously supplies it to the interpolation processing unit 12c.

一方、この描画システムのRAM13は、スポット光抽出処理により抽出されたスポットの位置の座標を、最も新しく抽出された方から2個分記憶するものとする。そして、この描画システムは、座標変換処理(ステップS22の処理)を終えると、ステップS3に処理を移す前に、図33に示す補間処理を行う。   On the other hand, the RAM 13 of this drawing system stores two coordinates of the position of the spot extracted by the spot light extraction process from the most recently extracted one. Then, after completing the coordinate conversion process (the process of step S22), the drawing system performs the interpolation process shown in FIG. 33 before moving the process to step S3.

すなわち、この描画システムがステップS22で座標(xdisp,ydisp)を求めると、ステップS3に処理を移す前に、補間処理部12cが、タイマTから供給される時刻情報を取得する(図33、ステップSI1)。そして、最も新しく求めた座標(xdisp,ydisp)と、最も新しく取得した時刻情報とを、互いに対応付けてRAM13に記憶させる。 That is, when the drawing system obtains the coordinates (x disp , y disp ) in step S22, the interpolation processing unit 12c acquires time information supplied from the timer T before moving to step S3 (FIG. 33). Step SI1). The most recently obtained coordinates (x disp , y disp ) and the most recently acquired time information are stored in the RAM 13 in association with each other.

次に、補間処理部12cは、もっとも新しく取得した方から2点分のスポット(以下では、nを自然数として、n個目のスポットと(n+1)個目のスポットであるものとして説明する)の座標と、これら2点の座標に対応付けられているn番目及び(n+1)番目の時刻情報とを読み出し、読み出した座標及び時刻情報に基づいて数式15及び数式16の各右辺の値を求めることによって、(n+1)番目に時刻情報を取得した時刻におけるスポットの移動速度のx軸方向成分vxn+1及びy軸方向成分vyn+1を求め、求めた移動速度vxn+1及びvyn+1の値を、最も新しく取得した時刻情報に対応付けて、RAM13に記憶させる(ステップSI2)。 Next, the interpolation processing unit 12c has two spots from the most recently acquired one (in the following description, n is a natural number and will be described as an nth spot and an (n + 1) th spot). The coordinates and the nth and (n + 1) th time information associated with the coordinates of these two points are read out, and the values of the right sides of Equation 15 and Equation 16 are obtained based on the read coordinates and time information. To obtain the x-axis direction component vx n + 1 and the y-axis direction component vy n + 1 of the moving speed of the spot at the time when the (n + 1) th time information is acquired, and the values of the calculated moving speeds vx n + 1 and vy n + 1 are the newest. It is stored in the RAM 13 in association with the acquired time information (step SI2).

(数15)
vxn+1=(xn+1−x)/(tn+1−t
(ただし、xn+1は(n+1)番目に取得したスポットの座標のx軸方向成分、xはn番目に取得したスポットの座標のx軸方向成分、tn+1は(n+1)番目に取得した現在時刻、tはn番目に取得した現在時刻)
(Equation 15)
vx n + 1 = (x n + 1 -x n) / (t n + 1 -t n)
(Where x n + 1 is the x-axis direction component of the coordinates of the (n + 1) -th acquired spot, x n is the x-axis direction component of the coordinates of the n-th acquired spot, and t n + 1 is the (n + 1) -th acquired current position Time, t n is the nth current time acquired)

(数16)
vyn+1=(yn+1−y)/(tn+1−t
(ただし、yn+1は(n+1)番目に取得したスポットの座標のy軸方向成分、yはn番目に取得したスポットの座標のy軸方向成分)
(Equation 16)
vy n + 1 = (y n + 1 −y n ) / (t n + 1 −t n )
(Where y n + 1 is the y-axis direction component of the coordinates of the (n + 1) th acquired spot, and y n is the y axis direction component of the coordinates of the nth acquired spot)

次に、補間処理部12cは、数式17により示される補間用の関数X(t;t<t≦tn+1)及び数式18により示される補間用の関数Y(t;t<t≦tn+1)を特定する(ステップSI3)。
関数X(t)は、時刻tからtn+1までの間にスポットの座標のx軸方向成分の推測値、関数Y(t)は、時刻tからtn+1までの間にスポットの座標のy軸方向成分の推測値である。そして、座標(X(t),Y(t))は時刻tにおけるスポットの位置を表し、座標(X(tn+1),Y(tn+1))は時刻tn+1におけるスポットの位置を表す。
Then, the interpolation processing unit 12c, a function X for interpolation represented by formula 17 (t; t n <t ≦ t n + 1) and function for interpolation represented by formula 18 Y (t; t n < t ≦ t n + 1 ) is specified (step SI3).
Function X (t) is an estimated value of the x-axis direction component of the spot coordinates during the period from the time t n to t n + 1, the function Y (t) is the period from the time t n to t n + 1 spot coordinates This is an estimated value of the y-axis direction component. The coordinates (X (t n ), Y (t n )) represent the spot position at time t n , and the coordinates (X (t n + 1 ), Y (t n + 1 )) represent the spot position at time t n + 1 . Represent.

(数17)
X(t;t<t≦tn+1)={−(tn+1−t)・vx}/{2・(tn+1−t)}
+{(t−t)・vxn+1}/{2・(tn+1−t)}
+xn+1−{vxn+1・(tn+1−t)/2}
(ただし、vx=0)
(Equation 17)
X (t; t n <t ≦ t n + 1 ) = {− (t n + 1 −t) 2 · vx n } / {2 · (t n + 1 −t n )}
+ {(T n −t) 2 · vx n + 1 } / {2 · (t n + 1 −t n )}
+ X n + 1 − {vx n + 1 · (t n + 1 −t n ) / 2}
(However, vx 0 = 0)

(数18)
Y(t;t<t≦tn+1)={−(tn+1−t)・vy}/{2・(tn+1−t)}
+{(t−t)・vyn+1}/{2・(tn+1−t)}
+yn+1−{vyn+1・(tn+1−t)/2}
(ただし、vy=0)
(Equation 18)
Y (t; t n <t ≦ t n + 1 ) = {− (t n + 1 −t) 2 · by n } / {2 · (t n + 1 −t n )}
+ {(T n −t) 2 · by n + 1 } / {2 · (t n + 1 −t n )}
+ Y n + 1 − {vy n + 1 · (t n + 1 −t n ) / 2}
(However, vy 0 = 0)

次に、補間処理部12cは、座標(X(t),Y(t))に位置する点の時刻tからtn+1までの移動の軌跡を表す曲線を特定し、この曲線を表すデータを作成してRAM13に格納し(ステップSI4)、補間処理を終えてステップS3に処理を移す。 Then, the interpolation processing unit 12c identifies a curve representing the locus of movement of the coordinate from the time t n of a point located (X (t), Y ( t)) to t n + 1, the data representing this curve It is created and stored in the RAM 13 (step SI4), the interpolation process is finished, and the process proceeds to step S3.

補間処理が終わりステップS3に処理が移ると、中央制御部11は、座標(xdisp,ydisp)を読み出す代わりに、ステップSI4でRAM13に格納された、曲線を表すデータをRAM13より読み出す。そして、表示部3の表示画面上に、このデータが表す曲線を表示するよう、表示部3に指示する。表示部3は、この指示に従った曲線を表示画面上に表示する。
なお、関数X(t)及びY(t)は上述のものに限られず、軌跡が連続する曲線となるような関数であればよい。
When the interpolation process ends and the process moves to step S3, the central control unit 11 reads data representing the curve stored in the RAM 13 in step SI4 from the RAM 13 instead of reading the coordinates (x disp , y disp ). Then, the display unit 3 is instructed to display the curve represented by this data on the display screen of the display unit 3. The display unit 3 displays a curve according to this instruction on the display screen.
It should be noted that the functions X (t) and Y (t) are not limited to those described above, and any function may be used as long as the locus becomes a continuous curve.

(第4の実施の形態の変形例)
なお、RAM13は、スポット光抽出処理により抽出されたスポットの位置の座標を、最も新しく抽出された方から3個分以上記憶してもよい。
また、この描画システムは、スポットの位置の異なるタイミングで複数回抽出した結果に基づいて、これら複数の抽出結果により代表されるスポットの位置を決定し、決定された位置の座標を、座標変換処理以降の処理において、座標(xspot,yspot)に代えて用いるようにしてもよい。こうすることにより、ユーザが発光部4を操作してスポット光の位置を定める際の手ぶれを軽減することが可能となる。
(Modification of the fourth embodiment)
The RAM 13 may store three or more coordinates of the spot positions extracted by the spot light extraction process from the most recently extracted one.
Further, the drawing system determines the position of the spot represented by the plurality of extraction results based on the result extracted a plurality of times at different timings of the spot position, and converts the coordinates of the determined position to the coordinate conversion process. In the subsequent processing, the coordinates (x spot , y spot ) may be used instead of the coordinates (x spot , y spot ). By doing so, it is possible to reduce camera shake when the user operates the light emitting unit 4 to determine the position of the spot light.

具体的には、スポット光抽出部12aは、例えば図34に示す処理を行うようにすればよい。(なお、この描画システムのRAM13は、スポット光抽出処理により抽出されたスポットの位置の座標を、最も新しく抽出された方からp個分(pは十分大きな正の整数)記憶するものとする。)   Specifically, the spot light extraction unit 12a may perform the process shown in FIG. 34, for example. (Note that the RAM 13 of this drawing system stores the coordinates of the position of the spot extracted by the spot light extraction process from the most recently extracted one (p is a sufficiently large positive integer). )

すなわち、スポット光抽出部12aがステップS21で座標(xspot,yspot)を求めると、スポット光抽出部12aは、ステップS22に処理を移す前に、まず、もっとも新しく取得した方からp点分のスポットの座標を読み出し、また、変数mの使用を宣言し、変数mに値0を代入する(図34、ステップSJ1)。 That is, when the spot light extraction unit 12a obtains the coordinates (x spot , y spot ) in step S21, the spot light extraction unit 12a first calculates p points from the most recently acquired one before moving the processing to step S22. , The use of the variable m is declared, and the value 0 is substituted into the variable m (step SJ1 in FIG. 34).

次に、スポット光抽出部12aは変数mをインクリメントし(ステップSJ2)、座標変換処理で最も新しく取得した方からM番目(Mは変数mの現在の値)のスポットと(M−1)番目のスポットとの間の距離が所定の静止判別用の閾値を超えているか否かを判別する(ステップSJ3)。   Next, the spot light extraction unit 12a increments the variable m (step SJ2), and the M-th spot (M is the current value of the variable m) and the (M-1) -th from the most recently acquired coordinate conversion process. It is determined whether or not the distance to the spot exceeds a predetermined stationary determination threshold (step SJ3).

そして、静止判別用の閾値を超えていないと判別すると、スポット光抽出部12aは、処理をステップSJ2に戻す。一方、静止判別用の閾値を超えていると判別すると、座標変換部12bが最も新しく取得した(M−1)個のスポットの座標のx軸方向成分の平均値xave及びy軸方向成分の平均値yaveを求める(ステップSJ4)。 When it is determined that the threshold value for determining stillness is not exceeded, the spot light extraction unit 12a returns the process to step SJ2. On the other hand, if it is determined that the threshold for stillness determination is exceeded, the coordinate conversion unit 12b obtains the average value x ave of the x-axis direction components of the coordinates of the (M−1) spots acquired most recently and the y-axis direction component. An average value y ave is obtained (step SJ4).

スポット光抽出部12aが平均値xave及びyaveを求めると、座標変換部12bは、座標(xave,yave)を、スポット光抽出処理によって分かったスポットの座標であるものとして扱い、座標変換処理を行う。 When the spot light extraction unit 12a calculates the average values x ave and y ave , the coordinate conversion unit 12b treats the coordinates (x ave , y ave ) as being the coordinates of the spot found by the spot light extraction process, and coordinates Perform the conversion process.

なお、スポット光抽出部12aは、ステップS21で最も新しくRAM13に格納した座標(xspot,yspot)の値を、ステップSJ4で最も新しく求めた平均値xave及びyaveにより表される座標(xave,yave)の値へと書き換えるようにしてもよい。 The spot light extraction unit 12a uses the coordinates (x spot , y spot ) newly stored in the RAM 13 in step S21 as coordinates (x spot , y ave ) calculated by the average values x ave and y ave most recently obtained in step SJ4. x ave , y ave ) may be rewritten.

あるいは、スポット光抽出部12aは、例えば図35に示す処理を行うようにしてもよい。   Or you may make it the spot light extraction part 12a perform the process shown, for example in FIG.

すなわち、スポット光抽出部12aがステップS21で座標(xspot,yspot)を求めると、スポット光抽出部12aは、ステップS22に処理を移す前に、まず、もっとも新しく取得した方からp点分のスポットの座標を読み出し、また、変数mの使用を宣言し、変数mに値1を代入する(図35、ステップSK1)。 That is, when the spot light extraction unit 12a obtains the coordinates (x spot , y spot ) in step S21, the spot light extraction unit 12a first calculates p points from the most recently acquired one before moving the processing to step S22. , The use of the variable m is declared, and the value 1 is substituted for the variable m (FIG. 35, step SK1).

次に、スポット光抽出部12aは、変数mの値が所定値Nより小さいか否かを判別し(ステップSK2)、N以上であると判別すると、処理をステップSK6に移す。   Next, the spot light extraction unit 12a determines whether or not the value of the variable m is smaller than the predetermined value N (step SK2). If it is determined that the value is equal to or greater than N, the process proceeds to step SK6.

一方、Nより小さいと判別すると、スポット光抽出部12aは、座標変換部12bが最も新しく取得したM個(Mは変数mの現在の値)のスポットの座標のx軸方向成分の平均値xave(M)及びy軸方向成分の平均値yave(M)を求める(ステップSK3)。そして、求めた平均値の組が示す座標(xave(M),yave(M))と1番目のスポットとの間の距離が所定の静止判別用の閾値を超えているか否かを判別する(ステップSK4)。 On the other hand, if it is determined that the value is smaller than N, the spot light extraction unit 12a determines the average value x of the x-axis direction components of the M (M is the current value of the variable m) spot coordinates acquired most recently by the coordinate conversion unit 12b. The average value y ave (M) of ave (M) and the y-axis direction component is obtained (step SK3). Then, it is determined whether or not the distance between the coordinates (x ave (M) , y ave (M) ) indicated by the obtained average value pair and the first spot exceeds a predetermined threshold for determining stillness. (Step SK4).

ステップSK4で、静止判別用の閾値を超えていないと判別すると、スポット光抽出部12aは変数mをインクリメントし(ステップSK5)、処理をステップSK2に戻す。一方、静止判別用の閾値を超えていると判別すると、座標変換部12bが最も新しく取得した(M−1)個のスポットの座標のx軸方向成分の平均値xave(M−1)及びy軸方向成分の平均値yave(M−1)により表される座標(xave(M−1),yave(M−1))を、スポット光抽出処理によって分かったスポットの座標として決定し(ステップSK6)、座標変換処理を行う。 If it is determined in step SK4 that the threshold for stillness determination has not been exceeded, the spot light extraction unit 12a increments the variable m (step SK5), and the process returns to step SK2. On the other hand, if it is determined that the threshold for stillness determination is exceeded, the average value x ave (M−1) of the x-axis direction components of the coordinates of the (M−1) spots newly acquired by the coordinate conversion unit 12b and The coordinates (x ave (M-1) , y ave (M-1) ) represented by the average value y ave (M-1) of the y-axis direction component are determined as the coordinates of the spot found by the spot light extraction process. (Step SK6), coordinate conversion processing is performed.

あるいは、スポット光抽出部12aは、ステップSJ1〜SJ4の処理やステップSK1〜SK6の処理に代えて、図36に示す処理を行うようにしてもよい。
すなわち、スポット光抽出部12aがステップS21で座標(xspot,yspot)を求めると、スポット光抽出部12aは、ステップS22に処理を移す前に、もっとも新しく取得した方からp点分のスポットの座標を読み出し、また、変数m及び変数fの使用を宣言し、変数m及び変数fに値0を代入する(図36、ステップSL1)。
Alternatively, the spot light extraction unit 12a may perform the process shown in FIG. 36 instead of the process of steps SJ1 to SJ4 and the process of steps SK1 to SK6.
That is, when the spot light extraction unit 12a obtains the coordinates (x spot , y spot ) in step S21, the spot light extraction unit 12a determines p spots from the most recently acquired one before moving to step S22. And the use of the variable m and the variable f are declared, and the value 0 is assigned to the variable m and the variable f (FIG. 36, step SL1).

次に、スポット光抽出部12aは変数mをインクリメントし(ステップSL2)、座標変換処理で最も新しく取得した方からM番目(Mは変数mの現在の値)のスポットと(M−1)番目のスポットとの間の距離が所定の静止判別用の閾値以上であるか否かを判別する(ステップSL3)。   Next, the spot light extraction unit 12a increments the variable m (step SL2), and the M-th spot (M is the current value of the variable m) and the (M-1) -th from the most recently acquired coordinate conversion process. It is determined whether or not the distance to the spot is equal to or greater than a predetermined stationary determination threshold (step SL3).

そして、閾値を超えていないと判別すると、スポット光抽出部12aは、処理をステップSL2に戻す。一方、閾値を超えていると判別すると、現在の変数mの値MをRAM13に一時記憶させ(ステップSL4)、変数fをインクリメントして(ステップSL5)、変数fの値が所定値に達したか否かを判別する(ステップSL6)。   And if it discriminate | determines that it does not exceed the threshold value, the spot light extraction part 12a will return a process to step SL2. On the other hand, if it is determined that the threshold value is exceeded, the current value m of the variable m is temporarily stored in the RAM 13 (step SL4), the variable f is incremented (step SL5), and the value of the variable f reaches a predetermined value. (Step SL6).

変数fが所定値に達していないと判別すると、スポット光抽出部12aは処理をステップSL2に戻し、達していると判別すると、座標変換部12bが最も新しく取得した(M−1)個のスポットのうち、ステップSL4で一時記憶した変数mの値により示されるスポット(すなわち、例えば、一時記憶した値が「3」及び「7」であれば、最も新しく取得した方から3番目及び7番目のスポット)を除いたスポットについて、これらのスポット座標のx軸方向成分の平均値xave及びy軸方向成分の平均値yaveを求める(ステップSL7)。 When it is determined that the variable f has not reached the predetermined value, the spot light extraction unit 12a returns the process to step SL2, and when it is determined that the variable f has been reached, the coordinate conversion unit 12b obtains the most recently acquired (M−1) spots. Of the spots indicated by the value of the variable m temporarily stored in step SL4 (ie, if the temporarily stored values are “3” and “7”, for example, the third and seventh from the most recently acquired ones) For the spots excluding (spots), the average value x ave of the x-axis direction components and the average value y ave of the y-axis direction components of these spot coordinates are obtained (step SL7).

スポット光抽出部12aが平均値xave及びyaveを求めると、座標変換部12bは、座標(xave,yave)を、スポット光抽出処理によって分かったスポットの座標であるものとして扱い、座標変換処理を行う。 When the spot light extraction unit 12a calculates the average values x ave and y ave , the coordinate conversion unit 12b treats the coordinates (x ave , y ave ) as being the coordinates of the spot found by the spot light extraction process, and coordinates Perform the conversion process.

あるいは、スポット光抽出部12aは、ステップSL1〜SL7の処理に代えて、図37に示す処理を行うようにしてもよい。   Alternatively, the spot light extraction unit 12a may perform the process shown in FIG. 37 instead of the processes of steps SL1 to SL7.

すなわち、スポット光抽出部12aがステップS21で座標(xspot,yspot)を求めると、スポット光抽出部12aは、ステップS22に処理を移す前に、まず、もっとも新しく取得した方からp点分のスポットの座標を読み出し、また、変数m及び変数fの使用を宣言し、変数mに値1を代入し、変数fに値0を代入する(図37、ステップSM1)。また、スポット光抽出部12aは、p個のフラグの使用も宣言する。 That is, when the spot light extraction unit 12a obtains the coordinates (x spot , y spot ) in step S21, the spot light extraction unit 12a first calculates p points from the most recently acquired one before moving the processing to step S22. , The use of the variable m and the variable f is declared, the value 1 is substituted for the variable m, and the value 0 is substituted for the variable f (FIG. 37, step SM1). The spot light extraction unit 12a also declares the use of p flags.

次に、スポット光抽出部12aは、変数mの値が所定値Nより小さいか否かを判別し(ステップSM2)、N以上であると判別すると、処理をステップSM10に移す。   Next, the spot light extraction unit 12a determines whether or not the value of the variable m is smaller than the predetermined value N (step SM2). If it is determined that the value is equal to or greater than N, the process proceeds to step SM10.

一方、Nより小さいと判別すると、スポット光抽出部12aは、M番目(Mは変数mの現在の値)のフラグをセットし(ステップSM3)、座標変換部12bが最も新しく取得したM個のスポットの座標のx軸方向成分の平均値xave(M)及びy軸方向成分の平均値yave(M)を求める(ステップSM4)。 On the other hand, if it is determined that the value is smaller than N, the spot light extraction unit 12a sets an Mth flag (M is the current value of the variable m) (step SM3), and the M number of newly acquired coordinates by the coordinate conversion unit 12b. the average value y ave of the average value x ave (M) and y-axis direction component of the x-axis direction component of the spot coordinate (M) (step SM4).

そして、スポット光抽出部12aは、ステップSM4で求めた平均値の組が示す座標(xave(M),yave(M))と1番目のスポットとの間の距離が所定の静止判別用の閾値を超えているか否かを判別する(ステップSM5)。 Then, the spot light extraction unit 12a uses a distance between the coordinates (x ave (M) , y ave (M) ) indicated by the set of average values obtained in step SM4 and the first spot for a predetermined stationary determination. It is determined whether or not the threshold value is exceeded (step SM5).

ステップSM5で、静止判別用の閾値を超えていないと判別すると、スポット光抽出部12aは変数fに値0を代入し(ステップSM6)、変数mをインクリメントして(ステップSM7)、処理をステップSM2に戻す。
一方、静止判別用の閾値を超えていると判別すると、スポット光抽出部12aは、M番目のフラグをリセットし、変数fをインクリメントする(ステップSM8)。そして、変数fの値が所定値N以上であるか否かを判別し(ステップSM9)、Nより小さいと判別すると、処理をステップSM7に移す。
If it is determined in step SM5 that the threshold for stillness determination has not been exceeded, the spot light extraction unit 12a substitutes the value 0 for the variable f (step SM6), increments the variable m (step SM7), and the processing is stepped. Return to SM2.
On the other hand, if it is determined that the threshold value for determining the stillness is exceeded, the spot light extraction unit 12a resets the Mth flag and increments the variable f (step SM8). Then, it is determined whether or not the value of the variable f is greater than or equal to a predetermined value N (step SM9). If it is determined that the value is smaller than N, the process proceeds to step SM7.

一方、ステップSM9で、変数fの値がN以上であると判別すると、座標変換部12bが最も新しく取得したM個のスポットのうち、セットされているフラグに対応するスポット(すなわち、例えば、M番目までのフラグのうち3番目及び7番目のフラグがリセットされていて他のフラグがセットされていれば、最も新しく取得した方から3番目及び7番目のスポット以外のスポット)の座標のx軸方向成分の平均値xave及びy軸方向成分の平均値yaveを求める。そして、求めた平均値により表される座標(xave,yave)を、スポット光抽出処理によって分かったスポットの座標として決定し(ステップSM10)、座標変換処理を行う。 On the other hand, if it is determined in step SM9 that the value of the variable f is greater than or equal to N, the spot corresponding to the set flag (ie, M, for example, among the M spots acquired most recently by the coordinate conversion unit 12b). If the 3rd and 7th flags are reset and the other flags are set, the x-axis of the coordinates of the most recently acquired spot (spots other than the 3rd and 7th spots) The average value x ave of the direction component and the average value y ave of the y-axis direction component are obtained. Then, the coordinates (x ave , y ave ) represented by the obtained average value are determined as the coordinates of the spot found by the spot light extraction process (step SM10), and the coordinate conversion process is performed.

また、発光部4は、操作者の操作に従い、複数種類の色のうち操作者が選択した色のスポット光1個を発する構成を有していてもよい。そして、この描画システムは、発光部4が発する各々の色を識別したり、識別結果に基づいて自己が行う処理の内容を決定したりしてよい。
たとえば、発光部4が、赤色、緑色及び青色の3色のうちユーザが選択した1色を発するよう構成されている場合、この描画システムは、発光部4をマウスとして機能させるために、赤色のスポットを抽出したときはマウスカーソルの移動が指示されたと判別し、緑色のスポットを抽出したときはマウスの左ボタンがクリックされたと判別し、青色のスポットを抽出したときはマウスの右ボタンがクリックされたと判別し、判別結果に基づいて、判別以後の処理の内容を決定してもよい。
Moreover, the light emission part 4 may have the structure which emits one spot light of the color which the operator selected among several types of colors according to an operator's operation. And this drawing system may identify each color which the light emission part 4 emits, and may determine the content of the process which self performs based on an identification result.
For example, when the light emitting unit 4 is configured to emit one color selected by the user from among three colors of red, green, and blue, the drawing system uses a red color to make the light emitting unit 4 function as a mouse. When a spot is extracted, it is determined that movement of the mouse cursor has been instructed. When a green spot is extracted, it is determined that the left mouse button has been clicked. When a blue spot is extracted, the right mouse button is clicked. It may be determined that the processing has been performed, and the content of the processing after the determination may be determined based on the determination result.

発光部4が複数種類の色のうち選択された色のスポット光を発する場合において、各色のスポット光を互いに異なる発光体(発光ダイオード等)から発する場合は、表示部3の表示画面に対する発光体4の位置を固定しても、スポット光が表示画面に当たる位置が、選択された色毎に異なり得る。この場合、ユーザが発光部4を用いて小さな点をポイントすることが難しくなるという不都合が生じ得る。   In the case where the light emitting unit 4 emits spot light of a color selected from a plurality of types of colors, when the spot light of each color is emitted from different light emitters (such as light emitting diodes), the light emitter for the display screen of the display unit 3 Even if the position 4 is fixed, the position where the spot light hits the display screen may be different for each selected color. In this case, it may be difficult for the user to point a small point using the light emitting unit 4.

発光部4が発するスポット光が表示部3の表示画面に当たる位置が、選択された色毎に異なる場合、スポット光抽出部12aは、色毎のスポットの位置のずれを補正するため、スポット光抽出処理として図38に示す処理を行ってもよい。こうすることにより、スポットの位置の色毎のずれに原因する上述の不都合が避けられる。   When the position where the spot light emitted from the light emitting unit 4 hits the display screen of the display unit 3 is different for each selected color, the spot light extraction unit 12a extracts spot light in order to correct the deviation of the spot position for each color. As the processing, the processing shown in FIG. 38 may be performed. By doing so, the above-mentioned inconvenience caused by the shift of the spot position for each color can be avoided.

なお、理解を容易にするため、図38の処理を行う構成においては、発光部4が、赤色、緑色及び青色の3色のうちユーザが選択した1色を発するよう構成されているものとする。また、発光部4は、緑色に発光している状態から、赤色に発光する状態を経ることなく青色に発光している状態に移ることはなく、また、青色に発光している状態から、赤色に発光する状態を経ることなく緑色に発光している状態に移ることもないものとする。   In order to facilitate understanding, in the configuration for performing the processing of FIG. 38, the light emitting unit 4 is configured to emit one color selected by the user from the three colors of red, green, and blue. . In addition, the light emitting unit 4 does not change from the state of emitting green light to the state of emitting blue light without going through the state of emitting red light, and from the state of emitting blue light to the red color. It is assumed that there is no transition to the state of emitting green light without going through the state of emitting light.

図38に示すスポット光抽出処理を開始すると、まず、スポット光抽出部12aは、2次元変数(ss,tt)を構成する変数ss及び変数ttと、変数xoffと、変数yoffと、変数maxとの使用を宣言し、それぞれ値0を代入することにより初期化する(図38、ステップSN1)。   When the spot light extraction process shown in FIG. 38 is started, first, the spot light extraction unit 12a includes a variable ss and a variable tt constituting a two-dimensional variable (ss, tt), a variable xoff, a variable yoff, and a variable max. Is initialized by substituting the value 0 (FIG. 38, step SN1).

また、この描画システムが動作を開始して最初のスポット光抽出処理においては、ステップSN1でスポット光抽出部12aは更に、2次元変数(xspot,yspot)を構成する変数xspot及び変数yspotと、変数colorと、変数excolorとの使用を宣言して初期化する。なお、変数color及び変数excolorは、黒色、赤色、緑色または青色の4色を示す4値をとる変数である。そして、スポット光抽出部12aは、変数color及び変数excolorに、それぞれ黒色を表す値を代入することにより変数color及び変数excolorを初期化する。 In the first spot light extraction process after the drawing system starts operating, the spot light extraction unit 12a further performs variable x spot and variable y constituting two-dimensional variables (x spot , y spot ) in step SN1. Declare and initialize the use of spot , variable color, and variable color. The variable “color” and the variable “excolor” are variables having four values indicating four colors of black, red, green, and blue. Then, the spot light extraction unit 12a initializes the variable color and the variable color by substituting the values representing the black color into the variable color and the variable color, respectively.

次に、スポット光抽出部12aは、RAM13に格納された画像データを構成する画素データのうちの1個を、スポットの候補を表す画素データとして特定する(ステップSN2)。ただし、ステップSN2では、既にステップSN2の処理でスポットの候補として特定された画素は再び特定しないようにするものとする。   Next, the spot light extraction unit 12a identifies one of the pixel data constituting the image data stored in the RAM 13 as pixel data representing a spot candidate (step SN2). However, in step SN2, pixels that have already been identified as spot candidates in the process of step SN2 are not identified again.

次に、スポット光抽出部12aは、特定した画素データが示すスポットの候補の赤評価値、緑評価値及び青評価値を取得する。そして、取得した赤評価値、緑評価値及び青評価値のうちの最大値が、変数maxの現在の値より大きいか否かを判別する(ステップSN3)。そして、評価値が変数maxの値以下であると判別すると、処理をステップSN5へと進める。   Next, the spot light extraction unit 12a acquires the red evaluation value, the green evaluation value, and the blue evaluation value of the candidate spot indicated by the specified pixel data. And it is discriminate | determined whether the maximum value among the acquired red evaluation value, green evaluation value, and blue evaluation value is larger than the current value of the variable max (step SN3). If it is determined that the evaluation value is equal to or less than the value of variable max, the process proceeds to step SN5.

一方、赤評価値、緑評価値及び青評価値のうちの最大値がmaxより大きいと判別すると、スポット光抽出部12aは、変数maxの値を、ステップSN3で新しく取得した赤評価値、緑評価値及び青評価値のうちの最大値へと更新する(ステップSN4)。
また、ステップSN4でスポット光抽出部12aは、変数colorの値を、赤評価値、緑評価値及び青評価値のうち赤評価値が最大値をとっていれば赤色を、緑評価値が最大値をとっていれば緑色を、青評価値が最大値をとっていれば青色を表すように更新する。
更に、ステップSN4でスポット光抽出部12aは、変数ssの値を、ステップSN2で最も新しく第1のスポット光の候補として特定した画素の位置のx軸方向成分の値へと更新し、変数ttの値を、この画素のy軸方向成分の値へと更新する。
On the other hand, if it is determined that the maximum value among the red evaluation value, the green evaluation value, and the blue evaluation value is greater than max, the spot light extraction unit 12a determines the value of the variable max as the red evaluation value, green newly acquired in step SN3. The evaluation value and the blue evaluation value are updated to the maximum value (step SN4).
In step SN4, the spot light extraction unit 12a sets the value of the variable color to red if the red evaluation value is the maximum among the red evaluation value, the green evaluation value, and the blue evaluation value, and the green evaluation value is the maximum. If the value is taken, the green color is updated, and if the blue evaluation value takes the maximum value, the blue color is updated.
Further, in step SN4, the spot light extraction unit 12a updates the value of the variable ss to the value of the x-axis direction component of the pixel position specified as the first candidate of the first spot light most recently in step SN2. Is updated to the value of the y-axis direction component of this pixel.

次に、スポット光抽出部12aは、ステップSN2で未だスポットの候補として特定されていない画素があるか否かを判別する(ステップSN5)。そして、あると判別するとステップSN2へと処理を戻し、ないと判別すると、処理をステップSN6に移す。   Next, the spot light extraction unit 12a determines whether or not there is a pixel that has not yet been identified as a spot candidate in Step SN2 (Step SN5). If it is determined that there is, the process returns to step SN2, and if it is determined that there is no, the process proceeds to step SN6.

ステップSN6で、スポット光抽出部12aは、データcolorとデータexcolorとが、互いに同じ色を表しているか否かを判別する。そして、異なる色を表していると判別すると、スポット光抽出部12aは、変数colorの値が赤色を示すか否かを判別し(ステップSN7)、赤色を示すと判別すると、変数xoff及び変数yoffに0を代入して(ステップSN8)、処理をステップS22に移す。一方、赤色を示さないと判別すると、変数ssの値から変数xspotの値を差し引いた値を変数xoffに代入し、変数ttの値から変数yspotの値差し引いた値を変数yoffに代入して(ステップSN9)、処理をステップS22に移す。 In step SN6, the spot light extraction unit 12a determines whether the data color and the data color represent the same color. If it is determined that the color represents a different color, the spot light extraction unit 12a determines whether the value of the variable color indicates red (step SN7). If it is determined that the color indicates red, the spot light extraction unit 12a determines the variable xoff and the variable yoff. 0 is substituted into (Step SN8), and the process proceeds to Step S22. On the other hand, if it is determined that red is not indicated, the value obtained by subtracting the value of the variable x spot from the value of the variable ss is substituted for the variable xoff, and the value obtained by subtracting the value of the variable y spot from the value of the variable tt is substituted for the variable yoff. (Step SN9), the process proceeds to Step S22.

一方、ステップSN6で、データcolorとデータexcolorとが同じ色を表していると判別すると、変数xspotに変数xoffの値と変数ssの値の和を代入し、変数yspotに変数yoffの値と変数ttの値との和を代入して(ステップSN10)、処理をステップS22に移す。
なお、データcolor及びデータexcolorがいずれも赤色を表している状態では、変数xoff及び変数yoffの値はいずれも0であるので、ステップSN10の処理では、変数xspotの値は変数ssの値に等しくなり、変数yspotの値は変数ttの値に等しくなる。
On the other hand, in step SN6, the data color and data excolor is determined to represent the same color, substituting the sum of the values of the variable ss variables xoff the variable x spot, a variable y spot of variable yoff value And the sum of the value of the variable tt are substituted (step SN10), and the process proceeds to step S22.
In the state where both the data color and the data color are red, the values of the variable xoff and the variable yoff are both 0. Therefore, in the process of step SN10, the value of the variable x spot is changed to the value of the variable ss. And the value of the variable y spot is equal to the value of the variable tt.

ステップS22の処理が開始される時点での変数xspot及び変数yspotが示す座標(xspot,yspot)の値は、スポット光抽出処理で抽出されたスポットの色が赤色である場合は、最も赤評価値が高かった画素の位置の座標を示す。一方、緑色(又は青色)である場合は、最も緑評価値(又は青評価値)が高かった画素の位置の座標のx軸方向成分(又はy軸方向成分)に、スポットの色が赤色から緑色(又は青色)に切り替わった時点に生じたスポットの位置の座標のx軸方向成分(又はy軸方向成分)のずれにあたる量が加算された値を示す。 The values of the coordinates (x spot , y spot ) indicated by the variable x spot and the variable y spot at the time when the process of step S22 is started are as follows. When the spot color extracted by the spot light extraction process is red: The coordinates of the position of the pixel having the highest red evaluation value are shown. On the other hand, in the case of green (or blue), the spot color is changed from red to the x-axis direction component (or y-axis direction component) of the coordinates of the pixel position having the highest green evaluation value (or blue evaluation value). This is a value obtained by adding an amount corresponding to a deviation of the x-axis direction component (or y-axis direction component) of the coordinates of the spot position generated at the time of switching to green (or blue).

(第5の実施の形態)
表示部3の表示画面上に表示される輝点の位置は、抽出されたスポット光の絶対的な位置に基づいて決定される必要はない。以下では、表示される輝点の位置が、輝点が表示された最新の位置と、スポット光が当たった点の移動速度とに基づいて決定される、この発明の第5の実施の形態にかかる描画システムを説明する。
(Fifth embodiment)
The position of the bright spot displayed on the display screen of the display unit 3 does not need to be determined based on the absolute position of the extracted spot light. Hereinafter, the position of the displayed bright spot is determined based on the latest position where the bright spot is displayed and the moving speed of the spot hit by the spot light. Such a drawing system will be described.

この描画システムは、図39に示す構成を有している。すなわち、この描画システムは、座標変換部12bを備えず、水晶発振器等からなるタイマTを備える点を除き、図2に示す構成と実質的に同一の物理的構成を有する。図39の構成のタイマTは、現在時刻を表す時刻情報を生成し、スポット光抽出部12aへと連続的に供給する。   This drawing system has the configuration shown in FIG. That is, this drawing system has a physical configuration substantially the same as the configuration shown in FIG. 2 except that the coordinate conversion unit 12b is not provided and a timer T including a crystal oscillator or the like is provided. The timer T configured as shown in FIG. 39 generates time information indicating the current time and continuously supplies it to the spot light extraction unit 12a.

一方、この描画システムのRAM13は、変数locx、変数locy、2次元変数(xb,yb)を構成する変数xb及び変数ybを記憶し、中央制御部11は、この描画システムが動作を開始したとき、これら4個の変数にそれぞれ値0を代入することにより、これら4個の変数を初期化する。
そして、スポット光抽出部12aは、スポット光抽出処理を終え、座標(xspot,yspot)を終えると、ステップS3に処理を移す前に、図40に示す補間処理を行う。なお、この描画システムは、ステップS22の処理は行わなず、スポット光抽出処理を終えると、直ちにステップS3へと処理を移す。
On the other hand, the RAM 13 of the drawing system stores a variable locx, a variable locy, a variable xb and a variable yb constituting a two-dimensional variable (xb, yb), and the central control unit 11 is configured to start the operation of the drawing system. These four variables are initialized by substituting a value of 0 for each of these four variables.
Then, when the spot light extraction unit 12a finishes the spot light extraction process and finishes the coordinates (x spot , y spot ), the spot light extraction unit 12a performs the interpolation process shown in FIG. 40 before moving the process to step S3. The drawing system does not perform the process of step S22, and immediately moves to step S3 when the spot light extraction process is completed.

すなわち、スポット光抽出部12aは、ステップS21で座標(xspot,yspot)を求めた後、ステップS3に処理を移す前に、タイマTから供給される時刻情報を取得する(ステップSO1)。そして、最も新しく求めた座標(xspot,yspot)と、最も新しく取得した時刻情報とを、互いに対応付けてRAM13に記憶させる。 That is, after obtaining the coordinates (x spot , y spot ) in step S21, the spot light extraction unit 12a obtains time information supplied from the timer T before moving to step S3 (step SO1). Then, the most recently obtained coordinates (x spot , y spot ) and the most recently acquired time information are stored in the RAM 13 in association with each other.

次に、スポット光抽出部12aは、変数xspot、変数yspot、変数xb及び変数ybを読み出し、読み出したこれらの変数の値に基づき、数式19の右辺の値vx及び数式20の右辺の値vyを求め、RAM13に記憶させる(ステップSO2)。値vx及び値vyは、最も新しくスポットを求めた時刻におけるスポットの移動速度のx軸方向成分及びy軸方向成分である。 Next, the spot light extraction unit 12a reads the variable x spot , the variable y spot , the variable xb, and the variable yb, and based on the read values of these variables, the value vx 1 on the right side of Equation 19 and the right side of Equation 20 A value vy 1 is obtained and stored in the RAM 13 (step SO2). The value vx 1 and the value vy 1 are an x-axis direction component and a y-axis direction component of the moving speed of the spot at the time when the most recent spot is obtained.

(数19)
vx=N・{(xspot−xb)/(t−t)}
(ただし、Nは所定の定数、tは最も新しく取得した現在時刻、tは最も新しい方から2番目に取得した現在時刻)
(数20)
vy=N・{(yspot−yb)/(t−t)}
(Equation 19)
vx 1 = N · {(x spot −xb) / (t 1 −t 0 )}
(Where N is a predetermined constant, t 1 is the most recently acquired current time, and t 0 is the second most recently acquired current time)
(Equation 20)
vy 1 = N · {(y spot −yb) / (t 1 −t 0 )}

次に、スポット光抽出部12aは、変数locxの値を、変数vxの値の分増加させ、変数locyの値を、変数vyの値の分増加させる(ステップSO3。ただし、値vxや値vyが負の値であれば、変数locxの値や変数locyの値は減少する)。
また、ステップSO3でスポット光抽出部12aは、2次元変数(xb,yb)にステップS21で最も新しく求めた座標(xspot,yspot)を代入し、2次元変数(xb,yb)に対応付けられている時刻情報があれば、この時刻情報を、新たに代入した座標(xspot,yspot)に対応付けられている時刻情報へと更新する。2次元変数(xb,yb)に対応付けられている時刻情報がないときは、新たに代入した座標(xspot,yspot)に対応付けられている時刻情報を2次元変数(xb,yb)に新たに対応付ければよい。
Next, the spot light extraction section 12a, the value of the variable locx, is increased by an increased amount of the variable vx 1, the value of the variable LocY, is increased by an increased amount of the variable vy 1 (step SO3. However, the value vx 1 If the value vy 1 is a negative value, the value of the variable locx or the value of the variable loc is decreased).
In step SO3, the spot light extraction unit 12a substitutes the coordinates (x spot , y spot ) most recently obtained in step S21 for the two-dimensional variable (xb, yb) to correspond to the two-dimensional variable (xb, yb). If there is time information attached, the time information is updated to time information associated with the newly assigned coordinates (x spot , y spot ). When there is no time information associated with the two-dimensional variable (xb, yb), the time information associated with the newly assigned coordinates (x spot , y spot ) is converted into the two-dimensional variable (xb, yb). It is only necessary to newly associate with.

そして、スポット光抽出部12aは、値を変更した変数locx及び変数locyにより表される座標(locx,locy)を、表示部3の表示画面上でスポットを表示する表示位置の座標と決定する。このようにしてスポットを表示する表示位置の座標を決定することにより、スポットの絶対的な位置のキャリブレーションを行う必要がなくなる。   Then, the spot light extraction unit 12a determines the coordinates (locx, loc) represented by the variable locx and the variable loc whose values are changed as the coordinates of the display position where the spot is displayed on the display screen of the display unit 3. By determining the coordinates of the display position for displaying the spot in this manner, it is not necessary to calibrate the absolute position of the spot.

なお、上述の値Nは、必ずしも定数である必要はなく、例えば、変数xspot及び変数yspotのうち少なくともいずれかの関数であってもよい。従って、例えば図41に示すように、値Nが変数xspot及び変数yspotの関数N(xspot,yspot)であるものとして、関数N(xspot,yspot)の値は、座標(xspot,yspot)が示す位置が、画像入力部2が撮像する視野領域の中央に近い位置であるほど大きくなるものとしてもよい。 Note that the above-described value N is not necessarily a constant, and may be a function of at least one of a variable x spot and a variable y spot , for example. Therefore, for example, as shown in FIG. 41, assuming that the value N is a function N (x spot , y spot ) of a variable x spot and a variable y spot , the value of the function N (x spot , y spot ) is expressed by coordinates ( The position indicated by (x spot , y spot ) may be larger as the position is closer to the center of the field of view imaged by the image input unit 2.

(第5の実施の形態の変形例)
表示部3の表示画面上に表示される輝点の位置や形状は、発光部4の発光部分の空間内での位置に基づいて決定されてもよい。こうすることにより、たとえば、表示部3の表示画面上に、毛筆(あるいはその他筆圧の変化に従って筆先の形状が変わる筆記具)のタッチを擬似的に再現した輝点の軌跡を表示させることができる。
(Modification of the fifth embodiment)
The position and shape of the bright spot displayed on the display screen of the display unit 3 may be determined based on the position of the light emitting part of the light emitting unit 4 in the space. By doing so, for example, on the display screen of the display unit 3, it is possible to display a locus of a bright spot that simulates a touch of a writing brush (or other writing instrument that changes the shape of the writing tip according to a change in writing pressure). .

表示部3の表示画面上に、毛筆のタッチを擬似的に再現した輝点の軌跡を表示させるためには、この描画システムは、たとえば図42に示す構成を有し、スポット光抽出処理として図43に示す処理を行うものとすればよい。   In order to display on the display screen of the display unit 3 the locus of a bright spot that simulates the touch of a brush, this drawing system has, for example, the configuration shown in FIG. The processing shown in 43 may be performed.

図42に示するように、この描画システムは、画像入力部2に代えて、互いに実質的に同一の構成を有する画像入力部2A及び画像入力部2Bを備える。画像入力部2A及び2Bは、いずれも画像入力部2と実質的に同一の構成を有するものとし、図44に示すように、互いに視野が重なるように配置されているものとする。   As shown in FIG. 42, this drawing system includes an image input unit 2A and an image input unit 2B having substantially the same configuration instead of the image input unit 2. The image input units 2A and 2B both have substantially the same configuration as the image input unit 2, and are arranged so that their fields of view overlap each other as shown in FIG.

そして、ステップS1の処理において、画像入力部2A及び2Bは、それぞれ互いに重なる視野を撮像して、撮像した画像を表す画像データを作成し、データ処理装置1の中央制御部11に供給する。中央制御部11は、画像入力部2A及び2Bより1個ずつ、合計2個の画像データを供給されると、これらの画像データをRAM13に格納するものとする。   Then, in the process of step S1, the image input units 2A and 2B respectively capture the overlapping visual fields, create image data representing the captured images, and supply the image data to the central control unit 11 of the data processing device 1. When the central control unit 11 is supplied with a total of two pieces of image data one by one from the image input units 2A and 2B, the central control unit 11 stores these pieces of image data in the RAM 13.

また、発光部4は、赤色発光ダイオード等からなり赤色に発光する赤発光部と、青色発光ダイオード等からなり青色に発光する青発光部とを備えているものとする。赤発光部及び青発光部を結ぶ直線は、仮想の筆記具の軸を表すものであるとする。   In addition, the light emitting unit 4 includes a red light emitting unit that includes red light emitting diodes and the like and emits red light, and a blue light emitting unit that includes blue light emitting diodes and emits blue light. It is assumed that the straight line connecting the red light emitting part and the blue light emitting part represents the axis of the virtual writing instrument.

また、外部記憶部14は、筆先形状データを予め記憶している。筆先形状データは、表示部3の表示画面上に表示されるべき輝点の形状を表すデータである。
図45は、筆先形状データのデータ構造の例を示す図である。図示するように、筆先形状データは、発光部4の赤発光部と空間内の仮想の平面との距離と、赤発光部及び青発光部を結ぶ直線とこの仮想の平面とがなす角の角度とに対応付けられていて、この距離及び角度を特定することにより、輝点の形状が一意に特定されるようになっているものとする。
The external storage unit 14 stores pen tip shape data in advance. The brush tip shape data is data representing the shape of a bright spot to be displayed on the display screen of the display unit 3.
FIG. 45 is a diagram illustrating an example of the data structure of the brush tip shape data. As shown in the figure, the brush tip shape data includes the distance between the red light emitting part of the light emitting part 4 and a virtual plane in the space, and the angle formed by the straight line connecting the red light emitting part and the blue light emitting part and the virtual plane. It is assumed that the shape of the bright spot is uniquely specified by specifying this distance and angle.

そして、図42の描画システムのスポット光抽出部12aは、スポット光抽出処理を開始すると、上述したステップSG1〜SG12の処理と実質的に同一の処理を、画像入力部2Aから供給された画像データ及び画像入力部2Bから供給された画像データの各々について行う(図43、ステップSP1)。   Then, when the spot light extraction unit 12a of the drawing system of FIG. 42 starts the spot light extraction process, the image data supplied from the image input unit 2A performs substantially the same process as the process of steps SG1 to SG12 described above. And it performs about each of the image data supplied from the image input part 2B (FIG. 43, step SP1).

ただし、ステップSP1で、スポット光抽出部12aは、変数Gmや変数Gxを使用する必要はなく、また、ステップSG6〜ステップSG8の処理に相当する処理を行う必要はない。
また、スポット光抽出部12aは、画像入力部2Aが供給した画像データを用いてステップSG1〜SG12にあたる処理を行うときには、変数Rx、変数Ry及び変数Rmに代えて変数RxA、変数RyA及び変数RmAを用い、また、変数Bx、変数By及び変数Bmに代えて変数BxA、変数ByA及び変数BmAを用いる。
また、画像入力部2Bが供給した画像データを用いてステップSG1〜SG12にあたる処理を行うときには、変数Rx、変数Ry、変数Rm、変数Bx、変数By及び変数Bmに代えて、変数RxB、変数RyB、変数RmB、BxB、変数ByB及び変数BmBを用いる。
However, in step SP1, the spot light extraction unit 12a does not need to use the variable Gm or the variable Gx, and does not need to perform processing corresponding to the processing in steps SG6 to SG8.
In addition, when performing the processing corresponding to steps SG1 to SG12 using the image data supplied from the image input unit 2A, the spot light extraction unit 12a replaces the variable Rx, the variable Ry, and the variable Rm with the variable RxA, the variable RyA, and the variable RmA. In addition, instead of the variable Bx, the variable By, and the variable Bm, the variable BxA, the variable ByA, and the variable BmA are used.
When processing corresponding to steps SG1 to SG12 is performed using the image data supplied from the image input unit 2B, the variables RxB and RyB are substituted for the variables Rx, Ry, Rm, Bx, By and Bm. , Variables RmB, BxB, variable ByB, and variable BmB are used.

ステップSP1の処理を終了した時点での変数RxA及びRyAの値は、画像入力部2Aが供給した画像データが表す画素のうち赤色がもっとも強い画素の位置のx軸方向成分及びy軸方向成分を表し、変数RmAの値が、この画素の赤評価値を表す。また、変数BxA及びByAの値は、画像入力部2Aが供給した画像データが表す画素のうち青色がもっとも強い画素の位置のx軸方向成分及びy軸方向成分を表し、変数BmAの値が、この画素の青評価値を表す。   The values of the variables RxA and RyA at the time when the processing of step SP1 is completed are the x-axis direction component and the y-axis direction component at the position of the pixel with the strongest red color among the pixels represented by the image data supplied by the image input unit 2A. And the value of the variable RmA represents the red evaluation value of this pixel. The values of the variables BxA and ByA represent the x-axis direction component and the y-axis direction component of the position of the pixel with the strongest blue color among the pixels represented by the image data supplied by the image input unit 2A, and the value of the variable BmA is This represents the blue evaluation value of this pixel.

また、ステップSP1の処理を終了した時点での変数RxB及びRyBの値は、画像入力部2Bが供給した画像データが表す画素のうち赤色がもっとも強い画素の位置のx軸方向成分及びy軸方向成分を表し、変数RmBの値が、この画素の赤評価値を表す。また、変数BxB及びByBの値は、画像入力部2Bが供給した画像データが表す画素のうち青色がもっとも強い画素の位置のx軸方向成分及びy軸方向成分を表し、変数BmBの値が、この画素の青評価値を表す。   Further, the values of the variables RxB and RyB at the time when the processing of step SP1 is completed are the x-axis direction component and the y-axis direction of the position of the pixel having the strongest red color among the pixels represented by the image data supplied by the image input unit 2B. Represents the component, and the value of the variable RmB represents the red evaluation value of this pixel. Further, the values of the variables BxB and ByB represent the x-axis direction component and the y-axis direction component of the position of the pixel with the strongest blue color among the pixels represented by the image data supplied by the image input unit 2B, and the value of the variable BmB is This represents the blue evaluation value of this pixel.

次に、スポット光抽出部12aは、変数RxA、変数RyA、変数RxB及び変数RyBの値に基づいて、画像入力部2A及び2Bが撮像を行った時点における発光部4の赤発光部の空間内の位置を特定する(ステップSP2)。また、ステップSP2でスポット光抽出部12aは、変数BxA、変数ByA、変数BxB及び変数ByBの値に基づいて、画像入力部2A及び2Bが撮像を行った時点における発光部4の青発光部の空間内の位置も特定する。   Next, the spot light extraction unit 12a is based on the values of the variable RxA, the variable RyA, the variable RxB, and the variable RyB, in the space of the red light emitting unit of the light emitting unit 4 when the image input units 2A and 2B perform imaging. Is identified (step SP2). In step SP2, the spot light extraction unit 12a determines the blue light emission part of the light emission part 4 at the time when the image input parts 2A and 2B have taken images based on the values of the variable BxA, the variable ByA, the variable BxB, and the variable ByB. The position in the space is also specified.

次に、スポット光抽出部12aは、ステップSP2で特定した、赤発光部及び青発光部の位置に基づき、空間内の仮想の平面と赤発光部との距離、及び、赤発光部及び青発光部を結ぶ直線とこの仮想の平面とがなす角の角度を求める(ステップSP3)。   Next, the spot light extraction unit 12a, based on the positions of the red light emitting unit and the blue light emitting unit specified in step SP2, the distance between the virtual plane in the space and the red light emitting unit, and the red light emitting unit and the blue light emitting unit. The angle formed by the straight line connecting the parts and the virtual plane is obtained (step SP3).

そして、スポット光抽出部12aは、外部記憶部14に記憶されている筆先形状データのうち、ステップSP3で特定された距離及び角度に対応付けられているものを特定する(ステップSP4)。
ステップSP4で特定した筆先形状データが、画像入力部2A及び2Bが撮像を行った時点における発光部4の仮想の筆先の形状を示す。ステップS3で、中央制御部11は、スポットの表示位置に、ステップSP4で特定した筆先形状データが示す形状のスポットを表示する。この結果、表示部3の表示画面上には、例えば図46に示すような、毛筆のタッチが再現された形の軌跡が表示される。
And the spot light extraction part 12a specifies what is matched with the distance and angle specified by step SP3 among the brush-tip shape data memorize | stored in the external memory | storage part 14 (step SP4).
The brush tip shape data specified in step SP4 indicates the shape of the virtual brush tip of the light emitting unit 4 when the image input units 2A and 2B perform imaging. In step S3, the central control unit 11 displays a spot having the shape indicated by the brush tip shape data specified in step SP4 at the spot display position. As a result, on the display screen of the display unit 3, for example, a locus having a shape in which the touch of the brush is reproduced as shown in FIG. 46 is displayed.

(第6の実施の形態)
この発明の実施の形態にかかる描画システムでは、発光部4が、自己が発光しているか否かを示すデータをデータ処理装置1に送信し、データ処理装置1がこのデータを受信して、受信したデータに基づき、スポットが形成されているか否かを検知するようにしてもよい。このような動作を行う描画システムでは、発光部4が発光していないときに誤ってスポットの抽出や輝点の表示が行われることが防止される。以下、このような動作を行う、この発明の第6の実施の形態の描画システムを説明する。
(Sixth embodiment)
In the drawing system according to the embodiment of the present invention, the light emitting unit 4 transmits data indicating whether or not the light emitting unit 4 emits light to the data processing device 1, and the data processing device 1 receives and receives the data. Whether or not a spot is formed may be detected based on the obtained data. In the drawing system that performs such an operation, it is possible to prevent spot extraction and display of bright spots when the light emitting unit 4 is not emitting light. A drawing system according to the sixth embodiment of the present invention that performs such an operation will be described below.

この描画システムは、図47に示す構成を有している。すなわち、この描画システムは、図2に示す構成と実質的に同一の物理的構成を有し、更に、発光部4が送信部401を備え、データ処理装置1が受信部16を備えている。また、発光部4の発光部分は、ユーザの操作に従って点灯又は消灯するものとする。   This drawing system has the configuration shown in FIG. That is, this drawing system has a physical configuration substantially the same as the configuration shown in FIG. 2, the light emitting unit 4 includes a transmission unit 401, and the data processing device 1 includes a reception unit 16. Moreover, the light emission part of the light emission part 4 shall be lighted or extinguished according to a user's operation.

発光部4の送信部401は、たとえば、図示するように、無線送信機401Aと、発光部4の発光部分をオン/オフするためのスイッチ401Bとより構成されており、ユーザがスイッチ401Bを操作して発光部分を点灯状態(又は消灯状態)にすると、無線送信機401Aがこの操作に応答して、発光部分が点灯状態(又は消灯状態)にあることを示すデータを無線送信する。ただし無線送信機401Aは、発光部分が点灯状態にあることを示すデータ又は消灯状態にあることを示すデータのうちいずれかは送信しないようにしてもよい。   The transmission unit 401 of the light emitting unit 4 includes, for example, a wireless transmitter 401A and a switch 401B for turning on / off the light emitting part of the light emitting unit 4, as shown in the figure, and the user operates the switch 401B. When the light emitting portion is turned on (or turned off), the wireless transmitter 401A responds to this operation and wirelessly transmits data indicating that the light emitting portion is turned on (or turned off). However, the wireless transmitter 401A may not transmit any of data indicating that the light emitting portion is in the lit state or data indicating that the light emitting portion is in the unlit state.

一方、データ処理装置1の受信部16は、例えば、無線受信機より構成されており、発光部4の送信部401より供給された、発光部分が点灯状態(又は消灯状態)にあることを示すデータを受信して中央制御部11に供給する。
ただし、受信部16は、発光部分が点灯状態(又は消灯状態)にあることを示すデータを受信していない間は、発光部分が消灯状態(又は点灯状態)にあることを示すデータを中央制御部11に供給するものとしてもよい。また、中央制御部11は、発光部分が点灯状態(又は消灯状態)にあることを示すデータが受信部16より供給されていない間は、発光部分が消灯状態(又は点灯状態)にあると判別するようにしてもよい。
On the other hand, the receiving unit 16 of the data processing device 1 is configured by, for example, a wireless receiver, and indicates that the light emitting portion supplied from the transmitting unit 401 of the light emitting unit 4 is in the lit state (or in the unlit state). Data is received and supplied to the central control unit 11.
However, the reception unit 16 performs central control on data indicating that the light emitting portion is in the off state (or lighting state) while the data indicating that the light emitting portion is in the on state (or off state) is not received. It may be supplied to the unit 11. Further, the central control unit 11 determines that the light emitting part is in the extinguished state (or the lit state) while the data indicating that the light emitting part is in the lit state (or the extinguished state) is not supplied from the receiving unit 16. You may make it do.

図47の描画システムの動作は、第1の実施の形態の描画システムの動作と実質的に同一である。ただし、中央制御部11は、受信部16から供給されるデータに基づいて、発光部4が発光しているか否かを示す情報をスポット光抽出部12aに供給する。スポット光抽出部12aは、中央制御部11より供給された情報が、発光部4が発光していることを示すか否かを判別して、示していないと判別したときは、座標(xspot,yspot)の抽出を行わないものとする。
そして、座標変換部12bは、座標(xspot,yspot)が抽出されていない間は座標(xdisp,ydisp)の決定を行わず、中央制御部11は、座標(xdisp,ydisp)が決定されない場合は、表示部3に輝点を表示させないものとする。
The operation of the drawing system of FIG. 47 is substantially the same as the operation of the drawing system of the first embodiment. However, the central control unit 11 supplies information indicating whether or not the light emitting unit 4 emits light to the spot light extracting unit 12a based on the data supplied from the receiving unit 16. Spotlight extraction unit 12a, information supplied from the central control unit 11, to determine whether or not indicating that the light-emitting portion 4 is emitting light, when determining not shown, the coordinate (x spot , Y spot ) are not extracted.
The coordinate conversion unit 12b does not determine the coordinates (x disp , y disp ) while the coordinates (x spot , y spot ) are not extracted, and the central control unit 11 does not determine the coordinates (x disp , y disp). ) Is not determined, no bright spot is displayed on the display unit 3.

(第7の実施の形態)
次に、この発明の第7の実施の形態にかかる描画システムを説明する。
この描画システムは、図48に示すように、発光部4を除いて図2に示す構成と実質的に同一の物理的構成を有している。
(Seventh embodiment)
Next, a rendering system according to a seventh embodiment of the present invention is described.
As shown in FIG. 48, this drawing system has a physical configuration substantially the same as the configuration shown in FIG.

図48の描画システムの発光部4は、発光ダイオード等からなる発光体41と、点灯用スイッチ42と、輝度増加用スイッチ43と、本体部44と、発光部駆動回路45とより構成されている。
本体部44は両端を有する棒状に形成されており、本体部44の一端には発光体41が固定されている。点灯用スイッチ42及び輝度増加用スイッチ43は、本体部44の側部に固定されている。発光部駆動回路45は、本体部44の内部に埋め込まれており、発光体41、点灯用スイッチ42及び輝度増加用スイッチ43は、発光部駆動回路45に接続されている。
The light emitting unit 4 of the drawing system of FIG. 48 includes a light emitting body 41 made of a light emitting diode or the like, a lighting switch 42, a brightness increasing switch 43, a main body 44, and a light emitting unit driving circuit 45. .
The main body 44 is formed in a rod shape having both ends, and the light emitter 41 is fixed to one end of the main body 44. The lighting switch 42 and the brightness increasing switch 43 are fixed to the side of the main body 44. The light emitting unit driving circuit 45 is embedded in the main body 44, and the light emitter 41, the lighting switch 42, and the luminance increasing switch 43 are connected to the light emitting unit driving circuit 45.

発光体41は、ユーザによる点灯用スイッチ42及び輝度増加用スイッチ43の操作に従い、「点灯していない」「高輝度で点灯している」「低輝度で点灯している」の3種類の点灯状態のうちいずれかをとる。   The light-emitting body 41 is lit in three types: “not lit”, “lit at high luminance”, and “lit at low luminance” in accordance with the operation of the lighting switch 42 and the luminance increasing switch 43 by the user. Take one of the states.

具体的には、たとえば、ユーザが点灯用スイッチ42を操作し、発光体41の点灯を指示すると、発光部駆動回路45はこの指示に応答して発光体41を駆動し、発光体41を発光させる。また、ユーザが輝度増加用スイッチ43を操作し、発光体41を高輝度で点灯させるよう指示すると、発光部駆動回路45はこの指示に応答して発光体41を駆動し、発光体41を、高輝度での点灯が指示されていないときに比べて高輝度で発光させる。なお、ユーザが点灯用スイッチ42及び輝度増加用スイッチ43を同時に操作した場合、発光部駆動回路45は、たとえば、これら両者の同時の操作が開始された時点の点灯状態を維持する。   Specifically, for example, when the user operates the lighting switch 42 to instruct to turn on the light emitter 41, the light emitting unit drive circuit 45 drives the light emitter 41 in response to this instruction and emits the light emitter 41. Let Further, when the user operates the brightness increasing switch 43 to instruct the light emitter 41 to be lit with high brightness, the light emitting unit drive circuit 45 drives the light emitter 41 in response to this instruction, It emits light with higher brightness than when lighting with high brightness is not instructed. When the user operates the lighting switch 42 and the brightness increasing switch 43 at the same time, the light emitting unit driving circuit 45 maintains the lighting state at the time when the simultaneous operation of both of them is started, for example.

あるいは、発光部駆動回路45は、たとえばユーザの操作に従って発光体41が発光している状態で、ユーザが更に輝度増加用スイッチ43を操作し、発光体41を高輝度で点灯させるよう指示したとき、発光体41を、高輝度での点灯が指示されていないときに比べて高輝度で発光させるようにしてもよい。   Alternatively, for example, when the light emitting unit drive circuit 45 operates the brightness increasing switch 43 in a state where the light emitting body 41 emits light according to the user's operation, the light emitting body 41 is instructed to light up with high brightness. The light emitter 41 may be made to emit light with higher brightness than when lighting with high brightness is not instructed.

図48の描画システム(または、発光部4以外の部分が図48に示す構成を有していて発光部4が2段階の輝度で発光する構成を有しているような描画システム)は、ステップS21の処理を終えた後、ステップS3の処理を行う前に、図49に示す処理を行うようにしてもよい。   The drawing system of FIG. 48 (or a drawing system in which parts other than the light emitting unit 4 have the configuration shown in FIG. 48 and the light emitting unit 4 emits light with two levels of luminance) After the process of S21, the process shown in FIG. 49 may be performed before the process of step S3.

すなわち、ステップS21でスポットの輝度Rmaxを求めた後、スポット抽出部12aは、輝度Rmaxの値が、発光部4の点灯/非点灯を判別するための所定の低輝度側の閾値に達しているか否かを判別する(図49、ステップSQ1)。 That is, after obtaining the brightness R max of the spot at the step S21, the spot extraction unit 12a, the value of the luminance R max is, it reaches a predetermined low luminance side of the threshold for determining lighting / non-lighting of the light-emitting portion 4 (Step SQ1 in FIG. 49).

また、この描画システムが動作を開始して最初のスポット光抽出処理においては、ステップSQ1でスポット光抽出部12aは更に、変数STATの使用を宣言して初期化する。変数STATは、3種類の点灯状態(つまり「点灯していない」、「高輝度で点灯している」及び「低輝度で点灯している」の3種類の状態)示す3値をとる変数である。そして、スポット光抽出部12aは、変数STATに、発光部4が点灯していないことを示す値を代入することにより変数STATを初期化する。   In the first spot light extraction process after the drawing system starts operating, in step SQ1, the spot light extraction unit 12a further declares and initializes the use of the variable STAT. The variable STAT is a variable that takes three values indicating three types of lighting states (that is, three types of states of “not lit”, “lit at high luminance”, and “lit at low luminance”). is there. Then, the spot light extraction unit 12a initializes the variable STAT by substituting a value indicating that the light emitting unit 4 is not lit into the variable STAT.

そして、ステップSQ1で、輝度Rmaxの値が低輝度側の閾値に達していないと判別すると、スポット光抽出部12aは、発光部4が点灯していないと判断し、処理をステップSQ3に移す。 Then, at step SQ1, the value of the luminance R max is determined to not reach the threshold of the low-intensity side, the spotlight extraction unit 12a determines that the light emitting section 4 is not lit, the processing proceeds to Step SQ3 .

一方、低輝度側の閾値に達していると判別すると、スポット光抽出部12aは、輝度Rmaxの値が、発光部4の輝度の高低を判別するための高輝度側の閾値に達しているか否かを判別する(ステップSQ2)。そして、達していないと判別すると、発光部4が低輝度で点灯していると判断して処理をステップSQ3に移し、達していると判別すると発光部4が高輝度で点灯していると判断して、処理をステップSQ3に移す。 On the other hand, when determining that the threshold has been met in the low luminance side, or the spot light extraction section 12a, the value of the luminance R max has reached the high luminance side of the threshold for determining the level of brightness of the light emitting section 4 It is determined whether or not (step SQ2). If it is determined that it has not been reached, it is determined that the light emitting unit 4 is lit with low luminance, and the process proceeds to step SQ3. If it is determined that it has been reached, it is determined that the light emitting unit 4 is lit with high luminance. Then, the process proceeds to step SQ3.

ステップSQ3で、スポット光抽出部12aは、ステップSQ1又はSQ2で判断された発光部4の最新の点灯状態(すなわち、点灯していないか、低輝度で点灯しているか、又は高輝度で点灯しているか)と、変数STATが示す、直近の前回の発光部4の点灯状態とに基づき、中央制御部11に供給すべきデータの内容を決定し、決定結果に従ったデータを中央制御部11に供給する。   In step SQ3, the spot light extraction unit 12a is in the latest lighting state of the light emitting unit 4 determined in step SQ1 or SQ2 (that is, not lit, lit at low luminance, or lit at high luminance). And the content of data to be supplied to the central control unit 11 based on the most recent previous lighting state of the light emitting unit 4 indicated by the variable STAT, and the data according to the determination result is determined by the central control unit 11 To supply.

具体的には、例えば、スポット光抽出部12aは、変数STATが示す前回の点灯状態が「点灯していない」である場合、最新の点灯状態が「点灯していない」又は「低輝度で点灯している」であれば、中央制御部11にはデータを供給しないことを決定する。一方、前回の点灯状態が「点灯していない」であって最新の点灯状態が「高輝度で点灯している」であれば、発光部4が高輝度での点灯を開始したことを示すデータを中央制御部11に供給する。   Specifically, for example, when the previous lighting state indicated by the variable STAT is “not lit”, the spot light extraction unit 12a indicates that the latest lighting state is “not lit” or “lights at low luminance”. If “Yes”, it is determined not to supply data to the central control unit 11. On the other hand, if the previous lighting state is “not lit” and the latest lighting state is “lit with high luminance”, data indicating that the light emitting unit 4 has started lighting with high luminance. Is supplied to the central control unit 11.

また、前回の点灯状態が「低輝度で点灯している」である場合、最新の点灯状態が「点灯していない」であれば、中央制御部11にはデータを供給しないことを決定する。一方、前回及び最新の点灯状態がいずれも「低輝度で点灯している」であれば、スポット光抽出部12aは上述のステップSO1〜SO3の処理を行い、これらの処理の結果決定される上述の座標(locx,locy)を、表示部3の表示画面上でスポットを表示する表示位置の座標であるものとして中央制御部11に供給する。   Further, when the previous lighting state is “lighted with low brightness”, if the latest lighting state is “not lighted”, it is determined not to supply data to the central control unit 11. On the other hand, if both the previous lighting state and the latest lighting state are “lighted at low luminance”, the spot light extraction unit 12a performs the processing of the above-described steps SO1 to SO3 and is determined as a result of these processing. The coordinates (locx, loc) are supplied to the central control unit 11 as the coordinates of the display position where the spot is displayed on the display screen of the display unit 3.

また、前回の点灯状態が「高輝度で点灯している」である場合、最新の点灯状態が「点灯していない」又は「低輝度で点灯している」であれば、発光部4が高輝度での点灯を終了したことを示すデータを中央制御部11に供給する。一方、前回及び最新の点灯状態がいずれも「高輝度で点灯している」であれば、ステップSO1〜SO3の処理を行い、決定された座標(locx,locy)を中央制御部11に供給する。   In addition, when the previous lighting state is “lighting with high luminance”, if the latest lighting state is “not lighting” or “lighting with low luminance”, the light emitting unit 4 is high. Data indicating that lighting with luminance has been completed is supplied to the central control unit 11. On the other hand, if both the previous lighting state and the latest lighting state are “highly lit”, the processing of steps SO1 to SO3 is performed, and the determined coordinates (locx, location) are supplied to the central control unit 11. .

座標(locx,locy)を供給された中央処理部11は、ステップS3で、表示部3に、座標(locx,locy)により表される位置にスポットを表示させる。   The central processing unit 11 supplied with the coordinates (locx, loc) causes the display unit 3 to display a spot at a position represented by the coordinates (locx, loc) in step S3.

また、発光部4が高輝度での点灯を開始したこと(又は終了したこと)を示すデータを供給された中央制御部11は、供給されたデータが示す点灯状態に基づいて自己が行う処理の内容を決定したりしてよい。
たとえば、中央制御部11は、発光部4をマウスとして機能させるために、発光部4が高輝度での点灯を開始した旨のデータを供給されたときはマウスのボタンが押下されたと判別し、高輝度での点灯を終了した旨のデータを供給されたときはマウスのボタンの押下が終了したと判別し、これらの判別の結果に基づいて、判別以後の処理の内容を決定してもよい。
In addition, the central control unit 11 supplied with data indicating that the light emitting unit 4 has started (or ended) lighting with high luminance, performs processing performed by itself based on the lighting state indicated by the supplied data. You may decide the contents.
For example, the central control unit 11 determines that the mouse button has been pressed when data indicating that the light emitting unit 4 has started lighting at high brightness is supplied in order to cause the light emitting unit 4 to function as a mouse. When data indicating that lighting with high luminance has ended is supplied, it is determined that the mouse button has been pressed, and the content of the processing after the determination may be determined based on the results of these determinations. .

なお、ステップSQ3の処理が終わると、スポット光抽出部12aは、変数STATの値を、最新の点灯状態を表すよう更新する(ステップSQ4)。   When the process of step SQ3 is completed, the spot light extraction unit 12a updates the value of the variable STAT so as to represent the latest lighting state (step SQ4).

なお、発光部4の形状は任意であり、従って、たとえば図50に示すようなピストル型であってもよい。この場合たとえば、図示するように、発光体41は、ピストルの銃口にあたる位置に配置されればよい。また、点灯用スイッチ42は、ピストルの引き金にあたる位置に配置されればよい。また、輝度増加用スイッチ43は、ピストルの撃鉄にあたる位置に配置されればよい。なお、発光部駆動回路45は、図示するようにピストルの銃身の内部にあたる位置に配置されていてもよいし、ピストルのグリップの内部に当たる位置に配置されていてもよい。
そして、たとえば操作者がピストルのグリップにあたる部分を握り、人差し指あるいは中指を用いて点灯用スイッチ42を操作し、親指を用いて輝度増加用スイッチ43を操作するようにすれば、図50の発光部4は快適に操作される。
In addition, the shape of the light emission part 4 is arbitrary, Therefore For example, a pistol type as shown in FIG. 50 may be sufficient. In this case, for example, as shown in the drawing, the light emitter 41 may be disposed at a position corresponding to the muzzle of the pistol. Further, the lighting switch 42 may be disposed at a position corresponding to the trigger of the pistol. The brightness increasing switch 43 may be disposed at a position corresponding to the hammer of the pistol. In addition, the light emission part drive circuit 45 may be arrange | positioned in the position which hits the inside of the barrel of a pistol as shown in figure, and may be arrange | positioned in the position which hits the inside of the grip of a pistol.
Then, for example, if the operator holds the part corresponding to the grip of the pistol, operates the lighting switch 42 using the index finger or the middle finger, and operates the brightness increasing switch 43 using the thumb, the light emitting unit of FIG. 4 is comfortably operated.

あるいは、発光部4の形状は、たとえば図51に示すような形状であってもよい。すなわち、図示するように、発光体41は、棒状に形成された本体部44の一端に配置され、点灯用スイッチ42及び輝度増加用スイッチ43は、本体部44の側部に、本体部44を挟むように配置されていてもよい。   Or the shape as shown in FIG. 51 may be sufficient as the shape of the light emission part 4, for example. That is, as shown in the drawing, the light emitter 41 is disposed at one end of a main body 44 formed in a rod shape, and the lighting switch 42 and the luminance increasing switch 43 are provided on the side of the main body 44 with the main body 44. You may arrange | position so that it may pinch | interpose.

また、図48の描画システムは、テレビ電話の機能を行うため、例えば図52に示すように、更に、ネットワークインターフェース部17、通信用画像入力部18、通信用音声入力部19及び通信用音声再生部20を更に備えていてもよい。   48 performs the function of a videophone. For example, as shown in FIG. 52, the network interface unit 17, the communication image input unit 18, the communication audio input unit 19, and the communication audio reproduction are further provided. The unit 20 may be further provided.

ネットワークインターフェース部17、通信用画像入力部18、通信用音声入力部19及び通信用音声再生部20は、後述する処理を行うものであり、ネットワークインターフェース部17は、外部の電話回線等の通信回線を介して外部の通話先に接続されるモデムやターミナルアダプタ等より構成されている。通信用画像入力部18は、CCD(Charge Coupled Device)カメラ等より構成されている。通信用音声入力部19は、マイクロフォン及びAF(オーディオ周波数)増幅器等より構成されている。通信用音声再生部20は、スピーカ及びAF増幅器等より構成されている。   The network interface unit 17, the communication image input unit 18, the communication audio input unit 19, and the communication audio reproduction unit 20 perform processing to be described later. The network interface unit 17 is a communication line such as an external telephone line. It is composed of a modem, a terminal adapter, etc. that are connected to an external call destination via the. The communication image input unit 18 includes a CCD (Charge Coupled Device) camera or the like. The communication audio input unit 19 includes a microphone and an AF (audio frequency) amplifier. The communication audio reproduction unit 20 is constituted by a speaker, an AF amplifier, and the like.

図52の描画システムは、テレビ電話の機能を行うため、図53(a)〜(d)に示す処理を行う。
すなわち、中央制御部11は、通信用画像入力部18より供給された画像データを取得し(図53(a)、ステップSR1)、取得した画像データにデータ圧縮を施して、ネットワークインターフェース部17を介し、通話先へと送信する(ステップSR2)。そして、中央制御部11は、送信した画像データに基づいて、図54に示すように、この画像データが表す画像を縮小したものを表す縮小画像(ユーザ側の画像)を、表示部3に表示させる(ステップSR3)。
The drawing system of FIG. 52 performs the processing shown in FIGS. 53A to 53D in order to perform the videophone function.
That is, the central control unit 11 acquires the image data supplied from the communication image input unit 18 (FIG. 53A, step SR1), performs data compression on the acquired image data, and sets the network interface unit 17 To the other party (step SR2). Then, based on the transmitted image data, the central control unit 11 displays on the display unit 3 a reduced image (user side image) representing a reduced version of the image represented by the image data, as shown in FIG. (Step SR3).

また、圧縮されている画像データが通話先からネットワークインターフェース部17を介して中央制御部11に供給されたとき、中央制御部11はこの画像データを取得し(図53(b)、ステップSR4)、取得した画像データを解凍して、解凍された画像データが表す画像(相手側の画像)を、図54に示すように表示部3に表示させる(ステップSR5)。   When the compressed image data is supplied from the call destination to the central control unit 11 via the network interface unit 17, the central control unit 11 acquires the image data (FIG. 53 (b), step SR4). Then, the acquired image data is decompressed, and an image represented by the decompressed image data (an image on the other party) is displayed on the display unit 3 as shown in FIG. 54 (step SR5).

また、中央制御部11は、通信用音声入力部19より供給された音声データを取得し(図53(c)、ステップSR6)、取得した音声データにデータ圧縮を施して、ネットワークインターフェース部17を介し、通話先へと送信する(ステップSR2)。   Further, the central control unit 11 acquires the audio data supplied from the communication audio input unit 19 (FIG. 53 (c), step SR6), performs data compression on the acquired audio data, and sets the network interface unit 17 To the other party (step SR2).

また、圧縮されている音声データが通話先からネットワークインターフェース部17を介して中央制御部11に供給されたとき、中央制御部11はこの音声データを取得し(図53(d)、ステップSR8)、取得した音声データを解凍して、解凍された音声データが表す音声を、通信用音声再生部20に再生させる(ステップSR9)。   When the compressed voice data is supplied from the call destination to the central control unit 11 via the network interface unit 17, the central control unit 11 acquires this voice data (FIG. 53 (d), step SR8). The acquired audio data is decompressed, and the audio represented by the decompressed audio data is reproduced by the communication audio reproducing unit 20 (step SR9).

また、中央制御部11は、図54に示すように、表示部3に、更に、マイク音量アップボタンと、マイク音量ダウンボタンと、相手音量アップボタンと、相手音量ダウンボタンと、画像記録ボタンと、通話終了ボタンとを表示させる。
そして、ユーザが発光部4を用いてマイク音量アップボタンをポイントして高輝度で点灯させると、中央制御部11は、通信用音声入力部19のAF増幅器を制御してこのAF増幅器の利得を上げる。また、マイク音量ダウンボタンをポイントして高輝度で点灯させると、このAF増幅器の利得を下げる。
また、ユーザが発光部4を用いて相手音量アップボタンをポイントして高輝度で点灯させると、中央制御部11は、通信用音声再生部20のAF増幅器を制御してこのAF増幅器の利得を上げる。また、相手音量ダウンボタンをポイントして高輝度で点灯させると、このAF増幅器の利得を下げる。
また、ユーザが発光部4を用いて画像記録ボタンをポイントして高輝度で点灯させると、中央制御部11は、ステップSR4で取得して解凍した画像データを外部記憶部14に記憶させる。
また、ユーザが発光部4を用いて通話終了ボタンをポイントして高輝度で点灯させると、中央制御部11は、ネットワークインターフェース部17を制御して、通話先とのデータ交換を終了させる。
Further, as shown in FIG. 54, the central control unit 11 further includes, on the display unit 3, a microphone volume up button, a microphone volume down button, a partner volume up button, a partner volume down button, and an image recording button. And a call end button.
When the user points to the microphone volume up button using the light emitting unit 4 and lights up with high brightness, the central control unit 11 controls the AF amplifier of the communication voice input unit 19 to increase the gain of the AF amplifier. increase. When the microphone volume down button is pointed and turned on with high brightness, the gain of the AF amplifier is lowered.
When the user points to the other party volume up button using the light emitting unit 4 and lights up with high brightness, the central control unit 11 controls the AF amplifier of the communication sound reproducing unit 20 to increase the gain of the AF amplifier. increase. Further, when the other party volume down button is pointed and turned on with high brightness, the gain of the AF amplifier is lowered.
Further, when the user points to the image recording button using the light emitting unit 4 and lights up with high brightness, the central control unit 11 stores the image data acquired and decompressed in step SR4 in the external storage unit.
When the user points to the call end button using the light emitting unit 4 and lights up with high brightness, the central control unit 11 controls the network interface unit 17 to end the data exchange with the call destination.

(第8の実施の形態)
この発明は、スポット光を用いた文字の入力にも応用可能である。携帯電話やPHS(Personal Handyphone System)などの携帯端末において、テンキーを複数回押下することにより、押下したボタンの組み合わせに対応付けられた文字を入力する手法が用いられている。しかし、このようにテンキーを複数回押下する手法は非常に煩雑で入力の効率が悪い。この点、この発明に係る文字入力装置によれば、簡単で効率の良い文字入力を携帯端末等を用いて行うことが可能となる。以下では、そのような簡単で効率の良い文字入力が可能な、この発明の第8の実施の形態にかかる文字入力装置を説明する。
(Eighth embodiment)
The present invention can also be applied to character input using spot light. In a portable terminal such as a cellular phone or PHS (Personal Handyphone System), a technique is used in which a character associated with a combination of pressed buttons is input by pressing a numeric keypad a plurality of times. However, such a method of pressing the numeric keypad a plurality of times is very complicated and the input efficiency is poor. In this regard, according to the character input device of the present invention, simple and efficient character input can be performed using a portable terminal or the like. Hereinafter, a character input device according to an eighth embodiment of the present invention capable of such simple and efficient character input will be described.

この文字入力装置は、図56に示す構成を有する。すなわち、この文字入力装置は、図2の描画システムを構成するものと機能的には実質的に同一のデータ処理装置1、画像入力部2、表示部3及び発光部4を備え、更に、中央制御部11に接続された入力ボタン5を備えている。
入力ボタン5は、押しボタンスイッチ等より構成されており、操作者の操作に従った情報を、データ処理装置1の中央制御部11に供給する。
This character input device has the configuration shown in FIG. That is, this character input device includes a data processing device 1, an image input unit 2, a display unit 3, and a light emitting unit 4 that are substantially the same in function as those constituting the drawing system of FIG. An input button 5 connected to the control unit 11 is provided.
The input button 5 is configured by a push button switch or the like, and supplies information according to the operation of the operator to the central control unit 11 of the data processing device 1.

なお、図57に示すように、この文字入力装置のデータ処理装置1、画像入力部2、表示部3及び入力ボタン5は、一体に形成されて本体部をなしている。本体部は、例えば、移動体電話(携帯電話やPHS等)の機能を行ってもよい。また、発光部4は、例えばストラップ等を介して本体部に装着される。   As shown in FIG. 57, the data processing device 1, the image input unit 2, the display unit 3, and the input button 5 of this character input device are integrally formed to form a main body. The main body may perform the function of a mobile phone (such as a mobile phone or a PHS), for example. The light emitting unit 4 is attached to the main body through, for example, a strap.

また、この文字入力装置のデータ処理装置1の外部記憶部14は、仮想のキーボードを構成する各々の仮想のキーのキートップが表示部3の表示画面上で占める領域(キー領域)を示すキー領域データを、各々のキーが示す文字と対応付けて記憶するものとする。   In addition, the external storage unit 14 of the data processing device 1 of the character input device has a key indicating an area (key area) occupied on the display screen of the display unit 3 by a key top of each virtual key constituting the virtual keyboard. It is assumed that the area data is stored in association with the character indicated by each key.

この文字入力装置の動作は、画像入力処理(ステップS1)、スポット光抽出処理(ステップS21)及び補間処理(ステップSO1〜SO3)については、図39に示す第5の実施の形態の描画システムの動作と実質的に同一である。一方で、この文字入力装置は、図58に示す処理も行う。   The operation of this character input device is as follows. The image input process (step S1), the spot light extraction process (step S21), and the interpolation process (steps SO1 to SO3) are the same as those of the drawing system of the fifth embodiment shown in FIG. It is substantially the same as the operation. On the other hand, this character input device also performs the processing shown in FIG.

すなわち、この文字入力装置の画像解析部12がステップSO3の処理を終えると、ステップS3で中央制御部11は、スポットを表示部3の表示画面上に表示させると共に、外部記憶部14よりキー領域データを読み出してRAM13に一時記憶させ、表示部3の表示画面上、このキー領域データが示す各領域に、図59に示すような、上述の仮想のキーのキートップを表示させる(図58、ステップSS1)。ただし、既にRAM13がキー領域データを一時記憶している場合は、改めて外部記憶部14からキー領域データを読み出す必要はない。   In other words, when the image analysis unit 12 of this character input device finishes the processing of step SO3, the central control unit 11 displays the spot on the display screen of the display unit 3 and the key area from the external storage unit 14 in step S3. The data is read out and temporarily stored in the RAM 13, and the key tops of the above-described virtual keys as shown in FIG. 59 are displayed in the areas indicated by the key area data on the display screen of the display unit 3 (FIG. 58, FIG. 58). Step SS1). However, if the RAM 13 has already temporarily stored the key area data, it is not necessary to read the key area data from the external storage unit 14 again.

ステップSS1の処理が行われる結果、ユーザは、スポットがどのキートップに重ねられたかを視認することができる。なお、仮想のキーのキートップの表示は、たとえば、キートップの形状を表すキートップ画像データを予めユーザ等が外部記憶部14に記憶させ、中央制御部11がこのキートップ画像データを外部記憶部14から読み出し、読み出したキートップ画像データが表す形状を表示部3に表示させることにより行えばよい。   As a result of the processing in step SS1, the user can visually recognize which key top the spot is superimposed on. Note that the keytop display of the virtual key is performed by, for example, the user or the like storing keytop image data representing the shape of the keytop in the external storage unit 14 in advance, and the central control unit 11 storing this keytop image data in the external storage It may be performed by reading from the unit 14 and displaying the shape represented by the read key top image data on the display unit 3.

そして、ステップSS1でスポット及び仮想のキートップを表示させると、中央制御部11は、画像入力部2が新たな画像データを供給するまでの間、ユーザが入力ボタン5を操作して文字の決定を指示するのを待機する。そして、新たな画像データが供給されるまでにユーザによる文字の決定の指示があったか否かを判別し(ステップSS2)、指示がなかったと判別すると、ステップS21へと処理を戻す。   When the spot and the virtual key top are displayed in step SS1, the central control unit 11 determines the character by operating the input button 5 until the image input unit 2 supplies new image data. Wait to tell me. Then, it is determined whether or not there has been an instruction to determine characters by the user before new image data is supplied (step SS2). If it is determined that there has not been an instruction, the process returns to step S21.

一方、ユーザが文字の決定を指示したと判別すると、中央制御部11は、現にスポットが表示されている位置がいずれの文字を表すキーのキートップが示す領域に属するかを、ステップSO3でもっとも新しく取得したスポットの座標(locx,locy)に基づいて判別する(ステップSS3)。そして、画像解析部12は、ステップSS1で判別された文字(すなわち、ユーザが入力した文字)を表すデータを生成し、このデータをRAM13に格納する(ステップSS4)。   On the other hand, if it is determined that the user has instructed the character determination, the central control unit 11 determines in step SO3 whether the position where the spot is currently displayed belongs to the area indicated by the key top of the key representing which character. It discriminate | determines based on the coordinate (locx, location) of the newly acquired spot (step SS3). Then, the image analysis unit 12 generates data representing the character determined in step SS1 (that is, the character input by the user), and stores this data in the RAM 13 (step SS4).

ステップSS4の処理が終わると、中央制御部11は、画像入力部2が新たな画像データを供給するのを待機し、供給されると処理をステップS21に戻す。   When the process of step SS4 is completed, the central control unit 11 waits for the image input unit 2 to supply new image data, and when supplied, returns the process to step S21.

ステップSS4の処理が行われるたびに文字を表すデータがRAM13に順次格納される一方、中央処理部11は、例えば、RAM13に順次格納されたこれらのデータを解析することにより、例えばこれらのデータが全体として表す文字列がどのようなコマンドを表しているかを特定する。そして、特定したコマンドに従った処理を実行する。   Each time the process of step SS4 is performed, data representing characters is sequentially stored in the RAM 13, while the central processing unit 11 analyzes these data stored in the RAM 13, for example. Specify what kind of command the entire character string represents. Then, processing according to the specified command is executed.

なお、文字の入力に際しては、ユーザが発光部4の位置の見当をつけやすくするため、予めキー領域データが示す領域に一致するようにキートップが印刷されたシートを、画像入力部2の視野内に掲げるようにしてもよい。また、キートップが印刷されたシートを掲げる代わりに、キートップの画像を投影するようにしてもよい。   In order to make it easier for the user to determine the position of the light emitting unit 4 when inputting characters, a sheet on which a key top is printed in advance so as to coincide with the region indicated by the key region data is displayed on the field of view of the image input unit 2. You may make it raise in. Further, instead of raising the sheet on which the key top is printed, an image of the key top may be projected.

以上、この発明の実施の形態を説明したが、この発明の画像表示装置及び画像表示方法は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。例えば、画像を表示する表示装置及び画像を撮像してその画像を表す画像データを作成する撮像装置に接続されたコンピュータに、上述のデータ処理装置の動作を実行するためのプログラムを格納した媒体(磁気テープ、CD−ROM等)から該プログラムをインストールすることにより、上述の処理を実行する描画システムや文字入力装置を構成することができる。   Although the embodiment of the present invention has been described above, the image display apparatus and the image display method of the present invention can be realized using a normal computer system, not a dedicated system. For example, a medium (a medium storing a program for executing the operation of the above-described data processing device in a computer connected to a display device that displays an image and an imaging device that captures an image and creates image data representing the image) By installing the program from a magnetic tape, CD-ROM, or the like, a drawing system or a character input device that executes the above-described processing can be configured.

また、例えば、通信ネットワークの掲示板(BBS)に該プログラムを掲示し、これをネットワークを介して配信してもよい。また、プログラムにより搬送波を変調して得られる変調波を配信することにより、プログラムを供給するようにしても良い。そして、このプログラムを起動し、OSの制御下に、他のアプリケーションプログラムと同様に実行することにより、上述の処理を実行することができる。   Further, for example, the program may be posted on a bulletin board (BBS) of a communication network and distributed via the network. Further, the program may be supplied by distributing a modulated wave obtained by modulating a carrier wave by the program. The above-described processing can be executed by starting this program and executing it under the control of the OS in the same manner as other application programs.

なお、OSが処理の一部を分担する場合、あるいは、OSが本願発明の1つの構成要素の一部を構成するような場合には、記録媒体には、その部分をのぞいたプログラムを格納してもよい。この場合も、この発明では、その記録媒体には、コンピュータが実行する各機能又はステップを実行するためのプログラムが格納されているものとする。   When the OS shares a part of processing, or when the OS constitutes a part of one component of the present invention, a program excluding the part is stored in the recording medium. May be. Also in this case, in the present invention, it is assumed that the recording medium stores a program for executing each function or step executed by the computer.

1…データ処理装置、11…中央制御部(撮像制御手段、表示制御手段)、12…画像解析部(加工手段)、12a…スポット光抽出部(計測手段)、12b…座標変換部(座標変換手段)、12c…補間処理部、13…RAM、14…外部記憶部、15…ユーザ操作入力部、16…受信部、17…ネットワークインターフェース部、18…通信用画像入力部、19…通信用音声入力部、20…通信用音声再生部、2、2A、2B…画像入力部(撮像手段)、3…表示部(表示手段)、4…発光部、401…送信部、401A…無線送信機、401B…スイッチ、41…発光体、42…点灯用スイッチ、43…輝度増加用スイッチ、44…本体部、45…発光部駆動回路、5…入力ボタン、T…タイマ DESCRIPTION OF SYMBOLS 1 ... Data processing apparatus, 11 ... Central control part (imaging control means, display control means), 12 ... Image analysis part (processing means), 12a ... Spot light extraction part (measurement means), 12b ... Coordinate conversion part (coordinate conversion) Means), 12c ... Interpolation processing unit, 13 ... RAM, 14 ... External storage unit, 15 ... User operation input unit, 16 ... Receiving unit, 17 ... Network interface unit, 18 ... Image input unit for communication, 19 ... Audio for communication Input unit, 20: Communication audio reproduction unit, 2, 2A, 2B ... Image input unit (imaging unit), 3 ... Display unit (display unit), 4 ... Light emitting unit, 401 ... Transmission unit, 401A ... Wireless transmitter, 401B ... switch, 41 ... light emitter, 42 ... lighting switch, 43 ... brightness increasing switch, 44 ... main body, 45 ... light emitting unit drive circuit, 5 ... input button, T ... timer

Claims (6)

スポットと、このスポットを含む領域を複数の任意の位置から撮像する撮像手段と、この撮像手段によって撮像された空間内の面の画像データを生成する生成手段と、この生成手段によって生成された画像データに基づく画像を表示する表示手段とを備えた画像表示装置において、
前記生成手段は、
前記表示手段の表示画面に適正に表示されるように前記画像データを加工する加工手段と、
前記空間内における前記スポットの位置座標を計測する計測手段と、
この計測手段によって計測された前記スポットの位置座標に基づいて、前記加工手段による加工後の画像データが表示すべきスポットの形状を決定するスポット形状決定手段と、
この計測手段によって計測された前記スポットの位置座標を、加工後の画像データに反映される位置座標に変換する座標変換手段と、
この座標変換手段によって変換された位置座標に、前記スポット形状決定手段によって決定された形状のスポットを表示するよう制御する表示制御手段と、
を備えることを特徴とする画像表示装置。
An imaging unit that images a spot and an area including the spot from a plurality of arbitrary positions, a generation unit that generates image data of a surface in the space captured by the imaging unit, and an image generated by the generation unit In an image display device comprising display means for displaying an image based on data,
The generating means includes
Processing means for processing the image data so as to be properly displayed on the display screen of the display means;
Measuring means for measuring the position coordinates of the spot in the space;
Based on the position coordinates of the spot measured by the measuring means, spot shape determining means for determining the shape of the spot to be displayed by the image data processed by the processing means;
Coordinate conversion means for converting the position coordinates of the spot measured by the measurement means into position coordinates reflected in the processed image data;
Display control means for controlling to display the spot of the shape determined by the spot shape determination means on the position coordinates converted by the coordinate conversion means;
The image display apparatus comprising: a.
前記スポットの光源が発光していることを示す信号を外部より受信する受信手段を更に備え、
前記計測手段は、前記受信手段が前記信号を受信したことに応答して前記スポットの位置座標を計測することを特徴とする請求項1に記載の画像表示装置。
Receiving means for receiving a signal indicating that the light source of the spot emits light from the outside ;
The image display apparatus according to claim 1, wherein the measurement unit measures the position coordinates of the spot in response to the reception unit receiving the signal .
前記撮像手段は前記スポットを含む領域を複数の任意の位置から連続的に撮像し、The imaging means continuously images a region including the spot from a plurality of arbitrary positions,
前記計測手段はこの連続的に撮像された空間における前記スポットの位置座標を連続的に計測し、The measuring means continuously measures the position coordinates of the spot in the continuously imaged space,
前記表示制御手段は、前記計測手段によって連続的に計測された結果により決定された形状のスポットからなる軌跡を表示するよう制御することを特徴とする、請求項1に記載の画像表示装置。The image display apparatus according to claim 1, wherein the display control unit performs control so as to display a trajectory including spots having a shape determined based on a result continuously measured by the measurement unit.
前記計測手段は少なくとも2つのスポットの位置座標を計測するとともにこれらのスポット間の直線距離も計測し、The measuring means measures the position coordinates of at least two spots and also measures the linear distance between these spots,
前記スポット形状決定手段は、前記計測手段によって計測された前記スポットの位置座標と長剣距離とに基づいて、前記加工手段による加工後の画像データが表示すべきスポットの形状を決定することを特徴とする請求項1又は3に記載の画像表示装置。The spot shape determining means determines the shape of the spot to be displayed by the image data processed by the processing means based on the position coordinates of the spot and the long sword distance measured by the measuring means. The image display device according to claim 1 or 3.
スポットと、このスポットを含む領域を複数の任意の位置から撮像する撮像ステップと、この撮像ステップにて撮像された空間内の面の画像データを生成する生成ステップと、この生成ステップにて生成された画像データに基づく画像を表示する表示ステップとからなる画像表示方法であって、An imaging step for imaging a spot and an area including the spot from a plurality of arbitrary positions, a generation step for generating image data of a surface in the space imaged in the imaging step, and a generation step An image display method comprising a display step of displaying an image based on the obtained image data,
前記生成ステップは、The generating step includes
前記表示ステップにて表示画面に適正に表示されるように前記画像データを加工する加工ステップと、A processing step of processing the image data so as to be properly displayed on the display screen in the display step;
前記空間内における前記スポットの位置座標を計測する計測ステップと、A measurement step of measuring the position coordinates of the spot in the space;
この計測ステップにて計測された前記スポットの位置座標に基づいて、前記加工ステップでの加工の結果得られる加工後の画像データが表示すべきスポットの形状を決定するスポット形状決定ステップと、Based on the position coordinates of the spot measured in this measurement step, a spot shape determination step for determining the shape of the spot to be displayed by the processed image data obtained as a result of the processing in the processing step;
この計測ステップにて計測された前記スポットの位置座標を、加工後の画像データに反映される位置座標に変換する座標変換ステップと、A coordinate conversion step for converting the position coordinates of the spot measured in this measurement step into position coordinates reflected in the processed image data;
この座標変換ステップにて変換された位置座標に、前記スポット形状決定ステップにて決定された形状のスポットを表示するよう制御する表示制御ステップと、A display control step for controlling to display the spot of the shape determined in the spot shape determination step on the position coordinate converted in the coordinate conversion step;
を含むことを特徴とする画像表示方法。An image display method comprising:
表示装置と複数の撮像装置とに接続されるコンピュータを、A computer connected to the display device and the plurality of imaging devices;
前記複数の撮像装置に対し、スポットと、このスポットを含む領域を複数の任意の位置から撮像させる撮像制御手段、この撮像制御手段によって撮像された空間内の面の画像データを生成する生成手段、この生成手段によって生成された画像データに基づく画像を前記表示装置に表示させる表示制御手段として機能させ、更に、An imaging control unit that images a spot and an area including the spot from a plurality of arbitrary positions with respect to the plurality of imaging devices, a generation unit that generates image data of a surface in a space captured by the imaging control unit, Function as display control means for causing the display device to display an image based on the image data generated by the generation means;
前記生成手段によって生成された画像データを、前記表示手段の表示画面に適正に表示されるように加工する加工手段、Processing means for processing the image data generated by the generating means so as to be properly displayed on the display screen of the display means;
前記空間内における前記スポットの位置座標を計測する計測手段、Measuring means for measuring position coordinates of the spot in the space;
この計測手段によって計測された前記スポットの位置座標に基づいて、前記加工手段による加工後の画像データが表示すべきスポットの形状を決定するスポット形状決定手段、Spot shape determining means for determining the shape of the spot to be displayed by the image data after processing by the processing means based on the position coordinates of the spot measured by the measuring means;
この計測手段によって計測された前記スポットの位置座標を、加工後の画像データに反映される位置座標に変換する座標変換手段、Coordinate conversion means for converting the position coordinates of the spot measured by the measurement means into position coordinates reflected in the processed image data;
この座標変換手段によって変換された位置座標に、前記スポット形状決定手段によって決定された形状のスポットを表示するよう制御する表示制御手段、Display control means for controlling to display the spot of the shape determined by the spot shape determination means on the position coordinate converted by the coordinate conversion means;
として機能させるためのプログラム。Program to function as.
JP2009264687A 2000-07-25 2009-11-20 Image display device, image display method, and program Expired - Fee Related JP5158057B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009264687A JP5158057B2 (en) 2000-07-25 2009-11-20 Image display device, image display method, and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000223991 2000-07-25
JP2000223991 2000-07-25
JP2009264687A JP5158057B2 (en) 2000-07-25 2009-11-20 Image display device, image display method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001222377A Division JP4613456B2 (en) 2000-07-25 2001-07-24 Image display device, image display method, and program

Publications (2)

Publication Number Publication Date
JP2010044425A JP2010044425A (en) 2010-02-25
JP5158057B2 true JP5158057B2 (en) 2013-03-06

Family

ID=42015784

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009264687A Expired - Fee Related JP5158057B2 (en) 2000-07-25 2009-11-20 Image display device, image display method, and program

Country Status (1)

Country Link
JP (1) JP5158057B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2916753B2 (en) * 1996-04-30 1999-07-05 株式会社ナナオ Video monitor adjustment system
JPH1185395A (en) * 1997-09-08 1999-03-30 Sharp Corp Liquid crystal projector device with pointing function
JP2001356875A (en) * 2000-06-13 2001-12-26 Toshiba Corp Pointer display system

Also Published As

Publication number Publication date
JP2010044425A (en) 2010-02-25

Similar Documents

Publication Publication Date Title
US7039253B2 (en) Image display device, image display method, program, and projection system
JP4613456B2 (en) Image display device, image display method, and program
KR100298240B1 (en) Information input device, information input method and solid state imaging device
CA2378154C (en) Computer presentation system and method with optical tracking of wireless pointer
JP3521187B2 (en) Solid-state imaging device
US5422987A (en) Method and apparatus for changing the perspective view of a three-dimensional object image displayed on a display screen
US6598978B2 (en) Image display system, image display method, storage medium, and computer program
US20060267927A1 (en) User interface controller method and apparatus for a handheld electronic device
EP1037163A2 (en) Coordinate input apparatus and method
US20020186351A1 (en) Untethered laser pointer for use with computer display
US20080222571A1 (en) Information selecting apparatus, storage medium storing information selecting program, game apparatus, and storage medium storing game program
KR100743798B1 (en) Projection device, projection system, and image obtainment method
US20080222318A1 (en) Information selecting apparatus and storage medium storing information selecting program
TW201108751A (en) Device and method for displaying an image
JP2012133808A (en) Cursor control method and device
WO2006020496A2 (en) User interface controller method and apparatus for a handheld electronic device
JP2008225556A (en) Projector system
KR20170129947A (en) Interactive projector and interative projector system
JP3792907B2 (en) Hand pointing device
JP5158057B2 (en) Image display device, image display method, and program
KR20090111913A (en) Motion detecting method and apparatus
JP5261287B2 (en) Illumination system, space production system, and projection image generation method
WO2005013115A1 (en) Position-detecting system
JPH07319616A (en) Position input method and conference support system using the same
WO2014041938A1 (en) Information input device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121126

R150 Certificate of patent or registration of utility model

Ref document number: 5158057

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151221

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees