JP4830873B2 - Reading device, information processing system, and program - Google Patents

Reading device, information processing system, and program Download PDF

Info

Publication number
JP4830873B2
JP4830873B2 JP2007017886A JP2007017886A JP4830873B2 JP 4830873 B2 JP4830873 B2 JP 4830873B2 JP 2007017886 A JP2007017886 A JP 2007017886A JP 2007017886 A JP2007017886 A JP 2007017886A JP 4830873 B2 JP4830873 B2 JP 4830873B2
Authority
JP
Japan
Prior art keywords
positional relationship
image
points
recording medium
reading
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007017886A
Other languages
Japanese (ja)
Other versions
JP2008186149A (en
Inventor
一永 堀内
英資 長ヶ部
一彦 廣川
真史 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2007017886A priority Critical patent/JP4830873B2/en
Publication of JP2008186149A publication Critical patent/JP2008186149A/en
Application granted granted Critical
Publication of JP4830873B2 publication Critical patent/JP4830873B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、記録媒体に記録された当該記録媒体上の位置を表す位置情報を読み取る読み取り装置等に関する。   The present invention relates to a reading device that reads position information indicating a position on a recording medium recorded on the recording medium.

物の表面に2次元座標を設定し、この2次元座標の座標値を読み取り装置で読み取ることにより、この物の表面における読み取り装置の位置を認識する技術がある。例えば、用紙等の記録媒体上に2次元座標の座標値を表す位置情報を印刷し、記録媒体上の部分画像をペン型読み取り装置で読み取り、得られた画像から位置情報を取得してペン型読み取り装置の軌跡を取得する従来技術が知られている(例えば、特許文献1、2参照)。   There is a technique for recognizing the position of a reading device on the surface of an object by setting two-dimensional coordinates on the surface of the object and reading the coordinate value of the two-dimensional coordinate with a reading device. For example, position information representing coordinate values of two-dimensional coordinates is printed on a recording medium such as paper, a partial image on the recording medium is read by a pen-type reading device, and position information is acquired from the obtained image to obtain a pen type Conventional techniques for acquiring the trajectory of the reading device are known (see, for example, Patent Documents 1 and 2).

特許文献1は、次のような技術を開示している。複数のマークを備えた符号化パターンを有する製品であって、マークのそれぞれが少なくとも2つの異なる値のうちの1つを表している。符号化パターンが、また、複数の基準位置を備えており、複数のマークのそれぞれが1つの基準位置に関連付けられている。各マークの値がその基準位置に対するその位置によって決定される。   Patent Document 1 discloses the following technique. A product having a coding pattern with a plurality of marks, each of the marks representing one of at least two different values. The encoding pattern also includes a plurality of reference positions, and each of the plurality of marks is associated with one reference position. The value of each mark is determined by its position relative to its reference position.

特許文献2は、次のような技術を開示している。表面に対して配置または移動されたときに配向データを生成するための感知デバイスにおいて、配向データは表面に対する感知デバイスの配向を表し、表面はその上に配置されたコード化データを有し、コード化データは感知デバイスにより感知されるときに配向を示す。前記感知デバイスは、ハウジングと、コード化データの少なくともいくつかを使用して配向データを生成するように構成された配向感知手段と、配向データをコンピュータシステムに伝達するように構成された通信手段とを含む。   Patent Document 2 discloses the following technique. In a sensing device for generating orientation data when placed or moved relative to a surface, the orientation data represents the orientation of the sensing device relative to the surface, the surface has coded data disposed thereon, The digitized data indicates orientation when sensed by the sensing device. The sensing device includes a housing, orientation sensing means configured to generate orientation data using at least some of the encoded data, and communication means configured to communicate the orientation data to a computer system. including.

特表2003−511761号公報Japanese translation of PCT publication No. 2003-511761 特表2004−530957号公報JP-T-2004-530957

本発明は、物の表面における読み取り装置の位置だけでなく、その物の表面における読み取り装置の向き(角度)を認識する読み取り装置等を提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide a reader that recognizes not only the position of a reader on the surface of an object but also the orientation (angle) of the reader on the surface of the object.

上記の目的を達成するため、請求項1に係る発明は、
記録媒体に記録された当該記録媒体上の位置を表す位置情報を読み取る読み取り装置であって、
前記記録媒体から2点の前記位置情報を読み取る読み取り手段と、
前記記録媒体上の前記2点の画像を取得する画像取得手段と、
前記読み取り手段により読み取られた前記位置情報に基づき前記2点の前記記録媒体上の位置関係を抽出する第1の位置関係抽出手段と、
前記画像上の前記2点の位置関係を抽出する第2の位置関係抽出手段と、
前記第1の位置関係抽出手段により抽出された前記2点の前記記録媒体上の位置関係と前記第2の位置関係抽出手段により抽出された前記画像上の前記2点の位置関係を比較することにより、当該第1の位置関係抽出手段により抽出された当該2点のうち1点から他点へと向かう第1の方向と、当該第2の位置関係抽出手段により抽出された当該2点のうち1点から他点へと向かう第2の方向との相対角度を検出する角度検出手段と
を備えることを特徴とする読み取り装置として実現される。
請求項2に係る発明は、
前記画像取得手段は、前記記録媒体上の前記2点を含む範囲の画像を取得し、
前記第2の位置関係抽出手段は、前記画像上における前記2点の位置関係を抽出することを特徴とする。
請求項3に係る発明は、
前記読み取り手段は、第1の座標系に基づく座標値を表す画像パターンが記録された前記記録媒体から前記2点の位置の当該画像パターンを読み取って座標値を取得し、
前記第1の位置関係抽出手段は、前記読み取り手段により取得された座標値に基づき前記2点の位置関係を抽出し、
前記第2の位置関係抽出手段は、前記画像に対して設定された第2の座標系における前記2点の座標値に基づき当該2点の位置関係を抽出することを特徴とする。
請求項4に係る発明は、
前記第1の位置関係抽出手段および前記第2の位置関係抽出手段は、前記2点の位置関係として当該2点を結ぶ線分をそれぞれ定義し、
前記角度検出手段は、前記第1の位置関係抽出手段および前記第2の位置関係抽出手段により定義された2つの前記線分がなす角度を計算することにより、前記相対角度を検出することを特徴とする。
請求項5に係る発明は、
記録媒体に記録された当該記録媒体上の位置を表す位置情報を読み取る読み取り装置であって、
第1の座標系に基づく座標値を表す画像パターンが記録された前記記録媒体から一定領域の画像を取得する画像取得手段と、
前記画像取得手段により取得された画像から前記画像パターンを抽出して複数の座標値を読み取る読み取り手段と、
前記読み取り手段により読み取られた前記複数の座標値に基づいて特定される前記第1の座標系と前記画像に対して設定された第2の座標系とがなす相対角度を検出する角度検出手段と
を備えることを特徴とする読み取り装置として実現される。
請求項6に係る発明は、
前記画像取得手段は、前記記録媒体から2点の座標値を含む範囲の画像を取得し、
前記読み取り手段は、前記2点の座標値を読み取り、
前記角度検出手段は、前記第1の座標系において前記2点を結ぶベクトルと前記第2の座標系において当該2点を結ぶベクトルを生成し、当該2つのベクトル間の相対角度を計算し、計算結果に基づいて当該第1の座標系と当該第2の座標系とがなす相対角度を求めることを特徴とする。
請求項7に係る発明は、
前記読み取り手段は、前記画像から前記2点の各々を中心とする2つの画像領域を切り出し、切り出した2つの当該画像領域に対して、それぞれ中心に位置する前記画像パターンを抽出して座標値を読み取ることを特徴とする。
請求項8に係る発明は、
記録媒体に記録された当該記録媒体上の位置を表す位置情報であって当該位置情報を読み取る読み取り装置により読み取られた当該記録媒体上の2点の位置情報に基づき、当該2点の当該記録媒体上の位置関係を抽出する第1の位置関係抽出手段と、
前記読み取り装置に設けられて前記記録媒体上の前記2点の画像を取得する画像取得手段から取得した当該画像上の当該2点の位置関係を抽出する第2の位置関係抽出手段と、
前記第1の位置関係抽出手段により抽出された前記2点の前記記録媒体上の位置関係と前記第2の位置関係抽出手段により抽出された前記画像上の前記2点の位置関係を比較することにより、当該第1の位置関係抽出手段により抽出された当該2点のうち1点から他点へと向かう第1の方向と、当該第2の位置関係抽出手段により抽出された当該2点のうち1点から他点へと向かう第2の方向との相対角度を検出する角度検出手段と
を備えることを特徴とする情報処理システムとして実現される。
請求項9に係る発明は、
前記第1の位置関係抽出手段および前記第2の位置関係抽出手段は、前記2点の位置関係として当該2点を結ぶ線分をそれぞれ定義し、
前記角度検出手段は、前記第1の位置関係抽出手段および前記第2の位置関係抽出手段により定義された2つの前記線分がなす角度を計算することにより、前記相対角度を検出することを特徴とする。
請求項10に係る発明は、
第1の座標系に基づく座標値を表す画像パターンが記録された記録媒体における一定領域の画像から当該画像パターンにより表される複数の座標値を読み取る読み取り手段と、
前記読み取り手段により読み取られた前記複数の座標値に基づいて特定される前記第1の座標系と前記画像に対して設定された第2の座標系とがなす相対角度を検出する角度検出手段と
を備えることを特徴とする情報処理システム。
請求項11に係る発明は、
前記読み取り手段は、前記画像における2点の位置の座標値を読み取り、
前記角度検出手段は、前記第1の座標系において前記2点を結ぶベクトルと前記第2の座標系において当該2点を結ぶベクトルを生成し、当該2つのベクトル間の相対角度を計算し、計算結果に基づいて当該第1の座標系と当該第2の座標系とがなす相対角度を求めることを特徴とする。
請求項12に係る発明は、
コンピュータを、
記録媒体に記録された当該記録媒体上の位置を表す位置情報であって当該位置情報を読み取る読み取り装置により読み取られた当該記録媒体上の2点の位置情報に基づき、当該2点の当該記録媒体上の位置関係を抽出する第1の位置関係抽出手段と、
前記記録媒体上の前記2点の画像を取得する画像取得手段と、
前記画像上の前記2点の位置関係を抽出する第2の位置関係抽出手段と、
前記第1の位置関係抽出手段により抽出された前記2点の前記記録媒体上の位置関係と前記第2の位置関係抽出手段により抽出された前記画像上の前記2点の位置関係を比較することにより、当該第1の位置関係抽出手段により抽出された当該2点のうち1点から他点へと向かう第1の方向と、当該第2の位置関係抽出手段により抽出された当該2点のうち1点から他点へと向かう第2の方向との相対角度を検出する角度検出手段として
機能させることを特徴とするプログラムとして実現される。
請求項13に係る発明は、
コンピュータを
第1の座標系に基づく座標値を表す画像パターンが記録された記録媒体における一定領域の画像から当該画像パターンにより表される複数の座標値を読み取る読み取り手段と、
前記読み取り手段により読み取られた前記複数の座標値に基づいて特定される前記第1の座標系と前記画像に対して設定された第2の座標系とがなす相対角度を検出する角度検出手段
として機能させることを特徴とするプログラムとして実現される。
In order to achieve the above object, the invention according to claim 1
A reading device for reading position information indicating a position on the recording medium recorded on the recording medium,
Reading means for reading the position information of two points from the recording medium;
Image acquisition means for acquiring the two images on the recording medium;
First positional relationship extracting means for extracting the positional relationship of the two points on the recording medium based on the positional information read by the reading means;
Second positional relationship extracting means for extracting a positional relationship between the two points on the image;
Comparing the positional relationship between the two points on the recording medium extracted by the first positional relationship extracting unit and the positional relationship between the two points on the image extracted by the second positional relationship extracting unit. Thus, of the two points extracted by the first positional relationship extracting unit, the first direction from one point to the other point and the two points extracted by the second positional relationship extracting unit It is realized as a reading device comprising an angle detecting means for detecting a relative angle with a second direction from one point to another point .
The invention according to claim 2
It said image acquisition means acquires an image of a range including the two points on the recording medium,
The second positional relationship extracting means extracts the positional relationship between the two points on the image.
The invention according to claim 3
The reading means reads the image pattern at the position of the two points from the recording medium on which the image pattern representing the coordinate value based on the first coordinate system is recorded, and acquires the coordinate value.
The first positional relationship extraction unit extracts the positional relationship between the two points based on the coordinate values acquired by the reading unit,
The second positional relationship extracting means extracts the positional relationship between the two points based on the coordinate values of the two points in the second coordinate system set for the image.
The invention according to claim 4
The first positional relationship extracting means and the second positional relationship extracting means define a line segment connecting the two points as the positional relationship of the two points,
The angle detection unit detects the relative angle by calculating an angle formed by two line segments defined by the first positional relationship extraction unit and the second positional relationship extraction unit. And
The invention according to claim 5
A reading device for reading position information indicating a position on the recording medium recorded on the recording medium,
Image acquisition means for acquiring an image of a certain area from the recording medium on which an image pattern representing coordinate values based on the first coordinate system is recorded;
Reading means for extracting a plurality of coordinate values by extracting the image pattern from the image obtained by the image obtaining means;
Angle detecting means for detect the relative angle between the second coordinate system set for the first coordinate system and the image specified based on the plurality of coordinate values read by the reading means It implement | achieves as a reader characterized by comprising.
The invention according to claim 6
The image acquisition means acquires an image in a range including two coordinate values from the recording medium,
The reading means reads the coordinate values of the two points,
The angle detection means generates a vector connecting the two points in the first coordinate system and a vector connecting the two points in the second coordinate system, calculates a relative angle between the two vectors, and calculates A relative angle formed between the first coordinate system and the second coordinate system is obtained based on the result.
The invention according to claim 7 provides:
The reading unit cuts out two image areas centered on each of the two points from the image, extracts the image pattern located at the center of each of the cut out two image areas, and obtains coordinate values. It is characterized by reading.
The invention according to claim 8 provides:
Based on the position information of the two points on the recording medium read by the reading device that reads the position information, the position information indicating the position on the recording medium recorded on the recording medium. First positional relationship extraction means for extracting the positional relationship above;
A second positional relationship extracting means for extracting a positional relationship between the two points on the image acquired from an image acquiring means provided in the reading device and acquiring the two points on the recording medium;
Comparing the positional relationship between the two points on the recording medium extracted by the first positional relationship extracting unit and the positional relationship between the two points on the image extracted by the second positional relationship extracting unit. Thus, of the two points extracted by the first positional relationship extracting unit, the first direction from one point to the other point and the two points extracted by the second positional relationship extracting unit This is realized as an information processing system comprising angle detection means for detecting a relative angle with a second direction from one point to another point .
The invention according to claim 9 is:
The first positional relationship extracting means and the second positional relationship extracting means define a line segment connecting the two points as the positional relationship of the two points,
The angle detection unit detects the relative angle by calculating an angle formed by two line segments defined by the first positional relationship extraction unit and the second positional relationship extraction unit. And
The invention according to claim 10 is:
Reading means for reading a plurality of coordinate values represented by the image pattern from an image of a certain area on a recording medium on which an image pattern representing a coordinate value based on the first coordinate system is recorded;
Angle detecting means for detect the relative angle between the second coordinate system set for the first coordinate system and the image specified based on the plurality of coordinate values read by the reading means An information processing system comprising:
The invention according to claim 11 is:
The reading means reads coordinate values of positions of two points in the image,
The angle detection means generates a vector connecting the two points in the first coordinate system and a vector connecting the two points in the second coordinate system, calculates a relative angle between the two vectors, and calculates A relative angle formed between the first coordinate system and the second coordinate system is obtained based on the result.
The invention according to claim 12
Computer
Based on the position information of the two points on the recording medium read by the reading device that reads the position information, the position information indicating the position on the recording medium recorded on the recording medium. First positional relationship extraction means for extracting the positional relationship above;
Image acquisition means for acquiring the two images on the recording medium;
Second positional relationship extracting means for extracting a positional relationship between the two points on the image;
Comparing the positional relationship between the two points on the recording medium extracted by the first positional relationship extracting unit and the positional relationship between the two points on the image extracted by the second positional relationship extracting unit. Thus, of the two points extracted by the first positional relationship extracting unit, the first direction from one point to the other point and the two points extracted by the second positional relationship extracting unit It is realized as a program characterized by functioning as an angle detecting means for detecting a relative angle with a second direction from one point to another point .
The invention according to claim 13 is:
The computer,
Reading means for reading a plurality of coordinate values represented by the image pattern from an image of a certain area on a recording medium on which an image pattern representing a coordinate value based on the first coordinate system is recorded;
Angle detecting means for detect the relative angle between the second coordinate system set for the first coordinate system and the image specified based on the plurality of coordinate values read by the reading means As a program characterized by functioning as

請求項1に係る発明によれば、記録媒体に対する読み取り装置の向き(角度)を特定することができる。
請求項2に係る発明によれば、1つの画像上で特定された位置関係に基づいて記録媒体に対する読み取り装置の向き(角度)を特定することができる。
請求項3に係る発明によれば、記録媒体上と画像上にそれぞれ設定された座標系を用いて記録媒体に対する読み取り装置の向き(角度)を特定することができる。
請求項4に係る発明によれば、2点の位置関係を線分がなす角度として計算し、これに基づいて記録媒体に対する読み取り装置の向き(角度)を特定することができる。
請求項5に係る発明によれば、記録媒体上と画像上にそれぞれ設定された座標系がなす相対角度を記録媒体に対する読み取り装置の向き(角度)として検出することができる。
請求項6に係る発明によれば、ベクトルを用いた角度計算により記録媒体に対する読み取り装置の向き(角度)を特定することができる。
請求項7に係る発明によれば、画像の中心に位置するパターン画像から座標値を読み取る読み取り手段を用いて、記録媒体に対する読み取り装置の向き(角度)を特定することができる。
請求項8に係る発明によれば、読み取り装置により取得した情報を用いて、記録媒体に対する読み取り装置の向き(角度)を特定することができる。
請求項9に係る発明によれば、2点の位置関係を線分がなす角度として計算し、これに基づいて記録媒体に対する読み取り装置の向き(角度)を特定することができる。
請求項10に係る発明によれば、読み取り装置により取得した情報を用いて、記録媒体上と画像上にそれぞれ設定された座標系がなす相対角度を記録媒体に対する読み取り装置の向き(角度)として検出することができる。
請求項11に係る発明によれば、ベクトルを用いた角度計算により記録媒体に対する読み取り装置の向き(角度)を特定することができる。
請求項12に係る発明によれば、読み取り装置により取得した情報を用いて、記録媒体に対する読み取り装置の向き(角度)を特定する機能をコンピュータにて実現させることができる。
請求項13に係る発明によれば、読み取り装置により取得した情報を用いて、記録媒体上と画像上にそれぞれ設定された座標系がなす相対角度を記録媒体に対する読み取り装置の向き(角度)として検出する機能をコンピュータにて実現させることができる。
According to the first aspect of the invention, the orientation (angle) of the reading device with respect to the recording medium can be specified.
According to the second aspect of the present invention, the orientation (angle) of the reading device with respect to the recording medium can be specified based on the positional relationship specified on one image.
According to the third aspect of the invention, the orientation (angle) of the reading device with respect to the recording medium can be specified using the coordinate systems respectively set on the recording medium and the image.
According to the fourth aspect of the present invention, the positional relationship between the two points is calculated as an angle formed by the line segment, and based on this, the orientation (angle) of the reading device with respect to the recording medium can be specified.
According to the fifth aspect of the present invention, the relative angle formed by the coordinate systems set on the recording medium and the image can be detected as the orientation (angle) of the reading device with respect to the recording medium.
According to the sixth aspect of the present invention, the orientation (angle) of the reading device with respect to the recording medium can be specified by angle calculation using a vector.
According to the seventh aspect of the present invention, it is possible to specify the orientation (angle) of the reading device with respect to the recording medium using the reading unit that reads the coordinate value from the pattern image located at the center of the image.
According to the invention which concerns on Claim 8, the direction (angle) of the reading apparatus with respect to a recording medium can be specified using the information acquired by the reading apparatus.
According to the ninth aspect of the present invention, the positional relationship between the two points is calculated as an angle formed by the line segment, and based on this, the orientation (angle) of the reading device with respect to the recording medium can be specified.
According to the invention of claim 10, using the information acquired by the reading device, the relative angle formed by the coordinate systems set on the recording medium and the image is detected as the orientation (angle) of the reading device with respect to the recording medium. can do.
According to the eleventh aspect of the invention, the orientation (angle) of the reading device with respect to the recording medium can be specified by angle calculation using a vector.
According to the twelfth aspect of the present invention, the computer can realize a function of specifying the orientation (angle) of the reading device with respect to the recording medium using the information acquired by the reading device.
According to the thirteenth aspect of the present invention, the information acquired by the reading device is used to detect the relative angle formed by the coordinate systems set on the recording medium and the image as the orientation (angle) of the reading device with respect to the recording medium. Can be realized by a computer.

以下、添付図面を参照して、本発明を実施するための最良の形態(以下、実施形態)について詳細に説明する。
本実施形態は、記録媒体上の特定の複数点に関して記録媒体上で表される位置と読み取り装置における読み取り位置とを抽出し、これらの位置関係を比較することで、記録媒体に対する読み取り装置の向き(角度)を検出する。
以下では、まず、本実施形態が適用されるシステムの例として、記録媒体である用紙に2次元座標による位置情報を印刷し、この位置情報を読み取り装置により読み取って、用紙上における読み取り装置の位置を認識するシステムの構成を説明する。その後、本実施形態により実現される、用紙(2次元座標)に対する読み取り装置の角度を検出する手法について説明する。
The best mode for carrying out the present invention (hereinafter referred to as an embodiment) will be described below in detail with reference to the accompanying drawings.
In this embodiment, the position of the reading device relative to the recording medium is extracted by extracting the position represented on the recording medium and the reading position in the reading device with respect to a plurality of specific points on the recording medium, and comparing these positional relationships. (Angle) is detected.
In the following, first, as an example of a system to which the present embodiment is applied, position information based on two-dimensional coordinates is printed on a sheet that is a recording medium, the position information is read by a reading device, and the position of the reading device on the sheet is determined. The configuration of a system that recognizes Thereafter, a method of detecting the angle of the reading apparatus with respect to the paper (two-dimensional coordinates) realized by the present embodiment will be described.

図1は、本実施形態が適用されるシステムの全体構成例を示す図である。
図1に示すシステムは、記録媒体10と、読み取り装置20と、情報処理装置30とを備えて構成される。図示のシステムにおいて、読み取り装置20は、情報処理装置30にアクセスし、読み取った情報を情報処理装置30へ転送する。読み取り装置20と情報処理装置30との間の情報通信は、有線または無線のいずれによって行っても良い。
FIG. 1 is a diagram showing an example of the overall configuration of a system to which this embodiment is applied.
The system shown in FIG. 1 includes a recording medium 10, a reading device 20, and an information processing device 30. In the illustrated system, the reading device 20 accesses the information processing device 30 and transfers the read information to the information processing device 30. Information communication between the reading device 20 and the information processing device 30 may be performed by either wired or wireless.

図2は、本実施形態で用いられる記録媒体10を示す図である。
記録媒体10は、表面に画像を記録可能な媒体であれば、その材質や形状は問わない。代表的な記録媒体10の例は紙であるが、樹脂製のシートや金属板等であっても良い。また、ある程度なめらかで画像を記録可能な表面を持った物であれば、図1および図2に示すようなシートや板状の形状にも限定されない。
FIG. 2 is a diagram showing the recording medium 10 used in the present embodiment.
The recording medium 10 may be of any material or shape as long as it can record an image on its surface. A typical example of the recording medium 10 is paper, but may be a resin sheet, a metal plate, or the like. Further, as long as it has a smooth surface to which an image can be recorded, it is not limited to a sheet or plate shape as shown in FIGS.

この記録媒体10の表面には、2次元座標(X−Y座標)が設定されている。この2次元座標は、個々の記録媒体10に対して固有に設定された座標系であっても良いし、より広い平面に対して設定された座標系の一部を切り取って記録媒体10の表面に割り当てたものであっても良い。そして、この2次元座標の座標値が符号化され、各座標値の符号を表すパターン画像が、記録媒体10の表面の対応位置に記録されている。したがって、記録媒体10の表面に記録されたパターン画像を検出し、得られたパターンから座標値を表す符号を抽出して復号することにより、記録媒体10の表面におけるパターン画像が検出された位置が特定されることとなる。すなわち、復号された座標値が位置情報として扱われる。   Two-dimensional coordinates (XY coordinates) are set on the surface of the recording medium 10. The two-dimensional coordinates may be a coordinate system that is uniquely set for each recording medium 10, or a part of the coordinate system that is set for a wider plane is cut out to obtain the surface of the recording medium 10. It may be assigned to. The coordinate values of the two-dimensional coordinates are encoded, and a pattern image representing the code of each coordinate value is recorded at a corresponding position on the surface of the recording medium 10. Therefore, by detecting the pattern image recorded on the surface of the recording medium 10, extracting the code representing the coordinate value from the obtained pattern and decoding it, the position where the pattern image is detected on the surface of the recording medium 10 can be determined. Will be identified. That is, the decoded coordinate value is handled as position information.

記録媒体10の表面にパターン画像を形成するための画像形成材としては、記録媒体10の材質に応じて適当な材料を任意に用いて良い。代表的な例としては、記録媒体10として紙を用いる場合、画像形成材としてトナーやインクを用いてパターン画像が印刷される。記録媒体10と画像形成材との組み合わせに応じて、画像形成材を記録媒体10の表面に浸透させたり、蒸着や電気的手段、あるいは接着剤を用いて画像形成材を記録媒体10の表面に接着したりすることにより、パターン画像が形成される。   As an image forming material for forming a pattern image on the surface of the recording medium 10, an appropriate material may be arbitrarily used depending on the material of the recording medium 10. As a typical example, when paper is used as the recording medium 10, a pattern image is printed using toner or ink as an image forming material. Depending on the combination of the recording medium 10 and the image forming material, the image forming material penetrates the surface of the recording medium 10 or the image forming material is applied to the surface of the recording medium 10 by vapor deposition, electrical means, or adhesive. A pattern image is formed by bonding.

パターン画像の検出は光学的に行われる。したがって、パターン画像を描画するための画像形成材には、特定の波長の光線に対して特性(吸収、透過または反射)を有する材料が用いられる。パターン画像の検出には、本実施形態の技術の用途に応じて、可視光に限らず種々の波長の光が用いられる。例えば、赤外領域の波長の光線を吸収し、可視光領域の波長の光線を吸収しない画像形成材を用いてパターン画像を描画すると、赤外線による検出ではパターン画像が検出されるが、人間の目ではパターン画像が認識できなくなる(または認識し難くなる)。そこで、記録媒体10の表面に、赤外線の吸収がなく人間が視認できる画像形成材を用いて所望の画像やテキスト等を、パターン画像に重ねて形成させても良い。   The pattern image is detected optically. Therefore, a material having characteristics (absorption, transmission, or reflection) with respect to a light beam having a specific wavelength is used as an image forming material for drawing a pattern image. For detection of the pattern image, not only visible light but also light of various wavelengths is used according to the application of the technique of the present embodiment. For example, if a pattern image is drawn using an image forming material that absorbs light in the infrared region and does not absorb light in the visible light region, the pattern image is detected by infrared detection. Then, the pattern image cannot be recognized (or becomes difficult to recognize). Therefore, a desired image, text, or the like may be formed on the surface of the recording medium 10 using an image forming material that does not absorb infrared rays and can be visually recognized by humans.

パターン画像により符号を表す手法としては、従来から種々の手法が存在しており、本実施形態では任意の手法を用いて良い。具体的には例えば、所定の図形や記号で数ビットの情報を表現し、この図形や記号を複数個組み合わせることで符号化された座標値を表す手法がある。図形や記号で情報を表現するには、例えば、サイズの異なる2種類のドットを用いることで1ドット当たり1ビットの情報(ビット値0とビット値1)を表現する方法、相互に異なる傾きを有するバックスラッシュ「\」及びスラッシュ「/」なる記号を用いて1ビットの情報を表現する方法、仮想的な網目を想定してこの網目の交点からX方向またはY方向に一定距離だけずらしてドットを形成し、ずらした方向により2ビットの情報(ビット値00、01、10、11)を表現する方法等、既存の種々の方法が用いられる。   Various methods have been conventionally used as a method for representing a code by a pattern image, and any method may be used in the present embodiment. More specifically, for example, there is a method of expressing a coordinate value encoded by expressing several bits of information by a predetermined graphic or symbol and combining a plurality of the graphic or symbol. In order to express information with graphics and symbols, for example, a method of expressing 1 bit information (bit value 0 and bit value 1) per dot by using two types of dots of different sizes, and different slopes. A method of expressing 1-bit information using the backslash “\” and slash “/” symbols, and assuming a virtual mesh and shifting the dot from the intersection of this mesh by a certain distance in the X or Y direction And various existing methods such as a method of expressing 2-bit information (bit values 00, 01, 10, 11) according to the shifted direction are used.

図3は、符号化された位置情報を表すパターン画像の構成例を示す図である。
まず、パターン画像を構成する単位パターンについて説明する。
図3(a)は、単位パターンの一例を示したものである。単位パターンとは、情報埋め込みの最小単位である。図3(a)では、黒塗りで示した領域にドットが配置され、斜線で示した領域にはドットが配置されていないことを示している。すなわち、図3(a)は、ドットを配置可能な9箇所の中から選択した2箇所にドットを配置することで単位パターンを構成した例を示す。9箇所の中から2箇所を選択する組み合わせは36(=)通りなので、この方式によれば36種類の単位パターンを利用できることになる。
FIG. 3 is a diagram illustrating a configuration example of a pattern image representing encoded position information.
First, unit patterns constituting the pattern image will be described.
FIG. 3A shows an example of the unit pattern. The unit pattern is the minimum unit for embedding information. FIG. 3A shows that dots are arranged in a black area, and no dots are arranged in a hatched area. That is, FIG. 3A shows an example in which a unit pattern is configured by arranging dots at two locations selected from nine locations where dots can be arranged. Since there are 36 (= 9 C 2 ) combinations for selecting 2 locations out of 9 locations, according to this method, 36 types of unit patterns can be used.

次に、このような単位パターンから構成される符号ブロックについて説明する。
図3(b)に、符号ブロックのレイアウトの一例を示す。符号ブロックとは、符号化された1つの座標値(X−Y座標値)を情報として含む(すなわち、1つの位置情報に対応付けられた)単位パターンの組である。ただし同図では、画像ではなく、パターン画像によって置き換えられる直前の符号配列で示している。図3(b)における最小の四角(以下、「単位ブロック」という)に、例えば図3(a)の単位パターンが配置される。図3(b)のレイアウトでは、符号ブロックの左上の1つの単位ブロックに、符号ブロックの基準となる同期符号が配置されている。また、同期符号が配置された単位ブロックの右側の4つの単位ブロックに2次元座標(X−Y座標)のX方向の座標値を表す位置符号が配置され、同期符号が配置された単位ブロックの下側の4つの単位ブロックにY方向の座標値を表す位置符号が配置されている。このようにして、1つの符号ブロックにX−Y座標値が記述される。以下、このパターン画像により記録媒体10の表面に記録されるX−Y座標値を(Px,Py)で表す。なお、図3(b)において、これらの位置符号が配置された単位ブロックに囲まれた16(=4×4)個の単位ブロックには、任意の情報を表す符号を配置して良い。
Next, a code block composed of such unit patterns will be described.
FIG. 3B shows an example of the layout of the code block. The code block is a set of unit patterns including one encoded coordinate value (XY coordinate value) as information (that is, associated with one position information). However, in the figure, not the image but the code arrangement immediately before being replaced by the pattern image is shown. For example, the unit pattern of FIG. 3A is arranged in the smallest square (hereinafter referred to as “unit block”) in FIG. In the layout of FIG. 3B, a synchronization code serving as a reference for the code block is arranged in one unit block at the upper left of the code block. In addition, position codes representing coordinate values in the X direction of two-dimensional coordinates (XY coordinates) are arranged in the four unit blocks on the right side of the unit block in which the synchronization code is arranged, and the unit block in which the synchronization code is arranged Position codes representing coordinate values in the Y direction are arranged in the lower four unit blocks. In this way, the XY coordinate values are described in one code block. Hereinafter, the XY coordinate value recorded on the surface of the recording medium 10 by this pattern image is represented by (Px, Py). In FIG. 3B, codes representing arbitrary information may be arranged in 16 (= 4 × 4) unit blocks surrounded by unit blocks in which these position codes are arranged.

上記の単位パターン(図3(a))および符号ブロック(図3(b))は例示に過ぎず、図示した構成に限定されないことは言うまでもない。すなわち、図3(a)に示した単位パターンの他に、上述した、サイズの異なる2種類のドットやバックスラッシュ「\」及びスラッシュ「/」等の記号、仮想された網目の交点に対するドットの位置等で情報を表す単位パターンを用いても良い。また、図3(b)の例では25(=5×5)個の単位ブロックを組み合わせて図3(b)に示す符号ブロックを構成したが、16(=4×4)個あるいはその他の個数の単位ブロックで符号ブロックを構成するようにしても良い。さらに、符号ブロックにおける同期符号や位置符号の配置も、図3(b)に示した配置に限るものではなく、位置符号のみあるいは同期符号と位置符号のみで符号ブロックを構成しても良い。   The unit pattern (FIG. 3A) and the code block (FIG. 3B) are merely examples, and needless to say, the configuration is not limited to the illustrated configuration. That is, in addition to the unit pattern shown in FIG. 3A, the above-described two types of dots having different sizes, symbols such as backslash “\” and slash “/”, and dots at the intersection of virtual meshes A unit pattern representing information by position or the like may be used. In the example of FIG. 3B, the code block shown in FIG. 3B is configured by combining 25 (= 5 × 5) unit blocks. However, 16 (= 4 × 4) or other numbers are used. A code block may be configured with the unit blocks. Furthermore, the arrangement of the synchronization code and the position code in the code block is not limited to the arrangement shown in FIG. 3B, and the code block may be composed of only the position code or only the synchronization code and the position code.

次に、読み取り装置20について説明する。
読み取り装置20は、記録媒体10の表面に形成されたパターン画像を検出して、位置情報を読み取る。また、本実施形態の読み取り装置20は、パターン画像を検出するために取得した記録媒体10の表面の画像に基づいて、記録媒体10の表面に設定された座標系に対する読み取り装置20の向きを識別する。読み取り装置20の向きは、読み取り装置20が取得した画像と記録媒体10の表面の座標系との間の相対角度によって表される。読み取り装置20により取得された位置および角度の情報は、情報処理装置30へ送信される。
Next, the reading device 20 will be described.
The reading device 20 detects a pattern image formed on the surface of the recording medium 10 and reads position information. Further, the reading device 20 of the present embodiment identifies the orientation of the reading device 20 with respect to the coordinate system set on the surface of the recording medium 10 based on the image of the surface of the recording medium 10 acquired to detect the pattern image. To do. The orientation of the reading device 20 is represented by a relative angle between the image acquired by the reading device 20 and the coordinate system of the surface of the recording medium 10. Information on the position and angle acquired by the reading device 20 is transmitted to the information processing device 30.

図4は、本実施形態における読み取り装置20の構成を示す図である。
図4に示すように、本実施形態の読み取り装置20は、カメラ部21と、位置情報復号部22と、ベクトル抽出部23と、角度検出部24と、送受信部25とを備える。これらの構成のうち、位置情報復号部22、ベクトル抽出部23および角度検出部24は、例えばマイクロプロセッサおよびメモリを搭載した制御回路にて実現される。
FIG. 4 is a diagram illustrating a configuration of the reading device 20 according to the present embodiment.
As shown in FIG. 4, the reading device 20 of the present embodiment includes a camera unit 21, a position information decoding unit 22, a vector extraction unit 23, an angle detection unit 24, and a transmission / reception unit 25. Among these configurations, the position information decoding unit 22, the vector extraction unit 23, and the angle detection unit 24 are realized by, for example, a control circuit equipped with a microprocessor and a memory.

カメラ部21は、記録媒体10の表面を撮影して画像を取得するための装置である。パターン画像が赤外線等の特定の波長の光線に対して特性を有する材料で形成されている場合、カメラ部21は、その波長の光を発する発光素子とその波長の光を感知する撮像素子とを用いて構成される。本実施形態のカメラ部21は、記録媒体10の表面における一定の広さの範囲を撮影する。撮影される範囲には、符号ブロックが複数含まれる。   The camera unit 21 is an apparatus for capturing an image by photographing the surface of the recording medium 10. When the pattern image is formed of a material having characteristics with respect to light of a specific wavelength such as infrared rays, the camera unit 21 includes a light emitting element that emits light of the wavelength and an imaging element that senses light of the wavelength. Constructed using. The camera unit 21 of the present embodiment captures a range of a certain area on the surface of the recording medium 10. A range to be photographed includes a plurality of code blocks.

位置情報復号部22は、カメラ部21により撮影された画像から符号ブロックを検出し、検出された符号ブロックから位置情報の単位パターンを抽出し、抽出された単位パターンによって表される符号化されたX−Y座標値(Px,Py)を復号する。このX−Y座標値(Px,Py)が、記録媒体10の表面における読み取り装置20の位置を表す位置情報として扱われる。上述したように、カメラ部21によって撮影される範囲には、複数の符号ブロックが含まれる。そこで、フィルタリング等の処理を行って、例えば撮影された画像の最も中央に近い1つの符号ブロックを選択し、そのX−Y座標値(Px,Py)を読み取り装置20の位置情報とする。   The position information decoding unit 22 detects a code block from the image captured by the camera unit 21, extracts a unit pattern of position information from the detected code block, and is encoded by the extracted unit pattern. The XY coordinate value (Px, Py) is decoded. The XY coordinate values (Px, Py) are handled as position information indicating the position of the reading device 20 on the surface of the recording medium 10. As described above, the range captured by the camera unit 21 includes a plurality of code blocks. Therefore, processing such as filtering is performed, for example, one code block closest to the center of the photographed image is selected, and the XY coordinate value (Px, Py) is used as position information of the reading device 20.

また、本実施形態の位置情報復号部22は、読み取り装置20の向きの検出に用いるため、2つの符号ブロックについて、X−Y座標値(Px,Py)を復号する。カメラ部21により撮影された画像から読み取り装置20の向きの検出に用いるための2つの符号ブロックをどのようにして選択するかについての具体的な手法は後述する。読み取り装置20の位置情報を取得する処理と、読み取り装置20の向きを検出する処理とは独立の処理なので、それぞれの処理で対象となる符号ブロックは通常は異なる。ただし、それぞれの処理で符号ブロックを選択する手法の如何によっては、読み取り装置20の向きの検出に用いられる2つの符号ブロックの一方が、読み取り装置20の位置情報を取得するための符号ブロックと共通となることを妨げない。   Further, the position information decoding unit 22 of the present embodiment decodes the XY coordinate values (Px, Py) for the two code blocks to be used for detecting the orientation of the reading device 20. A specific method for selecting two code blocks to be used for detecting the orientation of the reading device 20 from an image photographed by the camera unit 21 will be described later. Since the process of acquiring the position information of the reading device 20 and the process of detecting the orientation of the reading device 20 are independent processes, the code block that is the target of each process is usually different. However, depending on the method of selecting the code block in each process, one of the two code blocks used for detecting the orientation of the reading device 20 is the same as the code block for acquiring the position information of the reading device 20. Does not prevent becoming.

ベクトル抽出部23は、カメラ部21により撮影された画像から2点を選択し、その2点間を結ぶベクトル(以下、画像上ベクトルと呼ぶ)を抽出する。本実施形態では、カメラ部21により撮影された画像に対して、記録媒体10の表面に設定された座標系とは別の画像上の座標系が設定される。この画像上の座標系をピクセル座標と呼び、座標値(Ix,Iy)で位置を表す。したがって、2点のピクセル座標をP1(Ix1,Iy1)、P2(Ix2,Iy2)とすれば、画像上ベクトルIVは、(Ix2−Ix1,Iy2−Iy1)で表されることとなる。なお、位置情報復号部22により復号される読み取り装置20の向きの検出に用いるための2つの符号ブロックは、この画像上ベクトルを抽出するための2点に対応する。すなわち、この2点について、ベクトル抽出部23によってピクセル座標が得られ、位置情報復号部22によって記録媒体10の表面上の座標系(以下、この座標系をピクセル座標と区別するために基準座標と呼ぶ)における座標値が得られることとなる。画像上ベクトルを抽出するための2点の選択方法については後述する。   The vector extraction unit 23 selects two points from the image taken by the camera unit 21 and extracts a vector connecting the two points (hereinafter referred to as an on-image vector). In the present embodiment, a coordinate system on an image different from the coordinate system set on the surface of the recording medium 10 is set for the image captured by the camera unit 21. This coordinate system on the image is called pixel coordinates, and the position is represented by coordinate values (Ix, Iy). Therefore, if the pixel coordinates of the two points are P1 (Ix1, Iy1) and P2 (Ix2, Iy2), the on-image vector IV is represented by (Ix2-Ix1, Iy2-Iy1). The two code blocks used for detecting the orientation of the reading device 20 decoded by the position information decoding unit 22 correspond to two points for extracting the on-image vector. That is, for these two points, pixel coordinates are obtained by the vector extraction unit 23, and a coordinate system on the surface of the recording medium 10 (hereinafter referred to as a reference coordinate in order to distinguish this coordinate system from pixel coordinates) by the position information decoding unit 22. The coordinate value is obtained. A method of selecting two points for extracting the vector on the image will be described later.

角度検出部24は、ベクトル抽出部23によって得られた画像上ベクトルを用いて、読み取り装置20の向きを検出する。上記のように、画像上ベクトルの始点と終点については、位置情報復号部22により基準座標における座標値(P1(Px1,Py1)およびP2(Px2,Py2))が得られる。したがって、同じ2点を始点と終点とする基準座標上でのベクトル(以下、基準座標ベクトルと呼ぶ)PV=(Px2−Px1,Py2−Py1)が求まる。そこで、この画像上ベクトルIVと基準座標ベクトルPVを比較することにより、ピクセル座標と基準座標との間の相対角度が求まる。ピクセル座標はカメラ部21の撮影画像に設定された座標系であり、記録媒体10の表面に設定された座標系であるから、この2つの座標系がなす相対角度によって、記録媒体10の表面におけるカメラ部21(読み取り装置20)の向きが表されることとなる。2つの座標系(ベクトル)の相対角度の具体的な求め方については後述する。   The angle detection unit 24 detects the orientation of the reading device 20 using the on-image vector obtained by the vector extraction unit 23. As described above, the coordinate values (P1 (Px1, Py1) and P2 (Px2, Py2)) at the reference coordinates are obtained by the position information decoding unit 22 for the start point and the end point of the on-image vector. Therefore, a vector (hereinafter referred to as a reference coordinate vector) PV = (Px2-Px1, Py2-Py1) on the reference coordinates having the same two points as the start point and the end point is obtained. Therefore, the relative angle between the pixel coordinates and the reference coordinates is obtained by comparing the on-image vector IV and the reference coordinate vector PV. Since the pixel coordinate is a coordinate system set for the photographed image of the camera unit 21 and is a coordinate system set on the surface of the recording medium 10, the pixel coordinate on the surface of the recording medium 10 depends on the relative angle formed by the two coordinate systems. The direction of the camera unit 21 (reading device 20) is represented. A specific method for obtaining the relative angle between the two coordinate systems (vectors) will be described later.

送受信部25は、情報処理装置30との間でデータ送受信を行うためのインターフェイスである。送受信部25は、情報処理装置30にアクセスし、位置情報復号部22により復号された読み取り装置20の位置情報および角度検出部24により検出された読み取り装置20の向きの情報を送信する。また、後述するように、読み取り装置20が情報処理装置10からデータやコマンドを受信して所定の動作を実行するように構成されている場合は、このデータやコマンドの受信を行う。   The transmission / reception unit 25 is an interface for performing data transmission / reception with the information processing apparatus 30. The transmission / reception unit 25 accesses the information processing device 30 and transmits the position information of the reading device 20 decoded by the position information decoding unit 22 and the direction information of the reading device 20 detected by the angle detection unit 24. In addition, as will be described later, when the reading device 20 is configured to receive data or a command from the information processing device 10 and execute a predetermined operation, the data or command is received.

次に、情報処理装置30について説明する。
情報処理装置30は、読み取り装置20から読み取り装置20の位置情報および向きの情報を受信し、これらの情報を用いて、本実施形態が適用されるシステムに応じた種々の処理を実行する。この情報処理装置30は、パーソナルコンピュータやワークステーション、その他のコンピュータ装置を用いて実現される。本実施形態が適用される具体的なシステム例および情報処理装置30の機能構成については後述する。
Next, the information processing apparatus 30 will be described.
The information processing device 30 receives position information and orientation information of the reading device 20 from the reading device 20, and executes various processes according to the system to which the present embodiment is applied using the information. The information processing apparatus 30 is realized using a personal computer, a workstation, or other computer apparatus. A specific system example to which the present embodiment is applied and the functional configuration of the information processing apparatus 30 will be described later.

図5は、情報処理装置30を実現するのに好適なコンピュータのハードウェア構成を示す図である。
図5に示すコンピュータ90は、演算手段であるCPU(Central Processing Unit)91と、記憶手段であるメインメモリ92及び磁気ディスク装置(HDD:Hard Disk Drive)93とを備える。ここで、CPU91は、OS(Operating System)やアプリケーション等の各種ソフトウェアを実行し、上述した各機能を実現する。また、メインメモリ92は、各種ソフトウェアやその実行に用いるデータ等を記憶する記憶領域であり、磁気ディスク装置93は、各種ソフトウェアに対する入力データや各種ソフトウェアからの出力データ等を記憶する記憶領域である。また、コンピュータ90は、読み取り装置20との通信を行うための通信I/F94と、ビデオメモリやディスプレイ等からなる表示機構95と、キーボードやマウス等の入力デバイス96とを備える。
FIG. 5 is a diagram illustrating a hardware configuration of a computer suitable for realizing the information processing apparatus 30.
A computer 90 shown in FIG. 5 includes a CPU (Central Processing Unit) 91 that is a calculation means, a main memory 92 that is a storage means, and a magnetic disk device (HDD: Hard Disk Drive) 93. Here, the CPU 91 executes various types of software such as an OS (Operating System) and applications to realize the above-described functions. The main memory 92 is a storage area for storing various software and data used for execution thereof, and the magnetic disk device 93 is a storage area for storing input data for various software, output data from various software, and the like. . Further, the computer 90 includes a communication I / F 94 for performing communication with the reading device 20, a display mechanism 95 including a video memory and a display, and an input device 96 such as a keyboard and a mouse.

次に、本実施形態による読み取り装置20の向き(記録媒体10に対する角度)の検出方法について説明する。
上述したように、本実施形態における読み取り装置20のカメラ部21は、複数の符号ブロックが含まれる一定の範囲を撮影する。そこで、ベクトル抽出部23が、カメラ部21により撮影された画像から2点を選択する。この2点については、画像上のピクセル座標による座標値と記録媒体10の表面に設定された基準座標による座標値とが得られる。そして、これら2つの座標系において、この2点を結ぶベクトルがそれぞれ求まる。
Next, a method for detecting the orientation (angle with respect to the recording medium 10) of the reading device 20 according to the present embodiment will be described.
As described above, the camera unit 21 of the reading device 20 according to the present embodiment photographs a certain range including a plurality of code blocks. Therefore, the vector extraction unit 23 selects two points from the image photographed by the camera unit 21. For these two points, a coordinate value based on pixel coordinates on the image and a coordinate value based on reference coordinates set on the surface of the recording medium 10 are obtained. In these two coordinate systems, vectors connecting these two points are obtained.

図6はカメラ部21により撮影された画像上の2点を結ぶピクセル座標におけるベクトルを示す図、図7は図6と同じ2点を結ぶ基準座標におけるベクトルを示す図である。
図6に示す例では、2点のピクセル座標はP1(120,90)、P2(200,150)である。したがって、画像上ベクトルは、IV=(80,60)となる。一方、図7を参照すると、同じ2点の基準座標はP1(643,673)、P2(650,688)である。したがって、基準座標ベクトルは、PV=(7,15)となる。
FIG. 6 is a diagram showing a vector at pixel coordinates connecting two points on an image photographed by the camera unit 21, and FIG. 7 is a diagram showing a vector at reference coordinates connecting the same two points as in FIG.
In the example shown in FIG. 6, the pixel coordinates of the two points are P1 (120, 90) and P2 (200, 150). Therefore, the on-image vector is IV = (80, 60). On the other hand, referring to FIG. 7, the reference coordinates of the same two points are P1 (643, 673) and P2 (650, 688). Therefore, the reference coordinate vector is PV = (7, 15).

ベクトル抽出部23は、以上のようにして得られた2つのベクトルの内積を計算することにより、2つのベクトルの間の相対角度を求める。具体的には、図6、7に示した例を用いると、

内積X=IV・PV=|IV||PV|cosφ

であり、これからcosφを求めることができる。そして、相対角度φは、

相対角度φ=acos(X)

により求まる(acosはアークコサイン)。
The vector extraction unit 23 calculates a relative product between the two vectors by calculating the inner product of the two vectors obtained as described above. Specifically, using the examples shown in FIGS.

Inner product X = IV · PV = | IV || PV | cosφ

From this, cos φ can be obtained. And the relative angle φ is

Relative angle φ = acos (X)

(Acos is arc cosine).

以上の操作では、読み取り装置20のカメラ部21によって撮影された画像上の2点について、ピクセル座標上でこの2点を結ぶベクトルである画像上ベクトルと基準座標上でこの2点を結ぶベクトルである基準座標ベクトルとを求めた。言い換えれば、同一の2点を始点および終点とするベクトルを、相異なる2つの座標系上で表した。したがって、画像上ベクトルと基準座標ベクトルとの間の相対角度φは、ピクセル座標と基準座標とがなす相対角度に対応している(ただし、角度が開く向きは逆になる)。ここで、ピクセル座標はカメラ部21によって得られる画像に設定された座標系であり、基準座標は記録媒体10に設定された座標系であるから、基準座標に対するピクセル座標の角度によって、記録媒体10に対するカメラ部21(読み取り装置20)の向きが特定される。   In the above operation, with respect to two points on the image photographed by the camera unit 21 of the reading device 20, an on-image vector that is a vector connecting the two points on the pixel coordinates and a vector that connects the two points on the reference coordinates. A certain reference coordinate vector was obtained. In other words, vectors having the same two points as the start point and the end point are represented on two different coordinate systems. Therefore, the relative angle φ between the on-image vector and the reference coordinate vector corresponds to the relative angle formed by the pixel coordinate and the reference coordinate (however, the opening direction of the angle is reversed). Here, since the pixel coordinates are a coordinate system set for an image obtained by the camera unit 21 and the reference coordinates are a coordinate system set for the recording medium 10, the recording medium 10 depends on the angle of the pixel coordinates with respect to the reference coordinates. The orientation of the camera unit 21 (reading device 20) with respect to is specified.

図8は、記録媒体10に対するカメラ部21の向きを表す図である。
図8において、記録媒体10には基準座標を表す格子が記載されている。また、カメラ部21の代わりにカメラ部21により撮影される画像の範囲を表す領域211が記載されている。この領域211には上述のようにピクセル座標が設定されているが、図示していない。図8の領域211内に記載されたベクトルVは、図6、7に示した画像上ベクトルIVおよび基準座標ベクトルPVであるものとする。すなわち、ベクトルVは、ピクセル座標では画像上ベクトルIVとして表され、基準座標では基準座標ベクトルPVとして表される。
FIG. 8 is a diagram illustrating the orientation of the camera unit 21 with respect to the recording medium 10.
In FIG. 8, a lattice representing the reference coordinates is described on the recording medium 10. In addition, an area 211 representing a range of an image captured by the camera unit 21 instead of the camera unit 21 is described. Although pixel coordinates are set in this area 211 as described above, they are not shown. 8 is assumed to be the on-image vector IV and the reference coordinate vector PV shown in FIGS. That is, the vector V is represented as an on-image vector IV in pixel coordinates and as a reference coordinate vector PV in reference coordinates.

上述した内積を用いた計算により画像上ベクトルIVと基準座標ベクトルPVとの間の相対角度を求めた結果、画像上ベクトルIVが基準座標ベクトルPVに対して右回りに角度φだけずれていたとする。すると、図8に示すように画像上ベクトルIVと基準座標ベクトルPVとが一致するように各座標系が配置されるとき、ピクセル座標(領域211)は基準座標に対して左回りに角度φだけ傾くこととなる。したがって、例えばφ=0のときのカメラ部21の向きを基準として、記録媒体10に対するカメラ部21の向き(すなわち読み取り装置20の向き)が角度φで特定されることとなる。   As a result of obtaining the relative angle between the on-image vector IV and the reference coordinate vector PV by the calculation using the inner product described above, it is assumed that the on-image vector IV is shifted by the angle φ clockwise with respect to the reference coordinate vector PV. . Then, as shown in FIG. 8, when each coordinate system is arranged so that the on-image vector IV and the reference coordinate vector PV coincide with each other, the pixel coordinates (region 211) are counterclockwise with respect to the reference coordinates by an angle φ. It will tilt. Therefore, for example, with reference to the orientation of the camera unit 21 when φ = 0, the orientation of the camera unit 21 with respect to the recording medium 10 (that is, the orientation of the reading device 20) is specified by the angle φ.

次に、カメラ部21により撮影された画像から画像上ベクトルIVと基準座標ベクトルPVとの間の相対角度を求める手順を詳細に説明する。
図9は、ベクトルの相対角度を求める手順を示す図である。
まず、図9(a)に示すように、記録媒体10の一定範囲の画像Iがカメラ部21により取得される。そして、図9(b)に示すように、この画像I上で2点a、bが選択される。この画像Iを用いて、点aを始点とし点bを終点とする画像上ベクトルIVと基準座標ベクトルPVとがそれぞれ求められる。
Next, a procedure for obtaining the relative angle between the on-image vector IV and the reference coordinate vector PV from the image photographed by the camera unit 21 will be described in detail.
FIG. 9 is a diagram illustrating a procedure for obtaining a relative angle of a vector.
First, as shown in FIG. 9A, an image I in a certain range of the recording medium 10 is acquired by the camera unit 21. Then, as shown in FIG. 9B, two points a and b are selected on the image I. Using this image I, an on-image vector IV and a reference coordinate vector PV having a point a as a start point and a point b as an end point are obtained.

ベクトル抽出部23は、図9(c)に示すように、ピクセル座標における点aの座標値(x1a,y1a)および点bの座標値(x1b,y1b)を求め、図9(d)に示すように、画像上ベクトルIa→bを求める。一方、位置情報復号部22は、図9(e)に示すように、カメラ部21により撮影された画像Iから点a、bを中心とする画像領域211a、211bを切り出す。そして、図9(f)に示すように、各画像領域211a、211bの中心位置のパターン画像を復号して、基準座標における点aの座標値(x2a,y2a)および点bの座標値(x2b,y2b)を求める。ベクトル抽出部23は、位置情報復号部22により復号された基準座標における点a、bの座標値を用いて、図9(g)に示すように、基準座標ベクトルPa→bを求める。   As shown in FIG. 9C, the vector extraction unit 23 obtains the coordinate value (x1a, y1a) of the point a and the coordinate value (x1b, y1b) of the point b in the pixel coordinates, and the result is shown in FIG. 9D. Thus, the on-image vector Ia → b is obtained. On the other hand, as shown in FIG. 9 (e), the position information decoding unit 22 cuts out image areas 211 a and 211 b centering on the points a and b from the image I photographed by the camera unit 21. Then, as shown in FIG. 9F, the pattern image at the center position of each of the image regions 211a and 211b is decoded, and the coordinate value (x2a, y2a) of the point a and the coordinate value (x2b) of the point b in the reference coordinates are decoded. , Y2b). The vector extraction unit 23 uses the coordinate values of the points a and b in the reference coordinates decoded by the position information decoding unit 22 to obtain a reference coordinate vector Pa → b as shown in FIG.

角度検出部24は、ベクトル抽出部23により求められた画像上ベクトルIa→bと基準座標ベクトルPa→bの内積を計算し、図9(h)に示すように、これらのベクトルがなす相対角度φを求める。   The angle detection unit 24 calculates the inner product of the on-image vector Ia → b and the reference coordinate vector Pa → b obtained by the vector extraction unit 23, and, as shown in FIG. 9 (h), the relative angle formed by these vectors. Find φ.

上記の手順では、位置情報復号部22がパターン画像を復号するために、カメラ部21により撮影された画像Iから点a、bを中心とする画像領域211a、211bを切り出す処理を行った。これは、位置情報復号部22が、記録媒体10の上での読み取り装置20自身の位置を認識するために、カメラ部21が撮影した画像のうちの特定の位置(例えば中心)にあるパターン画像のみを復号して座標値を得るように構成されることを考慮したものである。このような構成の読み取り装置20であっても、上述のように、画像中の所望の点を中心とする領域を切り出して位置情報復号部22で処理することで、その点に位置するパターン画像を復号して座標値を得ることができる。これに対し、位置情報復号部22がカメラ部21により撮影された画像Iの任意の位置からパターン画像を抽出する機能を持つ場合には、上記のように画像領域211a、211bを切り出すことなく、点a、bの基準座標の座標値を直接求めることができる。   In the above procedure, in order for the position information decoding unit 22 to decode the pattern image, a process of cutting out the image areas 211a and 211b centered on the points a and b from the image I photographed by the camera unit 21 was performed. This is because the position information decoding unit 22 recognizes the position of the reading device 20 itself on the recording medium 10 so that the pattern image is located at a specific position (for example, the center) of the images captured by the camera unit 21. It is considered that it is configured to obtain the coordinate value by decoding only. Even in the reading device 20 having such a configuration, as described above, a pattern image located at a point is obtained by cutting out a region centered on a desired point in the image and processing it by the position information decoding unit 22. Can be decoded to obtain coordinate values. On the other hand, when the position information decoding unit 22 has a function of extracting a pattern image from an arbitrary position of the image I photographed by the camera unit 21, without cutting out the image areas 211a and 211b as described above, The coordinate values of the reference coordinates of the points a and b can be directly obtained.

画像上ベクトルと基準座標ベクトルとの相対角度を計算する場合、ベクトルの長さをできるだけ長くとる方が、精度良く角度を検出できる。カメラ部21により撮影され取得される画像が図6〜8に示したように矩形である場合は、ベクトルが画像の対角線方向に一致するように2点を選択することで、ベクトルの長さが最長となる。ただし、上記のようにカメラ部21により撮影された画像から選択された2点を中心とする画像領域を切り出す場合、切り出す画像領域の面積が大きいと、それだけ2点間の距離(ベクトルの長さ)が短くなってしまう。位置情報復号部22が確実にパターン画像を検出し基準座標の座標値を復号できる範囲で、できるだけ小さい面積の画像領域を切り出すことにより、抽出可能なベクトルの長さがより長くなる。   When calculating the relative angle between the on-image vector and the reference coordinate vector, the angle can be detected with higher accuracy by taking the length of the vector as long as possible. When the image captured and acquired by the camera unit 21 is a rectangle as illustrated in FIGS. 6 to 8, the length of the vector is determined by selecting two points so that the vector matches the diagonal direction of the image. The longest. However, when an image area centered on two points selected from the image photographed by the camera unit 21 as described above is extracted, if the area of the image area to be extracted is large, the distance between the two points (the length of the vector) ) Will be shorter. By extracting an image region having as small an area as possible within a range in which the position information decoding unit 22 can reliably detect the pattern image and decode the coordinate value of the reference coordinate, the length of the extractable vector becomes longer.

また、カメラ部21により撮影される範囲が広ければ、それだけ長いベクトルを抽出することができる。一方、カメラ部21により撮影される範囲が広いと、画像自体の情報量が多くなるため、読み取り装置20の位置や角度を検出するために必要となるパターン画像以外の無駄な情報が増え、不必要に処理が重くなってしまう。したがって、角度検出に要求される精度と位置情報復号部22等の処理能力とを勘案してカメラ部21による取得画像のサイズが決まることとなる。   If the range captured by the camera unit 21 is wide, a longer vector can be extracted. On the other hand, if the range captured by the camera unit 21 is wide, the amount of information of the image itself increases, so that unnecessary information other than the pattern image necessary for detecting the position and angle of the reading device 20 increases, which is not necessary. Processing becomes heavy as necessary. Therefore, the size of the image acquired by the camera unit 21 is determined in consideration of the accuracy required for angle detection and the processing capability of the position information decoding unit 22 and the like.

以上説明したように、本実施形態では、読み取り装置20における読み取り位置を特定するために、カメラ部21により取得された記録媒体10の画像にピクセル座標を設定し、特定した点のピクセル座標における座標値を求めた。しかし、記録媒体10に対する読み取り装置20の向きを特定するためには、同じ2点について記録媒体10上の位置関係と読み取り装置20における読み取り位置の位置関係とを比較できれば良い。したがって、読み取り装置20における読み取り位置の特定方法は、上述した画像上のピクセル座標に限定するものではない。   As described above, in the present embodiment, in order to specify the reading position in the reading device 20, the pixel coordinates are set in the image of the recording medium 10 acquired by the camera unit 21, and the coordinates of the specified points in the pixel coordinates are set. The value was determined. However, in order to specify the orientation of the reading device 20 with respect to the recording medium 10, it is only necessary to compare the positional relationship on the recording medium 10 with the positional relationship of the reading position on the reading device 20 for the same two points. Therefore, the method for specifying the reading position in the reading device 20 is not limited to the pixel coordinates on the image described above.

例えば、読み取り装置20の2カ所にカメラ部21を設け、各カメラ部21の読み取り装置20における位置関係を定義しておく。そして、各カメラ部21で記録媒体10を撮影し、得られた画像からパターン画像を抽出して基準座標の座標値を復号し、予め定義された各カメラ部21の位置関係と比較するようにしても良い。この場合、2つのカメラ部21の距離を長くとることにより、1つの画面から2点を選択する場合に比べて非常に高い精度の角度検出を行うことができる。ただしこの場合、各カメラ部21の位置関係が変化しない(読み取り装置20が大きく変形しない)ことと、各カメラ部21が同時に記録媒体10を撮影すること(または各カメラ部21による画像の撮影時における記録媒体10に対する読み取り装置20の位置や向きが変わらないこと)が保証されることが必要である。また、カメラ部21を2つ設けるために、1つの画面から2点を選択する場合に比べて読み取り装置20が大型化する。   For example, camera units 21 are provided at two locations of the reading device 20 and the positional relationship of the camera units 21 in the reading device 20 is defined. Then, the recording medium 10 is photographed by each camera unit 21, a pattern image is extracted from the obtained image, the coordinate value of the reference coordinates is decoded, and compared with the predefined positional relationship of each camera unit 21. May be. In this case, by making the distance between the two camera units 21 longer, it is possible to perform angle detection with very high accuracy compared to the case where two points are selected from one screen. However, in this case, the positional relationship of each camera unit 21 does not change (the reading device 20 does not greatly deform), and each camera unit 21 simultaneously images the recording medium 10 (or when each camera unit 21 captures an image). It is necessary to ensure that the position and orientation of the reading device 20 with respect to the recording medium 10 in (1) does not change. Further, since two camera units 21 are provided, the size of the reading device 20 is increased as compared with the case where two points are selected from one screen.

次に、本実施形態の応用例を説明する。
図10は、本実施形態を応用した手持ち式のプリンタの概要を示す図、図11は、図10のプリンタの機能構成を示す図である。
図10、11に示すプリンタ200は、図4に示した本実施形態の読み取り装置20に発光部26と発光部26の発光を制御する発光制御部27とを備えて構成される。また、この応用例を実施する場合、記録媒体10の表面一面に、特定の波長の光に反応して発色する画像形成材を塗布しておく。
Next, an application example of this embodiment will be described.
FIG. 10 is a diagram showing an outline of a hand-held printer to which the present embodiment is applied, and FIG. 11 is a diagram showing a functional configuration of the printer of FIG.
A printer 200 shown in FIGS. 10 and 11 includes the light emitting unit 26 and a light emission control unit 27 that controls the light emission of the light emitting unit 26 in the reading device 20 of the present embodiment shown in FIG. Further, when implementing this application example, an image forming material that develops color in response to light of a specific wavelength is applied to the entire surface of the recording medium 10.

発光部26は、図10に示すように、発光手段である複数個の発光素子261を配列したアレイとして構成される。発光素子261のアレイは、図示のように1列の配列であっても良いし、マトリクス状の配列であっても良い。発光部26を構成する発光素子261としては、例えばLED(Light Emitting Diode)を用いることができる。この発光素子261は、記録媒体10に塗布されている画像形成材を発色させる波長の光を発光する。   As shown in FIG. 10, the light emitting section 26 is configured as an array in which a plurality of light emitting elements 261 as light emitting means are arranged. The array of light emitting elements 261 may be arranged in one column as shown in the figure, or may be arranged in a matrix. For example, an LED (Light Emitting Diode) can be used as the light emitting element 261 constituting the light emitting unit 26. The light emitting element 261 emits light having a wavelength that causes the image forming material applied to the recording medium 10 to develop color.

発光制御部27は、位置情報復号部22、ベクトル抽出部23、角度検出部24等と同様に、例えばマイクロプロセッサおよびメモリを搭載した制御回路にて実現される。この発光制御部27は、発光部26を構成する各発光素子261の発光を個別に制御する。また、発光制御部27は、個々の発光素子261とカメラ部21との位置関係の情報を持っている。したがって、位置情報復号部22から記録媒体10上でのカメラ部21の位置を示す情報を取得し、角度検出部24から記録媒体10に対するカメラ部21の向き(角度)を表す情報を取得すれば、これらの情報に基づいて記録媒体10上での各発光素子261の位置を特定することができる。   The light emission control unit 27 is realized by a control circuit equipped with, for example, a microprocessor and a memory, similarly to the position information decoding unit 22, the vector extraction unit 23, the angle detection unit 24, and the like. The light emission control unit 27 individually controls the light emission of each light emitting element 261 constituting the light emitting unit 26. Further, the light emission control unit 27 has information on the positional relationship between the individual light emitting elements 261 and the camera unit 21. Therefore, if information indicating the position of the camera unit 21 on the recording medium 10 is acquired from the position information decoding unit 22 and information indicating the direction (angle) of the camera unit 21 with respect to the recording medium 10 is acquired from the angle detection unit 24. Based on these pieces of information, the position of each light emitting element 261 on the recording medium 10 can be specified.

このプリンタ200を用いて記録媒体10にテキストや画像を出力する場合、まず、出力対象であるテキストや画像の電子マッピング情報が情報処理装置30からプリンタ200へ送られる。プリンタ200では、送受信部25が電子マッピング情報を受信し、発光制御部27へ送る。また、位置情報復号部22により復号されたカメラ部21の位置情報および角度検出部24により算出されたカメラ部21の向きの情報が、発光制御部27に送られる。   When text or an image is output to the recording medium 10 using the printer 200, first, electronic mapping information of the text or image to be output is sent from the information processing apparatus 30 to the printer 200. In the printer 200, the transmission / reception unit 25 receives the electronic mapping information and sends it to the light emission control unit 27. Further, the position information of the camera unit 21 decoded by the position information decoding unit 22 and the direction information of the camera unit 21 calculated by the angle detection unit 24 are sent to the light emission control unit 27.

発光制御部27は、位置情報復号部22および角度検出部24から取得した位置情報および向きの情報に基づいて、発光部26を構成する各発光素子261の記録媒体10上での位置を求める。そして、発光制御部27は、情報処理装置30から取得した電子マッピング情報にしたがって、画像を形成すべき位置にある発光素子261を発光させる。これにより、記録媒体10の表面のうち、発光した発光素子261の光が照射された部分のみが発色し、電子マッピング情報に基づく画像が記録媒体10の表面に形成されることとなる。   The light emission control unit 27 obtains the position on the recording medium 10 of each light emitting element 261 constituting the light emitting unit 26 based on the position information and the direction information acquired from the position information decoding unit 22 and the angle detection unit 24. Then, the light emission control unit 27 causes the light emitting element 261 at a position where an image is to be formed to emit light according to the electronic mapping information acquired from the information processing device 30. As a result, only the portion of the surface of the recording medium 10 irradiated with the light emitted from the light emitting element 261 is colored, and an image based on the electronic mapping information is formed on the surface of the recording medium 10.

本実施形態の他の応用例としては、ダイヤルのような回転型のオブジェクトの実現がある。
本実施形態によれば、読み取り装置20の記録媒体10に対する向きを特定できる。そのため、記録媒体10上での読み取り装置20の位置を変えずに、記録媒体10に対する読み取り装置20の向きを連続的に変化させれば、これによる角度の連続的な変化を記録媒体10に対する読み取り装置20の回転動作として認識することができる。これを利用し、次のようにしてダイヤルのような回転型のオブジェクトを実現することができる。
Another application example of this embodiment is the realization of a rotating object such as a dial.
According to the present embodiment, the orientation of the reading device 20 with respect to the recording medium 10 can be specified. Therefore, if the orientation of the reading device 20 with respect to the recording medium 10 is continuously changed without changing the position of the reading device 20 on the recording medium 10, the continuous change in the angle due to this is read with respect to the recording medium 10. It can be recognized as a rotation operation of the device 20. Using this, it is possible to realize a rotating object such as a dial as follows.

まず、情報処理装置30により保持される電子マッピング情報において、記録媒体10上の特定位置にダイヤルのような回転するオブジェクトを設定しておく。特定位置には、視認できる画像形成材を用いてダイヤル等の画像を形成しておいても良い。オブジェクトには、回転量や回転速度に応じてボリュームやレベル表示を動的に変化させるような属性を持たせる。そして、情報処理装置30が、このオブジェクトの上で行われた読み取り装置20の回転動作を、オブジェクトを回転させる動作として受け付け、電子マッピング情報またはその出力にオブジェクトの属性に応じた変化を与える。   First, a rotating object such as a dial is set at a specific position on the recording medium 10 in the electronic mapping information held by the information processing apparatus 30. An image such as a dial may be formed at a specific position using a visible image forming material. The object has an attribute that dynamically changes the volume and level display according to the rotation amount and the rotation speed. Then, the information processing device 30 accepts the rotation operation of the reading device 20 performed on the object as an operation for rotating the object, and changes the electronic mapping information or the output thereof according to the attribute of the object.

以上のように本実施形態では、記録媒体10として用紙を用い、読み取り装置20として人が手に持って記録媒体10上を移動させるような携帯型のデバイスを想定して説明した。しかし、本実施形態は、位置情報が記録された種々の形態の記録媒体と、この記録媒体から位置情報を読み取る種々の形態の読み取り装置に対して適用することができる。例えば、床や道路を記録媒体10として基準座標を設定し、この記録媒体10の上を通る移動体に読み取り装置20を設置しておけば、移動体の位置および向きに応じて個別の情報やサービスを移動体または読み取り装置20に対して提供することが可能である。   As described above, the present embodiment has been described on the assumption that a portable device that uses paper as the recording medium 10 and is moved on the recording medium 10 by a person as the reading device 20 is held. However, the present embodiment can be applied to various types of recording media in which position information is recorded and various types of reading devices that read position information from the recording medium. For example, if the reference coordinates are set using the floor or road as the recording medium 10 and the reading device 20 is installed on a moving body passing over the recording medium 10, individual information and services can be obtained according to the position and orientation of the moving body. Can be provided to the mobile or reader 20.

本実施形態が適用されるシステムの全体構成を示す図である。It is a figure which shows the whole structure of the system to which this embodiment is applied. 本実施形態で用いられる記録媒体を示す図である。It is a figure which shows the recording medium used by this embodiment. 符号化された位置情報を表すパターン画像の構成例を示す図である。It is a figure which shows the structural example of the pattern image showing the encoded positional information. 本実施形態における読み取り装置の構成を示す図である。It is a figure which shows the structure of the reading apparatus in this embodiment. 本実施形態の情報処理装置を実現するのに好適なコンピュータのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a computer suitable for implement | achieving the information processing apparatus of this embodiment. 本実施形態のカメラ部により撮影された画像上の2点を結ぶピクセル座標におけるベクトルを示す図である。It is a figure which shows the vector in the pixel coordinate which connects two points on the image image | photographed with the camera part of this embodiment. 図6と同じ2点を結ぶ基準座標におけるベクトルを示す図である。It is a figure which shows the vector in the reference | standard coordinate which connects two same points as FIG. 記録媒体に対するカメラ部の向きを表す図である。It is a figure showing the direction of the camera part with respect to a recording medium. 本実施形態におけるベクトルの相対角度を求める手順を示す図である。It is a figure which shows the procedure which calculates | requires the relative angle of the vector in this embodiment. 本実施形態を応用した手持ち式のプリンタの概要を示す図である。1 is a diagram illustrating an outline of a handheld printer to which the present embodiment is applied. 図10のプリンタの機能構成を示す図である。It is a figure which shows the function structure of the printer of FIG.

符号の説明Explanation of symbols

10…記録媒体、20…読み取り装置、21…カメラ部、22…位置情報復号部、23…ベクトル抽出部、24…角度検出部、25…送受信部、26…発光部、27…発光制御部、30…情報処理装置、261…発光素子 DESCRIPTION OF SYMBOLS 10 ... Recording medium, 20 ... Reading apparatus, 21 ... Camera part, 22 ... Position information decoding part, 23 ... Vector extraction part, 24 ... Angle detection part, 25 ... Transmission / reception part, 26 ... Light emission part, 27 ... Light emission control part, 30 ... Information processing device, 261 ... Light emitting element

Claims (13)

記録媒体に記録された当該記録媒体上の位置を表す位置情報を読み取る読み取り装置であって、
前記記録媒体から2点の前記位置情報を読み取る読み取り手段と、
前記記録媒体上の前記2点の画像を取得する画像取得手段と、
前記読み取り手段により読み取られた前記位置情報に基づき前記2点の前記記録媒体上の位置関係を抽出する第1の位置関係抽出手段と、
前記画像上の前記2点の位置関係を抽出する第2の位置関係抽出手段と、
前記第1の位置関係抽出手段により抽出された前記2点の前記記録媒体上の位置関係と前記第2の位置関係抽出手段により抽出された前記画像上の前記2点の位置関係を比較することにより、当該第1の位置関係抽出手段により抽出された当該2点のうち1点から他点へと向かう第1の方向と、当該第2の位置関係抽出手段により抽出された当該2点のうち1点から他点へと向かう第2の方向との相対角度を検出する角度検出手段と
を備えることを特徴とする読み取り装置。
A reading device for reading position information indicating a position on the recording medium recorded on the recording medium,
Reading means for reading the position information of two points from the recording medium;
Image acquisition means for acquiring the two images on the recording medium;
First positional relationship extracting means for extracting the positional relationship of the two points on the recording medium based on the positional information read by the reading means;
Second positional relationship extracting means for extracting a positional relationship between the two points on the image;
Comparing the positional relationship between the two points on the recording medium extracted by the first positional relationship extracting unit and the positional relationship between the two points on the image extracted by the second positional relationship extracting unit. Thus, of the two points extracted by the first positional relationship extracting unit, the first direction from one point to the other point and the two points extracted by the second positional relationship extracting unit A reading apparatus comprising: an angle detection unit configured to detect a relative angle with a second direction from one point toward another point .
前記画像取得手段は、前記記録媒体上の前記2点を含む範囲の画像を取得し、
前記第2の位置関係抽出手段は、前記画像上における前記2点の位置関係を抽出することを特徴とする請求項1に記載の読み取り装置。
It said image acquisition means acquires an image of a range including the two points on the recording medium,
The reading apparatus according to claim 1, wherein the second positional relationship extraction unit extracts a positional relationship between the two points on the image.
前記読み取り手段は、第1の座標系に基づく座標値を表す画像パターンが記録された前記記録媒体から前記2点の位置の当該画像パターンを読み取って座標値を取得し、
前記第1の位置関係抽出手段は、前記読み取り手段により取得された座標値に基づき前記2点の位置関係を抽出し、
前記第2の位置関係抽出手段は、前記画像に対して設定された第2の座標系における前記2点の座標値に基づき当該2点の位置関係を抽出することを特徴とする請求項2に記載の読み取り装置。
The reading means reads the image pattern at the position of the two points from the recording medium on which the image pattern representing the coordinate value based on the first coordinate system is recorded, and acquires the coordinate value.
The first positional relationship extraction unit extracts the positional relationship between the two points based on the coordinate values acquired by the reading unit,
The second positional relationship extracting means extracts the positional relationship between the two points based on the coordinate values of the two points in the second coordinate system set for the image. The reading device described.
前記第1の位置関係抽出手段および前記第2の位置関係抽出手段は、前記2点の位置関係として当該2点を結ぶ線分をそれぞれ定義し、
前記角度検出手段は、前記第1の位置関係抽出手段および前記第2の位置関係抽出手段により定義された2つの前記線分がなす角度を計算することにより、前記相対角度を検出することを特徴とする請求項1に記載の読み取り装置。
The first positional relationship extracting means and the second positional relationship extracting means define a line segment connecting the two points as the positional relationship of the two points,
The angle detection unit detects the relative angle by calculating an angle formed by two line segments defined by the first positional relationship extraction unit and the second positional relationship extraction unit. The reading device according to claim 1.
記録媒体に記録された当該記録媒体上の位置を表す位置情報を読み取る読み取り装置であって、
第1の座標系に基づく座標値を表す画像パターンが記録された前記記録媒体から一定領域の画像を取得する画像取得手段と、
前記画像取得手段により取得された画像から前記画像パターンを抽出して複数の座標値を読み取る読み取り手段と、
前記読み取り手段により読み取られた前記複数の座標値に基づいて特定される前記第1の座標系と前記画像に対して設定された第2の座標系とがなす相対角度を検出する角度検出手段と
を備えることを特徴とする読み取り装置。
A reading device for reading position information indicating a position on the recording medium recorded on the recording medium,
Image acquisition means for acquiring an image of a certain area from the recording medium on which an image pattern representing coordinate values based on the first coordinate system is recorded;
Reading means for extracting a plurality of coordinate values by extracting the image pattern from the image obtained by the image obtaining means;
Angle detecting means for detect the relative angle between the second coordinate system set for the first coordinate system and the image specified based on the plurality of coordinate values read by the reading means A reading apparatus comprising:
前記画像取得手段は、前記記録媒体から2点の座標値を含む範囲の画像を取得し、
前記読み取り手段は、前記2点の座標値を読み取り、
前記角度検出手段は、前記第1の座標系において前記2点を結ぶベクトルと前記第2の座標系において当該2点を結ぶベクトルを生成し、当該2つのベクトル間の相対角度を計算し、計算結果に基づいて当該第1の座標系と当該第2の座標系とがなす相対角度を求めることを特徴とする請求項5に記載の読み取り装置。
The image acquisition means acquires an image in a range including two coordinate values from the recording medium,
The reading means reads the coordinate values of the two points,
The angle detection means generates a vector connecting the two points in the first coordinate system and a vector connecting the two points in the second coordinate system, calculates a relative angle between the two vectors, and calculates 6. The reading apparatus according to claim 5, wherein a relative angle formed by the first coordinate system and the second coordinate system is obtained based on a result.
前記読み取り手段は、前記画像から前記2点の各々を中心とする2つの画像領域を切り出し、切り出した2つの当該画像領域に対して、それぞれ中心に位置する前記画像パターンを抽出して座標値を読み取ることを特徴とする請求項6に記載の読み取り装置。   The reading unit cuts out two image areas centered on each of the two points from the image, extracts the image pattern located at the center of each of the cut out two image areas, and obtains coordinate values. The reading device according to claim 6, wherein reading is performed. 記録媒体に記録された当該記録媒体上の位置を表す位置情報であって当該位置情報を読み取る読み取り装置により読み取られた当該記録媒体上の2点の位置情報に基づき、当該2点の当該記録媒体上の位置関係を抽出する第1の位置関係抽出手段と、
前記読み取り装置に設けられて前記記録媒体上の前記2点の画像を取得する画像取得手段から取得した当該画像上の当該2点の位置関係を抽出する第2の位置関係抽出手段と、
前記第1の位置関係抽出手段により抽出された前記2点の前記記録媒体上の位置関係と前記第2の位置関係抽出手段により抽出された前記画像上の前記2点の位置関係を比較することにより、当該第1の位置関係抽出手段により抽出された当該2点のうち1点から他点へと向かう第1の方向と、当該第2の位置関係抽出手段により抽出された当該2点のうち1点から他点へと向かう第2の方向との相対角度を検出する角度検出手段と
を備えることを特徴とする情報処理システム。
Based on the position information of the two points on the recording medium read by the reading device that reads the position information, the position information indicating the position on the recording medium recorded on the recording medium. First positional relationship extraction means for extracting the positional relationship above;
A second positional relationship extracting means for extracting a positional relationship between the two points on the image acquired from an image acquiring means provided in the reading device and acquiring the two points on the recording medium;
Comparing the positional relationship between the two points on the recording medium extracted by the first positional relationship extracting unit and the positional relationship between the two points on the image extracted by the second positional relationship extracting unit. Thus, of the two points extracted by the first positional relationship extracting unit, the first direction from one point to the other point and the two points extracted by the second positional relationship extracting unit An information processing system comprising: an angle detection unit that detects a relative angle with a second direction from one point to another point .
前記第1の位置関係抽出手段および前記第2の位置関係抽出手段は、前記2点の位置関係として当該2点を結ぶ線分をそれぞれ定義し、
前記角度検出手段は、前記第1の位置関係抽出手段および前記第2の位置関係抽出手段により定義された2つの前記線分がなす角度を計算することにより、前記相対角度を検出することを特徴とする請求項8に記載の情報処理システム。
The first positional relationship extracting means and the second positional relationship extracting means define a line segment connecting the two points as the positional relationship of the two points,
The angle detection unit detects the relative angle by calculating an angle formed by two line segments defined by the first positional relationship extraction unit and the second positional relationship extraction unit. The information processing system according to claim 8.
第1の座標系に基づく座標値を表す画像パターンが記録された記録媒体における一定領域の画像から当該画像パターンにより表される複数の座標値を読み取る読み取り手段と、
前記読み取り手段により読み取られた前記複数の座標値に基づいて特定される前記第1の座標系と前記画像に対して設定された第2の座標系とがなす相対角度を検出する角度検出手段と
を備えることを特徴とする情報処理システム。
Reading means for reading a plurality of coordinate values represented by the image pattern from an image of a certain area on a recording medium on which an image pattern representing a coordinate value based on the first coordinate system is recorded;
Angle detecting means for detect the relative angle between the second coordinate system set for the first coordinate system and the image specified based on the plurality of coordinate values read by the reading means An information processing system comprising:
前記読み取り手段は、前記画像における2点の位置の座標値を読み取り、
前記角度検出手段は、前記第1の座標系において前記2点を結ぶベクトルと前記第2の座標系において当該2点を結ぶベクトルを生成し、当該2つのベクトル間の相対角度を計算し、計算結果に基づいて当該第1の座標系と当該第2の座標系とがなす相対角度を求めることを特徴とする請求項10に記載の情報処理システム。
The reading means reads coordinate values of positions of two points in the image,
The angle detection means generates a vector connecting the two points in the first coordinate system and a vector connecting the two points in the second coordinate system, calculates a relative angle between the two vectors, and calculates The information processing system according to claim 10, wherein a relative angle formed by the first coordinate system and the second coordinate system is obtained based on a result.
コンピュータを、
記録媒体に記録された当該記録媒体上の位置を表す位置情報であって当該位置情報を読み取る読み取り装置により読み取られた当該記録媒体上の2点の位置情報に基づき、当該2点の当該記録媒体上の位置関係を抽出する第1の位置関係抽出手段と、
前記記録媒体上の前記2点の画像を取得する画像取得手段と、
前記画像上の前記2点の位置関係を抽出する第2の位置関係抽出手段と、
前記第1の位置関係抽出手段により抽出された前記2点の前記記録媒体上の位置関係と前記第2の位置関係抽出手段により抽出された前記画像上の前記2点の位置関係を比較することにより、当該第1の位置関係抽出手段により抽出された当該2点のうち1点から他点へと向かう第1の方向と、当該第2の位置関係抽出手段により抽出された当該2点のうち1点から他点へと向かう第2の方向との相対角度を検出する角度検出手段として
機能させることを特徴とするプログラム。
Computer
Based on the position information of the two points on the recording medium read by the reading device that reads the position information, the position information indicating the position on the recording medium recorded on the recording medium. First positional relationship extraction means for extracting the positional relationship above;
Image acquisition means for acquiring the two images on the recording medium;
Second positional relationship extracting means for extracting a positional relationship between the two points on the image;
Comparing the positional relationship between the two points on the recording medium extracted by the first positional relationship extracting unit and the positional relationship between the two points on the image extracted by the second positional relationship extracting unit. Thus, of the two points extracted by the first positional relationship extracting unit, the first direction from one point to the other point and the two points extracted by the second positional relationship extracting unit A program that functions as an angle detection unit that detects a relative angle with a second direction from one point to another point .
コンピュータを
第1の座標系に基づく座標値を表す画像パターンが記録された記録媒体における一定領域の画像から当該画像パターンにより表される複数の座標値を読み取る読み取り手段と、
前記読み取り手段により読み取られた前記複数の座標値に基づいて特定される前記第1の座標系と前記画像に対して設定された第2の座標系とがなす相対角度を検出する角度検出手段
として機能させることを特徴とするプログラム。
The computer,
Reading means for reading a plurality of coordinate values represented by the image pattern from an image of a certain area on a recording medium on which an image pattern representing a coordinate value based on the first coordinate system is recorded;
Angle detecting means for detect the relative angle between the second coordinate system set for the first coordinate system and the image specified based on the plurality of coordinate values read by the reading means A program characterized by functioning as
JP2007017886A 2007-01-29 2007-01-29 Reading device, information processing system, and program Active JP4830873B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007017886A JP4830873B2 (en) 2007-01-29 2007-01-29 Reading device, information processing system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007017886A JP4830873B2 (en) 2007-01-29 2007-01-29 Reading device, information processing system, and program

Publications (2)

Publication Number Publication Date
JP2008186149A JP2008186149A (en) 2008-08-14
JP4830873B2 true JP4830873B2 (en) 2011-12-07

Family

ID=39729166

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007017886A Active JP4830873B2 (en) 2007-01-29 2007-01-29 Reading device, information processing system, and program

Country Status (1)

Country Link
JP (1) JP4830873B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4292927B2 (en) * 2003-09-16 2009-07-08 カシオ計算機株式会社 Pen-type data input device and program
JP2005173672A (en) * 2003-12-08 2005-06-30 Laboratories Of Image Information Science & Technology Form, electronic pen, and program

Also Published As

Publication number Publication date
JP2008186149A (en) 2008-08-14

Similar Documents

Publication Publication Date Title
US7249716B2 (en) Position-coding pattern
JP4375377B2 (en) WRITING INFORMATION PROCESSING SYSTEM, WRITING INFORMATION GENERATION DEVICE, AND PROGRAM
US6966495B2 (en) Devices method and computer program for position determination
TWI444902B (en) Method of distinguishing first coding pattern from second coding pattern
US20110304548A1 (en) Mouse provided with a dot pattern reading function
CN101398838B (en) handwritten information management system and handwritten information management method
JP4973310B2 (en) Electronic writing instrument, computer system
US7600693B2 (en) Information code including redundant information providing copy protection
JP4996245B2 (en) Method, apparatus, computer program and storage medium for position decoding
MXPA02003310A (en) Position determination calculation.
JP5028843B2 (en) WRITING INFORMATION PROCESSING DEVICE, WRITING INFORMATION PROCESSING METHOD, AND PROGRAM
JP4635945B2 (en) WRITING INFORMATION PROCESSING DEVICE, WRITING INFORMATION PROCESSING METHOD, AND PROGRAM
JP2015114758A (en) Information code creation method, information code, information code reading device, and information code utilization system
JP4031268B2 (en) Computer input device, method, computer input system, and input method in the system
JP4830873B2 (en) Reading device, information processing system, and program
KR101512082B1 (en) system and method for mode switching of electronic pen
US8353461B2 (en) Image processing apparatus, identification apparatus, electronic writing instrument, method for determining bit sequence and computer readable medium
JP2009181514A (en) Handwriting information creation device, program, and handwriting information management system
JP4491287B2 (en) Two-dimensional code, two-dimensional code forming apparatus and forming method, and two-dimensional code reading apparatus and reading method
JP4765894B2 (en) Image generating apparatus, information reading apparatus, and recording medium
JP2005092436A (en) Code information read-out device, program therefor, and pen type data input unit using the same
JP2009181521A (en) Handwriting information creation device, program, and handwriting information management system
JP2008071247A (en) Print information management and program
JP5987726B2 (en) Information processing apparatus and information processing program
JP2008046988A (en) Document management apparatus, identification information generation device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101102

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110823

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110905

R150 Certificate of patent or registration of utility model

Ref document number: 4830873

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140930

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350