JP2006332752A - Image information processing system, image information processing apparatus and method, and recording medium and program - Google Patents

Image information processing system, image information processing apparatus and method, and recording medium and program Download PDF

Info

Publication number
JP2006332752A
JP2006332752A JP2005149409A JP2005149409A JP2006332752A JP 2006332752 A JP2006332752 A JP 2006332752A JP 2005149409 A JP2005149409 A JP 2005149409A JP 2005149409 A JP2005149409 A JP 2005149409A JP 2006332752 A JP2006332752 A JP 2006332752A
Authority
JP
Japan
Prior art keywords
image
region
area
processing target
presentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005149409A
Other languages
Japanese (ja)
Other versions
JP4600149B2 (en
Inventor
Hisanobu Sugiyama
寿伸 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005149409A priority Critical patent/JP4600149B2/en
Publication of JP2006332752A publication Critical patent/JP2006332752A/en
Application granted granted Critical
Publication of JP4600149B2 publication Critical patent/JP4600149B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Mobile Radio Communication Systems (AREA)
  • Telephone Function (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To quickly read data. <P>SOLUTION: A mobile terminal images blinking LEDs and displays the images on a display section. The images 12-1A to 12-3A of the LEDs displayed on the display section are scanned to detect addresses. In this case, a greater region R1 is scanned. The scanning of the region R1 is carried out at a frame rate of 4kfps. When a user designates the image of one of the LEDs, a narrower region R2 including the image 12-2A of the designated LED is set as the scanning region. The region R2 is scanned at a faster frame rate of 400 kfps. The technology above can be applied to mobile phones. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像情報処理システム、画像情報処理装置および方法、記録媒体並びにプログラムに関し、特に、迅速に情報を読み取ることができるようにした画像情報処理システム、画像情報処理装置および方法、記録媒体並びにプログラムに関する。   The present invention relates to an image information processing system, an image information processing apparatus and method, a recording medium, and a program, and in particular, an image information processing system, an image information processing apparatus and method, a recording medium, and a recording medium that can read information quickly. Regarding the program.

特許文献1には、データ通信システムが開示されている。このデータ通信システムにおいては、LED(Light Emitting Diode)が点滅され、この点滅するLEDがビデオカメラにより撮像される。撮像画像の点滅状態を分析することで、LEDから送信された情報を読み取ることができる。
再公表特許公報WO2003/036829
Patent Document 1 discloses a data communication system. In this data communication system, an LED (Light Emitting Diode) blinks, and the blinking LED is imaged by a video camera. By analyzing the blinking state of the captured image, the information transmitted from the LED can be read.
Republished patent publication WO2003 / 036829

しかしながら、特許文献1の発明においては、各フレームの全てのピクセルデータを分析するようにするため、情報を迅速に送信し、読み取ることができない課題があった。   However, in the invention of Patent Document 1, since all pixel data of each frame is analyzed, there is a problem that information cannot be quickly transmitted and read.

本発明はこのような状況に鑑みてなされたものであり、より迅速に情報を送信し、読み取ることができるようにするものである。   The present invention has been made in view of such circumstances, and enables information to be transmitted and read more quickly.

本発明の第1の側面は、提示画像を提示する提示装置と、提示装置により提示された提示画像から情報を読み取る読取装置とからなる画像情報処理システムにおいて、提示装置は、提示画像を提示し、読取装置は、提示装置により提示された提示画像を含む画像を処理対象画像として保持し、処理対象画像の走査領域として、その全体である第1の領域より小さく、かつ提示装置により提示された提示画像を含む第2の領域を設定し、処理対象画像の設定された第2の領域についてサンプリングし、サンプリングされた処理対象画像から提示画像に含まれる情報を読み取る画像情報処理システムである。   According to a first aspect of the present invention, in an image information processing system including a presentation device that presents a presentation image and a reading device that reads information from the presentation image presented by the presentation device, the presentation device presents the presentation image. The reading device holds an image including the presentation image presented by the presentation device as a processing target image, and is presented as a scanning region of the processing target image smaller than the first region as a whole and presented by the presentation device. It is an image information processing system that sets a second region including a presentation image, samples the second region in which the processing target image is set, and reads information included in the presentation image from the sampled processing target image.

本発明の第1の側面においては、提示装置により提示画像が提示される。読取装置は、提示装置により提示された提示画像を含む画像を処理対象画像として保持し、処理対象画像の走査領域として、その全体である第1の領域より小さく、かつ提示装置により提示された提示画像を含む第2の領域を設定し、処理対象画像の設定された第2の領域についてサンプリングし、サンプリングされた処理対象画像から提示画像に含まれる情報を読み取る。   In the first aspect of the present invention, a presentation image is presented by a presentation device. The reading device holds an image including the presentation image presented by the presentation device as a processing target image, and is smaller than the first region as a whole as a scanning region of the processing target image and presented by the presentation device. A second region including the image is set, the second region where the processing target image is set is sampled, and information included in the presentation image is read from the sampled processing target image.

提示装置は所定の位置に固定された装置とし、読取装置はユーザにより携帯される携帯電話機、PDA(Personal Digital Assistants)、その他の携帯可能な装置とすることができる。勿論いずれも固定装置または携帯装置としてもよい。   The presentation device may be a device fixed at a predetermined position, and the reading device may be a mobile phone carried by a user, a PDA (Personal Digital Assistants), or other portable device. Of course, both may be fixed devices or portable devices.

本発明の第2の側面は、提示画像に含まれる情報を読み取る画像情報処理装置または方法において、提示画像を含む画像を処理対象画像として保持する保持手段またはステップと、処理対象画像の走査領域として、その全体である第1の領域より小さく、かつ提示画像を含む第2の領域を設定する領域設定手段またはステップと、処理対象画像の設定された第2の領域についてサンプリングするサンプリング手段またはステップと、サンプリングされた処理対象画像から提示画像に含まれる情報を読み取る読取手段またはステップとを備える画像情報処理装置または方法である。   According to a second aspect of the present invention, in an image information processing apparatus or method for reading information included in a presentation image, a holding unit or step that holds an image including the presentation image as a processing target image, and a scanning region of the processing target image An area setting means or step for setting a second area that is smaller than the entire first area and that includes the presentation image; and a sampling means or step for sampling the second area in which the processing target image is set An image information processing apparatus or method comprising reading means or a step for reading information contained in a presentation image from a sampled processing target image.

本発明の第2の側面においては、提示画像を含む画像が処理対象画像として保持され、処理対象画像の走査領域として、その全体である第1の領域より小さく、かつ提示画像を含む第2の領域が設定され、処理対象画像の設定された第2の領域についてサンプリングされ、サンプリングされた処理対象画像から提示画像に含まれる情報が読み取られる。   In the second aspect of the present invention, an image including a presentation image is held as a processing target image, and a second scanning region of the processing target image is smaller than the first region as a whole and includes the presentation image. A region is set, the second region where the processing target image is set is sampled, and information included in the presentation image is read from the sampled processing target image.

提示画像を撮像する撮像手段をさらに設け、保持手段は、撮像手段により撮像された画像を前記処理対象画像として保持することができる。   An imaging unit that captures the presented image is further provided, and the holding unit can hold the image captured by the imaging unit as the processing target image.

撮像手段は画像情報処理装置本体と一体化してもよいし、別体とすることもできる。   The imaging means may be integrated with the image information processing apparatus main body, or may be a separate body.

領域設定手段は、処理対象画像の走査領域として、第2の領域を設定する前に第1の領域を設定し、サンプリング手段は、第1の領域をサンプリングした後、第2の領域をサンプリングすることができる。   The area setting means sets the first area before setting the second area as the scanning area of the processing target image, and the sampling means samples the second area after sampling the first area. be able to.

サンプリング手段は、第1の領域を第1の速度でサンプリングし、第2の領域を、第1の速度より速い第2の速度でサンプリングすることができる。   The sampling means can sample the first region at a first rate and sample the second region at a second rate that is faster than the first rate.

領域設定手段は、光が第1の周波数で点滅する提示画像から情報を読み取る場合に第1の領域を設定し、第1の周波数より高い第2の周波数で点滅する提示画像から情報を読み取る場合に第2の領域を設定することができる。   The region setting means sets the first region when reading information from a presentation image in which light blinks at a first frequency, and reads information from a presentation image that blinks at a second frequency higher than the first frequency. The second area can be set to

読取手段は、第1の領域から提示画像の提示元を識別する識別情報を読み取り、第2の領域から主情報を読み取ることができる。   The reading unit can read identification information for identifying the presentation source of the presentation image from the first area, and can read main information from the second area.

第1の領域の処理対象画像から読み取られた提示画像の提示元の識別情報に基づいて、提示元に通知を出力する通知手段をさらに設け、領域設定手段は、通知手段による通知に伴って、走査領域の設定を第1の領域から第2の領域に切り替えることができる。   Based on the identification information of the presentation source of the presentation image read from the processing target image of the first region, further provided is a notification unit that outputs a notification to the presentation source, and the region setting unit includes a notification by the notification unit, The setting of the scanning area can be switched from the first area to the second area.

保持手段により保持されている処理対象画像を表示する表示手段をさらに設け、領域設定手段は、表示されている処理対象画像から提示画像が選択された場合、選択された提示画像を含む領域を第2の領域として設定することができる。   Display means for displaying the processing target image held by the holding means is further provided, and when the presentation image is selected from the displayed processing target images, the area setting means selects a region including the selected presentation image. 2 areas can be set.

表示手段は、第1の領域の処理対象画像のサンプリングにより得られた情報に基づいて、ユーザが提示画像を選択するためのマークをさらに表示することができる。   The display means can further display a mark for the user to select a presentation image based on information obtained by sampling the processing target image in the first region.

このマークは、文字、記号、それらの組み合わせ、その他のもので構成することができるばかりでなく、画像情報処理装置に設けられているボタンに提示元を対応付け、そのボタンにマークをユーザに認識可能に表示させることで実現してもよい。   This mark can be composed of characters, symbols, combinations thereof, and others, as well as a display source associated with a button provided on the image information processing apparatus, and the user can recognize the mark on the button. You may implement | achieve by displaying as possible.

表示手段は、保持手段により保持されている処理対象画像上の提示画像の位置をガイドするマークをさらに表示することができる。   The display means can further display a mark for guiding the position of the presentation image on the processing target image held by the holding means.

このマークは、音声によるガイドと共に表示してもよい。   This mark may be displayed together with an audio guide.

サンプリング手段は、第1の領域と第2の領域とで、処理対象画像の異なる光の波長帯域成分の画像についてサンプリングすることができる。   The sampling means can sample the images of the wavelength band components of different light of the processing target image in the first region and the second region.

領域設定手段は、保持手段により保持されている処理対象画像上の提示画像の位置が変化した場合、その変化した位置に追従するように第2の領域を設定することができる。   The area setting means can set the second area so as to follow the changed position when the position of the presentation image on the processing target image held by the holding means changes.

探索する提示画像の提示元の識別情報を取得する取得手段と、取得した識別情報に一致する識別情報を提示する提示元を、処理対象画像の第1の領域から検索する検索手段と をさらに設けることができる。   An acquisition means for acquiring identification information of a presentation source of a presentation image to be searched, and a search means for searching for a presentation source for presenting identification information that matches the acquired identification information from the first region of the processing target image are further provided. be able to.

処理対象画像をズームするズーム手段と、ズームされた処理対象画像の中から、情報の誤りが最小のものを選択する選択手段とをさらに設けることができる。   Zooming means for zooming the processing target image and selection means for selecting the one with the smallest information error from the zoomed processing target image can be further provided.

第2の領域の処理対象画像のうち、情報を読み取るための演算の対象となるピクセル群を変更する変更手段と、演算の対象となるピクセル群の中から、情報の誤りが最小のものを選択する選択手段とをさらに設けることができる。   Of the processing target images in the second region, a change means for changing a pixel group to be subjected to an operation for reading information, and a pixel having the smallest information error from the pixel group to be subjected to the operation are selected. And a selection means to be further provided.

本発明によれば、画像に含まれる情報を読み取ることができる。特に本発明によれば、迅速に情報を読み取ることができる。   According to the present invention, information included in an image can be read. In particular, according to the present invention, information can be read quickly.

以下に本発明の最良の形態を説明するが、開示される発明と実施形態との対応関係を例示すると、次のようになる。明細書中には記載されているが、発明に対応するものとして、ここには記載されていない実施形態があったとしても、そのことは、その実施形態が、その発明に対応するものではないことを意味するものではない。逆に、実施形態が発明に対応するものとしてここに記載されていたとしても、そのことは、その実施形態が、その発明以外の発明には対応しないものであることを意味するものでもない。   BEST MODE FOR CARRYING OUT THE INVENTION The best mode of the present invention will be described below. The correspondence relationship between the disclosed invention and the embodiment is exemplified as follows. Although there are embodiments which are described in the specification but are not described here as corresponding to the invention, it is not that the embodiment corresponds to the invention. It doesn't mean that. On the contrary, even if an embodiment is described herein as corresponding to the invention, this does not mean that the embodiment does not correspond to an invention other than the invention.

さらに、この記載は、明細書に記載されている発明の全てを意味するものではない。換言すれば、この記載は、明細書に記載されている発明であって、この出願では請求されていない発明の存在、すなわち、将来、分割出願されたり、補正により出現し、追加される発明の存在を否定するものではない。   Further, this description does not mean all the inventions described in the specification. In other words, this description is for the invention described in the specification and not claimed in this application, i.e., for the invention that will be applied for in the future or that will appear as a result of amendment and added. It does not deny existence.

請求項1の画像情報処理システムは、提示画像を提示する提示装置(例えば、図1のオブジェクト11-1乃至11-3)と、前記提示装置により提示された提示画像から情報を読み取る読取装置(例えば、図1の携帯端末21)とからなる画像情報処理システム(例えば、図1の画像情報処理システム1)において、前記提示装置は、前記提示画像を提示し(例えば、図1のLED12-1乃至12-3を点滅させ)、前記読取装置は、前記提示装置により提示された前記提示画像を含む画像を処理対象画像として保持し(例えば、ピクセルデータを図7のアナログメモリアレイ152 に記憶し)、前記処理対象画像の走査領域として、その全体である第1の領域(例えば、図13の領域R1 )より小さく、かつ前記提示装置により提示された前記提示画像を含む第2の領域(例えば、図13の領域R2 )を設定し(例えば、図15のステップS81で小領域を設定し)、前記処理対象画像の設定された前記第2の領域についてサンプリングし(例えば、図15のステップS82で図13の領域R2 をサンプリングし)、サンプリングされた前記処理対象画像から前記提示画像に含まれる情報を読み取る(例えば、図15のステップS84 でデータを読み取る)。   The image information processing system according to claim 1 includes a presentation device that presents a presentation image (for example, the objects 11-1 to 11-3 in FIG. 1) and a reading device that reads information from the presentation image presented by the presentation device ( For example, in an image information processing system (for example, the image information processing system 1 in FIG. 1) including the mobile terminal 21) in FIG. 1, the presenting device presents the presented image (for example, the LED 12-1 in FIG. 1). Through 12-3), the reading device holds an image including the presentation image presented by the presentation device as a processing target image (for example, stores pixel data in the analog memory array 152 in FIG. 7). ), A second area (the area to be processed) that is smaller than the entire first area (for example, the area R1 in FIG. 13) and that includes the presentation image presented by the presentation device. For example, the region R2 in FIG. 13 is set (for example, a small region is set in step S81 in FIG. 15), and the second region in which the processing target image is set is sampled (for example, the step in FIG. 15). In step S82, the region R2 in FIG. 13 is sampled), and information included in the presented image is read from the sampled processing target image (for example, data is read in step S84 in FIG. 15).

請求項2の画像情報処理装置は、提示画像(例えば、図1のLED12-1 乃至12-3が点滅する画像)に含まれる情報を読み取る画像情報処理装置(例えば、図1の携帯端末21)において、前記提示画像を含む画像を処理対象画像として保持する保持手段(例えば、図7のアナログメモリアレイ152 )と、前記処理対象画像の走査領域として、その全体である第1の領域(例えば、図13の領域R1 )より小さく、かつ前記提示画像を含む第2の領域(例えば、図13の領域R2 )を設定する領域設定手段(例えば、図9の領域設定部204)と、前記処理対象画像の設定された前記第2の領域についてサンプリングするサンプリング手段(例えば、図9のサンプリング部205)と、サンプリングされた前記処理対象画像から前記提示画像に含まれる情報を読み取る読取手段(例えば、図9の読取部208)とを備える。   The image information processing apparatus according to claim 2 reads information included in a presentation image (for example, an image in which LEDs 12-1 to 12-3 in FIG. 1 are blinking) (for example, a portable terminal 21 in FIG. 1). The holding unit (for example, the analog memory array 152 in FIG. 7) that holds the image including the presented image as a processing target image, and the first region (for example, the entire processing target image, for example) The region setting means (for example, the region setting unit 204 in FIG. 9) for setting a second region (for example, the region R2 in FIG. 13) that is smaller than the region R1 in FIG. Sampling means (for example, the sampling unit 205 in FIG. 9) that samples the second region in which the image is set, and reads information included in the presented image from the sampled processing target image Comprising preparative means (e.g., the reading unit 208 in FIG. 9) and.

前記提示画像を撮像する撮像手段(例えば、図1のカメラ42)をさらに備え、前記保持手段は、前記撮像手段により撮像された画像を前記処理対象画像として保持する。   The image processing apparatus further includes an imaging unit (for example, the camera 42 in FIG. 1) that captures the presented image, and the holding unit holds the image captured by the imaging unit as the processing target image.

前記領域設定手段は、前記処理対象画像の走査領域として、前記第2の領域を設定する前に前記第1の領域を設定し(例えば、初期状態では、走査領域として大領域を設定し)、前記サンプリング手段は、前記第1の領域をサンプリングした後、前記第2の領域をサンプリングする(例えば、アイコンが指定された後、図12のステップS57でデータ受信モードを設定して、図15のステップS81で走査領域として小領域を設定する)。   The region setting means sets the first region before setting the second region as the scanning region of the processing target image (for example, in the initial state, sets a large region as the scanning region), The sampling means samples the first area and then samples the second area (for example, after an icon is designated, the data reception mode is set in step S57 of FIG. In step S81, a small area is set as the scanning area).

前記サンプリング手段は、前記第1の領域を第1の速度(例えば、4 kfps)でサンプリングし、前記第2の領域を、前記第1の速度より速い第2の速度(例えば、400 kfps)でサンプリングする(例えば、アイコンが指定された後、図12のステップS51でデータ受金モードを設定して、図15のステップS81で走査領域として小領域を設定する)。   The sampling means samples the first area at a first speed (for example, 4 kfps), and the second area at a second speed (for example, 400 kfps) faster than the first speed. Sampling is performed (for example, after an icon is designated, a data receiving mode is set in step S51 in FIG. 12, and a small area is set as a scanning area in step S81 in FIG. 15).

前記領域設定手段は、光が第1の周波数で点滅する前記提示画像から情報(例えば、図11の1kHzのアドレスフレーム)を読み取る場合に前記第1の領域を設定し、前記第1の周波数より高い第2の周波数で点滅する前記提示画像から情報(例えば、図11の100 kHzのデータフレーム)を読み取る場合に前記第2の領域を設定する。   The region setting means sets the first region when reading information (for example, a 1 kHz address frame in FIG. 11) from the presentation image in which light blinks at the first frequency, and the first region is set based on the first frequency. The second area is set when information (for example, a 100 kHz data frame in FIG. 11) is read from the presentation image blinking at a high second frequency.

前記読取手段は、前記第1の領域から前記提示画像の提示元を識別する識別情報(例えば、図1のオブジェクト11-1乃至11-3のアドレス)を読み取り、前記第2の領域から主情報(例えば、コンテンツ情報)を読み取る。   The reading unit reads identification information (for example, addresses of the objects 11-1 to 11-3 in FIG. 1) for identifying the presentation source of the presentation image from the first area, and reads main information from the second area. (For example, content information) is read.

前記第1の領域の前記処理対象画像から読み取られた前記提示画像の提示元の識別情報に基づいて、前記提示元に通知を出力する通知手段(例えば、図30のステップS257でオブジェクト指定情報を送信する処理を行う図29の送信部281)をさらに備え、前記領域設定手段は、前記通知手段による通知に伴って、前記走査領域の設定を前記第1の領域から前記第2の領域に切り替える(例えば、図30のステップS258 で、モードを、サーチモードからデータ読取モードに切り替える)。   Based on the identification information of the presentation source of the presentation image read from the processing target image in the first area, notification means for outputting a notification to the presentation source (for example, the object designation information in step S257 of FIG. 30). 29 for performing the transmission process, and the area setting means switches the setting of the scanning area from the first area to the second area in accordance with the notification by the notifying means. (For example, in step S258 in FIG. 30, the mode is switched from the search mode to the data reading mode).

前記保持手段により保持されている前記処理対象画像を表示する表示手段(例えば、図1のモニタ41)をさらに備え、前記領域設定手段は、表示されている前記処理対象画像から前記提示画像が選択された場合(例えば、図12のステップS56 でアイコンが指定されたと判定された場合)、選択された前記提示画像を含む領域を前記第2の領域として設定する(例えば、図12のステップS57でデータ読取モードを設定し、図15のステップS81で走査領域として小領域を設定する)。   The image processing apparatus further includes display means (for example, the monitor 41 in FIG. 1) that displays the processing target image held by the holding means, and the region setting means selects the presented image from the displayed processing target images. If it is determined (for example, when it is determined in step S56 in FIG. 12 that an icon has been designated), the region including the selected presentation image is set as the second region (for example, in step S57 in FIG. 12). A data reading mode is set, and a small area is set as a scanning area in step S81 of FIG.

前記表示手段は、前記第1の領域の前記処理対象画像のサンプリングにより得られた情報に基づいて、ユーザが前記提示画像を選択するためのマーク(例えば、図2のアドレスを表すアイコン43-1乃至43-3)をさらに表示する。   Based on the information obtained by sampling the processing target image in the first area, the display means displays a mark (for example, an icon 43-1 representing an address in FIG. 2) for the user to select the presentation image. To 43-3) are further displayed.

前記表示手段は、前記保持手段により保持されている前記処理対象画像上の前記提示画像の位置をガイドするマーク(例えば、図31のマーク301)をさらに表示する。   The display means further displays a mark (for example, a mark 301 in FIG. 31) for guiding the position of the presentation image on the processing target image held by the holding means.

前記サンプリング手段は、前記第1の領域と前記第2の領域とで、前記処理対象画像の異なる光の波長帯域成分の画像についてサンプリングする(例えば、図25のステップS182でピクセルの赤の成分について大領域をサンプリングするか、または図26のステップS202でピクセルの緑の成分について小領域をサンプリングする)。   The sampling means samples the image of the wavelength band component of the different light of the processing target image in the first region and the second region (for example, the red component of the pixel in step S182 in FIG. 25). Either sample the large area or sample the small area for the green component of the pixel in step S202 of FIG. 26).

前記領域設定手段は、前記保持手段により保持されている前記処理対象画像上の前記提示画像の位置が変化した場合、その変化した位置に追従するように前記第2の領域を設定する(例えば、図35のステップS302で、オブジェクトの位置が変化した場合、その変化した位置小領域を設定する)。   When the position of the presentation image on the processing target image held by the holding unit is changed, the area setting unit sets the second area so as to follow the changed position (for example, If the position of the object has changed in step S302 in FIG. 35, the changed position small area is set).

探索する前記提示画像の提示元の識別情報を取得する取得手段(例えば、図36のステップS331で、探索するアドレスを取得する処理を実行する図9の取得部201)と、取得した前記識別情報に一致する前記識別情報を提示する前記提示元を、前記処理対象画像の前記第1の領域から検索する検索手段(例えば、図37のステップS355でアドレスが一致したかを判定する処理を行う図9の判定部203)とをさらに備える。   Acquisition means for acquiring identification information of the presentation source of the presentation image to be searched (for example, the acquisition unit 201 of FIG. 9 that executes processing for acquiring an address to be searched in step S331 of FIG. 36), and the acquired identification information Search means for searching for the presentation source that presents the identification information that matches the search information from the first region of the processing target image (for example, a process of determining whether the addresses match in step S355 of FIG. 37) 9 determination unit 203).

前記処理対象画像をズームするズーム手段(例えば、図39のステップS376の画像をズームする処理を実行する図38のズーム部341)と、ズームされた前記処理対象画像の中から、情報の誤りが最小のものを選択する選択手段(例えば、図39のステップS381で、最小の誤り率が得られたかを判定する処理を行う図38の判定部203)とをさらに備える。   There is an error in information among the zoom means for zooming the processing target image (for example, the zoom unit 341 in FIG. 38 that executes the processing for zooming the image in step S376 in FIG. 39) and the zoomed processing target image. It further comprises selection means for selecting the smallest one (for example, the determination unit 203 in FIG. 38 that performs a process of determining whether the minimum error rate is obtained in step S381 in FIG. 39).

前記第2の領域の前記処理対象画像のうち、前記情報を読み取るための演算の対象となるピクセル群を変更する変更手段(例えば、図41のステップS406で、加算するピクセルを変更する処理を行う図40の変更部361)と、演算の対象となる前記ピクセル群の中から、情報の誤りが最小のものを選択する選択手段(例えば、図41のステップS411で、最小の誤り率が得られたかを判定する処理を行う図40の判定部203)とをさらに備える。   Changing means for changing a pixel group that is a calculation target for reading the information in the processing target image in the second area (for example, a process of changing the pixel to be added is performed in step S406 in FIG. 41). The change unit 361 in FIG. 40) and selection means for selecting the smallest information error from the pixel group to be operated (for example, in step S411 in FIG. 41, the minimum error rate is obtained). And a determination unit 203 in FIG.

請求項17の画像情報処理方法は、提示画像(例えば、図1のLED12-1 乃至12-3 が点滅する画像)に含まれる情報を読み取る画像情報処理装置(例えば、図1の携帯端末21)の画像情報処理方法において、前記提示画像を含む画像を処理対象画像として保持する保持ステップ(例えば、ピクセルデータを図7のアナログメモリアレイ152 に記憶する図10のステップS21)と、前記処理対象画像の走査領域として、その全体である第1の領域(例えば、図13の領域R1)より小さく、かつ前記提示画像を含む第2の領域(例えば、図13の領域R2 )を設定する領域設定ステップ(例えば、図12のデータ読取モードを設定するステップS57、図15のサーチモードを設定するステップS85)と、前記処理対象画像の設定された前記第2の領域についてサンプリングするサンプリングステップ(例えば、図15の400 kfpsでサンプリングを行うステップS82)と、サンプリングされた前記処理対象画像から前記提示画像に含まれる情報を読み取る読取ステップ(例えば、図15のデータを読み取るステップS84)とを含む。   The image information processing method according to claim 17 is an image information processing apparatus (for example, portable terminal 21 in FIG. 1) that reads information included in a presented image (for example, an image in which LEDs 12-1 to 12-3 in FIG. 1 blink). In the image information processing method, a holding step for holding an image including the presented image as a processing target image (for example, step S21 in FIG. 10 in which pixel data is stored in the analog memory array 152 in FIG. 7), and the processing target image An area setting step for setting a second area (for example, area R2 in FIG. 13) that is smaller than the entire first area (for example, area R1 in FIG. 13) and includes the presented image as the scanning area of (For example, step S57 for setting the data reading mode in FIG. 12 and step S85 for setting the search mode in FIG. 15) and the second region in which the processing target image is set is sampled. A sampling step for ringing (for example, step S82 for sampling at 400 kfps in FIG. 15), and a reading step for reading information contained in the presented image from the sampled processing target image (for example, reading the data in FIG. 15) S84).

図1は、本発明を適用した画像情報処理システムの実施形態を表す。この画像情報処理システム1は、所定の位置に固定されたオブジェクト11−1乃至11−3(以下、オブジェクト11−1乃至11−3を個々に区別する必要がない場合、単にオブジェクト11と称する)と携帯端末21により構成されている。オブジェクト11−1は、LED(Light Emitting Diode)12−1を有する。同様に、オブジェクト11−2,11−3は、LED12−2,12−3を有する。LED12−1乃至12−3(以下、これらを個々に区別する必要がない場合、単にLED12と称する)は、光の点滅信号を発生する(光が点滅する画像を提示する)。これによりオブジェクト11は各種の情報を各ユーザに提供する。   FIG. 1 shows an embodiment of an image information processing system to which the present invention is applied. The image information processing system 1 includes objects 11-1 to 11-3 fixed at predetermined positions (hereinafter simply referred to as objects 11 when it is not necessary to individually distinguish the objects 11-1 to 11-3). And the portable terminal 21. The object 11-1 has an LED (Light Emitting Diode) 12-1. Similarly, the objects 11-2 and 11-3 have LEDs 12-2 and 12-3. The LEDs 12-1 to 12-3 (hereinafter, simply referred to as the LED 12 when they do not need to be individually distinguished) generate a light blinking signal (present an image in which the light blinks). Thereby, the object 11 provides various information to each user.

ユーザにより携帯される携帯電話機、PDA(Personal Digital Assistants)等により構成される携帯端末21は、本体22と本体22に対して開閉自在に連結されているカバー部23により構成されている。本体22には、各種のボタンやスイッチなどにより構成される入力部31が設けられている。カバー部23には、本体22と対向する面にモニタ41が設けられている。カバー部23の先端部にはカメラ42が設けられており、カメラ42で撮像した画像がモニタ41に表示される。   A mobile terminal 21 constituted by a mobile phone carried by a user, PDA (Personal Digital Assistants), and the like is constituted by a main body 22 and a cover portion 23 connected to the main body 22 so as to be freely opened and closed. The main body 22 is provided with an input unit 31 composed of various buttons and switches. The cover 23 is provided with a monitor 41 on the surface facing the main body 22. A camera 42 is provided at the tip of the cover portion 23, and an image captured by the camera 42 is displayed on the monitor 41.

図1の実施形態においては、モニタ41にオブジェクト11−1とLED12−1をカメラ42で撮像して得られる画像11−1Aと12−1Aが表示されている。また、オブジェクトの画像11−1A(LEDの画像12−1A)に対応するアイコン43−1が表示されている。   In the embodiment of FIG. 1, images 11-1A and 12-1A obtained by imaging the object 11-1 and the LED 12-1 with the camera 42 are displayed on the monitor 41. Also, an icon 43-1 corresponding to the object image 11-1A (LED image 12-1A) is displayed.

実際には、LED12−1を有するオブジェクト11−1だけでなく、LED12−2を有するオブジェクト11−2、並びにLED12−3を有するオブジェクト11−3もカメラ42により撮像されている。従って、図2に示されるように、LED12−1を有するオブジェクト11−1の画像12−1A,11−1A以外に、LED12−2を有するオブジェクト11−2、LED12−3を有するオブジェクト11−3の画像12−2A,11−2A,12−3A,11−3Aもモニタ41に表示されている。また、オブジェクトの画像11−2A,11−3A(LEDの画像12−2A,12−3A)にそれぞれ対応して、アイコン43−2,43−3も表示されている。   Actually, not only the object 11-1 having the LED 12-1, but also the object 11-2 having the LED 12-2 and the object 11-3 having the LED 12-3 are imaged by the camera 42. Therefore, as shown in FIG. 2, in addition to the images 12-1A and 11-1A of the object 11-1 having the LED 12-1, the object 11-2 having the LED 12-2 and the object 11-3 having the LED 12-3. The images 12-2A, 11-2A, 12-3A, and 11-3A are also displayed on the monitor 41. Icons 43-2 and 43-3 are also displayed corresponding to the object images 11-2A and 11-3A (LED images 12-2A and 12-3A), respectively.

図1と図2に示される実施形態においては、アイコン43−1乃至43−3として、それぞれの対応するオブジェクト11−1乃至11−3を識別する識別情報としてのアドレスであるアドレス1乃至アドレス3が表示されている。   In the embodiment shown in FIGS. 1 and 2, the icons 43-1 to 43-3 are addresses 1 to 3 which are addresses as identification information for identifying the corresponding objects 11-1 to 11-3, respectively. Is displayed.

図3は、カメラ42による撮像の原理を表している。同図に示されるように、LED12−1の画像は、レンズ62によりイメージセンサ61上の1つのピクセル71−1に結像される。同様に、LED12−2,12−3は、それぞれレンズ62によりイメージセンサ61上のピクセル71−2,71−3に結像する。なお、実際には、LED12−1乃至12−3は、1つのピクセルではなく、複数のピクセル上に結像される。すなわち、1つのLEDは複数のピクセルにより表示されるが、その場合にはその複数のピクセルデータが加算され、その加算された値に基づいてそのLEDの点滅信号が読み取られる。   FIG. 3 shows the principle of imaging by the camera 42. As shown in the figure, the image of the LED 12-1 is formed on one pixel 71-1 on the image sensor 61 by the lens 62. Similarly, the LEDs 12-2 and 12-3 form images on the pixels 71-2 and 71-3 on the image sensor 61 by the lens 62, respectively. Actually, the LEDs 12-1 to 12-3 are imaged on a plurality of pixels instead of one pixel. That is, one LED is displayed by a plurality of pixels. In this case, the plurality of pixel data are added, and the blinking signal of the LED is read based on the added value.

以下においては、説明を簡単にするために、特に断らない限り、1つのLEDの画像が1つのピクセルに結像するものとして説明をする。   In the following, in order to simplify the explanation, it is assumed that an image of one LED is formed on one pixel unless otherwise specified.

オブジェクト11は、例えば、図4に示されるように構成される。クロック発生部101は、基準となるクロック信号を、アドレスフレーム生成部102とデータフレーム生成部103に供給する。アドレスフレーム生成部102は、クロック発生部101より供給されたクロックに同期してアドレスフレームを生成する。データフレーム生成部103は、クロック発生部101より供給されたクロックに同期してデータフレームを生成する。合成部104は、アドレスフレーム生成部102により生成されたアドレスフレームと、データフレーム生成部103により生成されたデータフレームとを合成し、送信部105に出力する。送信部105は、合成部104より供給された信号を、例えばマンチェスタ符号に符号化し、その符号化データに基づいてLED12を点滅させることで点滅信号を送信する。すなわち、明るさの変化する画像を提示することで情報が提供される。点滅は、基本的には光が出射される期間(第1の期間)と、出射が停止される期間(第2の期間)とで実現されるが、第2の期間において、光は必ずしも完全に出射を停止せずとも、第1の期間と識別できる程度のレベルで出射されていてもよい。制御部106は、クロック発生部101、アドレスフレーム生成部102、データフレーム生成部103,合成部104、並びに送信部105の動作を制御する。   The object 11 is configured as shown in FIG. 4, for example. The clock generation unit 101 supplies a reference clock signal to the address frame generation unit 102 and the data frame generation unit 103. The address frame generation unit 102 generates an address frame in synchronization with the clock supplied from the clock generation unit 101. The data frame generation unit 103 generates a data frame in synchronization with the clock supplied from the clock generation unit 101. The synthesizer 104 synthesizes the address frame generated by the address frame generator 102 and the data frame generated by the data frame generator 103 and outputs the synthesized result to the transmitter 105. The transmission unit 105 encodes the signal supplied from the synthesis unit 104 into, for example, a Manchester code, and transmits a blinking signal by blinking the LED 12 based on the encoded data. That is, information is provided by presenting an image with varying brightness. The blinking is basically realized in a period in which the light is emitted (first period) and a period in which the emission is stopped (second period), but in the second period, the light is not necessarily complete. The light may be emitted at a level that can be distinguished from the first period without stopping the emission. The control unit 106 controls operations of the clock generation unit 101, the address frame generation unit 102, the data frame generation unit 103, the synthesis unit 104, and the transmission unit 105.

アドレスフレーム生成部102により発生されるアドレスフレームは、例えば、図5Aに示されるフォーマット構成とされる。この実施形態においては、アドレスフレームは160ビットにより構成され、その先頭に8ビットのスタートビット(Start)が配置され、その次に8ビットのアドレスビット(Address)が配置され、その次に120ビットの属性が配置され、その次に16ビットのFCS(Frame Check Sequence)が配置され、最後に、8ビットのストップビット(Stop)が配置されている。   The address frame generated by the address frame generation unit 102 has a format configuration shown in FIG. 5A, for example. In this embodiment, the address frame is composed of 160 bits, an 8-bit start bit (Start) is arranged at the head thereof, an 8-bit address bit (Address) is arranged next, and then 120 bits. Next, a 16-bit FCS (Frame Check Sequence) is arranged, and finally an 8-bit stop bit (Stop) is arranged.

スタートビットとストップビットは、それぞれフレームのスタート位置と停止位置を表す。アドレスは、オブジェクト11を特定(識別)する情報である。識別情報としてのアドレスは、画像を提示する提示元としてのオブジェクト11を直接特定する情報とすることができるが、最終的に特定できる情報であれば、間接的に特定する情報とすることもできる。属性は、例えば、オブジェクト11や、そのオブジェクト11が提供するデータ(情報)の属性を表す。オブジェクトの属性としては、例えば、道案内、地域情報、宣伝、店の種類といった、オブジェクトが提供する情報のカテゴリを表すコードをあげることができる。データの属性としては、例えば、テキスト、画像、音楽、電子チケットといった、データフレームにおいて転送されるデータの種類やデータ量などをあげることができる。アドレスと同時にこれらの情報が得られれば、携帯端末21のモニタ41に表示するアイコンの種類を、情報のカテゴリによって変えたり、転送されるデータ量をアイコンに表示したりすることが可能になる。   The start bit and stop bit represent the start position and stop position of the frame, respectively. The address is information for specifying (identifying) the object 11. The address as the identification information can be information that directly specifies the object 11 as the presentation source that presents the image, but can also be information that is indirectly specified as long as it can be finally specified. . The attribute represents, for example, an attribute of the object 11 or data (information) provided by the object 11. Examples of the attribute of the object include a code representing a category of information provided by the object, such as route guidance, regional information, advertisement, and store type. Examples of data attributes include the type and amount of data transferred in a data frame, such as text, images, music, and electronic tickets. If such information is obtained at the same time as the address, the type of icon displayed on the monitor 41 of the portable terminal 21 can be changed depending on the category of information, or the amount of data to be transferred can be displayed on the icon.

FCS(Frame Check Sequence)は、エラー訂正のための符号である。   FCS (Frame Check Sequence) is a code for error correction.

データフレーム生成部103が生成するデータフレームのフォーマットは、例えば図5Bに示される。データフレームは約16キロビットで構成され、先頭の8ビットはスタートビット(Start)とされる。次の8ビットはアドレスビット(Adress)とされる。さらに、その次には、オブジェクト11が携帯端末21に提供する主情報としてのデータとされる。すなわち、道案内、地域情報、宣伝、近隣の店の紹介などの主情報がここに配置される。主情報は、1フレームで完結してもよいが、複数フレームで完結するようにしてもよい。データの次には、16ビットのFCSが配置され、そして最後に8ビットのストップビット(Stop)が配置される。   The format of the data frame generated by the data frame generation unit 103 is shown in FIG. 5B, for example. The data frame is composed of about 16 kilobits, and the first 8 bits are used as start bits. The next 8 bits are address bits (Adress). Further, next, data as main information provided to the portable terminal 21 by the object 11 is used. That is, main information such as route guidance, regional information, advertisements, and introductions of nearby stores are arranged here. The main information may be completed in one frame, but may be completed in a plurality of frames. Next to the data, a 16-bit FCS is arranged, and finally an 8-bit stop bit (Stop) is arranged.

なお、アドレスフレームにおいて属性情報を送信する必要ない場合には、図5Aの120ビットの属性の欄にもアドレスを割り当てるようにして、例えば図5Cに示されるように、128ビットにアドレスを振り当てることができる。あるいはまた、図5Aの120ビットの属性の欄を削除し、図5Dに示されるように、8ビットのスタートビットとアドレスビットに続いて16ビットのFCSを配置し、最後に8ビットのストップビットを配置して、1フレームを40ビットで構成するようにすることも可能である。   If it is not necessary to transmit attribute information in the address frame, an address is also assigned to the 120-bit attribute column in FIG. 5A, and the address is assigned to 128 bits, for example, as shown in FIG. 5C. be able to. Alternatively, the 120-bit attribute field in FIG. 5A is deleted, and as shown in FIG. 5D, an 8-bit start bit and an address bit are followed by a 16-bit FCS, and finally an 8-bit stop bit. It is also possible to arrange one frame so that one frame is composed of 40 bits.

送信部105が、アドレスフレームの1ビットを1kHzの周波数(1msの周期)で送信する場合、160ビットのアドレスフレームの周期は160 msとなり、データフレームの1ビットを100 kHzの周波数(10μsの周期)で送信する場合、約16キロビットのデータフレームの周期もやはり約160 msとなる。   When the transmission unit 105 transmits one bit of the address frame at a frequency of 1 kHz (1 ms cycle), the cycle of the 160-bit address frame is 160 ms, and one bit of the data frame is converted to a frequency of 100 kHz (period of 10 μs). ), The period of the data frame of about 16 kilobits is also about 160 ms.

図6は、携帯端末21の構成を表している。携帯端末21は、カメラ42、制御部121、DSP(Digital Signal Processor)122、入力部31およびモニタ41により構成されている。   FIG. 6 shows the configuration of the mobile terminal 21. The portable terminal 21 includes a camera 42, a control unit 121, a DSP (Digital Signal Processor) 122, an input unit 31, and a monitor 41.

センサーチップ131は、図7に示されるように、基本的にピクセルアレイ151とアナログメモリアレイ152により構成されている。ピクセルアレイ151は、図3におけるイメージセンサ61に対応する。ピクセルアレイ151には、複数の受光セル161がマトリクス状に配置されている。同様に、アナログメモリアレイ152も複数のメモリセル171がマトリクス状に配置されている。ピクセルVデコーダ153は、レンズ62により入射された光に基づく画像のピクセルデータを、各受光セル161の列毎に設けられている垂直信号線162を利用して、受光セル161の行単位で、ピクセルHデコーダ154に転送するか、または、アナログメモリアレイ152の対応するメモリセル171に転送する。ピクセルHデコーダ154は、ピクセルアレイ151より入力された各ライン毎のピクセルデータを画像信号としてDSP122に出力する。   As shown in FIG. 7, the sensor chip 131 basically includes a pixel array 151 and an analog memory array 152. The pixel array 151 corresponds to the image sensor 61 in FIG. In the pixel array 151, a plurality of light receiving cells 161 are arranged in a matrix. Similarly, the analog memory array 152 includes a plurality of memory cells 171 arranged in a matrix. The pixel V decoder 153 uses the vertical signal line 162 provided for each column of the light receiving cells 161 for pixel data of an image based on the light incident by the lens 62, in units of rows of the light receiving cells 161. Transfer to pixel H decoder 154 or to corresponding memory cell 171 of analog memory array 152. The pixel H decoder 154 outputs the pixel data for each line input from the pixel array 151 to the DSP 122 as an image signal.

メモリVデコーダ155は、アナログメモリアレイ152の各メモリセル171に保持されたピクセルデータを、各ライン毎にコンパレータ156に出力する。コンパレータ156は、2つのフレームの対応するピクセルデータの大きさを比較し、その比較結果に基づく論理としてのデータをメモリHデコーダ157に出力する。メモリHデコーダ157は、コンパレータ156より入力されたデータを光信号検出結果出力として出力する。   The memory V decoder 155 outputs the pixel data held in each memory cell 171 of the analog memory array 152 to the comparator 156 for each line. The comparator 156 compares the sizes of the corresponding pixel data in the two frames, and outputs data as logic based on the comparison result to the memory H decoder 157. The memory H decoder 157 outputs the data input from the comparator 156 as an optical signal detection result output.

なお、センサチップ131においては、ピクセルアレイ151のすべての受光セル161に保持されたピクセルデータだけでなく、その一部の範囲の受光セル161に保持されたピクセルデータだけをアナログメモリアレイ152の対応するメモリセル171に転送し、その一部のピクセルデータについてだけコンパレータ156で比較することが可能である。また、R,G,Bの3色のうちの任意の色成分だけを転送したり、比較することが可能である。   In the sensor chip 131, not only the pixel data held in all the light receiving cells 161 of the pixel array 151 but also only the pixel data held in the light receiving cells 161 in a part of the range are supported by the analog memory array 152. It is possible to transfer the data to the memory cell 171 and compare only a part of the pixel data by the comparator 156. Also, it is possible to transfer or compare only arbitrary color components of the three colors R, G, and B.

図6のDSP122は、センサーチップ131より入力された画像信号に基づく画像を表示するための信号を生成し、モニタ41に出力し、表示させる。また、DSP122は、センサーチップ131より入力された最新の光信号検出結果出力を処理し、それに基づく必要な画像を表示するための信号を生成し、モニタ41に出力し、表示させる。制御部121は、入力部31からのユーザの指示に基づいて、各部を制御する。なお、光信号検出結果出力は、制御部121に入力し、制御部121で処理した結果に基づいてDSP122を制御し、必要な情報をモニタ41に表示させるようにしてもよい。   The DSP 122 in FIG. 6 generates a signal for displaying an image based on the image signal input from the sensor chip 131, and outputs the signal to the monitor 41 for display. The DSP 122 processes the latest optical signal detection result output input from the sensor chip 131, generates a signal for displaying a necessary image based on the output, and outputs the signal to the monitor 41 for display. The control unit 121 controls each unit based on a user instruction from the input unit 31. The optical signal detection result output may be input to the control unit 121 and the DSP 122 may be controlled based on the result processed by the control unit 121 so that necessary information is displayed on the monitor 41.

次に、図8のフローチャートを参照して、オブジェクト11の送信処理(画像提示処理)について説明する。   Next, the transmission process (image presentation process) of the object 11 will be described with reference to the flowchart of FIG.

ステップS1において、アドレスフレーム生成部102は、アドレスフレームを生成する。このアドレスフレームは、上述したように、図5A(または図5Cもしくは図5D)に示されるフォーマットを有している。ステップS2において、データフレーム生成部103は、データフレームを生成する。このデータフレームは、図5Bに示されるフォーマットの構成とされる。次にステップS3において、合成部104は、ステップS1で生成されたアドレスフレームとステップS2で生成されたデータフレームを合成する。この実施形態の場合、合成部104は、アドレスフレームとデータフレームをフレーム毎に時分割多重することで合成する(後述する図11A参照)。ステップS4において、送信部105は、LED12を合成信号に基づいて駆動し、点滅信号を送信する(光の明るさが変化する画像を提示する)。送信部105は、アドレスフレームを1kHzの周波数で送信し、データフレームを100 kHzの周波数で送信する。これにより、アドレスフレームとデータフレームは、160msの周期毎に交互に送信される。   In step S1, the address frame generation unit 102 generates an address frame. As described above, this address frame has the format shown in FIG. 5A (or FIG. 5C or FIG. 5D). In step S2, the data frame generation unit 103 generates a data frame. This data frame has a format shown in FIG. 5B. Next, in step S3, the combining unit 104 combines the address frame generated in step S1 and the data frame generated in step S2. In this embodiment, the combining unit 104 combines the address frame and the data frame by time-division multiplexing for each frame (see FIG. 11A described later). In step S4, the transmission unit 105 drives the LED 12 based on the composite signal and transmits a blinking signal (presents an image in which the brightness of light changes). The transmission unit 105 transmits an address frame at a frequency of 1 kHz and transmits a data frame at a frequency of 100 kHz. As a result, the address frame and the data frame are alternately transmitted every 160 ms.

ステップS5において、制御部106は、オブジェクト11の管理者より終了が指示されたかを判定し、終了がまだ指示されていない場合には処理はステップS1に戻り、それ以降の処理が繰り返し実行される。ステップS5において、終了が指示されたと判定された場合、送信処理は終了される。   In step S5, the control unit 106 determines whether the administrator of the object 11 has instructed termination. If the termination has not been instructed yet, the process returns to step S1, and the subsequent processing is repeatedly executed. . In step S5, when it is determined that the end is instructed, the transmission process is ended.

以上のようにして、図11Aを参照して後述するように、アドレスフレームとデータフレームが160 msの周期で交互に繰り返し送信される。アドレスフレームには各オブジェクト11のアドレスが含まれており、データフレームにはオブジェクト11から各ユーザに提供する主情報としてのデータが含まれている。   As described above, as will be described later with reference to FIG. 11A, the address frame and the data frame are repeatedly transmitted alternately at a period of 160 ms. The address frame includes the address of each object 11, and the data frame includes data as main information provided from the object 11 to each user.

携帯端末21のDSP122は、オブジェクト11から以上のようにして送信されてくるデータを受信するために、図9に示されるように機能的に構成されている。すなわち、DSP122は、取得部201、表示部202、判定部203、領域設定部204、サンプリング部205、モード設定部206、記憶部207、並びに読取部208により構成されている。なお、これらの各部は必要に応じて信号を相互に授受することが可能とされている。このことは、他の実施形態においても同様である。   The DSP 122 of the portable terminal 21 is functionally configured as shown in FIG. 9 in order to receive data transmitted from the object 11 as described above. That is, the DSP 122 includes an acquisition unit 201, a display unit 202, a determination unit 203, an area setting unit 204, a sampling unit 205, a mode setting unit 206, a storage unit 207, and a reading unit 208. These units can exchange signals with each other as necessary. This is the same in other embodiments.

取得部201は、センサーチップ131のピクセルHデコーダ154より出力される画像データを取得したり、アドレスを取得する。表示部202は、取得された画像データに基づく画像をモニタ41に表示する。判定部203は、各種の判定処理を実行する。領域設定部204は、走査領域を大領域または小領域に設定する。サンプリング部205は、設定された領域を、4kfpsまたは400 kfpsでサンプリングする。1kfpsは、1秒間に1000フレームをサンプリングする速度を意味する。したがって、4kfpsの周波数のサンプリングとは、4kHzの周波数のサンプリングを意味し、400 kfpsの周波数のサンプリングとは400 kHzのサンプリングを意味する。   The acquisition unit 201 acquires image data output from the pixel H decoder 154 of the sensor chip 131 or acquires an address. The display unit 202 displays an image based on the acquired image data on the monitor 41. The determination unit 203 executes various determination processes. The area setting unit 204 sets the scanning area to a large area or a small area. The sampling unit 205 samples the set area at 4 kfps or 400 kfps. 1 kfps means a rate of sampling 1000 frames per second. Therefore, sampling at a frequency of 4 kfps means sampling at a frequency of 4 kHz, and sampling at a frequency of 400 kfps means sampling at 400 kHz.

モード設定部206は、サーチモード、データ読取モード、または画像取得モードのいずれかのモードを設定する。記憶部207は各種のデータを記憶する処理を実行する。読取部208は、センサーチップ131のメモリHデコーダ157より出力された光信号検出結果出力からデータを読み取る処理を実行する。   The mode setting unit 206 sets a search mode, a data reading mode, or an image acquisition mode. The storage unit 207 executes processing for storing various data. The reading unit 208 executes processing for reading data from the optical signal detection result output output from the memory H decoder 157 of the sensor chip 131.

なお、取得部201乃至読取部208は、そのすべてをDSP122あるいは制御部121に設けてもよいし、或いはそのうちの一部、例えば、判定部203、領域設定部204、サンプリング部205、モード設定部206を制御部121に設け、それ以外の取得部201、表示部202、記憶部207、および読取部208をDSP122に設けるようにしても良い。さらにまた、例えば判定部203を制御部121とDSP122の両方に設けるようにしても良い。   The acquisition unit 201 to the reading unit 208 may be all provided in the DSP 122 or the control unit 121, or some of them, for example, the determination unit 203, the region setting unit 204, the sampling unit 205, and the mode setting unit. 206 may be provided in the control unit 121, and the other acquisition unit 201, display unit 202, storage unit 207, and reading unit 208 may be provided in the DSP 122. Furthermore, for example, the determination unit 203 may be provided in both the control unit 121 and the DSP 122.

次に、図10のフローチャートを参照して、携帯端末21における受信処理(提示された画像から情報を読み取る処理)について説明する。ステップS21において、取得部201は画像データを取得する。すなわち、ユーザは携帯端末21のカメラ42を所定の方向に指向させてオブジェクトを撮影する。撮影した画像がピクセルアレイ151の受光セル161により結像される。受光セル161のピクセルデータがピクセルVデコーダ153とピクセルHデコーダ154により読み出され、DSP122に供給される。取得部201はこのピクセルデータを取得する。ステップS22において、表示部202は画像を表示する。すなわち、ステップS21で取得されたピクセルデータに基づく画像が、モニタ41に出力され、表示される。   Next, a reception process (a process of reading information from the presented image) in the mobile terminal 21 will be described with reference to the flowchart of FIG. In step S21, the acquisition unit 201 acquires image data. That is, the user photographs the object with the camera 42 of the mobile terminal 21 pointing in a predetermined direction. The photographed image is formed by the light receiving cell 161 of the pixel array 151. Pixel data of the light receiving cell 161 is read by the pixel V decoder 153 and the pixel H decoder 154 and supplied to the DSP 122. The acquisition unit 201 acquires this pixel data. In step S22, the display unit 202 displays an image. That is, an image based on the pixel data acquired in step S21 is output to the monitor 41 and displayed.

ステップS23において、判定部203は現在のモードがサーチモードかを判定する。現在設定されているモードがサーチモードである場合には、ステップS24において、サンプリング部205は、4kfpsによるサンプリング処理を行う。これに対して、設定されているのがサーチモードではなくデータ読取モードである場合には、ステップS25において、サンプリング部205は、400 kfpsによるサンプリング処理を実行する。ステップS24またはステップS25の処理の後、ステップS26において、判定部203は、ユーザより終了が指示されたかを判定し、まだ指示されていないと判定した場合には、処理はステップS21に戻り、それ以降の処理が繰り返し実行される。ステップS26において、ユーザより終了が指示されたと判定された場合、処理は終了される。   In step S23, the determination unit 203 determines whether the current mode is the search mode. If the currently set mode is the search mode, in step S24, the sampling unit 205 performs a sampling process with 4 kfps. On the other hand, when it is not the search mode but the data reading mode that is set, in step S25, the sampling unit 205 executes a sampling process at 400 kfps. After the process of step S24 or step S25, in step S26, the determination unit 203 determines whether the user has instructed termination. If it is determined that the user has not instructed termination, the process returns to step S21. The subsequent processing is repeatedly executed. If it is determined in step S26 that the user has instructed termination, the process is terminated.

オブジェクトの送信処理により図11Aに示されるように、160 msの周期でアドレスフレームとデータフレームが交互に繰り返し送信されている。携帯端末21は、サーチモードを設定することで、4kfpsによるサンプリング処理を実行し、アドレスフレームのアドレスを読み取る処理を実行する。これに対して、データ読取モードにおいては、400 kfpsによるサンプリング処理を行い、データを読み取る処理が実行されることになる。   As shown in FIG. 11A by the object transmission process, the address frame and the data frame are alternately and repeatedly transmitted at a cycle of 160 ms. The portable terminal 21 executes the sampling process by 4 kfps by setting the search mode, and executes the process of reading the address of the address frame. On the other hand, in the data reading mode, sampling processing is performed at 400 kfps, and processing for reading data is executed.

図12のフローチャートを参照して後述するように、4kfpsによるサンプリング処理の1回の処理時間は、3アドレスフレーム分の期間(480 ms)とされる。したがって、図11Bに示されるように、33msの期間において画像を表示する処理が行われた後、3フレーム分の期間(480 ms)において、4kfpsのサンプリング処理が行われる処理が繰り返し実行される。   As will be described later with reference to the flowchart of FIG. 12, the processing time for one sampling process using 4 kfps is a period of 3 address frames (480 ms). Therefore, as shown in FIG. 11B, after the process of displaying an image in a period of 33 ms, a process of performing a sampling process of 4 kfps is repeatedly executed in a period of 3 frames (480 ms).

このことは、400 kfpsによるサンプリング処理の場合も同様である。すなわち、図15を参照して後述するように、400 kfpsによるサンプリング処理の1回の処理時間も3フレーム分の期間(480 ms)とされる。従って、図11Cに示されるように、33msの期間の画像を表示する処理と、3フレーム分の期間の400kfpsによるサンプリング処理が交互に繰り返し実行される。   The same applies to the sampling process at 400 kfps. That is, as will be described later with reference to FIG. 15, the processing time for one sampling process at 400 kfps is also set to a period of 3 frames (480 ms). Therefore, as shown in FIG. 11C, a process of displaying an image for a period of 33 ms and a sampling process of 400 kfps for a period of 3 frames are alternately and repeatedly executed.

なお、図11Bと図11Cには、作図の便宜上、サーチモードのサンプリングとデータ読取モードのサンプリングが同時に行われるように図示されているが、この実施形態では、実際には両者が同時に行われることはなく、一方のみが実行される。   In FIG. 11B and FIG. 11C, for convenience of drawing, the sampling in the search mode and the sampling in the data reading mode are performed at the same time. However, in this embodiment, both are actually performed at the same time. No, only one is executed.

画像を表示する場合、ピクセルVデコーダ153とピクセルHデコーダ154は、ピクセルアレイ151の受光セル161に保持されているピクセルデータを図中上方に読み出し、画像信号として出力する。これに対して、4kfpsサンプリング処理、または400 kfpsサンプリング処理を実行する場合には、ピクセルVデコーダ153とメモリVデコーダ155により、ピクセルアレイ151に保持されているピクセルデータは、アナログメモリアレイ152に転送され、保持される。そして、その後ピクセルアレイ151に保持されたピクセルデータ(現在のフレームのピクセルデータ)と、アナログメモリアレイ152に保持されたピクセルデータ(過去のフレームのピクセルデータ)が、コンパレータ156により比較され、その比較結果がメモリHデコーダ157により読み出され、光信号検出結果出力として出力されることになる。   When displaying an image, the pixel V decoder 153 and the pixel H decoder 154 read pixel data held in the light receiving cells 161 of the pixel array 151 upward in the figure and output them as image signals. On the other hand, when 4 kfps sampling processing or 400 kfps sampling processing is executed, the pixel data held in the pixel array 151 is transferred to the analog memory array 152 by the pixel V decoder 153 and the memory V decoder 155. And retained. Then, the pixel data (pixel data of the current frame) held in the pixel array 151 and the pixel data (pixel data of the past frame) held in the analog memory array 152 are compared by the comparator 156, and the comparison is performed. The result is read by the memory H decoder 157 and output as an optical signal detection result output.

モード設定部206は、携帯端末21の電源がオンされた場合、モードの初期値として画像取得モードを設定すると、ステップS25でモードが画像取得モードと判定されるので、ステップS21,22の処理が繰り返し実行される。ユーザが入力部31を操作して、情報の検索を指示した場合、モード設定部206はモードとしてサーチモードを設定する。この場合、ステップS23において、設定されているモードがサーチモードであると判定され、ステップS24において、4kfpsによるサンプリング処理が実行される。この4kfpsによるサンプリング処理の詳細は図12に示されている。   When the mobile terminal 21 is turned on and the mode setting unit 206 sets the image acquisition mode as the initial value of the mode, the mode is determined to be the image acquisition mode in step S25, so the processing in steps S21 and S22 is performed. Repeatedly executed. When the user operates the input unit 31 to instruct information search, the mode setting unit 206 sets the search mode as the mode. In this case, it is determined in step S23 that the set mode is the search mode, and in step S24, sampling processing by 4 kfps is executed. Details of the sampling processing by 4 kfps are shown in FIG.

すなわち、ステップS51において、領域設定部204は、走査領域として大領域を設定する。図13Aに示されるように、横方向のH1個のピクセルと縦方向のV1個のピクセルにより構成される領域R1が大領域とされる。この大領域である領域R1は通常の画面の全体である。ステップS52において、サンプリング部205は、4kfpsでサンプリングする処理を実行する。このとき、横方向H1、縦方向V1の領域R1のピクセルデータが、すべてアナログメモリアレイ152に転送され、保持される。   That is, in step S51, the area setting unit 204 sets a large area as the scanning area. As shown in FIG. 13A, a region R1 composed of H1 pixels in the horizontal direction and V1 pixels in the vertical direction is a large region. The large area R1 is the entire normal screen. In step S52, the sampling unit 205 executes a process of sampling at 4 kfps. At this time, all the pixel data in the region R1 in the horizontal direction H1 and the vertical direction V1 are transferred to the analog memory array 152 and held.

コンパレータ156は、アナログメモリアレイ152に保持された(過去のフレームの)ピクセルデータと、その後、ピクセルアレイ151に保持された(新たなフレームの)ピクセルデータの値を比較し、新たなフレームのピクセルデータの値の方が大きい場合、立ち上がりエッジとしてこれを検出し、新たなフレームのピクセルデータの値の方が小さい場合には、これを立ち下がりエッジとして検出する。送信されるデータは、マンチェスタ符号として符号化されているため、立ち上がりエッジは論理0に対応され、立ち下がりエッジは論理1に対応される。   The comparator 156 compares the pixel data (in the past frame) held in the analog memory array 152 with the pixel data (in the new frame) held in the pixel array 151, and then the pixel in the new frame. If the data value is larger, this is detected as a rising edge, and if the pixel data value of a new frame is smaller, this is detected as a falling edge. Since the transmitted data is encoded as a Manchester code, the rising edge corresponds to logic 0 and the falling edge corresponds to logic 1.

具体的には、図14に示されるように、実線で示されるデータ境界232に同期してLED12が点滅する。例えば、高レベルの期間がLEDが点灯している期間に対応し、低レベルの期間がLEDが消灯している期間に対応する。破線で示されるフレーム境界231のタイミングでサンプリングが行われる。データ境界232の略中央での立ち上がりエッジは論理0として、立下りエッジは論理1として、それぞれ検出される。この検出結果が、メモリHデコーダ157から光信号検出結果出力としてDSP122に出力される。   Specifically, as shown in FIG. 14, the LED 12 blinks in synchronization with the data boundary 232 indicated by the solid line. For example, a high level period corresponds to a period during which the LED is lit, and a low level period corresponds to a period during which the LED is not lit. Sampling is performed at the timing of the frame boundary 231 indicated by the broken line. The rising edge at the approximate center of the data boundary 232 is detected as logic 0, and the falling edge is detected as logic 1. This detection result is output from the memory H decoder 157 to the DSP 122 as an optical signal detection result output.

ステップS53において、判定部203はアドレスフレームを検出したかを判定する。図5Aに示されるように、アドレスフレームは160ビットで構成されている。アドレスフレームが検出された場合、ステップS54において、読取部208はアドレスを読み取る。具体的には、図5Aの8ビットのアドレスが読み取られることになる。ステップS55において、表示部202は、アイコンを表示する処理を実行する。すなわち、例えば図1に示されるように、LED22−1の点滅信号からアドレスフレームを読み取った場合、得られたアドレスがアイコン43−1として表示される。   In step S53, the determination unit 203 determines whether an address frame has been detected. As shown in FIG. 5A, the address frame is composed of 160 bits. If an address frame is detected, the reading unit 208 reads the address in step S54. Specifically, the 8-bit address in FIG. 5A is read. In step S55, the display unit 202 executes processing for displaying an icon. That is, for example, as shown in FIG. 1, when the address frame is read from the blinking signal of the LED 22-1, the obtained address is displayed as the icon 43-1.

ステップS56において、判定部203は、アイコンが指定されたかを判定する。アイコンが指定されていないと判定された場合には、ステップS58において、判定部203は480 msが経過したかを判定する。4kfpsによるサンプリング処理を開始してから480 msがまだ経過していない場合には、処理はステップS52に戻り、それ以降の処理が繰り返し実行される。このような処理が繰り返し実行されることで、例えば図2に示されるように、モニタ41にLEDの画像12−1A乃至12−3Aが表示されているような場合には、それぞれに対応するアイコン43−1乃至43−3が表示されることになる。   In step S56, the determination unit 203 determines whether an icon is designated. If it is determined that the icon is not designated, in step S58, the determination unit 203 determines whether 480 ms has elapsed. If 480 ms has not yet elapsed since the start of the sampling process at 4 kfps, the process returns to step S52, and the subsequent processes are repeatedly executed. By repeatedly executing such processing, for example, as shown in FIG. 2, when the LED images 12-1A to 12-3A are displayed on the monitor 41, the corresponding icons are displayed. 43-1 to 43-3 are displayed.

ステップS58において、480 msが経過したと判定された場合、4kfpsによるサンプリング処理は終了される。したがって、図11Bに示されるように、480 msの期間4kfpsでサンプリング処理が行われ、その後、33msの期間(画像取得モードの期間)において、画像を取得する処理が実行されることになる。   If it is determined in step S58 that 480 ms has elapsed, the sampling process using 4 kfps is terminated. Therefore, as shown in FIG. 11B, sampling processing is performed in a period of 4 kfps of 480 ms, and thereafter, processing for acquiring an image is executed in a period of 33 ms (period of the image acquisition mode).

ユーザは、オブジェクト11から情報を取得する場合、希望するオブジェクトに対応するアイコンを入力部31を操作することで指定する。このとき、ステップS56において、アイコンが指定されたと判定され、ステップS57において、モード設定部206はモードをデータ読取モードに設定する。   When acquiring information from the object 11, the user designates an icon corresponding to the desired object by operating the input unit 31. At this time, it is determined in step S56 that an icon has been designated, and in step S57, the mode setting unit 206 sets the mode to the data reading mode.

例えば図2に示されるように、モニタ41にアドレス1乃至アドレス3(アイコン43−1乃至43−3)が表示されている状態において、ユーザは所望のアドレス(アイコン43)を指定する。この指定は、入力部31を構成する各種のボタン、あるいはスイッチを操作することで行われる。このとき、図12のステップS57で、モードがそれまでのサーチモードからデータ読取モードに変更される。その結果、図10のステップS23においてモードがサーチモードではないと判定され、ステップS25において400 kfpsによるサンプリング処理が実行される。   For example, as shown in FIG. 2, in a state where addresses 1 to 3 (icons 43-1 to 43-3) are displayed on the monitor 41, the user designates a desired address (icon 43). This designation is performed by operating various buttons or switches constituting the input unit 31. At this time, in step S57 of FIG. 12, the mode is changed from the previous search mode to the data reading mode. As a result, in step S23 of FIG. 10, it is determined that the mode is not the search mode, and in step S25, a sampling process using 400 kfps is executed.

次に、図15のフローチャートを参照して、この400 kfpsによるサンプリング処理の詳細について説明する。   Next, details of the sampling process using 400 kfps will be described with reference to the flowchart of FIG.

ステップS81において、領域設定部204は、走査領域として小領域を設定する。例えば、図2に示されるアイコン43−2がユーザにより指定された場合、対応するLEDの画像12−2Aを含む領域が領域R2(小領域)として設定される。この領域R2は、図13Bに示されるように、横方向H2個のピクセルと縦方向V2個のピクセルにより構成されている。ステップS82において、サンプリング部205は、400 kfpsでサンプリングする処理を実行する。すなわち、ステップS81で設定された領域R2が、400 kfpsでサンプリングされる。   In step S81, the area setting unit 204 sets a small area as the scanning area. For example, when the icon 43-2 shown in FIG. 2 is designated by the user, a region including the corresponding LED image 12-2A is set as a region R2 (small region). As shown in FIG. 13B, the region R2 is composed of H2 pixels in the horizontal direction and V2 pixels in the vertical direction. In step S82, the sampling unit 205 executes a process of sampling at 400 kfps. That is, the region R2 set in step S81 is sampled at 400 kfps.

領域R2は、図13Aの領域R1より狭い領域とされている。したがって、広い領域R1をサンプリングする場合に較べて、より迅速に情報の読み取りを行うことが可能となる。さらにまた、領域R1のサンプリングの周波数が4kfpsとされているのに対し、領域R2のサンプリング周波数が400 kfpsとされているため、さらに、より迅速に情報の読み取りを行うことが可能となる。   The region R2 is a region narrower than the region R1 in FIG. 13A. Therefore, it is possible to read information more quickly than when sampling the wide region R1. Furthermore, since the sampling frequency of the region R1 is 4 kfps, the sampling frequency of the region R2 is 400 kfps, so that information can be read more rapidly.

ピクセルHデコーダ154とピクセルVデコーダ153は、H2×V2個のピクセルだけを400 kfpsの周波数でサンプリングし、アナログメモリアレイ152に転送する。コンパレータ156は、アナログメモリアレイ152に転送された過去のフレームの領域のピクセルデータと、ピクセルアレイ151にその後保持された新たなフレームの、領域R2のピクセルデータとを比較する。その結果、領域R2のピクセルデータ(点滅信号)が読み取られる。その読み取られた結果が、メモリHデコーダ157により光信号検出結果として出力される。   The pixel H decoder 154 and the pixel V decoder 153 sample only H2 × V2 pixels at a frequency of 400 kfps and transfer them to the analog memory array 152. The comparator 156 compares the pixel data of the region of the past frame transferred to the analog memory array 152 and the pixel data of the region R2 of the new frame held in the pixel array 151 thereafter. As a result, the pixel data (flashing signal) in the region R2 is read. The read result is output as an optical signal detection result by the memory H decoder 157.

データフレームは100 kHzの周波数で送信されるが、サンプリングは400 kfpsで行われるため、すなわち、160 msのデータフレームを1秒間に400×103回サンプリングすることになるため、データフレームのビットを容易に読み取ることが可能となる。 Since the data frame is transmitted at a frequency of 100 kHz, sampling is performed at 400 kfps, that is, a 160 ms data frame is sampled 400 × 10 3 times per second. It can be easily read.

ステップS83において、判定部203は図5Bに示されるデータフレームを検出したかを判定し、まだ検出していない場合には、ステップS86において、480 msが経過したかを判定する。400 kfpsでサンプリングを開始してから、まだ480 msが経過していない場合には、処理はステップS82に戻り、400 kfpsによるサンプリングが繰り返し実行される。ステップS86において、480 msが経過したと判定された場合には、400 kfpsによるサンプリング処理は終了される。   In step S83, the determination unit 203 determines whether the data frame shown in FIG. 5B has been detected. If not yet detected, the determination unit 203 determines in step S86 whether 480 ms has elapsed. If 480 ms has not yet elapsed after starting sampling at 400 kfps, the process returns to step S82, and sampling at 400 kfps is repeatedly executed. If it is determined in step S86 that 480 ms has elapsed, the sampling process using 400 kfps is terminated.

すなわち、図11Cに示されるように、480 msの期間400 kfpsでサンプリングが行われ、480 msの期間が終了したとき、次に33msの期間、通常の画像取得処理が実行されることになる。   That is, as shown in FIG. 11C, sampling is performed at a period of 400 kfps for 480 ms, and when the period of 480 ms is completed, normal image acquisition processing is executed for a period of 33 ms next.

ステップS83において、データフレームを検出したと判定された場合、ステップS84において、読取部208はデータを読み取る処理を実行する。すなわち、これにより、例えば、図5Bに示されるデータフレームの主情報としてのデータが読み取られることになる。   If it is determined in step S83 that a data frame has been detected, in step S84, the reading unit 208 executes processing for reading data. That is, for example, data as main information of the data frame shown in FIG. 5B is read.

次に、ステップS85において、モード設定部206はモードをそれまでのデータ読取モードに換えて、サーチモードを設定する。その結果、再び各オブジェクトのLEDの画像からアドレス読み取る処理が行われる。   Next, in step S85, the mode setting unit 206 sets the search mode by changing the mode to the previous data reading mode. As a result, the address reading process is performed again from the LED image of each object.

図11に示されるように、フレーム周期は160 msであるから、フレーム周波数は6.25 Hzとなる。サーチモードにおけるサンプリングは4kHzであり、データフレームにおける光点滅の周波数は100 kHzであるから、サーチモードのサンプリングにおいて、データフレームを読み取ることはできない。サンプリング期間は3フレーム分の期間とされているので、サンプリング期間に少なくとも1回はアドレスフレームが存在するので、そのタイミングでアドレスフレームを読み取ることが可能である。   As shown in FIG. 11, since the frame period is 160 ms, the frame frequency is 6.25 Hz. Since sampling in the search mode is 4 kHz and the frequency of light flashing in the data frame is 100 kHz, the data frame cannot be read in the sampling in the search mode. Since the sampling period is a period corresponding to three frames, an address frame exists at least once in the sampling period, so that the address frame can be read at that timing.

これに対して、データ読取モードにおけるサンプリングは400 kHzであり、100 kHzの周波数のデータフレームのデータを充分読み取ることが可能となる。400 kfpsのサンプリングによりアドレスフレームのデータも読み取ることが可能ではあるが、読み取ったデータの内容または周波数からデータフレームであるのかアドレスフレームであるのかの識別が可能となる。   On the other hand, sampling in the data reading mode is 400 kHz, and it is possible to sufficiently read data in a data frame having a frequency of 100 kHz. Although it is possible to read address frame data by sampling at 400 kfps, it is possible to identify whether it is a data frame or an address frame from the content or frequency of the read data.

アドレスフレームとデータフレームの送信と受信を同期させることが可能である場合には、図16Aに示されるように、アドレスフレームとデータフレームは、160 msの周期で交互に送信されてくるので、受信側において図16Bと図16Cに示されるように、それぞれアドレスフレームにおいてはサーチモードでサンプリングを行い、データフレームにおいてはデータ読取モードでサンプリングを行うようにすることが可能となる。   When it is possible to synchronize the transmission and reception of the address frame and the data frame, as shown in FIG. 16A, the address frame and the data frame are alternately transmitted at a period of 160 ms. On the side, as shown in FIGS. 16B and 16C, it is possible to perform sampling in the search mode in the address frame and in the data reading mode in the data frame, respectively.

図4の実施形態においては、アドレスフレームとデータフレームを時分割多重して送信するようにしたが、同時に送信することも可能である。図17は、この場合の実施形態を表している。   In the embodiment of FIG. 4, the address frame and the data frame are transmitted by time division multiplexing, but can be transmitted simultaneously. FIG. 17 shows an embodiment in this case.

この実施形態においては、オブジェクト11−21がLED12−31とLED12−32を有している。LED12−31はアドレスフレームを送信し、LED12−32はデータフレームを送信する。すなわち、LED12−31は1kHzの周波数で点滅し、LED12−32は100 kHzの周波数で点滅する。図17の実施形態においては、LED12−31とLED12−32の対応する画像が、レンズ62によりイメージセンサ61の1つのピクセル71上に結像している状態が示されている。   In this embodiment, the object 11-21 has an LED 12-31 and an LED 12-32. The LED 12-31 transmits an address frame, and the LED 12-32 transmits a data frame. That is, the LED 12-31 blinks at a frequency of 1 kHz, and the LED 12-32 blinks at a frequency of 100 kHz. In the embodiment of FIG. 17, a state where images corresponding to the LEDs 12-31 and the LEDs 12-32 are formed on one pixel 71 of the image sensor 61 by the lens 62 is shown.

図18は、図17の実施形態におけるオブジェクト11の構成例を表している。その基本的構成は、図4における場合と同様であるが、図18の実施形態においては、送信部105が、送信部105−1と送信部105−2の2つに分かれている。そして、送信部105−1は、アドレスフレーム生成部102より供給されるアドレスフレームを、LED12−31を介して送信する。送信部105−2は、データフレーム生成部103より供給されるデータフレームを、LED12−32を制御することで送信する。その他の構成は、図4における場合と同様である。   FIG. 18 shows a configuration example of the object 11 in the embodiment of FIG. The basic configuration is the same as that in FIG. 4, but in the embodiment of FIG. 18, the transmission unit 105 is divided into two, a transmission unit 105-1 and a transmission unit 105-2. Then, the transmission unit 105-1 transmits the address frame supplied from the address frame generation unit 102 via the LED 12-31. The transmission unit 105-2 transmits the data frame supplied from the data frame generation unit 103 by controlling the LED 12-32. Other configurations are the same as those in FIG.

図18のオブジェクトの送信処理は、図19のフローチャートに示されるように行われる。すなわち、ステップS101において、アドレスフレーム生成部102はアドレスフレームを生成する。ステップS102において、送信部105−1は、アドレスフレーム生成部102により生成されたアドレスフレームを、LED12−31を点滅させることで送信する。ステップS103において、データフレーム生成部103はデータフレームを生成する。ステップS104において、送信部105−2は、データフレーム生成部103により生成されたデータフレームを、LED12−32を点滅させることで送信する。なお、実際には、ステップS101,S102の処理と、ステップS103,S104の処理とは並行して実行される。   The object transmission process of FIG. 18 is performed as shown in the flowchart of FIG. That is, in step S101, the address frame generation unit 102 generates an address frame. In step S102, the transmission unit 105-1 transmits the address frame generated by the address frame generation unit 102 by blinking the LED 12-31. In step S103, the data frame generation unit 103 generates a data frame. In step S104, the transmission unit 105-2 transmits the data frame generated by the data frame generation unit 103 by blinking the LED 12-32. In practice, the processes in steps S101 and S102 and the processes in steps S103 and S104 are executed in parallel.

ステップS105において、制御部106は、処理の終了が指示されたかを判定し、まだ指示されていない場合には処理はステップS101に戻り、それ以降の処理が繰り返し実行される。   In step S105, the control unit 106 determines whether the end of the process has been instructed. If not instructed yet, the process returns to step S101, and the subsequent processes are repeatedly executed.

したがって、図20Aに示されるように、LED12−31は1kHzの周波数のアドレスフレームの点滅信号を送信し、LED12−32は、図20Bに示されるように、100 kHzの周波数のデータフレームのデータの点滅信号を送信する。その結果、受信側においては、図20Cに示されるように、LED12−31が出力した信号とLED12−32が出力した信号の合成信号を受信することになる。   Thus, as shown in FIG. 20A, the LED 12-31 transmits a blink signal of an address frame having a frequency of 1 kHz, and the LED 12-32 transmits data of a data frame having a frequency of 100 kHz as shown in FIG. 20B. Send a blinking signal. As a result, on the receiving side, as shown in FIG. 20C, a combined signal of the signal output from the LED 12-31 and the signal output from the LED 12-32 is received.

携帯端末21における受信処理は、図10のフローチャートに示される場合と同様となる。ただし、そのステップS24の4kfpsによるサンプリング処理とステップS25の400 kfpsによるサンプリング処理は、図21または図22に示されるようになる。   The reception process in the portable terminal 21 is the same as that shown in the flowchart of FIG. However, the sampling process at 4 kfps in step S24 and the sampling process at 400 kfps in step S25 are as shown in FIG. 21 or FIG.

すなわち、4kfpsによるサンプリング処理は、図21のステップS121乃至ステップS128に示されるように行われる。この図21の各ステップの処理は、図12のステップS51乃至ステップS58の処理と基本的に同様の処理であるが、ステップS58に対応するステップS128における判定処理の時間のみが、図12における場合と異なっている。すなわち、ステップS128においては、判定の期間が320 msとされている。その他の処理は、図12における場合と同様である。   That is, the sampling process by 4 kfps is performed as shown in steps S121 to S128 in FIG. The processing in each step in FIG. 21 is basically the same as the processing in steps S51 to S58 in FIG. 12, but only the determination processing time in step S128 corresponding to step S58 is the case in FIG. Is different. That is, in step S128, the determination period is set to 320 ms. Other processes are the same as those in FIG.

図22の400 kfpsによるサンプリング処理も、図15の400 kfpsによるサンプリング処理のステップS81乃至ステップS86の処理と同様の処理である。図22のステップS151乃至ステップS156のうちのステップS156の処理だけが、図15のステップS86の処理と異なっている。すなわち、ステップS156においては、400 kfpsでサンプリングする処理を開始してからの経過時間の判定が320 msで行われる。その他のステップS151乃至ステップS155の処理は、図15のステップS81乃至ステップS85の処理と同様である。   The sampling process at 400 kfps in FIG. 22 is the same process as the process at steps S81 to S86 of the sampling process at 400 kfps in FIG. Only the process of step S156 out of steps S151 to S156 of FIG. 22 is different from the process of step S86 of FIG. That is, in step S156, the elapsed time from the start of sampling at 400 kfps is determined at 320 ms. The other processes in steps S151 through S155 are the same as the processes in steps S81 through S85 in FIG.

以上の処理を、図23を参照してさらに説明する。すなわち、LED12−31は図23Aに示されるように、160 msのフレーム周期でアドレスフレームを発生する。同様に、図23Bに示されるように、LED12−32は、LED12−31と同期して、160 msの周期でデータフレームを発生する。サーチモードのサンプリングは、図23Cに示されるように、320 msの期間にわたって4kfpsのサンプリングが行われる。320 msの期間が経過した後、33msの期間、画像取得処理が行われる。この画像取得処理とサンプリング処理が、交互に繰り返し実行されることになる。データ読取モードのサンプリングにおいても、図23Dに示されるように、320 msの期間サンプリングが行われた後、33msの期間、画像取得処理が実行される。このサンプリング処理と画像取得処理が交互に行われる。   The above processing will be further described with reference to FIG. That is, the LED 12-31 generates an address frame with a frame period of 160 ms, as shown in FIG. 23A. Similarly, as shown in FIG. 23B, the LED 12-32 generates a data frame in a cycle of 160 ms in synchronization with the LED 12-31. As shown in FIG. 23C, the search mode is sampled at 4 kfps over a period of 320 ms. After the 320 ms period has elapsed, image acquisition processing is performed for a 33 ms period. This image acquisition process and sampling process are repeatedly performed alternately. Also in the sampling in the data reading mode, as shown in FIG. 23D, after sampling is performed for a period of 320 ms, an image acquisition process is performed for a period of 33 ms. This sampling process and image acquisition process are performed alternately.

この実施形態の場合、アドレスフレームとデータフレームが同時に送信されるので、サンプリング期間は2フレーム分の期間(320 ms)とされる。送信側と受信側が非同期でも、その期間に少なくとも1回は、アドレスフレームまたはデータフレームが存在することになるからである。   In this embodiment, since the address frame and the data frame are transmitted at the same time, the sampling period is a period of two frames (320 ms). This is because even if the transmitting side and the receiving side are asynchronous, an address frame or a data frame exists at least once during the period.

なお、図23においても、図23Cのサーチモードのサンプリングと、図23Dのデータ読取モードのサンプリングが同時に行われるように図示されているが、実際には、サーチモードのサンプリングとデータ読取モードのサンプリングは、その一方が行われているとき他方は行われない。   In FIG. 23, the search mode sampling of FIG. 23C and the data reading mode sampling of FIG. 23D are shown to be performed at the same time, but in reality, the search mode sampling and the data reading mode sampling are performed. Is not done when one is done.

LED12−31の信号とLED12−32の信号が同時に受信されるのであるが、上述したように、サーチモード時のサンプリングの周波数はデータフレームの周波数より低いため、データフレームの周波数は読み取ることができないので、妨害にはならない。また、データ読取モード時のサンプリング時には、LED12−32の信号のエッジだけでなく、LED12−31の信号のエッジも検出される結果となるが、FCSによるエラー訂正により訂正が可能である。   The signal of the LED 12-31 and the signal of the LED 12-32 are received at the same time. However, as described above, since the sampling frequency in the search mode is lower than the frequency of the data frame, the frequency of the data frame cannot be read. So it will not interfere. Further, at the time of sampling in the data reading mode, not only the edge of the signal of the LED 12-32 but also the edge of the signal of the LED 12-31 is detected, but it can be corrected by error correction by FCS.

図17の実施形態においては、LED12−31,12−32を同じ色の光を発生させるようにしたが、異なる色の光を発生させるようにすることもできる。この場合の実施形態が図24に示されている。   In the embodiment of FIG. 17, the LEDs 12-31 and 12-32 generate light of the same color. However, it is also possible to generate light of different colors. An embodiment in this case is shown in FIG.

すなわち、図24の実施形態においては、LED12−41が赤の光を発生し、LED12−42が緑の光を発生するように構成されている。この場合、LED12−41,12−42はそれぞれ赤または緑の色を発生するLEDで構成するようにしてもよいが、広い帯域の波調の光を発生するLEDの前に、赤または緑の成分のみの波長成分を通過させるフィルタを配置することで構成するようにしてもよい。その他の構成は、図18における実施形態と同様である。   That is, in the embodiment of FIG. 24, the LED 12-41 is configured to generate red light, and the LED 12-42 is configured to generate green light. In this case, the LEDs 12-41 and 12-42 may be configured by LEDs that generate red or green colors, respectively, but before the LEDs that generate a wide band of light, red or green You may make it comprise by arrange | positioning the filter which lets the wavelength component of only a component pass. Other configurations are the same as those of the embodiment in FIG.

図24の実施形態における送信処理は、図19のフローチャートに示される場合と同様となり、その説明は繰り返しとなるので省略する。   The transmission processing in the embodiment of FIG. 24 is the same as that shown in the flowchart of FIG.

オブジェクト11が、図24に示されるように構成された場合における携帯端末21の受信処理は、基本的には、図10のフローチャートに示される場合と同様となる。但し、そのステップS24における4kfpsによるサンプリング処理と、ステップS25における400 kfpsによるサンプリング処理は、それぞれ図25または図26のフローチャートに示されるようになる。   The reception process of the portable terminal 21 when the object 11 is configured as shown in FIG. 24 is basically the same as the case shown in the flowchart of FIG. However, the sampling process by 4 kfps in step S24 and the sampling process by 400 kfps in step S25 are as shown in the flowchart of FIG. 25 or 26, respectively.

図25の4kfpsによるサンプリング処理のステップS181乃至ステップS188の処理は、図21のステップS121乃至ステップS128の処理と基本的に同様となる。但し、ステップS122に対応するステップS182の処理においては、ピクセルの赤の成分を4kfpsによりサンプリングする処理が行われる。すなわち、図7のピクセルアレイ151に保持されたピクセルデータのうち、赤の成分のみがアナログメモリアレイ152に転送され、コンパレータ156により比較される。その他の処理は、図21における場合と同様である。   The processing from step S181 to step S188 of the sampling processing by 4 kfps in FIG. 25 is basically the same as the processing from step S121 to step S128 in FIG. However, in the process of step S182 corresponding to step S122, a process of sampling the red component of the pixel at 4 kfps is performed. That is, only the red component of the pixel data held in the pixel array 151 of FIG. 7 is transferred to the analog memory array 152 and compared by the comparator 156. Other processes are the same as those in FIG.

また、図26に示される400 kfpsによるサンプリング処理のステップS201乃至ステップS206の処理は、図22のステップS151乃至ステップS156の処理と基本的に同様の処理である。但し、図22のステップS152の400 kfpsによるサンプリング処理に代わって図26のステップS202においては、ピクセルの緑の成分を400 kfpsによりサンプリングする処理が行われる。すなわち、図13の領域R2におけるピクセルデータのうち、緑の成分のみがピクセルアレイ151からアナログメモリアレイ152に転送され、コンパレータ156で比較されることでサンプリングが行われる。その他の処理は、図22における場合と同様である。   In addition, the processing from step S201 to step S206 in the sampling processing at 400 kfps shown in FIG. 26 is basically the same processing as the processing from step S151 to step S156 in FIG. However, in place of the sampling process by 400 kfps in step S152 of FIG. 22, in step S202 of FIG. 26, a process of sampling the green component of the pixel by 400 kfps is performed. That is, of the pixel data in the region R2 in FIG. 13, only the green component is transferred from the pixel array 151 to the analog memory array 152 and compared by the comparator 156 to perform sampling. Other processes are the same as those in FIG.

なお、LED12−41,12−42が発生する光の色は、赤または緑に限らず、その他の色の光であっても良い。   Note that the color of light generated by the LEDs 12-41 and 12-42 is not limited to red or green, but may be light of other colors.

このように、オブジェクト11により異なる色の光を発生させるようにすれば、携帯端末21においてアドレスフレームとデータフレームとをより容易に識別することが可能となる。   In this way, if different colors of light are generated by the object 11, it becomes possible to more easily identify the address frame and the data frame in the portable terminal 21.

以上においては、アドレスフレームとデータフレームを交互に送信するか、または同時に送信するようにしたが、アドレスフレームだけを連続的に送信し、携帯端末21から要求を受けた後、データフレームを送信させるようにすることも可能である。図27は、この場合のオブジェクト11の実施形態を表している。   In the above, the address frame and the data frame are transmitted alternately or simultaneously, but only the address frame is continuously transmitted, and after receiving a request from the portable terminal 21, the data frame is transmitted. It is also possible to do so. FIG. 27 shows an embodiment of the object 11 in this case.

オブジェクト11は受信部261を有する。受信部261は携帯端末21が送信する赤外線その他の光信号、あるいは無線電波による信号を受信し、その受信した結果を制御部106に出力する。その他の構成は、図4における場合と同様である。   The object 11 has a receiving unit 261. The receiving unit 261 receives an infrared or other optical signal transmitted by the mobile terminal 21 or a signal using a radio wave, and outputs the received result to the control unit 106. Other configurations are the same as those in FIG.

次に、図28のフローチャートを参照して、図27のオブジェクト11の送信処理について説明する。ステップS221において、アドレスフレーム生成部102はアドレスフレームを生成する。ステップS222において、送信部105は、アドレスフレーム生成部102により生成されたアドレスフレームをLED12を制御することで送信する。すなわち、アドレスフレーム生成部102により生成されたアドレスフレームは、合成部104を介して送信部105に供給される。送信部105は、入力されたアドレスフレームに対応してLED12を駆動することで、アドレスフレームを送信する。   Next, the transmission processing of the object 11 in FIG. 27 will be described with reference to the flowchart in FIG. In step S221, the address frame generation unit 102 generates an address frame. In step S <b> 222, the transmission unit 105 transmits the address frame generated by the address frame generation unit 102 by controlling the LED 12. That is, the address frame generated by the address frame generation unit 102 is supplied to the transmission unit 105 via the synthesis unit 104. The transmission unit 105 transmits the address frame by driving the LED 12 corresponding to the input address frame.

ステップS223において、制御部106は、自分自身が指定されたかを判定する。すなわち、図30のフローチャートを参照して後述するように、ステップS257において、ユーザが携帯端末21を操作してオブジェクトを指定した場合、そのオブジェクト指定情報が送信されてくる。制御部106は、この指定情報が受信されたかを判定する。指定情報が受信されていない場合には、処理はステップS222に戻り、アドレスフレームを送信する処理が繰り返し実行される。   In step S223, the control unit 106 determines whether or not itself is designated. That is, as will be described later with reference to the flowchart of FIG. 30, when the user designates an object by operating the mobile terminal 21 in step S257, the object designation information is transmitted. The control unit 106 determines whether this designation information has been received. If the designation information has not been received, the process returns to step S222, and the process of transmitting the address frame is repeatedly executed.

ステップS223において、自分自身が指定されたと判定された場合、ステップS224において、データフレーム生成部103はデータフレームを生成する。ステップS225において、送信部105はデータフレームを送信する。すなわち、データフレーム生成部103により生成されたデータフレームは、合成部104を介して送信部105に供給される。送信部105は、供給されたデータフレームに基づいてLED12を駆動し、データフレームを送信する。   If it is determined in step S223 that the device itself has been designated, in step S224, the data frame generation unit 103 generates a data frame. In step S225, the transmission unit 105 transmits a data frame. That is, the data frame generated by the data frame generation unit 103 is supplied to the transmission unit 105 via the synthesis unit 104. The transmission unit 105 drives the LED 12 based on the supplied data frame and transmits the data frame.

ステップS226において、制御部106は終了が指示されたかを判定し、終了がまだ指示されていない場合には、処理はステップS221に戻り、それ以降の処理が繰り返し実行される。ステップS226において、終了が指示されたと判定された場合、処理は終了される。   In step S226, the control unit 106 determines whether termination is instructed. If termination has not been instructed yet, the process returns to step S221, and the subsequent processing is repeatedly executed. If it is determined in step S226 that termination has been instructed, the process is terminated.

以上のようにして、オブジェクト11は、ユーザよりオブジェクト11が指定された場合データフレームを送信し、指定されるまでの間は常にアドレスフレームを送信している。   As described above, the object 11 transmits a data frame when the object 11 is specified by the user, and always transmits an address frame until it is specified.

オブジェクト11が、図27に示されるように構成される場合、携帯端末21のDSP122(制御部121)は、図29に示されるように構成される。このDSP122は、赤外線または電波(電磁誘導を含む)でオブジェクト11を指定する情報を送信する送信部281を有する。その他の構成は、図9における場合と同様である。   When the object 11 is configured as shown in FIG. 27, the DSP 122 (control unit 121) of the mobile terminal 21 is configured as shown in FIG. The DSP 122 includes a transmission unit 281 that transmits information specifying the object 11 by infrared rays or radio waves (including electromagnetic induction). Other configurations are the same as those in FIG.

次に、図29のDSP122の受信処理について説明する。この受信処理は、図10に示される場合と基本的に同様であるが、ステップS24の4kfpsによるサンプリング処理と、ステップS25の400 kfpsによるサンプリング処理が、上述した場合と異なっている。すなわち、この図29のDSP122の4kfpsによるサンプリング処理と400 kfpsによるサンプリング処理は、それぞれ図30または図32に示されるように行われる。   Next, the reception process of the DSP 122 in FIG. 29 will be described. This reception process is basically the same as the case shown in FIG. 10, but the sampling process by 4 kfps in step S24 and the sampling process by 400 kfps in step S25 are different from those described above. That is, the sampling process by 4 kfps and the sampling process by 400 kfps of the DSP 122 in FIG. 29 are performed as shown in FIG. 30 or 32, respectively.

図30のステップS251乃至ステップS259の処理は、図12のステップS51乃至ステップS58の処理と基本的に同様である。但し、図12のステップS56に対応する図30のステップS256と、図12のステップS57に対応する図30のステップS258の間に、ステップS257のオブジェクト指定情報を送信する処理が挿入されている。その他の処理は、図12における場合と同様である。   The processing from step S251 to step S259 in FIG. 30 is basically the same as the processing from step S51 to step S58 in FIG. However, a process for transmitting the object designation information in step S257 is inserted between step S256 in FIG. 30 corresponding to step S56 in FIG. 12 and step S258 in FIG. 30 corresponding to step S57 in FIG. Other processes are the same as those in FIG.

すなわち、図30の処理においては、ステップS251において、領域設定部204は、走査領域として図13Aに示される領域R1を設定する。ステップS252でサンプリング部205は、4kfpsでサンプリングする処理を実行する。これにより、図2に示されるように、モニタ41にオブジェクト11の画像が表示される。   That is, in the process of FIG. 30, in step S251, the region setting unit 204 sets the region R1 shown in FIG. 13A as the scanning region. In step S252, the sampling unit 205 executes a process of sampling at 4 kfps. As a result, the image of the object 11 is displayed on the monitor 41 as shown in FIG.

ステップS253において、判定部203はアドレスフレームを検出したかを判定し、まだ検出していない場合には処理はステップS259に進み、判定部203は、4kfpsによるサンプリング処理を開始してから480 msが経過したかを判定する。480 msがまだ経過していない場合には、処理はステップS252に戻り、それ以降の処理が繰り返し実行される。ステップS253において、アドレスフレームを検出したと判定された場合、ステップS254において、読取部208はアドレスを読み取る。ステップS255において、表示部202は、ステップS254で読み取られたアドレスを表すアイコンを表示する。ステップS256において、判定部203はアイコンが指定されたかを判定する。アイコンが指定されていない場合には、処理はステップS259に進み、480 msが経過したかが判定される。まだ480 msが経過していない場合には、上述したように処理はステップS252に戻り、それ以降の処理が繰り返し実行される。   In step S253, the determination unit 203 determines whether an address frame has been detected. If the address frame has not been detected, the process proceeds to step S259, and the determination unit 203 starts 480 ms after starting sampling processing using 4 kfps. Determine if it has passed. If 480 ms has not yet elapsed, the process returns to step S252, and the subsequent processes are repeatedly executed. If it is determined in step S253 that an address frame has been detected, the reading unit 208 reads the address in step S254. In step S255, the display unit 202 displays an icon representing the address read in step S254. In step S256, the determination unit 203 determines whether an icon is specified. If no icon is designated, the process proceeds to step S259, and it is determined whether 480 ms has elapsed. If 480 ms has not yet elapsed, the processing returns to step S252 as described above, and the subsequent processing is repeatedly executed.

ステップS256において、アイコンが指定されたと判定された場合、ステップS257において、送信部281はオブジェクト指定情報を送信する。すなわち、送信部281は、例えば、アドレスフレームから読み取ったアドレスをオブジェクトを指定する情報として、オブジェクト11に送信する。上述したように、この指定情報がオブジェクト11により受信されると、図28のステップS225において、オブジェクト11からデータフレームが送信されてくる。そこで、ステップS258において、モード設定部206はモードをデータ読取モードに変更する。その結果、図10のステップS23において、モードがサーチモードではない(データ読取モードである)と判定され、ステップS25において、400 kfpsによるサンプリング処理が実行される。この400 kfpsによるサンプリング処理は、図15のフローチャートに示される場合と同様である。   If it is determined in step S256 that an icon has been designated, in step S257, the transmission unit 281 transmits object designation information. That is, the transmission unit 281 transmits, for example, the address read from the address frame to the object 11 as information specifying the object. As described above, when this designation information is received by the object 11, a data frame is transmitted from the object 11 in step S225 of FIG. Therefore, in step S258, the mode setting unit 206 changes the mode to the data reading mode. As a result, in step S23 of FIG. 10, it is determined that the mode is not the search mode (data reading mode), and in step S25, sampling processing at 400 kfps is executed. The sampling process at 400 kfps is the same as that shown in the flowchart of FIG.

このように、指定された場合においてのみデータフレームを送信するようにすれば、データをより効率的に送信することが可能となる。   As described above, if the data frame is transmitted only in the designated case, the data can be transmitted more efficiently.

ユーザは、データフレームを受信している間、カメラ42を、対象とするLED12に指向させる必要がある。しかしながら、その時間が長くなると、ユーザは所望するLED12に対してカメラ42を指向させることが困難となる。そこで、例えば、図31に示されるように、対象とされるLEDの画像(図31の実施形態の場合、LEDの画像12−1A)を囲むようにマーク301を表示させるようにすることができる。これにより、ユーザは、携帯端末21のカメラ42をLED12−1がマーク301の内部に位置するように指向させることで、容易にカメラ42を所望とするLED12に指向させることが可能となる。   The user needs to point the camera 42 at the target LED 12 while receiving the data frame. However, if the time becomes longer, it becomes difficult for the user to point the camera 42 toward the desired LED 12. Therefore, for example, as shown in FIG. 31, the mark 301 can be displayed so as to surround the target LED image (in the case of the embodiment of FIG. 31, the LED image 12-1A). . Thus, the user can easily point the camera 42 toward the desired LED 12 by directing the camera 42 of the mobile terminal 21 so that the LED 12-1 is positioned inside the mark 301.

この場合における携帯端末21のDSP122(制御部121)の構成は図9に示される場合と同様となり、またその受信処理は、図10のフローチャートに示される場合と同様となる。ただし、そのステップS25の400 kfpsによるサンプリング処理は、図32に示されるように行われる。そのステップS281乃至ステップS287の処理は、図15のステップS81乃至ステップS86の処理と基本的に同様であるが、図15のステップS81に対応する図32のステップS281と、図15のステップS82に対応する図32のステップS283の間には、マークを表示するステップS282の処理が挿入されている。   In this case, the configuration of the DSP 122 (control unit 121) of the portable terminal 21 is the same as that shown in FIG. 9, and the reception process is the same as that shown in the flowchart of FIG. However, the sampling process at 400 kfps in step S25 is performed as shown in FIG. The processing from step S281 to step S287 is basically the same as the processing from step S81 to step S86 in FIG. 15, but the processing in step S281 in FIG. 32 corresponding to step S81 in FIG. 15 and step S82 in FIG. Between the corresponding step S283 of FIG. 32, the process of step S282 for displaying a mark is inserted.

すなわち、図32の400 kfpsによるサンプリング処理においては、ステップS281で領域設定部204により図13Bに示される領域R2が指定されたとき、ステップS282において、表示部202がマークを表示する。これにより、例えば、図31に示されるようなマーク301が、ユーザが指定したアドレスに対応するLEDの画像12−1Aを中に含むように表示される。したがって、ユーザは携帯端末21のカメラ42を、LED12−1Aがマーク301の内部に位置するように指向させることで、確実にデータフレームを受信することが可能となる。以下、ステップS283乃至ステップS287の処理は、図15のステップS82乃至ステップS86の処理と同様であるので、その説明は省略する。   That is, in the sampling process at 400 kfps in FIG. 32, when the region R2 shown in FIG. 13B is designated by the region setting unit 204 in step S281, the display unit 202 displays a mark in step S282. Thereby, for example, a mark 301 as shown in FIG. 31 is displayed so as to include an LED image 12-1A corresponding to the address designated by the user. Therefore, the user can reliably receive the data frame by pointing the camera 42 of the mobile terminal 21 so that the LED 12-1A is positioned inside the mark 301. Hereinafter, the processing from step S283 to step S287 is the same as the processing from step S82 to step S86 in FIG.

なお、マーク301を円形とする場合、図33Aに示されるように、領域R2がそのマーク301に内接するような大きさにマーク301を表示することができる。あるいはまた、図33Bに示されるように、マーク301は領域R2より若干大きい径の円とすることができる。もちろん、マーク301の形状は円に限らず、例えば、図33Cに示されるように、領域R2を含む四角形のマークとすることも可能である。   When the mark 301 is circular, the mark 301 can be displayed in a size such that the region R2 is inscribed in the mark 301 as shown in FIG. 33A. Alternatively, as shown in FIG. 33B, the mark 301 can be a circle having a slightly larger diameter than the region R2. Of course, the shape of the mark 301 is not limited to a circle, and for example, as shown in FIG. 33C, a square mark including a region R2 may be used.

なお、図10のステップS24の4kfpsによるサンプリング処理は、図12に示される場合と同様の処理となる。   In addition, the sampling process by 4 kfps of step S24 of FIG. 10 is the same as that shown in FIG.

以上においては、領域R2を固定した位置に設定するようにしたが、領域R2の位置を移動させるようにすることも可能である。図34は、この場合におけるDSP122(制御部121)の実施形態を表している。このDSP122においては演算部321が設けられている。演算部321は、指定されたLEDの位置を演算する。DSP122のその他の構成は、図9における場合と同様である。   In the above, the region R2 is set to a fixed position, but the position of the region R2 can be moved. FIG. 34 shows an embodiment of the DSP 122 (control unit 121) in this case. The DSP 122 is provided with a calculation unit 321. The calculation unit 321 calculates the position of the designated LED. Other configurations of the DSP 122 are the same as those in FIG.

このDSP122が実行する受信処理は、図10のフローチャートに示される場合と同様となる。そのステップS24の4kfpsによるサンプリング処理は、図12における場合と同様となるが、ステップS25の400 kfpsによるサンプリング処理は、図35のフローチャートに示されるようになる。   The reception process executed by the DSP 122 is the same as that shown in the flowchart of FIG. The sampling process at 4 kfps in step S24 is the same as in FIG. 12, but the sampling process at 400 kfps in step S25 is as shown in the flowchart of FIG.

すなわち、ステップS301において、演算部321はユーザにより指定されたLEDの画像12Aの位置を演算する。LED12の像が複数のピクセルにより表示されている場合には、その重心位置が演算され、重心位置がそのLEDの画像の位置とされる。ステップS302において、領域設定部204は、ステップS301の処理により演算された位置に走査領域として小領域を設定する。このステップS301とステップS302の処理は、以後継続的に行われ、ユーザが携帯端末21のカメラ42の位置を移動(方向を変化)させた場合、その移動位置に応じて、すなわち、モニタ41内のLEDの画像の位置に応じて、領域R2の位置がそれを追従するように変更される。したがって、ユーザはLEDの画像をモニタ41内に表示させておきさえすれば、フレームデータを確実に受信することが可能となる。   That is, in step S301, the calculation unit 321 calculates the position of the LED image 12A designated by the user. When the image of the LED 12 is displayed by a plurality of pixels, the position of the center of gravity is calculated, and the position of the center of gravity is set as the position of the image of the LED. In step S302, the area setting unit 204 sets a small area as a scanning area at the position calculated by the process in step S301. The processing of step S301 and step S302 is continuously performed thereafter, and when the user moves the position of the camera 42 of the mobile terminal 21 (changes the direction), depending on the moving position, that is, in the monitor 41 The position of the region R2 is changed so as to follow the position of the image of the LED. Therefore, as long as the user displays the LED image on the monitor 41, the frame data can be reliably received.

次に、他の実施形態ついて説明する。以上においては、ユーザが指定したオブジェクトのアドレスを取得するようにしたが、ユーザが指定するアドレスを検索するようにすることも可能である。この場合、DSP122(制御部121)は、図9に示される場合と同様の構成となる。そして、送信処理は図8に示される場合と同様である。   Next, another embodiment will be described. In the above description, the address of the object specified by the user is acquired, but it is also possible to search for the address specified by the user. In this case, the DSP 122 (control unit 121) has the same configuration as that shown in FIG. The transmission process is the same as that shown in FIG.

受信処理は図36のフローチャートに示されるように実行される。   The reception process is executed as shown in the flowchart of FIG.

すなわち、ステップS331で取得部201は、検索するアドレスを取得する。具体的にはユーザが入力部31を操作して、検索するアドレスを入力する。取得部201はこのアドレスを取得する。取得されたアドレスは記憶部207に記憶される。   That is, in step S331, the acquisition unit 201 acquires a search address. Specifically, the user operates the input unit 31 to input an address to be searched. The acquisition unit 201 acquires this address. The acquired address is stored in the storage unit 207.

その後のステップS332乃至S337の処理は、図10のステップS21乃至S26の処理と同様であるのでその説明は省略する。   The subsequent processing in steps S332 to S337 is the same as the processing in steps S21 to S26 in FIG.

ただし、図36のステップS335の4kfpsによるサンプリング処理は、図37に示されるように実行され、ステップS336の400 kfpsによるサンプリング処理は、図15のフローチャートに示されるように実行される。   However, the sampling process at 4 kfps in step S335 in FIG. 36 is executed as shown in FIG. 37, and the sampling process at 400 kfps in step S336 is executed as shown in the flowchart in FIG.

図37のフローチャートにおける4kfpsによるサンプリング処理について説明する。ステップS351において、領域設定部204は、走査領域として大領域を設定する。すなわち、図13の領域R1が走査領域として設定される。ステップS352において、サンプリング部205は、4kfpsでサンプリングする処理を実行する。そして、ステップS353において、判定部203はアドレスフレームを検出したかを判定する。アドレスフレームが検出されていない場合、ステップS359において、判定部203は4kfpsでサンプリングを開始してから480 msが経過したかを判定する。480 msの時間がまだ経過していない場合には処理はステップS352に戻り、それ以降の処理が繰り返し実行される。   A sampling process using 4 kfps in the flowchart of FIG. 37 will be described. In step S351, the area setting unit 204 sets a large area as the scanning area. That is, the region R1 in FIG. 13 is set as the scanning region. In step S352, the sampling unit 205 executes a process of sampling at 4 kfps. In step S353, the determination unit 203 determines whether an address frame has been detected. When the address frame is not detected, in step S359, the determination unit 203 determines whether 480 ms has elapsed since starting sampling at 4 kfps. If the time of 480 ms has not yet elapsed, the process returns to step S352, and the subsequent processes are repeatedly executed.

ステップS353において、アドレスフレームが検出されたと判定された場合、ステップS354において、読取部208はアドレスを読み取る。そして、ステップS355において、判定部203は、ステップS354で読み取られたアドレスが、図36のステップS331において取得されたアドレス(ユーザにより指定されたアドレス)と一致したかを判定する。両者が一致しない場合には、処理はステップS359に進み、480 msが経過したかが判定される。480 msが経過していなければ、再び処理はステップS352に戻り、それ以降の処理が繰り返し実行される。   If it is determined in step S353 that an address frame has been detected, the reading unit 208 reads the address in step S354. In step S355, the determination unit 203 determines whether the address read in step S354 matches the address (address specified by the user) acquired in step S331 in FIG. If the two do not match, the process proceeds to step S359 to determine whether 480 ms has elapsed. If 480 ms has not elapsed, the process returns to step S352 again, and the subsequent processes are repeatedly executed.

ステップS355において、アドレスが一致したと判定された場合、ステップS356において、表示部202は、そのアドレスに対応するアイコンを表示する。そして、ステップS357において、判定部203はステップS356で表示したアイコンが指定されたかを判定し、指定されていない場合には、ステップS359において、480 msが経過したかを判定し、経過していなければ、処理は再びステップS352に戻り、それ以降の処理が繰り返し実行される。   If it is determined in step S355 that the addresses match, in step S356, the display unit 202 displays an icon corresponding to the address. In step S357, the determination unit 203 determines whether the icon displayed in step S356 is specified. If not, in step S359, the determination unit 203 determines whether 480 ms has elapsed. If so, the process returns to step S352, and the subsequent processes are repeatedly executed.

ステップS357において、アイコンが指定されたと判定された場合には、ステップS358において、モード設定部206はモードをデータ読取モードに設定する。   If it is determined in step S357 that the icon has been designated, in step S358, the mode setting unit 206 sets the mode to the data reading mode.

ステップS359において、480 msが経過したと判定された場合、並びにステップS358でデータ読取モードを設定された場合、サンプリング処理は終了される。   If it is determined in step S359 that 480 ms has elapsed, and if the data reading mode is set in step S358, the sampling process ends.

以上のようにして、この実施形態においては、ユーザが指定したアドレスが検索され、その検索されたアイコンが表示されるので、ユーザはアドレスを入力した後、携帯端末21のカメラ42を様々な方向に指向させ、アイコンが表示されたときそのアイコンを指定することで指定したアドレスのオブジェクトが発生するデータを取得することが可能となる。   As described above, in this embodiment, the address designated by the user is searched, and the searched icon is displayed. Therefore, after the user inputs the address, the camera 42 of the portable terminal 21 is moved in various directions. When the icon is displayed when the icon is displayed, it is possible to acquire data generated by the object at the specified address.

この実施形態は、例えば、宝探しやオリエンテーリングのようなゲームに利用できる。ゲームプレイヤーは場所のわからないオブジェクトのアドレスのみを先に知らされ、そのアドレス値を手持ちの携帯端末21に入力する。そして、ゲームプレイヤーは携帯端末21をサーチモードに設定し、ゲーム施設内のあらゆる場所(LED12)にカメラ42を向けてそのオブジェクトを探す。カメラ42が視野角内にそのアドレスを発するLED12を捕えると、携帯端末21のモニタ41にそのことを知らせるアイコンが表示される。ゲームプレイヤーがそのアイコンをクリックすると、カメラ42はデータ転送モードに入り、LED12の光から、オブジェクトを見つけたことを証明するデータが携帯端末21に取り込まれる。このデータを証明書として、見つけたオブジェクトの個数、時間などを競うことができる。   This embodiment can be used for games such as treasure hunt and orienteering, for example. The game player is informed first of only the address of the object whose location is unknown, and inputs the address value to the portable terminal 21 on hand. Then, the game player sets the mobile terminal 21 to the search mode and directs the camera 42 to any place (LED 12) in the game facility to search for the object. When the camera 42 captures the LED 12 that emits the address within the viewing angle, an icon informing that is displayed on the monitor 41 of the portable terminal 21. When the game player clicks on the icon, the camera 42 enters the data transfer mode, and data proving that the object has been found is taken into the portable terminal 21 from the light of the LED 12. This data can be used as a certificate to compete for the number of objects found, time, etc.

次に、携帯端末21がズーム機能を有する場合における400 kfpsによるサンプリング処理について説明する。この場合、DSP122(制御部121)は図38に示されるように、ズーム部341と算出部342を有する。ズーム部341はカメラ42を制御して、ズーム機能を実行させる。算出部342は、誤り率を算出する。その他の取得部201乃至読取部208を有する構成は、図9における場合と同様である。   Next, a sampling process using 400 kfps when the mobile terminal 21 has a zoom function will be described. In this case, the DSP 122 (control unit 121) includes a zoom unit 341 and a calculation unit 342 as shown in FIG. The zoom unit 341 controls the camera 42 to execute a zoom function. The calculation unit 342 calculates an error rate. Other configurations including the acquisition unit 201 to the reading unit 208 are the same as those in FIG.

次に、図39のフローチャートを参照して、400 kfpsによるサンプリング処理について説明する。ステップS371において、領域設定部204は、走査領域として小領域を設定する。すなわち、領域R2が走査領域として設定される。ステップS372において、サンプリング部205は、400 kfpsでサンプリングする処理を実行する。ステップS373において、判定部203はデータフレームを検出したかを判定し、まだ検出されていない場合にはステップS374において、さらに480 msが経過したかを判定する。480 msがまだ経過していないと判定された場合には、処理はステップS372に戻り、それ以降の処理が繰り返し実行される。480 msが経過したと判定された場合処理は終了される。   Next, a sampling process using 400 kfps will be described with reference to the flowchart of FIG. In step S371, the region setting unit 204 sets a small region as the scanning region. That is, the region R2 is set as the scanning region. In step S372, the sampling unit 205 performs a process of sampling at 400 kfps. In step S373, the determination unit 203 determines whether a data frame has been detected. If not yet detected, the determination unit 203 determines in step S374 whether 480 ms has elapsed. If it is determined that 480 ms has not yet elapsed, the process returns to step S372, and the subsequent processes are repeatedly executed. If it is determined that 480 ms has elapsed, the process is terminated.

ステップS373において、データフレームを検出したと判定された場合、ステップS375において、記憶部207は、データフレームを検出した場合における誤り訂正率を記憶する。この場合、算出部342が誤り訂正率を算出する。次に、ステップS376において、ズーム部341は画像をズームする。すなわち、今、領域R2に表示されているLEDの画像をズームする処理が実行される。ステップS377において、判定部203はスタートビットが検出できたかを判定する。スタートビットが検出できていない場合には、処理はステップS376に戻り、再びズームする処理が実行される。   If it is determined in step S373 that a data frame has been detected, in step S375, the storage unit 207 stores the error correction rate when the data frame is detected. In this case, the calculation unit 342 calculates an error correction rate. Next, in step S376, the zoom unit 341 zooms the image. That is, a process of zooming the LED image currently displayed in the region R2 is executed. In step S377, the determination unit 203 determines whether a start bit has been detected. If the start bit has not been detected, the process returns to step S376, and the zoom process is performed again.

ステップS377において、スタートビットが検出できたと判定された場合、ステップS378において、算出部342は、その時点における誤り訂正率を算出する。ステップS379において、判定部203は、ステップS378で算出された誤り訂正率が記憶値より小さいかを判定する。すなわち、ステップS375の処理で記憶された誤り訂正率と、ステップS378の処理で今回算出された誤り訂正率とが比較される。ステップS379において、ステップS378で今回算出された誤り訂正率が記憶値より小さいと判定されなかった場合(すなわち、記憶値の方が大きい場合)、処理はステップS376に戻り、再び画像をズームする処理が実行され、それ以降の処理が繰り返し実行される。   If it is determined in step S377 that the start bit has been detected, in step S378, the calculation unit 342 calculates the error correction rate at that time. In step S379, the determination unit 203 determines whether the error correction rate calculated in step S378 is smaller than the stored value. That is, the error correction rate stored in step S375 is compared with the error correction rate calculated this time in step S378. If it is determined in step S379 that the error correction rate calculated this time in step S378 is not smaller than the stored value (that is, if the stored value is larger), the process returns to step S376, and the image is zoomed again. Is executed, and the subsequent processing is repeatedly executed.

ステップS379において、記憶値が小さいと判定された場合、ステップS380において、記憶部207は今回ステップS378で算出された誤り訂正率をいままでの記憶値に代えて記憶する。ステップS381において、判定部203は、最小の誤り訂正率が得られたかを判定する。まだ最小の誤り訂正率が得られていない場合には、処理はステップS376に戻り、画像が再び異なるズーム率に変更され、それ以降の処理が繰り返し実行される。以上のようにして、ズーム率を変化させることで、各ズーム率の中で最小の誤り訂正率のズーム率が求められる。   If it is determined in step S379 that the stored value is small, in step S380, the storage unit 207 stores the error correction rate calculated in step S378 this time instead of the stored value so far. In step S381, the determination unit 203 determines whether the minimum error correction rate has been obtained. If the minimum error correction rate has not yet been obtained, the process returns to step S376, the image is changed again to a different zoom rate, and the subsequent processing is repeatedly executed. By changing the zoom rate as described above, the zoom rate with the lowest error correction rate among the zoom rates can be obtained.

ステップS381において、最小の誤り訂正率が得られたと判定された場合、ステップS382において、ズーム部341は最小の誤り訂正率が得られるように画像をズームする。ステップS383において、読取部208は、データを読み取る。そして、ステップS384において、モード設定部206はサーチモードを設定する。   If it is determined in step S381 that the minimum error correction rate is obtained, the zoom unit 341 zooms the image so that the minimum error correction rate is obtained in step S382. In step S383, the reading unit 208 reads data. In step S384, the mode setting unit 206 sets the search mode.

以上のようにして、画像が自動的にズームされ、最小の誤り訂正率となるズーム率が検出され、そのズーム率でデータが読み取られる。したがって、より正確にデータを読み取ることが可能となる。   As described above, the image is automatically zoomed, the zoom rate that provides the minimum error correction rate is detected, and data is read at that zoom rate. Therefore, data can be read more accurately.

以上においては、1つのLEDが1つのピクセルに表示されるものとして説明を簡略化したが、実際には、1つのLEDの画像が複数のピクセルの画像として表示されることが多い。このような場合、複数のピクセルの値が加算され、その加算値からデータが読み取られる。   In the above description, the description is simplified on the assumption that one LED is displayed on one pixel. However, in practice, an image of one LED is often displayed as an image of a plurality of pixels. In such a case, the values of a plurality of pixels are added, and data is read from the added value.

複数のピクセルを加算することでデータを読み取る場合には、加算する対象となるピクセルを変更し、最適なピクセルを選択するようにすることができる。このようにする場合の400 kfpsによるサンプリング処理を実行する場合、DSP122(制御部121)は、例えば図40に示されるように構成される。このDSP122は、図38のズーム部341に代えて変更部361を有する。変更部361は、加算するピクセルを含むピクセル群を変更する処理を実行する。DSP122のその他の構成は、図38における場合と同様である。   When data is read by adding a plurality of pixels, the pixel to be added can be changed to select an optimal pixel. When executing the sampling process at 400 kfps in this way, the DSP 122 (control unit 121) is configured as shown in FIG. 40, for example. The DSP 122 includes a changing unit 361 instead of the zoom unit 341 in FIG. The changing unit 361 executes processing for changing a pixel group including pixels to be added. Other configurations of the DSP 122 are the same as those in FIG.

次に、図41のフローチャートを参照して、図40の制御部121による400 kfpsによるサンプリング処理について説明する。そのステップS401乃至414の処理は、基本的に図39のステップS371乃至ステップS384の処理と同様である。図39のステップS376の画像をズームする処理に対応する図41のステップS406においては、変更部361が加算するピクセルを変更する処理を実行する。また、図39のステップS382の最小の誤り訂正率が得られるように画像をズームする処理に対応する図41のステップS412においては、変更部361が最小の誤り訂正率が得られるように加算するピクセルを変更する処理を実行する。図41のその他の処理は、図39における場合と同様である。   Next, a sampling process at 400 kfps by the control unit 121 in FIG. 40 will be described with reference to the flowchart in FIG. The processes in steps S401 to S414 are basically the same as the processes in steps S371 to S384 in FIG. In step S406 in FIG. 41 corresponding to the process of zooming the image in step S376 in FIG. 39, a process for changing the pixel to be added by the changing unit 361 is executed. Further, in step S412 of FIG. 41 corresponding to the process of zooming the image so that the minimum error correction rate of step S382 of FIG. 39 is obtained, the changing unit 361 performs addition so that the minimum error correction rate is obtained. Performs processing to change the pixel. The other processes in FIG. 41 are the same as those in FIG.

すなわち、ステップS406乃至ステップS411の処理により、ピクセル値を加算するピクセルからなるピクセル群のそのピクセルが適宜変更され、変更された組み合わせ(ピクセル群)の中から最小の誤り訂正率が得られる組み合わせ(ピクセル群)が算出される。そして、ステップS412において、その最小の誤り訂正率が得られるピクセルの組み合わせ(ピクセル群)が設定される。そして、その最小の誤り訂正率が得られる組み合わせ(ピクセル群)のピクセルの加算値から、ステップS413においてデータが読み取られる。その他の処理は、図39における場合と同様である。   That is, the combination of the pixel group consisting of pixels to which the pixel value is added is appropriately changed by the processing of Step S406 to Step S411, and the minimum error correction rate is obtained from the changed combination (pixel group) ( Pixel group) is calculated. In step S412, a combination (pixel group) of pixels that can obtain the minimum error correction rate is set. Then, in step S413, data is read from the addition value of the pixels of the combination (pixel group) that can obtain the minimum error correction rate. Other processes are the same as those in FIG.

以上のようにして、誤り訂正率が最小のピクセルの組み合わせが得られるので、その組み合わせからデータを正確に読み取ることが可能となる。   As described above, since a combination of pixels with the lowest error correction rate is obtained, data can be read accurately from the combination.

なお、以上の各実施形態は必要に応じて他の実施形態と組み合わせることができる。また、以上においては、授受する信号を発光部を点滅させることで生成した点滅信号としたが、例えば1次元バーコードや2次元バーコードなどを読み取る場合にも本発明は適用することが出来る。   Each of the above embodiments can be combined with other embodiments as necessary. In the above description, the signal to be transmitted / received is the blinking signal generated by blinking the light emitting unit. However, the present invention can be applied to, for example, reading a one-dimensional barcode or a two-dimensional barcode.

上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。この場合、例えば、画像情報処理装置は、図42に示されるようなパーソナルコンピュータにより構成される。   The series of processes described above can be executed by hardware or can be executed by software. In this case, for example, the image information processing apparatus includes a personal computer as shown in FIG.

図42において、CPU(Central Processing Unit)421は、ROM(Read Only Memory)422に記憶されているプログラム、または記憶部428からRAM(Random Access Memory)423にロードされたプログラムに従って各種の処理を実行する。RAM423にはまた、CPU421が各種の処理を実行する上において必要なデータなども適宜記憶される。   42, a CPU (Central Processing Unit) 421 executes various processes according to a program stored in a ROM (Read Only Memory) 422 or a program loaded from a storage unit 428 to a RAM (Random Access Memory) 423. To do. The RAM 423 also appropriately stores data necessary for the CPU 421 to execute various processes.

CPU421、ROM422、およびRAM423は、バス424を介して相互に接続されている。このバス424にはまた、入出力インタフェース425も接続されている。   The CPU 421, ROM 422, and RAM 423 are connected to each other via a bus 424. An input / output interface 425 is also connected to the bus 424.

入出力インタフェース425には、キーボード、マウスなどよりなる入力部426、CRT(Cathode Ray Tube)、LCD(Liquid Crystal display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部427、ハードディスクなどより構成される記憶部428、モデムなどより構成される通信部429が接続されている。通信部429は、インターネットを含むネットワークを介しての通信処理を行う。   The input / output interface 425 includes an input unit 426 including a keyboard and a mouse, a display including a CRT (Cathode Ray Tube) and an LCD (Liquid Crystal display), an output unit 427 including a speaker, and a hard disk. A communication unit 429 including a storage unit 428 and a modem is connected. The communication unit 429 performs communication processing via a network including the Internet.

入出力インタフェース425にはまた、必要に応じてドライブ430が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア431が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部428にインストールされる。   A drive 430 is connected to the input / output interface 425 as necessary, and a removable medium 431 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is appropriately mounted, and a computer program read from them is It is installed in the storage unit 428 as necessary.

一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。   When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, a general-purpose personal computer is installed from a network or a recording medium.

この記録媒体は、図42に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フロッピディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア431により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM422や、記憶部428に含まれるハードディスクなどで構成される。   As shown in FIG. 42, this recording medium is distributed to provide a program to the user separately from the apparatus main body, and includes a magnetic disk (including a floppy disk) on which the program is recorded, an optical disk (CD- It is not only composed of removable media 431 consisting of ROM (Compact Disk-Read Only Memory), DVD (Digital Versatile Disk), magneto-optical disk (including MD (Mini-Disk)), or semiconductor memory. The program is provided with a ROM 422 in which a program is recorded, a hard disk included in the storage unit 428, and the like provided to the user in a state of being incorporated in the apparatus main body in advance.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.

また、本明細書において、システムとは、複数の装置(または特定の機能を実現する機能モジュール)が論理的に集合した物を意味し、各装置や機能モジュールが単一の筐体内にあるか否かは問わない。   Further, in this specification, the system means a logical collection of a plurality of devices (or functional modules that realize a specific function), and whether each device or functional module is in a single casing. It doesn't matter whether or not.

本発明を適用した画像処理システムの実施形態の構成を示す図である。It is a figure which shows the structure of embodiment of the image processing system to which this invention is applied. モニタの表示例を示す図である。It is a figure which shows the example of a display of a monitor. LEDの撮像を説明する図である。It is a figure explaining imaging of LED. オブジェクトの構成を示すブロック図である。It is a block diagram which shows the structure of an object. フレームのフォーマットを示す図である。It is a figure which shows the format of a frame. 携帯端末の構成を示すブロック図である。It is a block diagram which shows the structure of a portable terminal. センサーチップの構成を示す図である。It is a figure which shows the structure of a sensor chip. 送信処理を説明するフローチャートである。It is a flowchart explaining a transmission process. DSPの構成を示すブロック図である。It is a block diagram which shows the structure of DSP. 受信処理を説明するフローチャートである。It is a flowchart explaining a reception process. サンプリングを説明するタイムチャートである。It is a time chart explaining sampling. 4kfpsによるサンプリング処理を説明するフローチャートである。It is a flowchart explaining the sampling process by 4 kfps. 領域を説明する図である。It is a figure explaining an area | region. マンチェスタ符号を説明する図である。It is a figure explaining a Manchester code | symbol. 400 kfpsによるサンプリング処理を説明するフローチャートである。It is a flowchart explaining the sampling process by 400 kfps. サンプリングのタイムチャートである。It is a time chart of sampling. LEDの撮像を説明する図である。It is a figure explaining imaging of LED. オブジェクトの他の構成を示すブロック図である。It is a block diagram which shows the other structure of an object. 送信処理を説明するフローチャートである。It is a flowchart explaining a transmission process. LEDの受信信号を説明する波形図である。It is a wave form diagram explaining the received signal of LED. 4kfpsによるサンプリング処理を説明するフローチャートである。It is a flowchart explaining the sampling process by 4 kfps. 400 kfpsによるサンプリング処理を説明するフローチャートである。It is a flowchart explaining the sampling process by 400 kfps. サンプリングを説明するタイムチャートである。It is a time chart explaining sampling. オブジェクトの他の実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of other embodiment of an object. 4kfpsによるサンプリング処理を説明するフローチャートである。It is a flowchart explaining the sampling process by 4 kfps. 400 kfpsによるサンプリング処理を説明するフローチャートである。It is a flowchart explaining the sampling process by 400 kfps. オブジェクトの他の実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of other embodiment of an object. 送信処理を説明するフローチャートである。It is a flowchart explaining a transmission process. DSPの他の実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of other embodiment of DSP. 4kfpsによるサンプリング処理を説明するフローチャートである。It is a flowchart explaining the sampling process by 4 kfps. 携帯端末の表示例を示す図である。It is a figure which shows the example of a display of a portable terminal. 400 kfpsによるサンプリング処理を説明するフローチャートである。It is a flowchart explaining the sampling process by 400 kfps. マークの表示を示す図である。It is a figure which shows the display of a mark. DSPの他の実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of other embodiment of DSP. 400 kfpsによるサンプリング処理を説明するフローチャートである。It is a flowchart explaining the sampling process by 400 kfps. 受信処理を説明するフローチャートである。It is a flowchart explaining a reception process. 4kfpsによるサンプリング処理を説明するフローチャートである。It is a flowchart explaining the sampling process by 4 kfps. DSPの他の実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of other embodiment of DSP. 400 kfpsによるサンプリング処理を説明するフローチャートである。It is a flowchart explaining the sampling process by 400 kfps. DSPの他の実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of other embodiment of DSP. 400 kfpsによるサンプリング処理を説明するフローチャートである。It is a flowchart explaining the sampling process by 400 kfps. パーソナルコンピュータの構成例を示すブロック図である。And FIG. 16 is a block diagram illustrating a configuration example of a personal computer.

符号の説明Explanation of symbols

1 画像情報処理システム, 11 オブジェクト, 12 LED, 21 携帯端末, 41 モニタ, 42 カメラ, 43 アイコン, 122 DSP, 201 取得部, 202 表示部, 203 判定部, 204 領域設定部, 205 サンプリング部, 206 モード設定部, 207 記憶部, 208 読取部   DESCRIPTION OF SYMBOLS 1 Image information processing system, 11 Object, 12 LED, 21 Portable terminal, 41 Monitor, 42 Camera, 43 Icon, 122 DSP, 201 Acquisition part, 202 Display part, 203 Judgment part, 204 Area setting part, 205 Sampling part, 206 Mode setting unit, 207 storage unit, 208 reading unit

Claims (19)

提示画像を提示する提示装置と、前記提示装置により提示された提示画像から情報を読み取る読取装置とからなる画像情報処理システムにおいて、
前記提示装置は、
前記提示画像を提示し、
前記読取装置は、
前記提示装置により提示された前記提示画像を含む画像を処理対象画像として保持し、
前記処理対象画像の走査領域として、その全体である第1の領域より小さく、かつ前記提示装置により提示された前記提示画像を含む第2の領域を設定し、
前記処理対象画像の設定された前記第2の領域についてサンプリングし、
サンプリングされた前記処理対象画像から前記提示画像に含まれる情報を読み取る
画像情報処理システム。
In an image information processing system including a presentation device that presents a presentation image and a reading device that reads information from the presentation image presented by the presentation device,
The presenting device
Presenting the presented image;
The reader is
Holding an image including the presentation image presented by the presentation device as a processing target image;
As a scanning area of the processing target image, a second area that is smaller than the entire first area and that includes the presentation image presented by the presentation device is set.
Sampling for the set second region of the processing target image,
An image information processing system that reads information included in the presented image from the sampled processing target image.
提示画像に含まれる情報を読み取る画像情報処理装置において、
前記提示画像を含む画像を処理対象画像として保持する保持手段と、
前記処理対象画像の走査領域として、その全体である第1の領域より小さく、かつ前記提示画像を含む第2の領域を設定する領域設定手段と、
前記処理対象画像の設定された前記第2の領域についてサンプリングするサンプリング手段と、
サンプリングされた前記処理対象画像から前記提示画像に含まれる情報を読み取る読取手段と
を備える画像情報処理装置。
In an image information processing apparatus that reads information included in a presentation image,
Holding means for holding an image including the presented image as a processing target image;
An area setting unit that sets a second area that is smaller than the entire first area as the scanning area of the processing target image and includes the presented image;
Sampling means for sampling the set second region of the processing target image;
An image information processing apparatus comprising: reading means for reading information included in the presented image from the sampled processing target image.
前記提示画像を撮像する撮像手段をさらに備え、
前記保持手段は、前記撮像手段により撮像された画像を前記処理対象画像として保持する
請求項2に記載の画像情報処理装置。
It further comprises imaging means for imaging the presented image,
The image information processing apparatus according to claim 2, wherein the holding unit holds an image captured by the imaging unit as the processing target image.
前記領域設定手段は、前記処理対象画像の走査領域として、前記第2の領域を設定する前に前記第1の領域を設定し、
前記サンプリング手段は、前記第1の領域をサンプリングした後、前記第2の領域をサンプリングする
請求項2に記載の画像情報処理装置。
The region setting means sets the first region before setting the second region as a scanning region of the processing target image,
The image information processing apparatus according to claim 2, wherein the sampling unit samples the second area after sampling the first area.
前記サンプリング手段は、前記第1の領域を第1の速度でサンプリングし、前記第2の領域を、前記第1の速度より速い第2の速度でサンプリングする
請求項4に記載の画像情報処理装置。
The image information processing apparatus according to claim 4, wherein the sampling unit samples the first area at a first speed, and samples the second area at a second speed higher than the first speed. .
前記領域設定手段は、光が第1の周波数で点滅する前記提示画像から情報を読み取る場合に前記第1の領域を設定し、前記第1の周波数より高い第2の周波数で点滅する前記提示画像から情報を読み取る場合に前記第2の領域を設定する
請求項4に記載の画像情報処理装置。
The area setting means sets the first area when light is read from the presentation image blinking at a first frequency, and the presentation image blinks at a second frequency higher than the first frequency. The image information processing apparatus according to claim 4, wherein the second area is set when information is read from the image information.
前記読取手段は、前記第1の領域から前記提示画像の提示元を識別する識別情報を読み取り、前記第2の領域から主情報を読み取る
請求項4に記載の画像情報処理装置。
The image information processing apparatus according to claim 4, wherein the reading unit reads identification information for identifying a presentation source of the presentation image from the first area, and reads main information from the second area.
前記第1の領域の前記処理対象画像から読み取られた前記提示画像の提示元の識別情報に基づいて、前記提示元に通知を出力する通知手段をさらに備え、
前記領域設定手段は、前記通知手段による通知に伴って、前記走査領域の設定を前記第1の領域から前記第2の領域に切り替える
請求項4に記載の画像情報処理装置。
Further comprising notification means for outputting a notification to the presentation source based on the identification information of the presentation source of the presentation image read from the processing target image of the first region,
The image information processing apparatus according to claim 4, wherein the region setting unit switches the setting of the scanning region from the first region to the second region in accordance with the notification by the notification unit.
前記保持手段により保持されている前記処理対象画像を表示する表示手段をさらに備え、
前記領域設定手段は、表示されている前記処理対象画像から前記提示画像が選択された場合、選択された前記提示画像を含む領域を前記第2の領域として設定する
請求項4に記載の画像情報処理装置。
A display unit for displaying the processing target image held by the holding unit;
The image information according to claim 4, wherein the region setting unit sets a region including the selected presentation image as the second region when the presentation image is selected from the displayed processing target images. Processing equipment.
前記表示手段は、前記第1の領域の前記処理対象画像のサンプリングにより得られた情報に基づいて、ユーザが前記提示画像を選択するためのマークをさらに表示する
請求項9に記載の画像情報処理装置。
The image information processing according to claim 9, wherein the display unit further displays a mark for a user to select the presentation image based on information obtained by sampling the processing target image in the first region. apparatus.
前記表示手段は、前記保持手段により保持されている前記処理対象画像上の前記提示画像の位置をガイドするマークをさらに表示する
請求項9に記載の画像情報処理装置。
The image information processing apparatus according to claim 9, wherein the display unit further displays a mark that guides a position of the presentation image on the processing target image held by the holding unit.
前記サンプリング手段は、前記第1の領域と前記第2の領域とで、前記処理対象画像の異なる光の波長帯域成分の画像についてサンプリングする
請求項4に記載の画像情報処理装置。
The image information processing apparatus according to claim 4, wherein the sampling unit samples an image of a wavelength band component of different light of the processing target image in the first region and the second region.
前記領域設定手段は、前記保持手段により保持されている前記処理対象画像上の前記提示画像の位置が変化した場合、その変化した位置に追従するように前記第2の領域を設定する
請求項4に記載の画像情報処理装置。
The area setting means sets the second area so as to follow the changed position when the position of the presentation image on the processing target image held by the holding means changes. The image information processing apparatus described in 1.
探索する前記提示画像の提示元の識別情報を取得する取得手段と、
取得した前記識別情報に一致する前記識別情報を提示する前記提示元を、前記処理対象画像の前記第1の領域から検索する検索手段と
をさらに備える請求項4に記載の画像情報処理装置。
Obtaining means for obtaining identification information of a presentation source of the presented image to be searched;
The image information processing apparatus according to claim 4, further comprising: a search unit that searches the presentation source that presents the identification information that matches the acquired identification information from the first region of the processing target image.
前記処理対象画像をズームするズーム手段と、
ズームされた前記処理対象画像の中から、情報の誤りが最小のものを選択する選択手段とをさらに備える
請求項2に記載の画像情報処理装置。
Zoom means for zooming the processing target image;
The image information processing apparatus according to claim 2, further comprising: a selecting unit that selects an image with a minimum information error from the zoomed processing target image.
前記第2の領域の前記処理対象画像のうち、前記情報を読み取るための演算の対象となるピクセル群を変更する変更手段と、
演算の対象となる前記ピクセル群の中から、情報の誤りが最小のものを選択する選択手段とをさらに備える
請求項2に記載の画像情報処理装置。
Changing means for changing a pixel group to be subjected to a calculation for reading the information among the processing target images in the second region;
The image information processing apparatus according to claim 2, further comprising: a selecting unit that selects a pixel having a minimum information error from the pixel group to be calculated.
提示画像に含まれる情報を読み取る画像情報処理装置の画像情報処理方法において、
前記提示画像を含む画像を処理対象画像として保持する保持ステップと、
前記処理対象画像の走査領域として、その全体である第1の領域より小さく、かつ前記提示画像を含む第2の領域を設定する領域設定ステップと、
前記処理対象画像の設定された前記第2の領域についてサンプリングするサンプリングステップと、
サンプリングされた前記処理対象画像から前記提示画像に含まれる情報を読み取る読取ステップと
を含む画像情報処理方法。
In an image information processing method of an image information processing apparatus that reads information included in a presented image,
A holding step of holding an image including the presented image as a processing target image;
An area setting step for setting a second area that is smaller than the entire first area as the scanning area of the processing target image and includes the presented image;
A sampling step for sampling the set second region of the processing target image;
A reading step of reading information included in the presented image from the sampled processing target image.
提示画像に含まれる情報を読み取る画像情報処理装置のプログラムにおいて、
前記提示画像を含む画像を処理対象画像として保持する保持ステップと、
前記処理対象画像の走査領域として、その全体である第1の領域より小さく、かつ前記提示画像を含む第2の領域を設定する領域設定ステップと、
前記処理対象画像の設定された前記第2の領域についてサンプリングするサンプリングステップと、
サンプリングされた前記処理対象画像から前記提示画像に含まれる情報を読み取る読取ステップと
を含むコンピュータが読み取り可能なプログラムが記録されている記録媒体。
In a program of an image information processing apparatus that reads information included in a presentation image,
A holding step of holding an image including the presented image as a processing target image;
An area setting step for setting a second area that is smaller than the entire first area as the scanning area of the processing target image and includes the presented image;
A sampling step for sampling the set second region of the processing target image;
A recording medium on which a computer-readable program is recorded, including: a reading step of reading information included in the presented image from the sampled processing target image.
提示画像に含まれる情報を読み取る画像情報処理装置のプログラムにおいて、
前記提示画像を含む画像を処理対象画像として保持する保持ステップと、
前記処理対象画像の走査領域として、その全体である第1の領域より小さく、かつ前記提示画像を含む第2の領域を設定する領域設定ステップと、
前記処理対象画像の設定された前記第2の領域についてサンプリングするサンプリングステップと、
サンプリングされた前記処理対象画像から前記提示画像に含まれる情報を読み取る読取ステップと
をコンピュータに実行させるプログラム。
In a program of an image information processing apparatus that reads information included in a presentation image,
A holding step of holding an image including the presented image as a processing target image;
An area setting step for setting a second area that is smaller than the entire first area as the scanning area of the processing target image and includes the presented image;
A sampling step for sampling the set second region of the processing target image;
A program that causes a computer to execute a reading step of reading information included in the presented image from the sampled processing target image.
JP2005149409A 2005-05-23 2005-05-23 Image information processing system, image information processing apparatus and method, recording medium, and program Expired - Fee Related JP4600149B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005149409A JP4600149B2 (en) 2005-05-23 2005-05-23 Image information processing system, image information processing apparatus and method, recording medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005149409A JP4600149B2 (en) 2005-05-23 2005-05-23 Image information processing system, image information processing apparatus and method, recording medium, and program

Publications (2)

Publication Number Publication Date
JP2006332752A true JP2006332752A (en) 2006-12-07
JP4600149B2 JP4600149B2 (en) 2010-12-15

Family

ID=37554023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005149409A Expired - Fee Related JP4600149B2 (en) 2005-05-23 2005-05-23 Image information processing system, image information processing apparatus and method, recording medium, and program

Country Status (1)

Country Link
JP (1) JP4600149B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016146079A (en) * 2015-02-09 2016-08-12 ぴあ株式会社 Portable terminal, electronic ticket processing program, electronic ticket processing method, and light irradiator

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09274667A (en) * 1996-04-04 1997-10-21 Hitachi Ltd System and method for processing image
JP2001116985A (en) * 1999-10-21 2001-04-27 Canon Inc Camera with subject recognizing function and subject recognizing method
JP2004248128A (en) * 2003-02-17 2004-09-02 Global Com:Kk Electric appliance and controller
JP2005071125A (en) * 2003-08-26 2005-03-17 Nippon Hoso Kyokai <Nhk> Object detector, object detection method, object data selection program and object position detection program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09274667A (en) * 1996-04-04 1997-10-21 Hitachi Ltd System and method for processing image
JP2001116985A (en) * 1999-10-21 2001-04-27 Canon Inc Camera with subject recognizing function and subject recognizing method
JP2004248128A (en) * 2003-02-17 2004-09-02 Global Com:Kk Electric appliance and controller
JP2005071125A (en) * 2003-08-26 2005-03-17 Nippon Hoso Kyokai <Nhk> Object detector, object detection method, object data selection program and object position detection program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016146079A (en) * 2015-02-09 2016-08-12 ぴあ株式会社 Portable terminal, electronic ticket processing program, electronic ticket processing method, and light irradiator

Also Published As

Publication number Publication date
JP4600149B2 (en) 2010-12-15

Similar Documents

Publication Publication Date Title
US11030987B2 (en) Method for selecting background music and capturing video, device, terminal apparatus, and medium
CN102652463B (en) Lighting tool for creating light scenes
CN106576184A (en) Information processing device, display device, information processing method, program, and information processing system
US20130182012A1 (en) Method of providing augmented reality and terminal supporting the same
CN110322760B (en) Voice data generation method, device, terminal and storage medium
JP2003174578A (en) Electronic camera, image display device and image display method
JP2007036802A (en) Information processing apparatus, information processing method, and information processing program
JP2013101248A (en) Voice control device, voice control method, and program
JP3756929B2 (en) Electronic musical instrument system and apparatus and program used for the system
KR20130056529A (en) Apparatus and method for providing augmented reality service in portable terminal
US20210272542A1 (en) Method, apparatus, terminal and storage medium for mixing audio
KR20120065865A (en) Terminal and method for providing augmented reality
CN1825428A (en) Wireless terminal installation and karaoke system
CN108627176A (en) Screen luminance adjustment method and Related product
CN111933098A (en) Method and device for generating accompaniment music and computer readable storage medium
KR20150019766A (en) Compressing Method of image data for camera and Electronic Device supporting the same
CN113543310A (en) Positioning method, positioning device, electronic equipment and computer readable storage medium
CN110070143A (en) Obtain method, apparatus, equipment and the storage medium of training data
CN110798327A (en) Message processing method, device and storage medium
CN111081277B (en) Audio evaluation method, device, equipment and storage medium
JP4600149B2 (en) Image information processing system, image information processing apparatus and method, recording medium, and program
ES2748568T3 (en) Data configuration procedure for a body information analysis apparatus
JP2007158603A (en) Image reproducing apparatus, image reproducing method, and image reproducing program
US20230221918A1 (en) Method and system for sharing audio stream
CN111340916A (en) Picture editing method and device, storage medium and terminal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100615

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100831

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100913

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131008

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131008

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees