JP2018106671A - Image information processing apparatus and image information processing method - Google Patents

Image information processing apparatus and image information processing method Download PDF

Info

Publication number
JP2018106671A
JP2018106671A JP2017158470A JP2017158470A JP2018106671A JP 2018106671 A JP2018106671 A JP 2018106671A JP 2017158470 A JP2017158470 A JP 2017158470A JP 2017158470 A JP2017158470 A JP 2017158470A JP 2018106671 A JP2018106671 A JP 2018106671A
Authority
JP
Japan
Prior art keywords
image
unit
data
information processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017158470A
Other languages
Japanese (ja)
Other versions
JP7012485B2 (en
Inventor
毓珮 洪
Yupei Hong
毓珮 洪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wacom Co Ltd
Original Assignee
Wacom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wacom Co Ltd filed Critical Wacom Co Ltd
Priority to US15/842,138 priority Critical patent/US11048345B2/en
Priority to CN201711431672.8A priority patent/CN108303062B/en
Publication of JP2018106671A publication Critical patent/JP2018106671A/en
Application granted granted Critical
Publication of JP7012485B2 publication Critical patent/JP7012485B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C1/00Measuring angles
    • G01C1/02Theodolites
    • G01C1/04Theodolites combined with cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it possible to quickly acquire and use appropriate image data, such as a picture when an electronic pen and an input device part including a sensor part that can detect coordinates are available.SOLUTION: An image information processing apparatus receives a signal from an electronic pen 2 and acquires, from a sensor part 320 that detects an indicated coordinate position, detected coordinate data through an I/O port 140. A picture acquisition part 106 acquires picture data to which predetermined second additional information is added, and an association part 107 associates the picture data with a coordinate position (coordinate data) on a display screen of a display device part corresponding to the coordinate data to be made available.SELECTED DRAWING: Figure 2

Description

この発明は、例えば、カメラによって被写体を撮影することによって形成された画像データなどを容易に利用できるようにする装置、方法に関する。   The present invention relates to an apparatus and a method for making it easy to use, for example, image data formed by photographing a subject with a camera.

デジタルカメラなどの撮像装置によって被写体を撮像して得られた画像データに対して、当該撮像装置に搭載されたGPS(Global Positioning System)機能によって撮像時に取得した現在位置(撮像位置)を付加しておき、これを利用することが行われている。例えば、後に記す特許文献1には、撮影された写真が、その撮影位置に応じて配置された地図を容易に表示することが可能な情報処理装置等に関する発明が開示されている。   The current position (imaging position) acquired at the time of imaging by the GPS (Global Positioning System) function mounted on the imaging apparatus is added to the image data obtained by imaging the subject with an imaging apparatus such as a digital camera. In other words, this is being used. For example, Patent Document 1 described later discloses an invention relating to an information processing apparatus and the like that can easily display a map in which a photographed photograph is arranged according to the photographing position.

特開2013−122647号公報JP 2013-122647 A

上述した特許文献1に記載の発明は、地図と写真とを当該写真の撮像位置である緯度・経度を用いて関連付けて利用する場合には有効である。しかしながら、撮影して得た写真をユーザが指定した座標位置と関連付けて利用することができない。   The invention described in Patent Document 1 described above is effective when a map and a photograph are used in association with each other using latitude / longitude, which are the shooting positions of the photograph. However, the photograph obtained by photographing cannot be used in association with the coordinate position designated by the user.

以上のことに鑑み、この発明は、適切な写真などの画像データをユーザが指定した座標位置に迅速に関連付けて利用できるようにすることを目的とする。   In view of the above, an object of the present invention is to enable image data such as an appropriate photograph to be quickly associated with a coordinate position designated by a user and used.

上記課題を解決するため、請求項1に記載の発明の画像情報処理装置は、
指示体により指示された座標位置を検出するセンサ部から、前記座標位置を示す第1の座標データを取得する第1の取得手段と、
所定の付加情報が付加された第1の画像データを取得する第2の取得手段と、
前記第1の取得手段を通じて取得した前記第1の座標データに対応する表示装置部の表示画面上の位置を示す位置データと、前記第2の取得手段を通じて取得した前記第1の画像データとを関連付ける第1の関連付け手段と
を備えることを特徴とする。
In order to solve the above-mentioned problem, an image information processing apparatus according to claim 1 is provided.
First acquisition means for acquiring first coordinate data indicating the coordinate position from a sensor unit that detects the coordinate position indicated by the indicator;
Second acquisition means for acquiring first image data to which predetermined additional information is added;
Position data indicating a position on the display screen of the display device unit corresponding to the first coordinate data acquired through the first acquisition unit, and the first image data acquired through the second acquisition unit. And first associating means for associating.

請求項1に記載の画像情報処理装置によれば、センサ部は、指示体により指示された座標位置を検出することができるものである。第1の取得手段は、当該センサ部から検出された座標位置を示す第1の座標データを取得する。第2の取得手段は、所定の付加情報が付加された第1の画像データを取得する。すなわち、所定の付加情報が付加された第1の画像データは、指示体により指示された位置への関連付け対象の画像データであると認識され、関連付けに用いることが可能な画像データとして認証されたものとなる。   According to the image information processing apparatus of the first aspect, the sensor unit can detect the coordinate position instructed by the indicator. The first acquisition unit acquires first coordinate data indicating the coordinate position detected from the sensor unit. The second acquisition means acquires first image data to which predetermined additional information is added. That is, the first image data to which the predetermined additional information is added is recognized as image data to be associated with the position designated by the indicator, and is authenticated as image data that can be used for association. It will be a thing.

第1の関連付け手段は、第1の取得手段を通じて取得した第1の座標データに対応する表示装置部の表示画面上の位置を示す位置データと、第2の取得手段を通じて取得した第1の画像データとを関連付けて、利用可能にする。例えば、関連付けた位置データと第2の画像データとを表示装置部に提供し、当該位置データにより特定される表示画面上の位置に、第1の画像データに応じた画像を表示するといったことが可能になる。   The first associating means includes position data indicating a position on the display screen of the display unit corresponding to the first coordinate data obtained through the first obtaining means, and a first image obtained through the second obtaining means. Associate with data and make it available. For example, the associated position data and the second image data are provided to the display device unit, and an image corresponding to the first image data is displayed at a position on the display screen specified by the position data. It becomes possible.

この発明によれば、指示体により指示された位置に関連付けられる画像データを取得して表示可能にできる。これにより、ユーザが指定した座標位置に画像を迅速に取得して利用できるようにすることができる。   According to the present invention, it is possible to acquire and display image data associated with the position designated by the indicator. Thereby, an image can be quickly acquired and used at the coordinate position designated by the user.

実施の形態のタブレット型情報端末及び電子ペンの外観の一例を示す図である。It is a figure which shows an example of the external appearance of the tablet type information terminal and electronic pen of embodiment. 実施の形態のタブレット型情報端末の構成例を説明するためのブロック図である。It is a block diagram for demonstrating the structural example of the tablet type information terminal of embodiment. 図面等DB(Data Base)に格納される格納データの例を説明するための図である。It is a figure for demonstrating the example of the storage data stored in DB (Data Base), such as drawing. 写真フォルダに格納される格納データの例を説明するための図である。It is a figure for demonstrating the example of the storage data stored in a photograph folder. 実施の形態の電子ペンの構成例を説明するためのブロック図である。It is a block diagram for demonstrating the structural example of the electronic pen of embodiment. 実施の形態のタブレット型情報端末と電子ペンとの接続関係を説明するための図である。It is a figure for demonstrating the connection relation of the tablet-type information terminal and electronic pen of embodiment. タブレット型情報端末1の情報処理装置部100で実行される処理を説明するためのフローチャートである。6 is a flowchart for explaining processing executed by the information processing apparatus unit 100 of the tablet information terminal 1. 図7に続くフローチャートである。It is a flowchart following FIG. 図8に続くフローチャートである。It is a flowchart following FIG. 図9に続くフローチャートである。It is a flowchart following FIG. 点検処理時の表示画面の表示例について説明するための図である。It is a figure for demonstrating the example of a display of the display screen at the time of an inspection process. 点検処理時の表示画面の表示例について説明するための図である。It is a figure for demonstrating the example of a display of the display screen at the time of an inspection process. 点検処理時の表示画面の表示例について説明するための図である。It is a figure for demonstrating the example of a display of the display screen at the time of an inspection process. 点検処理時の表示画面の表示例について説明するための図である。It is a figure for demonstrating the example of a display of the display screen at the time of an inspection process. 表示画面上の指示位置を表示図面上の位置に変換する処理を説明するための図である。It is a figure for demonstrating the process which converts the instruction | indication position on a display screen into the position on a display drawing. 第2関連付け部が形成する関連付けデータの例を説明するための図である。It is a figure for demonstrating the example of the association data which a 2nd correlation part forms. 実施の形態の電子ペンの他の構成例を説明するためのブロック図である。It is a block diagram for demonstrating the other structural example of the electronic pen of embodiment. 実施の形態のタブレット型情報端末と図17に示した電子ペンとの接続関係を説明するための図である。It is a figure for demonstrating the connection relation of the tablet-type information terminal of embodiment and the electronic pen shown in FIG. 電子ペンの他の例を説明するための図である。It is a figure for demonstrating the other example of an electronic pen. 電子ペンのサイドスイッチの利用方法の例を説明するための図である。It is a figure for demonstrating the example of the usage method of the side switch of an electronic pen. ホバリング操作による写真の関連付け位置を確認について説明するための図である。It is a figure for demonstrating confirmation of the correlation position of the photograph by hovering operation. 写真データ及び付加情報の取得先及び取得経路について説明するための図である。It is a figure for demonstrating the acquisition destination and acquisition path | route of photograph data and additional information. 実施の形態のタブレット型情報端末が備える点検部位サーチ機能を説明するための図である。It is a figure for demonstrating the inspection site | part search function with which the tablet type information terminal of embodiment is provided. 自動的に目盛りを付した撮影画像と、目的被写体に定規を当てて被写体の大きさを把握し、手書きメモを記入した撮影画像を説明するための図である。It is a figure for demonstrating the picked-up image which automatically added the scale, and the picked-up image which applied the ruler to the target object, grasped | ascertained the magnitude | size of the object, and filled in the handwritten memo. 第2の実施の形態において、図面等DBの所定の格納エリアに格納される3Dオブジェクトデータファイルの例を説明するための図である。In 2nd Embodiment, it is a figure for demonstrating the example of the 3D object data file stored in predetermined | prescribed storage areas of DB, such as drawing. 写真フォルダに格納されている写真ファイルの具体例を説明するための図である。It is a figure for demonstrating the specific example of the photo file stored in the photo folder. 3Dオブジェクトデータと写真データとの関連付けについて説明するための図である。It is a figure for demonstrating correlation with 3D object data and photograph data. 図面等DBに格納される3D空間画像データファイルの例を説明するための図である。It is a figure for demonstrating the example of the 3D space image data file stored in DB, such as drawing. 3Dカメラユニットを備える電子ペンの外観を説明するための図である。It is a figure for demonstrating the external appearance of an electronic pen provided with a 3D camera unit. 写真フォルダに格納されている被写体の3Dオブジェクトデータファイルの具体例を説明するための図である。It is a figure for demonstrating the specific example of the 3D object data file of the to-be-photographed object stored in the photograph folder. 3D空間画像データと被写体の3Dオブジェクトデータとの関連付けについて説明するための図である。It is a figure for demonstrating correlation with 3D space image data and to-be-photographed object's 3D object data.

以下、図を参照しながら、この発明の装置、方法の実施の形態について説明する。以下おいては、情報処理装置部と表示装置部と入力装置部とが一体に構成されたタブレット型情報端末にこの発明を適用した場合を例にして説明する。   Embodiments of the apparatus and method of the present invention will be described below with reference to the drawings. Hereinafter, a case where the present invention is applied to a tablet information terminal in which an information processing device unit, a display device unit, and an input device unit are integrated will be described as an example.

[第1の実施の形態]
以下に説明する第1の実施の形態のタブレット型情報端末は、ユーザの指や電子ペンによって指示され、入力装置部が検出した指示位置に対応する表示装置部の表示画面(例えば、アプリケーションのウィンドウ画面等)上の座標位置に、画像を関連付けるようにする。この場合、関連付け対象の画像は、関連付け対象の画像であることを示す情報として所定の付加情報(関連付け画像特定情報)が付加されている画像データを取得し、この取得した画像データに応じた画像を関連付けする。
[First Embodiment]
The tablet-type information terminal according to the first embodiment described below is indicated by a display screen (for example, an application window) of a display device corresponding to an indicated position that is indicated by a user's finger or an electronic pen and detected by an input device. The image is associated with the coordinate position on the screen. In this case, the image to be associated is acquired image data to which predetermined additional information (association image specifying information) is added as information indicating that the image is to be associated, and an image corresponding to the acquired image data Associate.

これにより、関連付け対象とされた写真などの適切な画像を迅速に取得して、これを電子ペンにより指示された表示画面上の座標位置に関連付けして利用することができるものである。すなわち、以下に説明する第1の実施の形態のタブレット型情報端末は、関連付け用の特別な画像のみを取得し、この画像と電子ペンによる指示位置に応じた座標データとを関連付けて、利用することができるものである。   As a result, an appropriate image such as a photograph to be associated can be quickly acquired and associated with the coordinate position on the display screen instructed by the electronic pen. That is, the tablet-type information terminal according to the first embodiment described below acquires only a special image for association, and associates and uses this image and coordinate data corresponding to the position indicated by the electronic pen. It is something that can be done.

さらに、電子ペンから入力装置部などへ送信される信号にも認証用の第1の付加情報を付加しておく。この第1の付加情報と、写真などの画像データに付加される所定の付加情報(関連付け画像特定情報)である第2の付加情報とに基づいて、関連付け対象の画像データであって、電子ペンに関連付けられる画像データとして認証が取れた画像データを取得するようにすることもできる。そして、この取得した画像と電子ペンによる指示位置に応じた座標データとを関連付けて、利用することができる。   Further, the first additional information for authentication is also added to a signal transmitted from the electronic pen to the input device unit or the like. On the basis of the first additional information and second additional information that is predetermined additional information (association image specifying information) added to image data such as a photo, It is also possible to acquire authenticated image data as image data associated with the. Then, the acquired image can be used in association with the coordinate data corresponding to the position indicated by the electronic pen.

以下においては、電子ペンから入力装置部などへ送信される信号に付加される第1の付加情報と、関連付け対象となる写真などの画像データに付加される所定の付加情報(関連付け画像特定情報)である第2の付加情報との両方を用いる場合を中心に説明する。すなわち、関連付け対象の画像データであって、電子ペンに関連付けられる画像データとして認証が取れた画像データを取得し、この取得した画像と電子ペンによる指示位置に応じた座標データとを関連付けて利用する場合を中心に説明する。   In the following, first additional information added to a signal transmitted from the electronic pen to the input device unit and the like, and predetermined additional information added to image data such as a photograph to be associated (association image specifying information) A case where both the second additional information and the second additional information are used will be mainly described. In other words, image data that is subject to association and that has been authenticated as image data associated with the electronic pen is acquired, and the acquired image is used in association with coordinate data corresponding to the indicated position by the electronic pen. The case will be mainly described.

図1は、第1の実施の形態のタブレット型情報端末1及び電子ペン2の外観の一例を示す図である。タブレット型情報端末1は、その前面から、表示装置部200の例えばLCD(Liquid Crystal Display)などの比較的に大きな表示画面220が露呈する構成を有する。表示画面220の表面又は裏面には、表示画面220の全面に対応するように設けられたセンサ部(座標センサ)320を有する入力装置部300が搭載されている。   FIG. 1 is a diagram illustrating an example of the external appearance of a tablet information terminal 1 and an electronic pen 2 according to the first embodiment. The tablet information terminal 1 has a configuration in which a relatively large display screen 220 such as an LCD (Liquid Crystal Display) of the display device unit 200 is exposed from the front surface thereof. An input device unit 300 having a sensor unit (coordinate sensor) 320 provided so as to correspond to the entire surface of the display screen 220 is mounted on the front surface or the back surface of the display screen 220.

このため、入力装置部300は、表示装置部200の表示画面220上のどの位置を位置指示器である電子ペン2によって指し示した場合にも、その指示位置が検出できる。そして、検出したセンサ部320上の指示位置は、表示画面220上の位置に対応付けられるようになっている。また、タブレット型情報端末1の筐体内部には、表示装置部200や入力装置部300が接続され、種々の情報処理を行う情報処理装置部100が搭載されている。   Therefore, the input device unit 300 can detect the indicated position when any position on the display screen 220 of the display device unit 200 is pointed by the electronic pen 2 as a position indicator. The detected indication position on the sensor unit 320 is associated with the position on the display screen 220. In addition, a display device unit 200 and an input device unit 300 are connected inside the housing of the tablet information terminal 1 and an information processing device unit 100 that performs various information processing is mounted.

このように、タブレット型情報端末1においては、入力装置部300が入力デバイスとなり、表示装置部200が表示デバイス(出力デバイス)となっている。また、タブレット型情報端末1に対しては、電源ボタン118Aを操作することにより、電源のオン/オフをすることができるようになっている。   Thus, in the tablet type information terminal 1, the input device unit 300 is an input device, and the display device unit 200 is a display device (output device). The tablet information terminal 1 can be turned on / off by operating the power button 118A.

そして、タブレット型情報端末1において、表示画面220上で、電子ペン2により位置指示操作がされたとする。この場合、電子ペン2から位置指示信号が、入力装置部300のセンサ部320に対して送信される。そして、表示画面220の全面に対応して設けられたセンサ部320からの検出出力に基づいて、入力装置部300が備えるCPU(Central Processing Unit)などのコントローラが、センサ部320上の指示位置であって、表示画面220上での指示位置を特定する。   In the tablet information terminal 1, it is assumed that a position instruction operation is performed with the electronic pen 2 on the display screen 220. In this case, a position instruction signal is transmitted from the electronic pen 2 to the sensor unit 320 of the input device unit 300. Then, based on the detection output from the sensor unit 320 provided corresponding to the entire surface of the display screen 220, a controller such as a CPU (Central Processing Unit) included in the input device unit 300 is displayed at the indicated position on the sensor unit 320. Therefore, the designated position on the display screen 220 is specified.

また、後述もするが、この実施の形態において、電子ペン2は、自機の識別ID(ペンID)などの付加情報(第1の付加情報)を含む位置指示信号をセンサ部320に送信する。入力装置部300が備えるコントローラは、センサ部320を通じて受信する電子ペン2からの位置指示信号から第1の付加情報を抽出することができる。入力装置部300のコントローラは、特定した指示位置を示す座標データや抽出した第1の付加情報を、情報処理装置部100に供給する。情報処理装置部100は、入力装置部300からの座標データや第1の付加情報を用いて処理を行うことができる。   As will be described later, in this embodiment, the electronic pen 2 transmits a position instruction signal including additional information (first additional information) such as its own identification ID (pen ID) to the sensor unit 320. . The controller included in the input device unit 300 can extract the first additional information from the position instruction signal from the electronic pen 2 received through the sensor unit 320. The controller of the input device unit 300 supplies the coordinate data indicating the specified designated position and the extracted first additional information to the information processing device unit 100. The information processing device unit 100 can perform processing using the coordinate data from the input device unit 300 and the first additional information.

なお、第1の付加情報は、電子ペン2から入力装置部300に送信される位置指示信号に含めるのではなく、例えば、Bluetooth(登録商標)規格などの近距離無線通信によって、情報処理装置部100に送信することもできる。この場合には、電子ペン2側に近距離無線通信のための送信部を設け、情報処理装置部100側に近距離無線通信のための受信部を設ける必要がある。   Note that the first additional information is not included in the position indication signal transmitted from the electronic pen 2 to the input device unit 300, but, for example, by the short-range wireless communication such as the Bluetooth (registered trademark) standard, the information processing device unit 100 can also be transmitted. In this case, it is necessary to provide a transmission unit for short-range wireless communication on the electronic pen 2 side and a reception unit for short-range wireless communication on the information processing device unit 100 side.

情報処理装置部100は、入力装置部300を通じて受け付けたユーザからの指示入力に応じて種々の処理を行う。情報処理装置部100は、例えば、ユーザからの指示に応じて、表示画面220に設計図などのドキュメントを表示する。そして、情報処理装置部100は、写真などの画像データを取得して、表示した当該ドキュメント上のユーザにより指示された位置に、取得した写真などの画像データに応じた画像を貼りつけるようにして表示するなどのことができるようにされる。   The information processing device unit 100 performs various processes in response to an instruction input from the user received through the input device unit 300. For example, the information processing apparatus unit 100 displays a document such as a design drawing on the display screen 220 in accordance with an instruction from the user. Then, the information processing apparatus unit 100 acquires image data such as a photograph, and pastes an image corresponding to the acquired image data such as a photograph at a position designated by the user on the displayed document. It can be displayed.

電子ペン2は、入力装置部300のセンサ部320上の位置を指示する信号であって、自機の識別IDであるペンIDを含む位置指示信号を送信し、当該センサ部320上の座標位置を指示する。当該位置指示信号には、ペンIDが含まれているので、これを入力装置部300において抽出し、情報処理装置部100に通知し、これを情報処理装置部100において利用できるようにしている。この実施の形態においては、電子ペン2から送信される位置指示信号に含まれるペンIDが第1の付加情報として用いられる。   The electronic pen 2 is a signal that indicates a position on the sensor unit 320 of the input device unit 300, and transmits a position instruction signal including a pen ID that is an identification ID of the own device, and the coordinate position on the sensor unit 320 Instruct. Since the position instruction signal includes a pen ID, it is extracted by the input device unit 300 and notified to the information processing device unit 100 so that it can be used by the information processing device unit 100. In this embodiment, the pen ID included in the position indication signal transmitted from the electronic pen 2 is used as the first additional information.

また、この実施の形態の電子ペン2は、カメラユニット22を備えると共に、ケーブル24を通じてタブレット型情報端末1に対して有線接続されている。電子ペン2は、自機に搭載されたカメラユニット22を通じて被写体を撮像することにより得た画像データを、ケーブル24を通じてタブレット型情報端末1に送信できる。この場合、電子ペン2は、画像データだけでなく、画像データに対して自機の識別情報であるペンIDを付加して、タブレット型情報端末1に送信する。なお、電子ペン2からの画像データに付加されたペンIDが所定の付加情報(関連付け画像特定情報)である第2の付加情報として用いられる。   The electronic pen 2 according to this embodiment includes a camera unit 22 and is wired to the tablet information terminal 1 through a cable 24. The electronic pen 2 can transmit image data obtained by capturing an image of a subject through the camera unit 22 mounted on the device to the tablet information terminal 1 through the cable 24. In this case, the electronic pen 2 adds not only the image data but also the pen ID, which is identification information of the own device, to the image data and transmits it to the tablet information terminal 1. The pen ID added to the image data from the electronic pen 2 is used as second additional information that is predetermined additional information (association image specifying information).

これにより、タブレット型情報端末1において、電子ペン2からの位置指示信号に含まれるペンID(第1の付加情報)と、電子ペン2で撮像された画像データに付加されているペンID(第2の付加情報)とに基づいて、両者が関連付けられる。この例の場合、第1の付加情報と第2の付加情報とは共に電子ペン2のペンIDである。このため、電子ペン2のペンIDが付加された画像データは、関連付け対象の画像データであって、電子ペン2と関連付けられる認証が取れた画像データということになる。   Thereby, in the tablet-type information terminal 1, the pen ID (first additional information) included in the position instruction signal from the electronic pen 2 and the pen ID (the first additional information added to the image data captured by the electronic pen 2). 2), the two are associated with each other. In this example, the first additional information and the second additional information are both pen IDs of the electronic pen 2. For this reason, the image data to which the pen ID of the electronic pen 2 is added is image data to be associated, and is image data that has been authenticated and associated with the electronic pen 2.

図2は、この実施の形態のタブレット型情報端末1の構成例を説明するためのブロック図である。タブレット型情報端末1は、情報処理装置部100に対して、I/O(input/output)ポート130を介して表示装置部200が接続され、I/Oポート140を介して入力装置部300が接続されて構成されている。   FIG. 2 is a block diagram for explaining a configuration example of the tablet information terminal 1 of this embodiment. The tablet-type information terminal 1 is connected to the information processing apparatus unit 100 via an I / O (input / output) port 130, and the input device unit 300 is connected via an I / O port 140. Connected and configured.

情報処理装置部100は、タブレット型情報端末1の全体を制御するものであり、以下に説明するように、種々の機能部を備える。送受信アンテナ101Aと無線通信部101とは、ネットワークへの接続機能を実現する。ネットワークは、主にインターネットであるが、情報処理装置部100からインターネットまでを接続する携帯電話網や公衆電話網などの種々のネットワークを含む。   The information processing apparatus unit 100 controls the entire tablet information terminal 1 and includes various functional units as described below. The transmission / reception antenna 101A and the wireless communication unit 101 realize a function of connecting to a network. The network is mainly the Internet, but includes various networks such as a mobile phone network and a public telephone network that connect the information processing unit 100 to the Internet.

制御部102は、図示しないが、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)を備える。制御部102は、種々のプログラムを実行し、情報処理装置部100の各部と情報処理装置部100に対して接続された表示装置部200及び入力装置部300を制御する。   Although not shown, the control unit 102 includes a central processing unit (CPU), a read only memory (ROM), and a random access memory (RAM). The control unit 102 executes various programs and controls each unit of the information processing device unit 100 and the display device unit 200 and the input device unit 300 connected to the information processing device unit 100.

メモリ部103は、EEPROM(Electrically Erasable Programmable Read-Only Memory)やフラッシュメメモリなどの不揮発性メモリを備える。このメモリ部103には、例えば、設定データやアプリケーションプログラムなどのタブレット型情報端末1の電源が落とされても保持しておく必要のある情報が記憶保持される。   The memory unit 103 includes a nonvolatile memory such as an EEPROM (Electrically Erasable Programmable Read-Only Memory) or a flash memory. The memory unit 103 stores and holds information that needs to be retained even when the tablet-type information terminal 1 is turned off, such as setting data and application programs.

写真フォルダ104は、主に電子ペン2のカメラユニット22を通じて被写体を撮像することにより得られた画像データであって、ペンIDが付加された画像データを記憶保持する。なお、以下においては、カメラユニット22を通じて被写体を撮像することにより得られた画像データを写真データと記載する。この写真データが、第1の画像データであり、当該写真データに付加されたペンIDなどの付加情報が第2の付加情報である。   The photo folder 104 is image data obtained by imaging a subject mainly through the camera unit 22 of the electronic pen 2, and stores and holds image data to which a pen ID is added. In the following, image data obtained by imaging a subject through the camera unit 22 is referred to as photographic data. This photo data is first image data, and additional information such as a pen ID added to the photo data is second additional information.

また、図面等DB(Data Base)105は、タブレット型情報端末1で利用する種々の図面の画像データを記憶保持する。なお、以下においては、タブレット型情報端末1で利用する図面の画像データを図面データと記載する。この図面データが、後述もするように、写真データに応じた写真の関連付け対象となる第2の画像データである。   A drawing DB (Data Base) 105 stores and holds image data of various drawings used in the tablet information terminal 1. In the following, image data of a drawing used in the tablet information terminal 1 is referred to as drawing data. As will be described later, this drawing data is second image data to be associated with a photo according to the photo data.

図3は、図面等DB105に格納される格納データである図面ファイルの例を説明するための図である。また、図4は、写真フォルダ104に格納される格納データである写真ファイルの例を説明するための図である。まず、図3を用いて、図面等DB105の格納データについて説明する。この実施の形態のタブレット型情報端末1の図面等DB105には、当該タブレット型情報端末1を用いて点検を行う施設の設計図面を形成する図面データが記憶保持される。設計図面は、後述もするが、点検を行う施設の点検箇所を特定する場合に用いることができる施設の全体図(図3(A))と、それぞれの点検箇所の複数のエリア設計図(図3(B))とからなる。   FIG. 3 is a diagram for explaining an example of a drawing file that is stored data stored in the drawing DB 105. FIG. 4 is a diagram for explaining an example of a photo file that is stored data stored in the photo folder 104. First, data stored in the DB 105 such as a drawing will be described with reference to FIG. The drawing etc. DB 105 of the tablet information terminal 1 of this embodiment stores and holds drawing data forming a design drawing of a facility to be inspected using the tablet information terminal 1. As will be described later, the design drawing is an overall view of the facility (FIG. 3A) that can be used to specify the inspection location of the facility to be inspected, and a plurality of area design drawings of each inspection location (Fig. 3 (B)).

図面等DB105の格納データである図面ファイルは、図3(A)、(B)に示すように、設計図面を形成する図面データに対して、施設ID及び施設名称、種別、フロアー、エリアID、枝番といったメタデータが付加されたものである。なお、図3(B)に示すエリア設計図には、詳しくは後述するが基地局IDが付されている。   As shown in FIGS. 3 (A) and 3 (B), the drawing file which is the storage data of the drawing DB 105 is a facility ID and facility name, type, floor, area ID, Metadata such as branch numbers is added. Note that the area design drawing shown in FIG. 3B has a base station ID, which will be described in detail later.

この実施の形態において、施設IDは、3桁の数字である。施設名称は、施設の具体的な名称であり、図3(A)、(B)において施設名称は、「□□化学プラント」となっている。種別は、当該設計図面がどのような図面なのかを示すものであり、例えば、全体図、エリア設計図の別が示される。   In this embodiment, the facility ID is a three-digit number. The facility name is a specific name of the facility, and in FIGS. 3A and 3B, the facility name is “□□ chemical plant”. The type indicates what kind of drawing the design drawing is, and indicates, for example, an overall view or an area design drawing.

フロアー(階)は、その設計図面が対応する場所が何階なのかを示す情報である。エリアIDは、その設計図面が対応する場所(エリア)を一意に特定可能な情報である。基地局IDは、各点検対象エリアに設置されている基地局からのビーコン信号を受信し、このビーコン信号に含まれる基地局IDに基づいて、点検対象エリアを自動的に特定すると共に、対応するエリア設計図を特定する場合に用いられる情報である。   The floor (floor) is information indicating the floor number corresponding to the design drawing. The area ID is information that can uniquely identify a place (area) corresponding to the design drawing. The base station ID receives a beacon signal from a base station installed in each inspection target area, automatically specifies the inspection target area based on the base station ID included in the beacon signal, and corresponds to the base station ID. This is information used when an area design drawing is specified.

枝番は、エリアIDによって特定される場所(エリア)に対応する設計図面が複数ある場合にそれらを区別するための番号である。例えば、エリアIDが「A01」により示される場所(エリア)に、複数枚のエリア設計図面などが存在する場合に。枝番は、「01」、「02」、「03」、…のように示される。したがって、「エリアID」と「枝番」によって、各エリアのエリア設計図が一意に特定できる。   The branch number is a number for distinguishing between a plurality of design drawings corresponding to a place (area) specified by the area ID. For example, when there are a plurality of area design drawings or the like in a place (area) indicated by an area ID “A01”. Branch numbers are indicated as “01”, “02”, “03”,. Therefore, the area design drawing of each area can be uniquely specified by “area ID” and “branch number”.

なお、この実施の形態では、各点検対象エリアに設置されている基地局からのビーコン信号を受信して、点検対象エリアとエリア設計図とを特定するために基地局IDを利用するものとして説明する。しかし、これに限るものではない。例えば、点検対象エリアの入口付近に掲示されているQRコード(登録商標)やバーコードなどを、タブレット型情報端末1の図示しない撮像部を通じて読み取って、点検対象エリアを特定してもよい。この場合には、図3(B)に示した基地局IDが、QRコード(登録商標)やバーコードに対応する情報となる。   In this embodiment, it is assumed that a base station ID is used to receive a beacon signal from a base station installed in each inspection target area and specify the inspection target area and the area design drawing. To do. However, it is not limited to this. For example, the inspection target area may be identified by reading a QR code (registered trademark) or a barcode posted near the entrance of the inspection target area through an imaging unit (not shown) of the tablet information terminal 1. In this case, the base station ID shown in FIG. 3B is information corresponding to a QR code (registered trademark) or a barcode.

この他にも、赤外線信号の送信器を点検対象エリアごとに設置し、タブレット型情報端末1に赤外線通信機能を設けておく。これにより、赤外通信により点検対象エリアを特定する情報を送受するようにして、点検対象エリアとエリア設計図とを特定するように構成することもできる。また、屋内であっても、GPS機能により現在位置が正確に測位可能な場合には、当該GPS機能により測位される現在位置と全体図とに基づいて、点検対象エリアを特定し、その点検対象エリアのエリア設計図を特定するように構成することもできる。   In addition, an infrared signal transmitter is installed for each area to be inspected, and the tablet information terminal 1 is provided with an infrared communication function. Thereby, it can also comprise so that the information which specifies an inspection object area may be transmitted / received by infrared communication, and an inspection object area and an area design drawing may be specified. Even if it is indoors, if the current position can be accurately measured by the GPS function, the inspection target area is specified based on the current position measured by the GPS function and the overall view, and the inspection target It can also be configured to identify the area design drawing of the area.

そして、図面等DB105に格納される図面ファイルのうちの全体図の図面ファイルは、図3(A)に示すように、施設ID及び名称が「001:□□化学プラント」で、種別が「01:全体図」というメタデータが付されたものである。全体図の図面ファイルについてのその他の情報であるフロアー、エリアID、枝番は、空欄になっている。   Of the drawing files stored in the drawing etc. DB 105, the drawing file of the overall view has the facility ID and name “001: □□ chemical plant” and the type “01” as shown in FIG. : "Overall view" metadata. The floor, area ID, and branch number, which are other information about the drawing file of the general view, are blank.

また、図面等DB105に格納される図面ファイルのうちの全体図以外のエリア設計図などの図面データは、図3(B)に示すように、施設ID及び名称は、全体図の場合と同様である。そして、種別は例えば「02:エリア設計図」で、基地局IDは「aaa…」で、フロアーは例えば「01:1階」で、エリアIDが例えば「A01:コントロールルーム」で、枝番が例えば「01:正面」のように、各図面に対応した情報が付加される。   In addition, the drawing data such as the area design drawing other than the whole drawing in the drawing file stored in the drawing etc. DB 105 has the same facility ID and name as in the whole drawing as shown in FIG. is there. For example, the type is “02: area design drawing”, the base station ID is “aaa ...”, the floor is “01: 1 floor”, the area ID is “A01: control room”, and the branch number is, for example. For example, information corresponding to each drawing is added such as “01: front”.

このように、図面等DB105には、点検する施設についての種々の図面毎に、各図面を形成する図面データに対してメタデータが付加されることにより、図面ファイルとして記憶保持されている。なお、図面等DB105には、点検対象の施設のすべての図面についての図面ファイルを格納しておくようにしてもよいし、インターネット上のサーバ装置に点検対象の施設のすべての図面についての図面ファイルを格納しておき、必要となる図面の図面ファイルだけをダウンロードして保持しておくようにすることもできる。   In this manner, the drawing etc. DB 105 stores and holds a drawing file by adding metadata to the drawing data forming each drawing for each of the various drawings of the facility to be inspected. Note that the drawing file DB 105 may store a drawing file for all drawings of the facility to be inspected, or a drawing file for all drawings of the facility to be inspected on a server device on the Internet. Can be stored, and only a drawing file of a necessary drawing can be downloaded and held.

次に、図4を用いて、写真フォルダ104の格納データである写真ファイルについて説明する。この実施の形態のタブレット型情報端末1の写真フォルダ104には、例えば、外部の撮像装置を通じて被写体を撮像することにより得られ写真データを有する写真ファイルが記憶保持される。したがって、タブレット型情報端末1に有線接続された電子ペン2のカメラユニット22を通じて被写体を撮像することにより得られた写真データを有する写真ファイルなどが、写真フォルダ104に格納される。写真フォルダ104に格納される写真ファイルは、図4に示すように、写真データに対して、写真ID、付加情報、手書きメモデータなどが付加されて構成される。   Next, referring to FIG. 4, a photo file that is stored data in the photo folder 104 will be described. In the photo folder 104 of the tablet information terminal 1 of this embodiment, for example, a photo file having photo data obtained by imaging a subject through an external imaging device is stored and held. Therefore, a photo file having photo data obtained by capturing an image of a subject through the camera unit 22 of the electronic pen 2 connected to the tablet information terminal 1 by wire is stored in the photo folder 104. As shown in FIG. 4, the photo file stored in the photo folder 104 is configured by adding a photo ID, additional information, handwritten memo data, etc. to the photo data.

写真IDは、当該写真データを一意に特定するための識別情報であり、この実施の形態では、タブレット型情報端末1が当該写真データを取得したときに、タブレット型情報端末1において付与される情報である。付加情報は、撮影時に撮像装置において付加された情報であり、例えば、撮像日時、撮影場所、ペンIDなどの装置ID、その他の情報などからなる。   The photograph ID is identification information for uniquely identifying the photograph data, and in this embodiment, information provided in the tablet information terminal 1 when the tablet information terminal 1 acquires the photograph data. It is. The additional information is information added in the imaging device at the time of shooting, and includes, for example, the shooting date, shooting location, device ID such as a pen ID, and other information.

撮像日時は、撮像時において撮像装置の時計回路から取得される年月日及び時刻を示す情報である。撮像場所は、撮像時において撮像装置のGPS部から取得される緯度・経度である。ペンIDは、電子ペン2のカメラユニット22により撮像された画像データの場合に、付加されている情報であり、電子ペン2を一意に特定可能な電子ペンの識別情報である。なお、電子ペン2のカメラユニット22により撮像された画像データに付加される付加情報は、この実施の形態では、説明を簡単にするためペンIDのみが付加されるものとして説明する。   The imaging date and time is information indicating the date and time acquired from the clock circuit of the imaging device at the time of imaging. The imaging location is the latitude / longitude acquired from the GPS unit of the imaging device at the time of imaging. The pen ID is information added in the case of image data captured by the camera unit 22 of the electronic pen 2, and is identification information of the electronic pen that can uniquely identify the electronic pen 2. In this embodiment, the additional information added to the image data captured by the camera unit 22 of the electronic pen 2 will be described assuming that only the pen ID is added for the sake of simplicity.

すなわち、撮像日時、撮像場所、ペンIDなどのすべての情報が必ず写真データに対して付加されるものではなく、デジタルカメラで撮像された写真データにはペンIDではなく、カメラIDといった機器IDが付加されえる。また、時計回路やGPS機能を備えない撮像装置の場合には、これらの情報は付加されない。もちろん、撮像日時、撮影場所、ペンIDなどの装置IDの他にも、例えば、Exif(Exchangeable image file format)規格に準拠した種々の付加情報を付加することもできる。   That is, not all information such as imaging date / time, imaging location, and pen ID is always added to the photo data, and the photo data captured by the digital camera has a device ID such as a camera ID instead of a pen ID. Can be added. In addition, in the case of an imaging device that does not have a clock circuit or a GPS function, these pieces of information are not added. Of course, in addition to the device ID such as the shooting date and time, the shooting location, and the pen ID, for example, various additional information based on the Exif (Exchangeable image file format) standard can be added.

また、写真データに対しては、タブレット型情報端末1のユーザによって入力された手書きメモ(筆跡データ)も付加することができるようになっている。このように、写真フォルダ104に記憶保持される写真ファイルは、写真データに対して、写真IDと付加情報からなるメタデータが付加されて構成されたものであり、必要に応じて手書きメモデータを付加することもできるようになっている。   Also, handwritten memos (handwriting data) input by the user of the tablet information terminal 1 can be added to the photo data. As described above, the photo file stored and held in the photo folder 104 is configured by adding metadata including a photo ID and additional information to the photo data. It can also be added.

そして、上述もしたが、写真フォルダ104に記憶保持されている写真ファイルの写真データが、第1の画像データであり、図面等DB105に記憶保持されている図面ファイルの図面データが第2の画像データである。また、後述もするが、電子ペン2からの位置指示信号に含まれるペンIDが第1の付加情報であり、写真フォルダ104に記憶保持されている写真ファイルの写真データに付加されている付加情報が第2の付加情報であり、特にペンIDが第2の付加情報として重要である。   As described above, the photo data of the photo file stored and held in the photo folder 104 is the first image data, and the drawing data of the drawing file stored and held in the DB 105 such as the drawing is the second image data. It is data. As will be described later, the pen ID included in the position indication signal from the electronic pen 2 is the first additional information, and additional information added to the photo data of the photo file stored and held in the photo folder 104. Is the second additional information, and the pen ID is particularly important as the second additional information.

次に、情報処理装置部100の各処理部について説明する。写真取得部106は、後述する入力装置部300のセンサ部320に対して位置指示を行った電子ペン2と関連付けられる写真データを写真フォルダ104から取得する処理を行う。第1関連付け部107は、電子ペン2によって位置指示された入力装置部300のセンサ部320上の座標位置に対応する表示装置部200の表示画面220上の座標位置(座標データ)と、写真取得部106によって取得された写真データとを関連付ける処理を行う。   Next, each processing unit of the information processing apparatus unit 100 will be described. The photo acquisition unit 106 performs processing for acquiring photo data associated with the electronic pen 2 that has given a position instruction to the sensor unit 320 of the input device unit 300 described later from the photo folder 104. The first associating unit 107 obtains a coordinate position (coordinate data) on the display screen 220 of the display device unit 200 corresponding to the coordinate position on the sensor unit 320 of the input device unit 300 pointed to by the electronic pen 2, and a photograph. A process of associating with the photograph data acquired by the unit 106 is performed.

上述したように、入力装置部300のセンサ部320と表示装置部200の表示画面220とは、重畳配置されており、センサ部320の検出エリアと表示画面220の表示エリアとは一致している。このため、センサ部320上の指示位置は、一意に表示画面220上の位置に対応しており、センサ部320上の指示位置に対応する表示画面220上の位置は、一意に特定することができるようになっている。   As described above, the sensor unit 320 of the input device unit 300 and the display screen 220 of the display device unit 200 are arranged so as to overlap with each other, and the detection area of the sensor unit 320 and the display area of the display screen 220 coincide with each other. . For this reason, the indicated position on the sensor unit 320 uniquely corresponds to the position on the display screen 220, and the position on the display screen 220 corresponding to the indicated position on the sensor unit 320 can be uniquely specified. It can be done.

写真関連付け部108は、第1関連付け部107によって関連付けられた座標位置と写真データとを用い、当該座標位置に対する表示装置部200の表示画面220上の位置に、当該写真データに応じた画像を関連付けて(貼り付けて)表示する処理を行う。撮像制御部109は、有線接続された電子ペン2のカメラユニット22を制御する処理を行う。   The photo associating unit 108 associates an image corresponding to the photo data with a position on the display screen 220 of the display device unit 200 with respect to the coordinate position using the coordinate position and the photo data associated with each other by the first associating unit 107. (Paste) display processing. The imaging control unit 109 performs processing for controlling the camera unit 22 of the electronic pen 2 connected by wire.

ファインダ制御部110は、有線接続された電子ペン2のカメラユニットを通じて被写体を撮像する場合に、電子ペン2のカメラユニット22が捉えている被写体の映像(動画像)を、表示装置部200の表示画面に表示エリアを設けて表示する処理を行う。電子ペン2は、一般的な万年筆やボールペンとほぼ同じ大きさ、形状のものであり、電子ペン2には、いわゆるファインダとして機能する表示部を設けることができないためである。   When the finder control unit 110 captures an image of a subject through the camera unit of the electronic pen 2 connected by wire, the finder control unit 110 displays a video (moving image) of the subject captured by the camera unit 22 of the electronic pen 2 on the display device unit 200. A display area is provided on the screen and displayed. This is because the electronic pen 2 has approximately the same size and shape as a general fountain pen or ballpoint pen, and the electronic pen 2 cannot be provided with a display unit that functions as a so-called finder.

図面取得部111は、タブレット型情報端末1のユーザからの指示に応じて、あるいは、タブレット型情報端末1の所在位置に応じて、点検すべき施設の全体図や点検場所のエリア設計図などを形成する図面データを、図面等DB105から取得する処理を行う。図面表示処理部112は、図面取得部111によって取得した図面データに応じた図面を表示装置部200の表示画面220に表示したり、ユーザからの指示に応じて、表示した図面を、拡大/縮小したり、表示部分をずらしたり(移動したり)するなどの処理を行う。   The drawing acquisition unit 111 displays an overall view of the facility to be inspected, an area design drawing of the inspection place, etc. according to an instruction from the user of the tablet information terminal 1 or according to the location of the tablet information terminal 1. A process of acquiring drawing data to be formed from the drawing etc. DB 105 is performed. The drawing display processing unit 112 displays a drawing corresponding to the drawing data acquired by the drawing acquiring unit 111 on the display screen 220 of the display device unit 200, or enlarges / reduces the displayed drawing according to an instruction from the user. Or shifting the display part (moving).

座標変換部113は、電子ペン2によって位置指示された入力装置部300のセンサ部320上の座標位置を、表示装置部200の表示画面に表示された図面上の座標位置に変換する処理を行う。第2関連付け部114は、第2の画像データである図面データと、座標変換部113により変換された当該図面上の座標位置と、第1の画像データである写真データとを関連付ける処理を行う。   The coordinate conversion unit 113 performs a process of converting the coordinate position on the sensor unit 320 of the input device unit 300 instructed by the electronic pen 2 into the coordinate position on the drawing displayed on the display screen of the display device unit 200. . The second association unit 114 performs a process of associating the drawing data as the second image data, the coordinate position on the drawing converted by the coordinate conversion unit 113, and the photographic data as the first image data.

ここで、図面データは、図面表示処理部112によって表示装置部200の表示画面に表示された設計図面を形成するものである。図面上の座標位置は、座標変換部113によって変換された電子ペン2の指示位置に対応する表示画面に表示された図面上の座標位置である。第1の画像データである写真データは、写真取得部106によって取得されたものである。これにより、目的とする図面上の目的とする座標位置に、写真データに応じた画像を関連付ける(貼り付ける)ことができるようにされる。   Here, the drawing data forms a design drawing displayed on the display screen of the display device unit 200 by the drawing display processing unit 112. The coordinate position on the drawing is a coordinate position on the drawing displayed on the display screen corresponding to the designated position of the electronic pen 2 converted by the coordinate conversion unit 113. The photograph data that is the first image data is acquired by the photograph acquisition unit 106. As a result, an image corresponding to the photograph data can be associated (pasted) with the target coordinate position on the target drawing.

写真表示処理部115は、写真取得部106によって取得された写真データに応じた画像(写真)を表示装置部200の表示画面220に表示する処理を行う。そして、編集処理部116は、写真表示処理部115により表示装置部200の表示画面220に表示された画像の拡大/縮小、移動などの編集処理を行う。モード切替部117は、電子ペン2による入力装置部300のセンサ部320への指示操作が、撮影した写真などの関連付け位置を指示する操作になる写真関連付けモード、写真の編集モード、通常の処理モードなど、各処理モードの切り替え制御を行う。   The photo display processing unit 115 performs a process of displaying an image (photo) corresponding to the photo data acquired by the photo acquisition unit 106 on the display screen 220 of the display device unit 200. Then, the editing processing unit 116 performs editing processing such as enlargement / reduction and movement of the image displayed on the display screen 220 of the display device unit 200 by the photo display processing unit 115. The mode switching unit 117 includes a photo association mode, a photo editing mode, and a normal processing mode in which an instruction operation to the sensor unit 320 of the input device unit 300 using the electronic pen 2 is an operation of instructing an association position of a photograph that is taken For example, the switching control of each processing mode is performed.

操作部118は、電源ボタン118Aや幾つかのファンクションキーを備えた部分である。外部I/F(I/FはInterfaceの略称)119は、外部機器の接続を受け付け、当該外部機器との間でデータの送受信を可能にする。近距離無線通信部120及び近距離無線通信アンテナ120Aは、例えば、Wi−Fi(登録商標)規格の無線LAN(Local Area Network)により近距離通信を可能にする部分である。   The operation unit 118 includes a power button 118A and some function keys. An external I / F (I / F is an abbreviation for Interface) 119 accepts connection of an external device and enables data transmission / reception with the external device. The short-range wireless communication unit 120 and the short-range wireless communication antenna 120 </ b> A are parts that enable short-range communication by, for example, a Wi-Fi (registered trademark) wireless LAN (Local Area Network).

I/Oポート130、140は、I2C(Inter-Integrated Circuit)やUSB(Universal Serial Bus)などの所定の通信方式に合致した入出力ポートである。I/Oポート130は、情報処理装置部100と表示装置部200との間のデータの送受を可能にし、I/Oポート140は、情報処理装置部100と入力装置部300との間のデータの送受を可能にする。   The I / O ports 130 and 140 are input / output ports that match a predetermined communication method such as I2C (Inter-Integrated Circuit) or USB (Universal Serial Bus). The I / O port 130 enables transmission / reception of data between the information processing device unit 100 and the display device unit 200, and the I / O port 140 is data between the information processing device unit 100 and the input device unit 300. Allows sending and receiving.

表示装置部200は、コントローラ210と、例えば、LCD(Liquid Crystal Display)や有機EL(Organic Electro-Luminescence)ディスプレイなどの薄型の表示画面(表示素子)とからなる。コントローラ210は、CPU、不揮発性メモリを備えたマイクロプロセッサである。   The display device unit 200 includes a controller 210 and a thin display screen (display element) such as an LCD (Liquid Crystal Display) or an organic EL (Organic Electro-Luminescence) display. The controller 210 is a microprocessor including a CPU and a nonvolatile memory.

入力装置部300は、コントローラ310とセンサ部320とからなる。コントローラ310は、CPU、不揮発性メモリを備えたマイクロプロセッサである。センサ部320は、X軸方向(横方向)に配置された導電線群と、Y軸方向(縦方向)に配置された導電線群とが積層されて構成された部分である。入力装置部300は、電子ペン2からの位置指示信号をセンサ部320で受信し、センサ部320上のどの位置において位置指示信号を受信したかを、コントローラ310を用いて検出する。また、コントローラ310は、センサ部320を通じて受信した電子ペン2からの位置指示信号に含まれるペンIDなどの付加情報や筆圧を示す情報などを抽出する。   The input device unit 300 includes a controller 310 and a sensor unit 320. The controller 310 is a microprocessor including a CPU and a nonvolatile memory. The sensor unit 320 is a portion formed by stacking conductive wire groups arranged in the X-axis direction (lateral direction) and conductive wire groups arranged in the Y-axis direction (vertical direction). The input device unit 300 receives the position instruction signal from the electronic pen 2 by the sensor unit 320, and uses the controller 310 to detect at which position on the sensor unit 320 the position instruction signal is received. In addition, the controller 310 extracts additional information such as a pen ID and information indicating writing pressure included in the position instruction signal from the electronic pen 2 received through the sensor unit 320.

そして、入力装置部300のコントローラ310は、検出した指示位置に対応する座標データや抽出した付加情報や筆圧情報を情報処理装置部100に供給する。また、入力装置部300の構成としては、電磁誘導方式や静電容量方式などが存在し、電子ペン2も入力装置部300が採用する方式に対応するものとなる。   Then, the controller 310 of the input device unit 300 supplies the coordinate data corresponding to the detected indication position, the extracted additional information, and writing pressure information to the information processing device unit 100. In addition, as the configuration of the input device unit 300, there are an electromagnetic induction method, a capacitance method, and the like, and the electronic pen 2 corresponds to the method adopted by the input device unit 300.

図5は、この実施の形態の電子ペン2の構成例を説明するためのブロック図である。図5に示すように、電子ペン2は、電子ペン機能部21と、カメラユニット22と、I/F(Interface)23とからなる。電子ペン機能部21は、ペンIDを記憶したメモリ21Mを備え、ペン先がタブレット型情報端末1のセンサ部上に接触するようにされると、筆圧を検出し、当該筆圧とペンIDを含む位置指示信号を形成して送信する。   FIG. 5 is a block diagram for explaining a configuration example of the electronic pen 2 according to this embodiment. As shown in FIG. 5, the electronic pen 2 includes an electronic pen function unit 21, a camera unit 22, and an I / F (Interface) 23. The electronic pen function unit 21 includes a memory 21M that stores a pen ID. When the pen tip is brought into contact with the sensor unit of the tablet information terminal 1, the pen pressure is detected, and the pen pressure and the pen ID are detected. A position indicating signal including is formed and transmitted.

電子ペン2のカメラユニット22は、CCDやCMOSイメージセンサなどの撮像素子、フレームメモリ、対物レンズ、コントローラなどを備える。そして、カメラユニット22は、被写体の画像を取り込むようにし、これを動画像データとしてタブレット型情報端末1に供給したり、タブレット型情報端末1からの制御に応じて、被写体の画像を静止画像データとして取り込んで、これをタブレット型情報端末1に供給したりする。なお、被写体を撮像することにより得た静止画像データ(写真データ)には、メモリ21Mに記憶保持されているペンIDが付加される。   The camera unit 22 of the electronic pen 2 includes an image sensor such as a CCD or CMOS image sensor, a frame memory, an objective lens, a controller, and the like. Then, the camera unit 22 captures an image of the subject and supplies it to the tablet information terminal 1 as moving image data, or converts the image of the subject into still image data in accordance with control from the tablet information terminal 1. And supply it to the tablet-type information terminal 1. Note that the pen ID stored in the memory 21M is added to still image data (photo data) obtained by imaging the subject.

I/F23は、タブレット型情報端末1との間でのデータの送受信を可能にする。I/F23は、カメラユニット22からの写真データをタブレット型情報端末1に送信するだけでなく、タブレット型情報端末1からの制御信号を受信してカメラユニット22のコントローラに供給し、タブレット型情報端末1を通じてカメラユニット22を制御することができるようにしている。   The I / F 23 enables data transmission / reception with the tablet information terminal 1. The I / F 23 not only transmits the photographic data from the camera unit 22 to the tablet information terminal 1, but also receives a control signal from the tablet information terminal 1 and supplies it to the controller of the camera unit 22, so that the tablet information The camera unit 22 can be controlled through the terminal 1.

図6は、この実施の形態のタブレット型情報端末1と電子ペン2との接続関係を説明するための図である。図6に示すように、情報処理装置部100に対しては、I/Oポート140を通じて入力装置部300が接続されている。このため、入力装置部300のセンサ部320上に電子ペン2を接触させるようにすると、電子ペン2から位置指示信号がセンサ部320で受信され、コントローラ310を通じて指示位置を示す座標データ(X,Y)が検出されると共に、筆圧PS、ペンIDが抽出され、これらが情報処理装置部100に供給されるようになっている。   FIG. 6 is a diagram for explaining a connection relationship between the tablet information terminal 1 and the electronic pen 2 according to this embodiment. As shown in FIG. 6, an input device unit 300 is connected to the information processing device unit 100 through an I / O port 140. For this reason, when the electronic pen 2 is brought into contact with the sensor unit 320 of the input device unit 300, a position instruction signal is received from the electronic pen 2 by the sensor unit 320, and coordinate data (X, Y) is detected, and the writing pressure PS and the pen ID are extracted and supplied to the information processing apparatus unit 100.

また、電子ペン2のI/F23と情報処理装置部100の外部I/F119とがケーブル24によって接続されている。このため、電子ペン2のカメラユニット22を通じて撮影された画像の写真データや付加情報としてのペンIDなどが、ケーブル24を通じて情報処理装置部100に供給される。また、情報処理装置部100から電子ペン2に対する撮像を指示する制御信号などが、ケーブル24を通じてカメラユニット22に供給されるようになっている。   Further, the I / F 23 of the electronic pen 2 and the external I / F 119 of the information processing apparatus unit 100 are connected by a cable 24. For this reason, photograph data of an image taken through the camera unit 22 of the electronic pen 2, pen ID as additional information, and the like are supplied to the information processing apparatus unit 100 through the cable 24. In addition, a control signal for instructing imaging with respect to the electronic pen 2 from the information processing apparatus unit 100 is supplied to the camera unit 22 through the cable 24.

このように、タブレット型情報端末1と電子ペン2とは、入力装置部300を通じて座標の指示入力が行われる座標指示系統によって接続される。また、タブレット型情報端末1と電子ペン2とは、外部I/F119とI/F23とをケーブル24を通じて接続した系統であって、主に写真データの入力が行われる写真入力系統によって接続される。タブレット型情報端末1と電子ペン2とは、これら2系統によって接続可能にされ、それぞれの系統で異なる情報の送受ができるようになっている。   As described above, the tablet-type information terminal 1 and the electronic pen 2 are connected by a coordinate instruction system in which a coordinate instruction is input through the input device unit 300. The tablet-type information terminal 1 and the electronic pen 2 are a system in which an external I / F 119 and an I / F 23 are connected through a cable 24, and are connected by a photo input system that mainly inputs photo data. . The tablet-type information terminal 1 and the electronic pen 2 can be connected by these two systems, and different information can be transmitted and received in each system.

図1〜図6を用いて説明したこの実施の形態のタブレット型情報端末1と電子ペン2とを用いることにより、所定の施設の点検作業を適切に行うことができるようにされる。点検作業にあたっては、タブレット型情報端末1において、点検処理(点検作業用アプリケーション)を実行する。以下においては、この実施の形態のタブレット型情報端末1において行われる点検処理について、具体的に説明する。   By using the tablet-type information terminal 1 and the electronic pen 2 of this embodiment described with reference to FIGS. 1 to 6, a predetermined facility can be inspected appropriately. In the inspection work, an inspection process (application for inspection work) is executed in the tablet information terminal 1. Below, the inspection process performed in the tablet information terminal 1 of this embodiment is demonstrated concretely.

図7〜図10は、タブレット型情報端末1の情報処理装置部100で実行される処理を説明するためのフローチャートである。また、図11〜図14は、点検処理が実行された場合に、情報処理装置部100により表示装置部200の表示画面に表示される画像の表示例について説明するための図である。   7 to 10 are flowcharts for explaining processing executed by the information processing apparatus unit 100 of the tablet information terminal 1. FIGS. 11 to 14 are diagrams for describing display examples of images displayed on the display screen of the display device unit 200 by the information processing device unit 100 when the inspection process is executed.

タブレット型情報端末1の操作部118の電源ボタン118Aが操作されて、タブレット型情報端末1に電源が投入されると、図7〜図10に示す処理が、情報処理装置部100の制御部102において実行される。まず、制御部102は、自機において実行可能な処理(アプリケーション)に対応した複数のアイコンが表示された初期画面を表示装置部200の表示画面に表示する処理を行う(ステップS101)。次に、制御部102は、入力装置部300や操作部118を通じて、アイコンの選択入力などの操作入力を受け付ける(ステップS102)。   When the power button 118A of the operation unit 118 of the tablet information terminal 1 is operated and the tablet information terminal 1 is turned on, the processing illustrated in FIGS. 7 to 10 is performed by the control unit 102 of the information processing apparatus unit 100. Executed in First, the control unit 102 performs a process of displaying an initial screen on which a plurality of icons corresponding to a process (application) that can be executed in the own device is displayed on the display screen of the display device unit 200 (step S101). Next, the control unit 102 receives an operation input such as an icon selection input through the input device unit 300 and the operation unit 118 (step S102).

そして、制御部102は、ステップS102において、処理の終了を指示する操作入力を受け付けたか否かを判別する(ステップS103)。制御部102は、ステップS103の判別処理において、例えば、電源ボタン118Aを操作するなどの所定の終了操作が行われたと判別した時には、タブレット型情報端末1の電源を落とすようにする所定の終了処理を実行し(ステップS104)、この図7〜図10に示す処理を終了する。   Then, in step S102, the control unit 102 determines whether an operation input instructing the end of the process has been received (step S103). When the control unit 102 determines in the determination process in step S103 that a predetermined end operation such as, for example, operating the power button 118A has been performed, the predetermined end process for turning off the tablet-type information terminal 1 is performed. Is executed (step S104), and the processing shown in FIGS.

ステップS103の判別処理において、所定の終了操作は行われていないと判別した時には、点検処理を実行するためのアイコンが選択されたか否かを判別する(ステップS105)。ステップS105の判別処理において、点検処理を実行するためのアイコンは選択されていないと判別したときには、ユーザによって選択されたアイコンに対応する処理を実行し(ステップS106)、当該処理が終了したら、ステップS101からの処理を繰り返すようにする。   In the determination process of step S103, when it is determined that the predetermined end operation has not been performed, it is determined whether or not an icon for executing the inspection process has been selected (step S105). In the determination process of step S105, when it is determined that the icon for executing the inspection process is not selected, a process corresponding to the icon selected by the user is executed (step S106). The processing from S101 is repeated.

そして、ステップS105の判別処理において、点検処理を実行するためのアイコンが選択されたと判別したとする。この場合、まず、制御部102は、メモリ部103に予め登録されている、当該タブレット型情報端末1を用いて点検作業が行える施設の一覧リストである点検施設選択画面を表示装置部200の表示画面に表示する(ステップS107)。   Then, in the determination process in step S105, it is determined that an icon for executing the inspection process is selected. In this case, first, the control unit 102 displays an inspection facility selection screen, which is a list of facilities that can be inspected using the tablet information terminal 1 registered in the memory unit 103 in advance, on the display device unit 200. It is displayed on the screen (step S107).

図11(A)は、ステップS107で表示される点検施設選択画面の例を説明するための図である。図11(A)に示した点検施設選択画面では、タブレット型情報端末1を用いて点検作業が行える施設の施設IDと施設名称の一覧が表示される。当該一覧の表示では、選択カーソルCSが、最上位の施設IDと名称の表示欄に位置付けられ、点検を行う施設の選択が可能にされる。   FIG. 11A is a diagram for explaining an example of the inspection facility selection screen displayed in step S107. In the inspection facility selection screen shown in FIG. 11A, a list of facility IDs and facility names of facilities that can be inspected using the tablet-type information terminal 1 is displayed. In the display of the list, the selection cursor CS is positioned in the display column for the highest-level facility ID and name, and the facility to be inspected can be selected.

すなわち、目的とする施設の施設IDと施設名称の表示欄に電子ペン2のペン先を接触させるようにすることにより、当該指示位置に応じた座標データが入力装置部300から情報処理装置部100に供給される。これにより、制御部102は、入力装置部300から座標データに基づいて、選択カーソルCSを、電子ペン2により指示された位置の施設IDと施設名称の表示欄に位置付けることができる。このように、ユーザは、選択カーソルCSを、目的とする施設IDと施設名称の表示欄に位置付けることができる。   That is, by bringing the pen tip of the electronic pen 2 into contact with the display field of the facility ID and facility name of the target facility, coordinate data corresponding to the designated position is transferred from the input device unit 300 to the information processing device unit 100. To be supplied. As a result, the control unit 102 can position the selection cursor CS in the facility ID and facility name display column indicated by the electronic pen 2 based on the coordinate data from the input device unit 300. Thus, the user can position the selection cursor CS in the display column of the target facility ID and facility name.

そして、点検施設選択画面の下端側には「戻る」ボタンB1と「OK」ボタンB2とが表示され、そのそれぞれに対して電子ペン2により操作入力を行うことができる。制御部102は、入力装置部300を通じて、選択カーソルCSの移動操作や「戻る」ボタンB1や「OK」ボタンB2に対する操作入力を受け付ける。ステップS108では、「戻る」ボタンB1か「OK」ボタンB2が操作されるまで操作入力が求められる。   A “return” button B1 and an “OK” button B2 are displayed on the lower end side of the inspection facility selection screen, and an operation input can be performed with the electronic pen 2 for each of them. The control unit 102 receives an operation input to the selection cursor CS and an operation input to the “return” button B1 and the “OK” button B2 through the input device unit 300. In step S108, operation input is requested until the “return” button B1 or the “OK” button B2 is operated.

そして、制御部102は、ステップS108において、「戻る」ボタンが操作されたか否かを判別する(ステップS109)。ステップS109の判別処理において、「戻る」ボタンB1が操作されたと判別した時には、制御部102は、ステップS101からの処理を繰り返すようにする。これにより、ユーザは、再度、目的とする処理を選択して、実行するように操作を行うことができるようにされる。   Then, in step S108, the control unit 102 determines whether or not the “return” button has been operated (step S109). When it is determined in the determination process in step S109 that the “return” button B1 has been operated, the control unit 102 repeats the process from step S101. As a result, the user can select the target process again and perform an operation to execute it.

ステップS109の判別処理において、「戻る」ボタンB1は操作されていないと判別された時には、「OK」ボタンB2が操作されたと判別し、制御部102は、選択カーソルCSが位置付けられている施設IDと施設名称によって特定される施設を、点検対象の施設として特定する。この実施の形態においては、図11(A)に示したように、最上段の施設IDが「001」で、施設名称が「□□化学プラント」の表示欄に選択カーソルCSが位置付けられて、「OK」ボタンB2が操作されて選択されたとする。   When it is determined that the “return” button B1 is not operated in the determination process of step S109, it is determined that the “OK” button B2 is operated, and the control unit 102 determines the facility ID where the selection cursor CS is positioned. The facility identified by the facility name is identified as the facility to be inspected. In this embodiment, as shown in FIG. 11A, the selection cursor CS is positioned in the display column where the facility ID at the top row is “001” and the facility name is “□□ chemical plant”. It is assumed that the “OK” button B2 is selected by operating.

この場合、制御部102は、施設IDが「001」の「□□化学プラント」の全体図を、表示装置部200の表示画面220に表示する処理を行う(ステップS110)。ステップS110において制御部102は、まず、図面取得部111を制御し、選択された施設IDが「001」の「□□化学プラント」の全体図の図面データを、図面等DB105から取得する。次に、制御部102は、図面表示処理部112を制御し、図面取得部111が取得した図面データに応じた全体図を、表示装置部200の表示画面220に表示する。   In this case, the control unit 102 performs a process of displaying an overall view of “□□ chemical plant” with the facility ID “001” on the display screen 220 of the display device unit 200 (step S110). In step S <b> 110, the control unit 102 first controls the drawing acquisition unit 111 to acquire the drawing data of the entire diagram of “□□ chemical plant” with the selected facility ID “001” from the drawing DB 105. Next, the control unit 102 controls the drawing display processing unit 112 to display an overall view corresponding to the drawing data acquired by the drawing acquisition unit 111 on the display screen 220 of the display device unit 200.

図11(B)は、ステップS110で表示される、点検する施設(点検対象施設)として選択された施設IDが「001」で、名称が「□□化学プラント」である施設の全体図の表示例を説明するための図である。図11(B)に示した施設の全体図は、各階の見取り図として示した場合の例である。   FIG. 11B is a table of an overall view of the facility displayed in step S110, with the facility ID selected as the facility to be inspected (the facility to be inspected) having “001” and the name “□□ chemical plant”. It is a figure for demonstrating an example. The general view of the facility shown in FIG. 11B is an example in the case of being shown as a floor plan of each floor.

図11(B)に示すように、施設IDが「001」で、名称が「□□化学プラント」である施設は、3階建ての建物であり、1階は6つのエリアが、2階は7つのエリアが、3階は6つのエリアがあることが示されている。制御部102は、表示装置部200の表示画面220に表示された全体図や操作ボタンの表示及び入力装置部300を通じて、点検対象エリアの選択入力などの操作入力を受け付けるようにする(ステップS111)。   As shown in FIG. 11B, the facility with the facility ID “001” and the name “□□ chemical plant” is a three-story building, with six areas on the first floor and two on the second floor. Seven areas are shown with six areas on the third floor. The control unit 102 receives an operation input such as a selection input for the inspection target area through the overall view and operation button display displayed on the display screen 220 of the display device unit 200 and the input device unit 300 (step S111). .

この実施の形態のタブレット型情報端末1においては、点検対象エリアの選択は、2つの方法のいずれかを用いて行うことができるようにされている。第1の方法は、図11(B)に示した点検対象施設の全体図において、点検しようとするエリアの表示位置に電子ペン2のペン先を接触させるようにして、点検対象エリアを選択する方法である。第2の方法は、点検対象となるエリアに予め設置されている送信機(基地局)から送信される所定のビーコン信号を受信し、このビーコン信号に含まれる基地局IDに基づいて、点検対象エリアを選択する方法である。   In the tablet type information terminal 1 of this embodiment, the selection of the inspection target area can be performed using one of two methods. In the first method, the inspection target area is selected by bringing the pen tip of the electronic pen 2 into contact with the display position of the area to be checked in the overall view of the inspection target facility shown in FIG. Is the method. The second method receives a predetermined beacon signal transmitted from a transmitter (base station) installed in advance in an area to be inspected, and based on a base station ID included in this beacon signal, This is a method of selecting an area.

第2の方法を実行する場合には、図11(B)に示した「サーチ」ボタンB3を電子ペン2で選択する操作を行うことになる。また、図11(B)に示した点検対象施設の全体図の表示画面においても、「戻る」ボタンB1と「OK」ボタンB2とが表示され、電子ペン2を通じて操作可能になっている。ステップS111の操作入力受付処理では、「戻る」ボタンB1が操作されるか、「サーチ」ボタンB3が操作されるか、電子ペン2を用いて点検対象エリアを選択した後に「OK」ボタンB2が操作されるまで、操作入力が求められる。   When executing the second method, an operation of selecting the “search” button B3 shown in FIG. In addition, the “return” button B1 and the “OK” button B2 are also displayed on the display screen of the overall view of the inspection target facility shown in FIG. 11B and can be operated through the electronic pen 2. In the operation input acceptance process in step S111, the “OK” button B2 is operated after the “return” button B1 is operated, the “search” button B3 is operated, or the inspection target area is selected using the electronic pen 2. Operation input is required until it is operated.

ステップS111において、例えば、電子ペン2を用いて、エリアIDが「A01」である1階のエリアを点検対象エリアとして指定したとする。この場合、図11(B)において斜線を付して示したように、当該エリアが例えば反転表示されてタブレット型情報端末1のユーザに通知される。この場合、他のエリアを選択し直せば、新たに選択されたエリアが反転され、エリアIDが「A01」のエリアの表示は通常の表示に戻される。そして、「OK」ボタンが電子ペン2により選択された場合に、電子ペン2により選択されたエリアが、点検対象エリアとして特定される。   In step S111, for example, it is assumed that the area on the first floor having the area ID “A01” is designated as the inspection target area using the electronic pen 2. In this case, as indicated by hatching in FIG. 11B, the area is highlighted, for example, and notified to the user of the tablet information terminal 1. In this case, if another area is selected again, the newly selected area is inverted, and the display of the area with the area ID “A01” is returned to the normal display. When the “OK” button is selected by the electronic pen 2, the area selected by the electronic pen 2 is specified as the inspection target area.

また、ステップS111において、「サーチ」ボタンB3が操作された場合には、後述するように、ビーコンを用いた点検エリアの検出処理が行われることになる。また、ステップS111においては、「戻る」ボタンB1の操作も可能である。このため、ステップS111の操作入力受付処理の後において、制御部102は、図8の処理に進み、入力装置部300からの座標データに基づいて、ステップS111で受け付けた操作入力は、「サーチ」ボタンB3に対する操作入力か否かを判別する(ステップS112)。   In addition, when the “search” button B3 is operated in step S111, an inspection area detection process using a beacon is performed as described later. In step S111, the “return” button B1 can also be operated. For this reason, after the operation input reception process of step S111, the control unit 102 proceeds to the process of FIG. 8, and the operation input received in step S111 based on the coordinate data from the input device unit 300 is “search”. It is determined whether or not the operation input is for the button B3 (step S112).

ステップS112の判別処理において、「サーチ」ボタンB3に対する操作入力を受け付けたと判別したときには、制御部102は、近距離無線通信部120を制御して、ビーコン信号を用いた点検対象エリアの検出処理を実行する(ステップS113)。点検の対象となる各エリアには、そのエリア内においては所定値以上の受信強度で受信が可能なようにビーコン信号を送信する基地局が予め設置されている。このため、ステップS113において、制御部102は、近距離無線通信アンテナ120A及び近距離無線通信部120を通じて、点検の対象となるエリアに予め設置されている基地局からのビーコン信号を受信するようにする。   When it is determined in the determination process of step S112 that an operation input for the “search” button B3 has been received, the control unit 102 controls the short-range wireless communication unit 120 to perform the inspection target area detection process using the beacon signal. Execute (Step S113). In each area to be inspected, a base station that transmits a beacon signal is installed in advance so that reception can be performed at a reception intensity equal to or higher than a predetermined value in the area. For this reason, in step S113, the control unit 102 receives a beacon signal from a base station installed in advance in an area to be inspected through the short-range wireless communication antenna 120A and the short-range wireless communication unit 120. To do.

制御部102は、受信強度が一定値以上のビーコン信号が受信できた場合に、そのビーコン信号に含まれる基地局IDを抽出する。この抽出した基地局IDに基づいて、制御部102は、自機のメモリ部103に予め格納されている基地局IDと点検対象エリアとの対応付け表を参照し、点検対象エリアを特定する。例えば、エリアIDが「A01」である1階のエリアが点検対象エリアとして特定された場合には、図11(B)において斜線を付して示したように、当該エリアが例えば反転表示されてタブレット型情報端末1のユーザに通知される。   When receiving a beacon signal having a reception intensity equal to or greater than a certain value, the control unit 102 extracts a base station ID included in the beacon signal. Based on the extracted base station ID, the control unit 102 refers to the association table of the base station ID and the inspection target area stored in advance in the memory unit 103 of the own device, and identifies the inspection target area. For example, when an area on the first floor whose area ID is “A01” is specified as an inspection target area, the area is highlighted, for example, as shown by hatching in FIG. The user of the tablet information terminal 1 is notified.

なお、この実施の形態では、第2の方法として、基地局からのビーコン信号を用いて点検対象エリアを特定する場合を説明したが、これに限るものではない。ステップS113の処理においては、上述もしたように、QRコード(登録商標)やバーコードなどを用いたり、赤外線通信を用いたり、GPS機能を利用するなど、種々の方法により点検対象エリアを特定することが可能である。   In this embodiment, the case where the inspection target area is specified using the beacon signal from the base station has been described as the second method. However, the present invention is not limited to this. In the process of step S113, as described above, the inspection target area is specified by various methods such as using a QR code (registered trademark) or a bar code, using infrared communication, or using a GPS function. It is possible.

また、ステップS112の判別処理において、「サーチ」ボタンB3に対する操作入力は受け付けていないと判別したときには、制御部102は、「戻る」ボタンB1が操作されたか否かを判別する(ステップS114)。ステップS114の判別処理において、「戻る」ボタンが操作されたと判別したときは、制御部102は、図7のステップS107からの処理を繰り返すようにする。これにより、タブレット型情報端末1のユーザは、点検対象とする施設の選択からもう一度やり直すことができるようにされる。   If it is determined in the determination process in step S112 that no operation input for the “search” button B3 is accepted, the control unit 102 determines whether or not the “return” button B1 has been operated (step S114). If it is determined in the determination process in step S114 that the “return” button has been operated, the control unit 102 repeats the process from step S107 in FIG. Thus, the user of the tablet information terminal 1 can start again from the selection of the facility to be inspected.

ステップS114の判別処理において、「戻る」ボタンB1は操作されていないと判別したときには、電子ペン2により点検対象エリアが選択され、「OK」」ボタンB3が操作されて確定された場合である。また、ステップS113の処理の後においては、上述もしたように、ビーコン信号を利用して点検対象エリアが特定されている。このため、ステップS114において、「戻る」ボタンは操作されていないと判別した場合と、ステップS113の処理の後においては、制御部102は、モード切替部117を制御して、自機を写真関連付けモードに遷移させる(ステップS115)。これにより、操作ボタンなどへの指示操作以外の電子ペン2による指示操作は、写真の関連付け位置の指示であると判別することができる。   In the determination process of step S114, when it is determined that the “return” button B1 is not operated, the inspection target area is selected by the electronic pen 2, and the “OK” button B3 is operated and confirmed. Moreover, after the process of step S113, as above-mentioned, the inspection object area is specified using the beacon signal. For this reason, in the case where it is determined in step S114 that the “return” button has not been operated, and after the processing in step S113, the control unit 102 controls the mode switching unit 117 to associate the own device with the photo. The mode is changed (step S115). Thereby, it is possible to determine that the instruction operation by the electronic pen 2 other than the instruction operation to the operation button or the like is an instruction of the association position of the photograph.

そして、制御部102は、図面取得部111と図面表示処理部112とを制御し、図面選択処理を実行する(ステップS116)。ステップS116において、制御部102は、まず、図面取得部111を制御し、図面等DB105から、点検対象エリアとされたエリアのエリア設計図等の図面データを取得する。この実施の形態では、図11(B)に示したように、1階の下側の角のエリアIDが「A01」のエリアが点検対象エリアとして選択されたものとして説明する。   And the control part 102 controls the drawing acquisition part 111 and the drawing display process part 112, and performs a drawing selection process (step S116). In step S116, the control unit 102 first controls the drawing acquisition unit 111 to acquire drawing data such as an area design drawing of the area that is the inspection target area from the drawing DB 105. In this embodiment, as shown in FIG. 11 (B), it is assumed that an area whose area ID of the lower corner of the first floor is “A01” is selected as the inspection target area.

次に、制御部102は、図面表示処理部112を制御して、図面取得部111を通じて取得した図面データに応じた図面を、表示装置部200の表示画面220に表示する。図12(A)は、ステップS116で表示装置部200の表示画面220に表示される図面表示画面の例を説明するための図である。図12(A)に示した図面表示画面では、中央部分に取得された図面データに応じた図面が表示され、上端部に、「A01」という点検対象エリアを示すエリア区分と、「配管図」という図面種別が表示されている。   Next, the control unit 102 controls the drawing display processing unit 112 to display a drawing corresponding to the drawing data acquired through the drawing acquisition unit 111 on the display screen 220 of the display device unit 200. FIG. 12A is a diagram for explaining an example of a drawing display screen displayed on the display screen 220 of the display device unit 200 in step S116. In the drawing display screen shown in FIG. 12 (A), a drawing corresponding to the drawing data acquired is displayed at the center portion, an area classification indicating an inspection target area “A01” at the upper end portion, and a “piping diagram”. The drawing type is displayed.

この例において、表示画面220に表示された図面は、点検対象エリア「A01」の配管図である。当該配管図は、三角形が二つ合わされた形状のゲート弁、カタカナの「ト」が横になった形状のストレーナ、平行な2本の線で表されたフランジ、丸型に斜線が付された圧力計などが接続されて構成されていることが示されている。そして、表示図面の右上端部にある圧力計やゲート弁などが点検の対象になっているものとする。   In this example, the drawing displayed on the display screen 220 is a piping diagram of the inspection target area “A01”. In the piping diagram, a gate valve with a shape of two triangles, a strainer with the shape of a katakana “G” lying sideways, a flange represented by two parallel lines, and a round shape with diagonal lines It is shown that a pressure gauge or the like is connected. It is assumed that the pressure gauge, gate valve, and the like at the upper right end of the display drawing are to be inspected.

さらに、当該素面表示画面において、図面種別の表示の右側には「2/10」との頁番号の表示がされている。当該頁番号の表示は、当該点検対象エリアには、関係するエリア設計図等が10図(10頁)あり、そのうちの2図目(2頁目)の図面が現在表示されていることを示している。   Further, on the surface display screen, a page number “2/10” is displayed on the right side of the display of the drawing type. The page number display indicates that there are 10 related area design drawings (10 pages) in the area to be inspected, and that the 2nd (2nd page) drawing is currently displayed. ing.

なお、「2/10」などの頁番号の表示において、分子部分の数字は、図3に示した図面データの枝番に対応する。そして、図12(A)に示したように、左上端部には左改頁ボタンLPが、右上端部には右改頁ボタンRPが表示されている。このため、ステップS116において、左改頁ボタンLP、右改頁ボタンRPに対して電子ペン2で操作を行うことによって、表示する図面を変更することができる。改頁ボタンLP、RPが操作され、図面が変更されると、頁番号の表示も変更される。   In the display of page numbers such as “2/10”, the number of the molecular portion corresponds to the branch number of the drawing data shown in FIG. As shown in FIG. 12A, a left page break button LP is displayed at the upper left corner, and a right page break button RP is displayed at the upper right corner. Therefore, in step S116, the drawing to be displayed can be changed by operating the left page break button LP and the right page break button RP with the electronic pen 2. When the page break buttons LP and RP are operated and the drawing is changed, the display of the page number is also changed.

さらに、図12(A)に示すように、図面表示画面の右下端部には、ファインダ領域221が設けられると共に、シャッターボタン222が表示される。ファインダ領域221には、電子ペン2のカメラユニット22を通じて捉えられた被写体の画像が表示されることになる。また、シャッターボタン222が操作された場合には、タブレット型情報端末1から電子ペン2のカメラユニット22を制御して、被写体の静止画像を撮影することができるようにされる。また、当該図面表示画面の左下端部には、「戻る」ボタンB1が設けられている。   Further, as shown in FIG. 12A, a finder area 221 is provided at the lower right corner of the drawing display screen, and a shutter button 222 is displayed. In the viewfinder area 221, an image of the subject captured through the camera unit 22 of the electronic pen 2 is displayed. When the shutter button 222 is operated, the camera unit 22 of the electronic pen 2 is controlled from the tablet information terminal 1 so that a still image of the subject can be taken. A “return” button B1 is provided at the lower left corner of the drawing display screen.

ステップS116の図面選択処理により、取得した図面データにより形成される図面を表示装置部200の表示画面220に表示した後、制御部102は、入力装置部300を通じて、ユーザからの操作入力を受け付ける(ステップS117)。そして、制御部102は、ステップS117において受け付けた操作入力は、「戻る」ボタンB1か否かを願別する(ステップS118)。   After the drawing formed by the drawing data acquired in step S116 is displayed on the display screen 220 of the display device unit 200, the control unit 102 receives an operation input from the user through the input device unit 300 ( Step S117). Then, the control unit 102 requests whether or not the operation input received in step S117 is the “return” button B1 (step S118).

ステップS118の判別処理において、「戻る」ボタンが操作されたと判別した時には、制御部102は、モード切替部117を制御し、写真関連付けモードから通常の処理モードに遷移させ(ステップS119)、図7のステップS110の処理から繰り返すようにする。これにより、タブレット型情報端末1のユーザは、再度、点検対象エリアの選択処理から行うことができるようにされる。なお、通常の処理モードは、電子ペン2による入力装置部300に対する操作入力が、特別な意味を持たず、ボタンやアイコンの選択、筆跡の入力などを行うことができるモードである。   When it is determined in the determination process in step S118 that the “return” button has been operated, the control unit 102 controls the mode switching unit 117 to shift from the photo association mode to the normal processing mode (step S119), and FIG. The process is repeated from step S110. As a result, the user of the tablet information terminal 1 can perform the inspection target area selection process again. Note that the normal processing mode is a mode in which an operation input to the input device unit 300 by the electronic pen 2 has no special meaning, and allows selection of buttons and icons, input of handwriting, and the like.

また、ステップS118の判別処理において、「戻る」ボタンB1は操作されていないと判別されたとする。この場合、制御部102は、入力装置部300からの座標データに基づいて、表示画面220に表示されたシャッターボタン222が操作されたか否かを判別する(ステップS120)。ステップS120の判別処理において、シャッターボタン222は操作されていないと判別した時には、制御部102は、ステップS116からの処理を繰り返す。これにより、タブレット型情報端末1のユーザは、再度、表示画面220に表示する図面の選択からの処理を行うことができるようにされる。   Also, in the determination process in step S118, it is determined that the “return” button B1 is not operated. In this case, the control unit 102 determines whether or not the shutter button 222 displayed on the display screen 220 has been operated based on the coordinate data from the input device unit 300 (step S120). When it is determined in step S120 that the shutter button 222 has not been operated, the control unit 102 repeats the process from step S116. Thereby, the user of the tablet-type information terminal 1 can perform processing from selection of the drawing to be displayed on the display screen 220 again.

ステップS120の判別処理において、シャッターボタン222が操作されたと判別したときには、電子ペン2のカメラユニット22を通じた写真の撮影と、写真データと付加情報の記録処理を行う(ステップS121)。具体的に、ステップS121において、制御部102は、ファインダ制御部110と外部I/F119とを制御して、電子ペン2のカメラユニット22を通じて撮像するようにしている被写体の動画像を、表示画面220に設けたファインダ領域221に表示する。   If it is determined in step S120 that the shutter button 222 has been operated, a photograph is taken through the camera unit 22 of the electronic pen 2, and photograph data and additional information are recorded (step S121). Specifically, in step S121, the control unit 102 controls the finder control unit 110 and the external I / F 119 to display a moving image of a subject that is to be captured through the camera unit 22 of the electronic pen 2 on the display screen. The image is displayed in the finder area 221 provided at 220.

図12(B)は、表示画面220に表示した図面の右上端部に存在している圧力計に対応し、点検対象エリア(A01)に実際に設置されている圧力計のカメラユニット22が捉えている画像がファインダ領域221に表示されている場合の表示例である。図12(B)に示すように、表示装置部200の表示画面に設けられたファインダ領域221に電子ペン2のカメラユニット22を通じて取り込んでいる動画像を表示することにより、当該ファインダ領域221に表示された動画像を確認しながら、目的とする点検対象の静止画像を撮影することができる。   FIG. 12B corresponds to the pressure gauge present at the upper right end of the drawing displayed on the display screen 220 and is captured by the camera unit 22 of the pressure gauge actually installed in the inspection target area (A01). This is a display example when a displayed image is displayed in the finder area 221. As shown in FIG. 12B, a moving image captured through the camera unit 22 of the electronic pen 2 is displayed on the finder area 221 provided on the display screen of the display device unit 200, thereby displaying the finder area 221. The target still image to be inspected can be taken while confirming the moving image.

そして、この実施の形態にタブレット型情報端末1では、シャッターボタン222が操作されてから所定時間後に、制御部102は、撮像制御部109を制御し、外部I/F119を通じて電子ペン2のカメラユニット22に対して撮像指示を送信する。撮像指示を受信したカメラユニット22は、その時に対物レンズを通じて取り込むようにしている被写体の画像を撮像してフレームメモリに記録することにより、被写体を撮像して写真データを得る。そして、カメラユニット22は、撮影することにより得た写真データに、付加情報としてペンIDを付加して、これをI/F23とケーブル24を通じてタブレット型情報端末1に供給する。   In the tablet type information terminal 1 according to this embodiment, the control unit 102 controls the imaging control unit 109 after a predetermined time from the operation of the shutter button 222, and the camera unit of the electronic pen 2 through the external I / F 119. An imaging instruction is transmitted to the terminal 22. The camera unit 22 that has received the imaging instruction captures an image of the subject to be captured through the objective lens at that time and records it in the frame memory, thereby capturing the subject and obtaining photographic data. Then, the camera unit 22 adds a pen ID as additional information to the photograph data obtained by photographing, and supplies this to the tablet information terminal 1 through the I / F 23 and the cable 24.

このように、ここの実施の形態のタブレット型情報端末1は、ソフトウェアキーとしてのシャッターボタン222が操作された場合に、電子ペン2のカメラユニット22が捉えている被写体の動画像を、ファインダ領域221に表示して観視可能にする。そして、シャッターボタン222を操作してから所定時間後に電子ペン2のカメラユニット22が捉えている被写体の静止画像を撮影できるようにしている。   As described above, the tablet information terminal 1 according to the present embodiment displays a moving image of a subject captured by the camera unit 22 of the electronic pen 2 when the shutter button 222 as a software key is operated. It is displayed on 221 so that it can be viewed. Then, a still image of the subject captured by the camera unit 22 of the electronic pen 2 can be taken a predetermined time after the shutter button 222 is operated.

この場合、制御部102の制御の下、撮像制御部109は、外部I/F119を通じて、電子ペン2のカメラユニット22からの写真データと付加情報としてのペンIDを取得する。そして、撮像制御部109は、取得した写真データ及びペンIDとからなる図4に示した写真ファイルを形成し、これを写真フォルダ104に記録する。なお、この段階では、手書きメモデータは空欄のままとされる。   In this case, under the control of the control unit 102, the imaging control unit 109 acquires the photo data from the camera unit 22 of the electronic pen 2 and the pen ID as additional information through the external I / F 119. Then, the imaging control unit 109 forms the photo file shown in FIG. 4 composed of the acquired photo data and the pen ID, and records this in the photo folder 104. At this stage, the handwritten memo data is left blank.

なお、この例では、シャッターボタン222が操作されたらファインダ領域221の動画像の表示を行い、シャッターボタン222の操作から所定時間後に被写体を撮像して写真データを得るものとして説明した。しかし、これに限るものではない。例えば、ステップS115の写真関連付けモードへの遷移後に、電子ペン2のカメラユニット22を通じて捉えている被写体の動画像をファインダ領域221に表示するようにする。そして、シャッターボタン222が操作されたら被写体を撮像して写真データを得るようにしてもよい。また、最初にシャッターボタン222が操作されたらファインダ領域221の動画像の表示を行い、次にシャッターボタン222が操作されたら被写体を撮像して写真データを得るようにすることもできる。   In this example, it has been described that a moving image is displayed in the finder area 221 when the shutter button 222 is operated, and a subject is captured after a predetermined time from the operation of the shutter button 222 to obtain photographic data. However, it is not limited to this. For example, the moving image of the subject captured through the camera unit 22 of the electronic pen 2 is displayed in the finder area 221 after the transition to the photo association mode in step S115. Then, when the shutter button 222 is operated, the subject may be imaged to obtain photographic data. In addition, when the shutter button 222 is first operated, a moving image in the finder area 221 is displayed, and when the shutter button 222 is operated next, the subject is imaged to obtain photographic data.

ステップS121の処理の後、制御部102は、ユーザからの操作入力を受け付けるようにする(ステップS122)。そして、制御部102は、入力装置部300からの座標データに基づいて、「戻る」ボタンB1が操作されたか否かを判別する(ステップS123)。ステップS123の判別処理において、「戻る」ボタンが操作されたと判別したときには、制御部102はステップS116からの処理を繰り返すようにする。これにより、ユーザは、再度、表示画面に表示する図面の選択処理から行うことができるようにされる。   After the process of step S121, the control unit 102 accepts an operation input from the user (step S122). Then, the control unit 102 determines whether or not the “return” button B1 is operated based on the coordinate data from the input device unit 300 (step S123). When it is determined in the determination process in step S123 that the “return” button has been operated, the control unit 102 repeats the process from step S116. Thereby, the user can perform again from the selection process of the drawing displayed on the display screen.

ステップS123の判別処理において、「戻る」ボタンは操作されていないと判別した時には、制御部102は、図9の処理に進み、表示図面の調整操作がされたか否かを判別する(ステップS124)。このステップS124の処理は、入力装置部300からの座標データに基づいて、図12(B)に示した、縮小ボタンC1、拡大ボタンC2、上移動ボタンCU、右移動ボタンCR、下移動ボタンCD、左移動ボタンCLが操作されたか否かを判別するものである。   When it is determined in the determination process in step S123 that the “return” button has not been operated, the control unit 102 proceeds to the process in FIG. 9 and determines whether or not the display drawing adjustment operation has been performed (step S124). . The process of step S124 is based on the coordinate data from the input device unit 300, and the reduction button C1, the enlargement button C2, the up movement button CU, the right movement button CR, and the down movement button CD shown in FIG. It is determined whether or not the left movement button CL has been operated.

すなわち、図12(B)に示した表示例においては、左下端部に「戻る」ボタンが表示されると共に、表示図面の編集用ボタンとして、縮小ボタンC1、拡大ボタンC2、上移動ボタンCU、右移動ボタンCR、下移動ボタンCD、左移動ボタンCLが表示される。そして、これらに対する操作も可能にされる。   That is, in the display example shown in FIG. 12B, a “return” button is displayed at the lower left corner, and a reduction button C1, an enlargement button C2, an up button CU, A right movement button CR, a lower movement button CD, and a left movement button CL are displayed. And operations for these can also be made possible.

ステップS124の判別処理において、表示図面の調整操作がされたと判別したときには、制御部102は、図面表示処理部112を制御して、ユーザからの操作入力に応じて、表示図面の調整処理を実行する(ステップS125)。具体的には、表示図面の縮小/拡大、表示図面の移動などの処理が行われる。このように、表示図面の調整を行うことにより、当該表示図面の目的とする位置に撮影した写真を関連付けしやすくすることができる。   When it is determined in the determination process of step S124 that the display drawing adjustment operation has been performed, the control unit 102 controls the drawing display processing unit 112 to execute the display drawing adjustment process in accordance with the operation input from the user. (Step S125). Specifically, processing such as reduction / enlargement of the display drawing and movement of the display drawing is performed. In this way, by adjusting the display drawing, it is possible to easily associate a photograph taken at a target position of the display drawing.

ステップS125の処理の後においては、図8のステップS122からの処理が繰り返される。これにより、「戻る」ボタンB1を選択したり、表示画像の調整処理を継続して行ったりすることができる。   After the process of step S125, the process from step S122 of FIG. 8 is repeated. As a result, the “return” button B1 can be selected or the display image adjustment process can be continued.

ステップS124の判別処理において、表示図面の調整操作はされていないと判別したときには、制御部102は、写真を関連付ける(貼り付ける)ための座標指示を受け付けたか否かを判別する(ステップS126)。この実施の形態のタブレット型情報端末1においては、図8に示した処理のステップS115において、写真関連付けモードに遷移するようされている。このため、制御部102は、電子ペン2による表示された操作ボタンに対する指示操作以外の指示操作は、写真の関連付け位置を指示する座標指示と判別する。   When it is determined in the determination process in step S124 that the display drawing adjustment operation has not been performed, the control unit 102 determines whether or not a coordinate instruction for associating (pasting) the photograph has been received (step S126). In the tablet information terminal 1 of this embodiment, the process is shifted to the photo association mode in step S115 of the process shown in FIG. For this reason, the control unit 102 determines that the instruction operation other than the instruction operation for the operation button displayed by the electronic pen 2 is a coordinate instruction for instructing the association position of the photograph.

ステップS126の判別処理において、写真の関連付け位置を指示する座標指示は受け付けていないと判別したときには、有効な操作入力は受け付けていないので、図8のステップS122からの処理が繰り返される。これにより、「戻る」ボタンB1を選択したり、表示画像の調整処理を継続して行ったりすることができる。   If it is determined in step S126 that the coordinate instruction for indicating the association position of the photograph is not accepted, a valid operation input is not accepted, and the process from step S122 in FIG. 8 is repeated. As a result, the “return” button B1 can be selected or the display image adjustment process can be continued.

図13(A)は、電子ペン2に関連付けられる写真データに応じた写真の関連付け位置を特定する処理について説明するための図であり、ステップS127以降の処理を具体的に説明するための図である。ステップS122〜ステップS125の処理が繰り返されることにより、例えば、図13(A)に示すように、拡大されて、表示範囲が移動されることにより、表示画面220に表示される範囲が変更された図面が表示されている状態にあるとする。   FIG. 13A is a diagram for explaining processing for specifying the association position of a photo according to the photo data associated with the electronic pen 2, and is a diagram for specifically explaining the processing after step S127. is there. By repeating the processing of step S122 to step S125, for example, as shown in FIG. 13A, the range displayed on the display screen 220 is changed by enlarging and moving the display range. Assume that the drawing is displayed.

すなわち、表示画面220に表示された図面(配管図)の右上にある圧力計の近傍に、実際の圧力計の写真を関連付けするために、図13(A)に示すように、当該図面を拡大し、圧力計部分を中心に表示画面220に表示したとする。この時に、図13(A)に示すように、表示画面220上の目的とする位置Pに、電子ペン2のペン先を接触させる操作が行われたとする。   That is, in order to associate a photograph of an actual pressure gauge with the vicinity of the pressure gauge in the upper right of the drawing (piping diagram) displayed on the display screen 220, the drawing is enlarged as shown in FIG. Suppose that the pressure gauge portion is displayed on the display screen 220 as a center. At this time, as shown in FIG. 13A, it is assumed that an operation of bringing the pen tip of the electronic pen 2 into contact with the target position P on the display screen 220 is performed.

この場合、ステップS126の判別処理においては、写真の関連付け位置を指示する座標指示を受け付けたと判別される。この場合、制御部102は、入力装置部300から提供された座標データと付加情報としてのペンIDを取得する(ステップS127)。このように、電子ペン2から入力装置部300を通じて座標データと共に取得されたペンIDが第1の付加情報として機能することになる。   In this case, in the determination process of step S126, it is determined that a coordinate instruction indicating the association position of the photograph has been received. In this case, the control unit 102 acquires the coordinate data provided from the input device unit 300 and the pen ID as additional information (step S127). In this way, the pen ID acquired together with the coordinate data from the electronic pen 2 through the input device unit 300 functions as the first additional information.

そして、制御部102は、写真取得部106を制御して、電子ペン2に関連付けられる写真データを写真フォルダ104から取得する(ステップS128)。ステップS128において、写真取得部106は、ステップS127で取得したペンID(第1の付加情報)と、写真フォルダに格納されている写真データに付加されているペンID(第2の付加情報)に基づいて、電子ペン2に関連付けられる写真データを取得する。すなわち、電子ペン2から取得したペンIDと同じペンIDが付付加されている写真データを取得する。   Then, the control unit 102 controls the photo acquisition unit 106 to acquire photo data associated with the electronic pen 2 from the photo folder 104 (step S128). In step S128, the photo acquisition unit 106 uses the pen ID (first additional information) acquired in step S127 and the pen ID (second additional information) added to the photo data stored in the photo folder. Based on this, photo data associated with the electronic pen 2 is acquired. That is, the photograph data to which the same pen ID as the pen ID acquired from the electronic pen 2 is added is acquired.

これにより、写真フォルダ104に、例えばデジタルカメラにより撮影することにより得られた写真データなどが格納されていたとしても、電子ペン2のカメラユニット22を通じて撮像して得た写真データだけを取得することができる。すなわち、電子ペン2に関連しない写真データが取得されることがない。   Thereby, even if the photo folder 104 stores, for example, photo data obtained by taking a picture with a digital camera, only the photo data obtained by imaging through the camera unit 22 of the electronic pen 2 is acquired. Can do. That is, photographic data not related to the electronic pen 2 is not acquired.

この後、制御部102は、第1関連付け部107を制御して、ステップS127で取得した電子ペン2により指示された座標位置を示す座標データと、ステップS128で取得した写真データとを関連付ける(ステップS129)。これにより、当該座標データが示す表示画面220上の位置に、当該写真データに応じた画像を表示するようにできる。   Thereafter, the control unit 102 controls the first association unit 107 to associate the coordinate data indicating the coordinate position indicated by the electronic pen 2 acquired in step S127 with the photograph data acquired in step S128 (step S128). S129). Thereby, an image corresponding to the photograph data can be displayed at a position on the display screen 220 indicated by the coordinate data.

このため、制御部102は、写真関連付け部108を制御し、ステップS129において、関連付けられた座標データが示す表示画面220上の位置に、ステップS129において関連付けられた写真データに応じたサムネイル画像を表示する(ステップS130)。これより、図13(A)に示すように、電子ペン2によい指示された表示画面220上の位置Pに、ステップS128で取得した写真データに応じたサムネイル画像Snを関連付ける(貼り付ける)ことができる。   For this reason, the control unit 102 controls the photo associating unit 108 to display a thumbnail image corresponding to the photo data associated in step S129 at the position on the display screen 220 indicated by the associated coordinate data in step S129. (Step S130). Thus, as shown in FIG. 13A, the thumbnail image Sn corresponding to the photo data acquired in step S128 is associated (pasted) with the position P on the display screen 220 instructed to be good for the electronic pen 2. Can do.

なお、電子ペン2のカメラユニット22を通じて撮像され、付加情報として電子ペン2のペンIDが付加された複数の写真の写真データが写真フォルダ104に格納されている場合もある。このような場合には、ステップS128において、電子ペン2に対して関連付けられる複数の写真の写真データが取得される。この場合には、ステップS129、ステップS130の処理が、若干異なる。   Note that there may be cases where the photo folder 104 stores photo data of a plurality of photos taken through the camera unit 22 of the electronic pen 2 and added with the pen ID of the electronic pen 2 as additional information. In such a case, photograph data of a plurality of photographs associated with the electronic pen 2 is acquired in step S128. In this case, the processes in steps S129 and S130 are slightly different.

図13(B)は、電子ペン2に関連付けられる写真データが複数存在する場合の処理を説明するための図である。ステップS128において、電子ペン2に関連付けられる複数の写真の写真データが取得されたとする。この場合、制御部102の制御の下、第1関連付け部107は、電子ペン2による指示位置Pに対応する座標データと、取得された複数の画像データのそれぞれとを関連付ける(ステップS129)。   FIG. 13B is a diagram for explaining processing when there are a plurality of pieces of photo data associated with the electronic pen 2. Assume that the photograph data of a plurality of photographs associated with the electronic pen 2 are acquired in step S128. In this case, under the control of the control unit 102, the first association unit 107 associates the coordinate data corresponding to the designated position P by the electronic pen 2 and each of the acquired plurality of image data (step S129).

そして、制御部102の制御の下、写真関連付け部108が、取得された複数の写真データに応じた写真のサムネイル画像を表示画面220に表示する処理を行う(ステップS130)。具体的に、ステップS130において、写真関連付け部108は、図13(B)に示すように、ユーザによる電子ペン2の指示位置Pを基準位置とする。そして、写真関連付け部108は、当該指示位置Pに対応する座標データに対応付けられた複数の写真データのそれぞれに応じた写真のサムネイル画像Sn1、Sn2、Sn3、…を表示する(ステップS129)。図13(B)においては、複数の写真のサムネイル画像が少しずつずらされながら重なり合う部分を有するようにして表示された場合を示している。   Then, under the control of the control unit 102, the photo associating unit 108 performs a process of displaying thumbnail images of photos corresponding to the acquired plurality of photo data on the display screen 220 (step S130). Specifically, in step S130, the photograph association unit 108 sets the designated position P of the electronic pen 2 by the user as the reference position, as shown in FIG. 13B. Then, the photo association unit 108 displays thumbnail images Sn1, Sn2, Sn3,... Of photos corresponding to each of the plurality of photo data associated with the coordinate data corresponding to the designated position P (step S129). FIG. 13B shows a case where thumbnail images of a plurality of photographs are displayed so as to have overlapping portions while being shifted little by little.

そして、制御部102の制御の下、写真関連付け部108が機能し、表示された複数のサムネイル画像を利用して、関連付けるべき写真データを選択する処理が行われる(ステップS131)。ステップS131においては、目的とするサムネイル画像の表示エリア上に電子ペン2の先端を接触させるようにする操作が受け付けられる。この場合、写真関連付け部108は、その指示された位置を表示エリアとするサムネイル画像を、その全体が観視可能となるように、全てのサムネイル画像の一番手前側に表示するように処理する。   Then, under the control of the control unit 102, the photo associating unit 108 functions to perform processing for selecting photo data to be associated using a plurality of displayed thumbnail images (step S131). In step S131, an operation for bringing the tip of the electronic pen 2 into contact with the display area of the target thumbnail image is accepted. In this case, the photo associating unit 108 performs processing so that the thumbnail image having the indicated position as the display area is displayed on the foremost side of all thumbnail images so that the entire image can be viewed.

これにより、ユーザは、サムネイル画像の全体を見て、目的とする写真か否かを判別できる。目的とする写真でなかった場合には、別のサムネイル画像の表示エリア上に電子ペン2の先端を接触させるようにして、そのサムネイル画像の全体を表示させる。このような処理を繰り返すことにより、ユーザは、各サムネイルの全体を確認して目的とする写真を探すことができる。   As a result, the user can determine whether or not the target picture is the target by looking at the entire thumbnail image. If it is not the target picture, the entire thumbnail image is displayed by bringing the tip of the electronic pen 2 into contact with the display area of another thumbnail image. By repeating such processing, the user can search for the target photo by confirming the entire thumbnail.

目的とする写真が見つかったら、例えば、ユーザはそのサムネイル画像の表示エリア上を、電子ペン2を用いてダブルタップ操作をする。当該ダブルタップ操作を受け付けた場合、写真関連付け部108は、ダブルタップされたサムネイル画像に対応する写真データを、関連付けに用いる写真データとして選択する。そして、写真関連付け部108は、図13(A)に示した態様で、当該写真データに応じた一枚の写真のサムネイル画像を、電子ペン2による最初の指示位置Pを基準にした位置に表示する。   When the target photograph is found, for example, the user performs a double tap operation on the display area of the thumbnail image using the electronic pen 2. When the double tap operation is accepted, the photo association unit 108 selects photo data corresponding to the double-tapped thumbnail image as photo data used for association. Then, in the form shown in FIG. 13A, the photo association unit 108 displays a thumbnail image of one photo corresponding to the photo data at a position based on the first designated position P by the electronic pen 2. To do.

このような、写真データを選択する一連の処理が、ステップS131において実行される。なお、ステップS128において取得された写真データが1つしかない場合には、ステップS131においては、その写真データが、関連付けられる写真データとして選択される。   Such a series of processes for selecting photograph data is executed in step S131. If there is only one piece of photo data acquired in step S128, the photo data is selected as associated photo data in step S131.

ステップS131の処理の後においては、制御部102の制御の下、モード切替部117が機能し、写真編集モードに遷移する(ステップS132)。これにより、電子ペン2による入力装置部300のセンサ部320に対する操作入力は、写真に対する編集操作や手書きメモの入力操作とみなされる。そして、制御部102は、写真表示処理部115を制御して、ステップS131で選択された写真データに応じた写真を表示画面220に表示させ、当該写真に対する編集操作や手書きメモの入力操作を受け付けるようにされる(ステップS133)。   After the processing in step S131, the mode switching unit 117 functions under the control of the control unit 102, and transitions to the photo editing mode (step S132). Thereby, an operation input to the sensor unit 320 of the input device unit 300 by the electronic pen 2 is regarded as an editing operation for a photograph and an input operation for a handwritten memo. Then, the control unit 102 controls the photo display processing unit 115 to display a photo corresponding to the photo data selected in step S131 on the display screen 220, and accepts an editing operation on the photo and an input operation of a handwritten memo. (Step S133).

なお、説明を簡単にするため、図9には示していないが、図13(A)に示したように、電子ペン2により指示した位置を変更したい場合もある。このような場合には、図13(A)の表示画面220の左下端部に設けられている「取消」ボタンB4を操作することにより、指示位置Pの指示を取り消して、再度、指示位置を指示し、「OK」ボタンB5を操作することにより指示位置を確定する。といった指示位置Pの変更操作もできるようにされる。   In order to simplify the description, although not shown in FIG. 9, there is a case where the position designated by the electronic pen 2 is desired to be changed as shown in FIG. In such a case, by operating the “cancel” button B4 provided at the lower left corner of the display screen 220 in FIG. 13A, the instruction at the designated position P is canceled and the designated position is set again. The designated position is confirmed by operating the “OK” button B5. The change operation of the indicated position P is also made possible.

図14(A)は、ステップS133において、表示画面220に表示される写真の編集画面の例を説明するための図である。表示画面220の中央部分に、ステップS131で選択された写真データに応じた写真G1が表示されると共に、「閉じる」ボタンB6が表示される。そして、この例の場合には、電子ペン2を用いてセンサ部320に対してホバリング操作を行うことにより、編集処理部116が機能し、写真G1の縮小/拡大を行うことができる。   FIG. 14A is a view for explaining an example of a photo editing screen displayed on the display screen 220 in step S133. A photo G1 corresponding to the photo data selected in step S131 is displayed at the center of the display screen 220, and a “close” button B6 is displayed. In the case of this example, by performing a hovering operation on the sensor unit 320 using the electronic pen 2, the editing processing unit 116 functions and can reduce / enlarge the photo G1.

具体的には、写真G1が表示されている表示画面220上のエリアに対応する入力装置部300のセンサ部320の検出エリア上で、電子ペン2のペン先を近づけたり、遠ざけたりする、いわゆるホバリング操作を行う。これにより、編集処理部116が機能し、表示画面220に表示された写真G1の縮小/拡大を行うことができる。すなわち、入力装置部300は、センサ部320に対する電子ペン2の距離を検出し、これを制御部102に通知する。制御部102は当該距離に基づいて、編集処理部116を制御し、写真G1の縮小/拡大を行うことができる。例えば、センサ部320に対して電子ペン2を近づければ写真G1は縮小され、遠ざければ写真G1は拡大される。   Specifically, the pen tip of the electronic pen 2 is brought close to or away from the detection area of the sensor unit 320 of the input device unit 300 corresponding to the area on the display screen 220 on which the photograph G1 is displayed. Perform hovering operations. As a result, the editing processing unit 116 functions to reduce / enlarge the photograph G1 displayed on the display screen 220. That is, the input device unit 300 detects the distance of the electronic pen 2 with respect to the sensor unit 320 and notifies the control unit 102 of this. Based on the distance, the control unit 102 can control the editing processing unit 116 to reduce / enlarge the photo G1. For example, when the electronic pen 2 is brought closer to the sensor unit 320, the photograph G1 is reduced, and when the electronic pen 2 is moved far away, the photograph G1 is enlarged.

また、制御部102の制御の下、編集処理部116は、入力装置部300のセンサ部320上の手書きメモの付加エリアArに対する電子ペン2による筆記操作を受け付けて、手書きメモを入力することができるようにされる。これにより、例えば、図14(A)に示したように、手書きメモの付加エリアArに「圧力正常値。調整不要」などのように、必要に応じた手書きメモを入力することができるようになっている。   Further, under the control of the control unit 102, the editing processing unit 116 may accept a writing operation with the electronic pen 2 for the handwritten memo addition area Ar on the sensor unit 320 of the input device unit 300 and input a handwritten memo. Be made possible. Thereby, for example, as shown in FIG. 14A, a handwritten memo according to need can be input to the additional area Ar of the handwritten memo, such as “normal pressure value, no adjustment required”. It has become.

そして、図10の処理に進み、「閉じる」ボタンが操作されたか否かを判別し(ステップS134)、「閉じる」ボタンは操作されていないと判別したときには、図9のステップS133からの処理が繰り替えされる。これにより、写真編集処理と手書きメモ入力処理を継続して行うことができるようにされる。   Then, the process proceeds to the process of FIG. 10 to determine whether or not the “close” button has been operated (step S134). When it is determined that the “close” button has not been operated, the process from step S133 of FIG. Repeated. As a result, the photo editing process and the handwritten memo input process can be continuously performed.

ステップS134の判別処理において、「閉じる」ボタンが操作されたと判別したときには、表示された写真G1に対する写真編集処理や手書きメモ入力処理は終了したと判別できる。この場合、制御部102は、座標変換部113を制御し、表示画面220上の電子ペン2による指示位置Pを、表示図面上の位置に変換する処理を行う(ステップS135)。   If it is determined in the determination process in step S134 that the “close” button has been operated, it can be determined that the photo editing process or the handwritten memo input process for the displayed photograph G1 has been completed. In this case, the control unit 102 controls the coordinate conversion unit 113 to perform processing for converting the indicated position P by the electronic pen 2 on the display screen 220 into a position on the display drawing (step S135).

図14(B)は、表示図面上の指示位置を説明するための図であり、図15は、表示画面220上の指示位置を表示図面上の位置に変換する処理を説明するための図である。図13(A)、(B)に示した例において、点検対象エリアの選択された図面(この例では、エリア設計図面である配管図)は、拡大され、表示画面220への表示対象エリアを移動するようにして、目的とする図面部分を表示画面220に表示した状態にある。   FIG. 14B is a diagram for explaining the designated position on the display drawing, and FIG. 15 is a diagram for explaining processing for converting the designated position on the display screen 220 into a position on the display drawing. is there. In the example shown in FIGS. 13A and 13B, the selected drawing of the inspection target area (in this example, the piping diagram which is the area design drawing) is enlarged to display the display target area on the display screen 220. The target drawing portion is displayed on the display screen 220 so as to move.

この状態で、写真の関連付け(貼り付け)位置Pを指示しているため、表示図面上の指示位置は、図14(B)に示すように、表示図面の全体を表示画面220に表示した場合には、図面右上の圧力計の近傍の位置となる。このため、座標変換部113は、図13に示したうように指示された表示画面220上の指示位置Pを、図15に示すように、例えば左上端部を原点O(0,0)とする表示図面に対応する座標系上の指示位置ZPとして特定する。そして、図15に示した表示図面に対応する座標系において、指示位置ZPの座標データ(X1,Y1)を特定する。これにより、図13に示したように指示される表示画面上の指示位置Pは,図14(B)や図15に示したように、表示図面上における指示位置ZPに変換される。   In this state, since the photo association (paste) position P is designated, the designated position on the display drawing is the case where the entire display drawing is displayed on the display screen 220 as shown in FIG. Is the position in the vicinity of the pressure gauge at the upper right of the drawing. For this reason, the coordinate conversion unit 113 sets the designated position P on the display screen 220 designated as shown in FIG. 13 as the origin O (0, 0), for example, the upper left end as shown in FIG. The designated position ZP on the coordinate system corresponding to the display drawing to be specified is specified. Then, coordinate data (X1, Y1) of the designated position ZP is specified in the coordinate system corresponding to the display drawing shown in FIG. As a result, the indicated position P on the display screen indicated as shown in FIG. 13 is converted to the indicated position ZP on the display drawing as shown in FIG. 14B or FIG.

この後、制御部102は、第2関連付け部114を制御し、表示図面と、表示図面上の指示位置ZP(X1,Y1)と、選択された写真データとの3つを関連付ける(ステップS136)。具体的に、第2関連付け部114は、表示図面と、表示図面上の指示位置ZP(X1,Y1)と、選択された写真データとの3つを関連付けた関連付けデータを形成する。図16は、第2関連付け部114が形成する関連付けデータの例を説明するための図である。   Thereafter, the control unit 102 controls the second associating unit 114 to associate the display drawing, the designated position ZP (X1, Y1) on the display drawing, and the selected photo data (step S136). . Specifically, the second associating unit 114 forms associating data associating three of the display drawing, the designated position ZP (X1, Y1) on the display drawing, and the selected photo data. FIG. 16 is a diagram for explaining an example of association data formed by the second association unit 114.

第2関連付け部114は、図16に示すように、施設ID、種別、フロアー、エリアID、枝番を、関連付けデータの該当欄に入力する。これらの情報は、図3(B)を用いて説明したように、表示図面の図面データに付加されているメタデータであり、表示図面を形成する図面データの図面ファイルから取得できる。さらに、第2関連付け部114は、選択された写真データに付加されている写真IDを、写真ID欄に入力し、変換した表示図面上の指示位置ZP(X1,Y1)を、対応する関連付け位置欄に入力する。これにより、表示図面と、表示図面上の指示位置ZP(X1,Y1)と、選択された写真データとの3つが関連付けられる。   As illustrated in FIG. 16, the second association unit 114 inputs the facility ID, type, floor, area ID, and branch number in the corresponding column of the association data. As described with reference to FIG. 3B, these pieces of information are metadata added to the drawing data of the display drawing, and can be acquired from the drawing file of the drawing data forming the display drawing. Further, the second associating unit 114 inputs the photo ID added to the selected photo data in the photo ID field, and converts the indicated position ZP (X1, Y1) on the display drawing into the corresponding associating position. Fill in the fields. As a result, the display drawing, the designated position ZP (X1, Y1) on the display drawing, and the selected photo data are associated with each other.

また、この例においては、図14(A)を用いて説明したように、写真G1に対して入力するようにされた手書きメモデータは、図4を用いて説明した当該写真データが格納されている写真ファイルの手書きメモデータ欄に格納される。この手書きメモデータの写真ファイルへの更新処理は、例えば、第2関連付け部114が行うようにしている。もちろん、編集処理部116などの他の処理部が別途行うようにしてもよい。このようにして形成された関連付けデータは、たとえばメモリ部103の所定の領域に記憶保持され、必要に応じて読み出して繰り返し利用することができるようにされる。   In this example, as described with reference to FIG. 14A, the handwritten memo data input to the photo G1 stores the photo data described with reference to FIG. Stored in the handwritten memo data field of the photo file. The update process of the handwritten memo data to the photo file is performed by the second association unit 114, for example. Of course, another processing unit such as the editing processing unit 116 may perform the processing separately. The association data formed in this way is stored and held in a predetermined area of the memory unit 103, for example, and can be read and used repeatedly as necessary.

この後、制御部102は、図8に示したステップS115からの処理を繰り返すようにする。これにより、1つの表示図面に対して、異なる写真データを、異なる指示位置に付加することもできるようにされる。このため、図16に示すように、関連付けデータにおいては、1つの表示図面に対して、複数の写真データの写真IDと、複数の異なる関連付け位置とを対応付けることができるようになっている。   Thereafter, the control unit 102 repeats the processing from step S115 shown in FIG. Thereby, different photographic data can be added to different designated positions for one display drawing. For this reason, as shown in FIG. 16, in the association data, the photo IDs of a plurality of pieces of photo data and a plurality of different association positions can be associated with one display drawing.

そして、図16に示す関連付けデータを利用することにより、例えば、図14(B)に示したように、目的とする図面上の指示位置ZPに、関連付けられる写真のサムネイル画像MKを表示して、ユーザに提供できる。もちろん、図14(B)に示した表示において、サムネイル画像MKを電子ペンで指示することにより、図14(A)に示した態様で、写真だけを表示して、提供することもできる。また、図14(B)に示した表示において、表示を拡大したり、移動したりすることにより、図13(A)に示した態様で、表示図面と写真のサムネイル画像との両方を拡大して表示し、提供することができる。   Then, by using the association data shown in FIG. 16, for example, as shown in FIG. 14B, the thumbnail image MK of the associated photo is displayed at the designated position ZP on the target drawing, Can be provided to users. Of course, in the display shown in FIG. 14B, it is also possible to display and provide only a photograph in the form shown in FIG. 14A by instructing the thumbnail image MK with the electronic pen. Further, in the display shown in FIG. 14B, by expanding or moving the display, both the display drawing and the thumbnail image of the photograph are enlarged in the form shown in FIG. 13A. Can be displayed and provided.

[第1の実施の形態の効果]
上述した第1の実施の形態のタブレット型情報端末1及び電子ペン2によれば、電子ペン2に関連付けられる写真データを取得することができる。そして、取得した写真データと、電子ペン2により指示された表示画面220上の指示位置とを関連付けることができる。これにより、電子ペン2に関連付けられる写真データを、表示画面上の指示位置に関連付けて表示することができる。
[Effect of the first embodiment]
According to the tablet type information terminal 1 and the electronic pen 2 of the first embodiment described above, it is possible to acquire photographic data associated with the electronic pen 2. Then, the acquired photograph data can be associated with the designated position on the display screen 220 designated by the electronic pen 2. Thereby, the photographic data associated with the electronic pen 2 can be displayed in association with the designated position on the display screen.

また、表示画面220に図面が表示されている場合には、電子ペン2による指示位置を表示図面上の指示位置に変換し、当該表示図面と、電子ペン2に関連付けられる写真データと、表示図面上の指示位置とを関連付けることができる。これにより、表示図面上の指示位置に、関連付けられる写真を貼り付けて表示することができる。   Further, when a drawing is displayed on the display screen 220, the indication position by the electronic pen 2 is converted into the indication position on the display drawing, the display drawing, the photo data associated with the electronic pen 2, and the display drawing. The above pointing position can be associated. Thereby, the associated photo can be pasted and displayed at the designated position on the display drawing.

このように、電子ペン2に関連付けられる写真データを、表示画面上の指示位置に関連付けたり、表示図面上の指示位置に関連付けたりすることが容易にできる。このため、例えば、点検作業において撮影した写真だけを、点検作業に用いた図面上に関連付けて管理できるなど、写真と図面とを関連付けて管理することが容易に行える。   In this way, it is possible to easily associate the photo data associated with the electronic pen 2 with the designated position on the display screen or with the designated position on the display drawing. For this reason, for example, only the photograph taken in the inspection work can be managed in association with the drawing used for the inspection work, and management can be easily performed in association with the photograph.

[第1の実施の形態の変形例等]
上述した第1の実施の形態では、電子ペン2のペンIDを用いた認証を行うことにより、関連付け対象の写真データであって、電子ペン2に関連付けられる写真データを取得し、電子ペン2による指示位置に応じた表示画面上の位置に当該写真データに応じた画像を関連付けした。しかし、これに限るものではない。
[Modification of First Embodiment]
In the first embodiment described above, by performing authentication using the pen ID of the electronic pen 2, the photograph data that is the association target and is associated with the electronic pen 2 is acquired, and the electronic pen 2 is used. An image corresponding to the photo data is associated with a position on the display screen corresponding to the designated position. However, it is not limited to this.

入力装置部300のセンサ部320が、静電容量方式のセンサである場合には、ユーザの指によって位置指示が可能である。この場合、ユーザの指からはペンID等は送信されない。また、ペンIDを持たない電子ペンやペンIDを位置指示信号には含めない電子ペンもある。このような場合には、関連付け画像特定情報が付加された写真データに応じた画像を、ユーザの指などの指示体により指示されたセンサ部の指示位置に対応する表示画面上の位置に関連付けするようにできる。   When the sensor unit 320 of the input device unit 300 is a capacitance type sensor, the position can be instructed by the user's finger. In this case, the pen ID or the like is not transmitted from the user's finger. There are also electronic pens that do not have a pen ID and electronic pens that do not include the pen ID in the position instruction signal. In such a case, the image corresponding to the photographic data to which the associated image specifying information is added is associated with the position on the display screen corresponding to the indicated position of the sensor unit indicated by the indicator such as the user's finger. You can

なお、この明細書において、指示体との文言は、ユーザの指や位置指示信号としてペンIDなどの付加情報を送信しない電子ペンとの両方を含むものとして用いている。また、位置指示器との文言は、ペンIDなどの付加情報を含む位置指示信号の送出が可能な主に電子ペンを意味している。   In this specification, the term “indicator” is used to include both a user's finger and an electronic pen that does not transmit additional information such as a pen ID as a position instruction signal. The term “position indicator” mainly means an electronic pen capable of sending a position indication signal including additional information such as a pen ID.

このように、ペンIDを用いない場合にも、基本的には、図7〜図10のフローチャートを用いて説明した処理を行うことができるが、図9に示したステップS128の処理が異なることになる。すなわち、ペンIDによって電子ペンとの関連付けを行わない場合には、図9のステップS128の処理において、所定の関連付け画像特定情報が付加された写真データを、例えば写真フォルダ104から取得するようにすればよい。この場合の、関連付け画像特定情報は、例えば、ユーザIDや点検コードなどの点検を行う者しか知り得ない情報を用いるのか好ましい。   As described above, even when the pen ID is not used, basically, the processing described with reference to the flowcharts of FIGS. 7 to 10 can be performed, but the processing of step S128 shown in FIG. 9 is different. become. In other words, when the association with the electronic pen is not performed by the pen ID, the photograph data to which the predetermined associated image specifying information is added is acquired from the photograph folder 104 in the process of step S128 of FIG. That's fine. In this case, as the related image specifying information, for example, it is preferable to use information that only a person who performs inspection such as a user ID or an inspection code can know.

そして、写真データには、例えば、写真フォルダ104に格納された時点において、ユーザが関連付け画像特定情報を付加するようにする。また、ユーザは、メモリ部103の所定の記憶領域に関連付け画像特定情報を登録しておくようにする。そして、上述したように、図9のステップS128の処理において、制御部102は、写真取得部106を制御して、メモリ部103に登録された関連付け画像特定情報と同じ情報が付加された写真データを、写真フォルダ104から取得するようにすればよい。   Then, for example, the user adds associated image specifying information to the photo data at the time when the photo data is stored in the photo folder 104. Also, the user registers the associated image specifying information in a predetermined storage area of the memory unit 103. Then, as described above, in the process of step S128 of FIG. 9, the control unit 102 controls the photo acquisition unit 106, and the photo data to which the same information as the associated image specifying information registered in the memory unit 103 is added. May be obtained from the photo folder 104.

これにより、関連付け対象とされた写真などの適切な画像を迅速に取得して、これをユーザの指やペンIDを持たない電子ペンにより指示された表示画面上の座標位置に関連付けして利用可能となる。すなわち、ユーザの指やペンIDを持たない電子ペンを用いても、関連付け用の特別な画像のみを取得し、この画像とユーザの指やペンIDを持たない電子ペンによる指示位置に応じた座標データとを関連付けて、利用することができる。   This makes it possible to quickly acquire an appropriate image such as a photograph to be associated and associate it with the coordinate position on the display screen indicated by the user's finger or an electronic pen that does not have a pen ID. It becomes. That is, even if an electronic pen without a user's finger or pen ID is used, only a special image for association is acquired, and coordinates corresponding to the position indicated by the electronic pen without the user's finger or pen ID are obtained. It can be used in association with data.

また、上述した第1の実施の形態では、電子ペン2のカメラユニット22を通じて撮像することにより得た写真データに対して第2の付加情報としてペンIDを付加して出力するようにした。また、電子ペン2の電子ペン機能部21の機能によって生成して送信する位置指示信号にも第1の付加情報としてペンIDを付加して出力するようにした。しかし、これに限るものではない。   In the first embodiment described above, the pen ID is added as the second additional information to the photographic data obtained by taking an image through the camera unit 22 of the electronic pen 2 and output. In addition, a pen ID is added as the first additional information to the position instruction signal generated and transmitted by the function of the electronic pen function unit 21 of the electronic pen 2 and output. However, it is not limited to this.

第1の付加情報としてのペンIDは、例えば、Bluetooth(登録商標)規格の無線通信を用いて送信するようにしてもよい。図17は、位置指示信号とは別に例えばBluetooth(登録商標)規格の無線通信によりペンIDを送信する電子ペン2Aの構成例を説明するための図である。また、図18は、無線通信により送信されるペンIDを受信する機能を備えたタブレット型情報端末と電子ペンとの接続関係を説明するための図である。   The pen ID as the first additional information may be transmitted using, for example, Bluetooth (registered trademark) wireless communication. FIG. 17 is a diagram for explaining a configuration example of the electronic pen 2A that transmits a pen ID by wireless communication of, for example, Bluetooth (registered trademark) standard separately from the position instruction signal. FIG. 18 is a diagram for explaining a connection relation between a tablet information terminal having a function of receiving a pen ID transmitted by wireless communication and an electronic pen.

図17において、図5に示した電子ペン2と同様に構成される部分には同じ参照符号を付し、その部分についての詳細な説明については重複するので省略する。また、図18において、図6に示したタブレット型情報端末1の部分と同様に構成される部分には同じ参照符号を付し、その部分についての詳細な説明については重複するので省略する。   17, parts that are configured in the same manner as the electronic pen 2 shown in FIG. 5 are given the same reference numerals, and detailed descriptions of those parts are omitted because they are duplicated. In FIG. 18, the same reference numerals are assigned to the same components as those of the tablet information terminal 1 shown in FIG. 6, and the detailed description thereof will be omitted because it is duplicated.

図17に示した電子ペン2Aの電子ペン機能部21は、位置指示信号を形成して送信するが、自機のペンIDを含まない位置指示信号を形成して送信するものである。そして、この例の電子ペン2Aは、ペンIDメモリ25と、例えば、bluetooth(登録商標)規格の送信回路26と送信アンテナ27を備え、自機のペンIDは、送信回路26及び送信アンテナ27を通じて送信する。なお、カメラユニット22を通じて撮像することにより得られた写真データには、ペンIDメモリ25のペンIDが付加され、I/F23を通じて送信される構成は、図5に示した電子ペン2の場合と同様である。   The electronic pen function unit 21 of the electronic pen 2A shown in FIG. 17 forms and transmits a position instruction signal, but forms and transmits a position instruction signal that does not include the pen ID of its own device. The electronic pen 2 </ b> A in this example includes a pen ID memory 25, for example, a Bluetooth (registered trademark) standard transmission circuit 26 and a transmission antenna 27, and the pen ID of its own device passes through the transmission circuit 26 and the transmission antenna 27. Send. Note that the photo data obtained by imaging through the camera unit 22 is added with the pen ID of the pen ID memory 25 and transmitted through the I / F 23 as in the case of the electronic pen 2 shown in FIG. It is the same.

これに対応し、図18に示すように、タブレット型情報端末1側には、bluetooth(登録商標)規格の受信回路150及び受信アンテナ150Aを設ける。これにより、電子ペン2A〜無線送信される第1の付加情報としてのペンIDをこれら受信アンテナ150A及び受信回路150を通じて受信し、これを情報処理装置部100において、適切な写真データの取得や認証に用いることができる。このように、第1の付加情報としてのペンIDは、位置指示信号とは別の無線通信経路を通じて送信することができる。   Corresponding to this, as shown in FIG. 18, a Bluetooth (registered trademark) standard receiving circuit 150 and a receiving antenna 150A are provided on the tablet information terminal 1 side. Accordingly, the pen ID as the first additional information wirelessly transmitted from the electronic pen 2A is received through the receiving antenna 150A and the receiving circuit 150, and the information processing apparatus unit 100 acquires and authenticates appropriate photo data. Can be used. As described above, the pen ID as the first additional information can be transmitted through a wireless communication path different from the position instruction signal.

また、上述した第1の実施の形態においては、電子ペン2は操作ボタンを備えないものであった。しかし、これに限るものではない。図19は、電子ペンの変形例を説明するための図である。例えば、図19の電子ペン2Bに示すように、シャッターボタン28、サイドスイッチ29、30などの操作ボタンを電子ペンに対して設けるようにしてもよい。電子ペン2Bに示したように電子ペン側にシャッターボタン28を設けることにより、写真を撮影する操作を電子ペン2Bに設けられたシャッターボタンにより行うことができ、操作性をよくすることができる。   In the first embodiment described above, the electronic pen 2 does not include an operation button. However, it is not limited to this. FIG. 19 is a diagram for explaining a modification of the electronic pen. For example, as shown in the electronic pen 2B of FIG. 19, operation buttons such as a shutter button 28 and side switches 29 and 30 may be provided on the electronic pen. By providing the shutter button 28 on the electronic pen side as shown in the electronic pen 2B, an operation for taking a picture can be performed by the shutter button provided on the electronic pen 2B, and the operability can be improved.

図20は、電子ペン2Bのサイドスイッチ29、30の利用方法の例を説明するための図である。サイドスイッチ29、30は、これが押下操作された場合には、操作されたサイドスイッチに応じて、電子ペン2Bから送信される位置指示信号の例えば周波数が変えられることにより、入力装置部300側においてどのサイドスイッチが操作されたかを認識することができる。   FIG. 20 is a diagram for explaining an example of how to use the side switches 29 and 30 of the electronic pen 2B. When the side switches 29 and 30 are pressed, for example, the frequency of the position indication signal transmitted from the electronic pen 2B is changed according to the operated side switch, so that the input device unit 300 side It is possible to recognize which side switch is operated.

このため、図20(A)において、サイドスイッチ29を塗りつぶして示したように、サイドスイッチ29が操作された状態で、電子ペン2Bをセンサ部320上に接触させるようにして移動させたとする。この場合には、表示画像に対するドラッグ操作であると情報処理装置部100側で判別し、表示図面の全体の移動を行うようにすることができる。   Therefore, in FIG. 20A, it is assumed that the electronic pen 2B is moved so as to be in contact with the sensor unit 320 while the side switch 29 is operated, as shown by the side switch 29 being filled. In this case, the information processing apparatus unit 100 can determine that the operation is a drag operation on the display image, and the entire display drawing can be moved.

また、図20(B)において、サイドスイッチ30を塗りつぶして示したように、サイドスイッチ30が操作された状態で、電子ペン2Bをセンサ部320上に接触させたとする。この場合には、写真の関連付け位置の指示操作であると、情報処理装置部100側で判別し、指示位置Pを基準にして、選択された写真データに応じたサムネイル画像を関連付ける(貼り付ける)ことができる。   In FIG. 20B, it is assumed that the electronic pen 2B is brought into contact with the sensor unit 320 in a state where the side switch 30 is operated, as shown by filling the side switch 30. In this case, it is determined on the information processing apparatus 100 side that the operation is an instruction for an association position of a photograph, and a thumbnail image corresponding to the selected photograph data is associated (pasted) with the instruction position P as a reference. be able to.

このように、電子ペンにシャッターボタン28やサイドスイッチ29、30を設けることによって、写真撮影、表示画像のドラッグ移動、写真の関連付け位置の指定などを、より簡単な操作で行うことができるようにされる。   In this way, by providing the electronic pen with the shutter button 28 and the side switches 29 and 30, it is possible to perform photography, dragging of the display image, designation of the association position of the photograph, and the like with simpler operations. Is done.

また、上述した第1の実施の形態では、電子ペン2の先端をセンサ部320上に接触させるようにして選択した写真データに応じた写真の関連付け位置を指示するようにした。この場合に、例えば、ホバリング操作によって、写真の関連付け位置を確認できるようにすることもできる。図21は、ホバリング操作による写真の関連付け位置を確認について説明するための図である。   Further, in the first embodiment described above, the photo association position corresponding to the selected photo data is indicated by bringing the tip of the electronic pen 2 into contact with the sensor unit 320. In this case, for example, the association position of the photo can be confirmed by a hovering operation. FIG. 21 is a diagram for explaining confirmation of the association position of a photo by a hovering operation.

図21に示すように、写真関連付けモード時において、電子ペン2の先端をセンサ部320に対して接触させることなく、所定距離以上近づけたとする。この場合に、電子ペン2がセンサ部320に対して、所定距離以上近づいている間において、電子ペン2からの位置指示信号を受信しているセンサ部320上の位置を基準にして、選択された写真データに応じたサムネイル画像VMを表示画面220に表示する。   As shown in FIG. 21, it is assumed that the tip of the electronic pen 2 is brought closer to a predetermined distance without being in contact with the sensor unit 320 in the photo association mode. In this case, the electronic pen 2 is selected based on the position on the sensor unit 320 that receives the position indication signal from the electronic pen 2 while the electronic pen 2 is approaching the sensor unit 320 by a predetermined distance or more. The thumbnail image VM corresponding to the photograph data is displayed on the display screen 220.

このようにして、選択した写真データを関連付けする表示画面220上の位置を確認する。そして、関連付け位置がよくないと思う場合には、電子ペン2の位置を変えることにより、サムネイル画像VMの表示位置を順次に変えるようにして、適切な表示位置を探すようにすることができる。適切な表示位置が特定できた場合に、センサ部320上の対応する位置に電子ペン2を接触させることで、その指示位置を写真データの関連付け位置として特定することができる。   In this way, the position on the display screen 220 to which the selected photo data is associated is confirmed. If the association position is not good, the display position of the thumbnail image VM can be sequentially changed by changing the position of the electronic pen 2 to search for an appropriate display position. When an appropriate display position can be specified, the indicated position can be specified as the association position of the photographic data by bringing the electronic pen 2 into contact with the corresponding position on the sensor unit 320.

また、タブレット型情報端末1は、電子ペン2のカメラユニット22以外からも写真データと付加情報を取得することができる。図22は、写真データ及び付加情報の取得先及び取得経路について説明するための図である。図22に示すように、デジタルカメラやカメラ機能が搭載されたスマートホンやドローンなどと呼ばれる無人飛行体などと、外部I/F119を通じて有線接続し、これらから写真データと付加情報を取得したり、これらを制御したりすることができる。   In addition, the tablet information terminal 1 can acquire photographic data and additional information from other than the camera unit 22 of the electronic pen 2. FIG. 22 is a diagram for explaining the acquisition destination and acquisition route of the photo data and additional information. As shown in FIG. 22, a digital camera, a smartphone equipped with a camera function, an unmanned air vehicle called a drone, etc. are connected by wire through an external I / F 119 to obtain photo data and additional information from them, These can be controlled.

また、デジタルカメラやカメラ機能が搭載されたスマートホンやドローンなどと、近距離無線通信アンテナ120A及び近距離無線通信部120を通じて無線接続し、これらから写真データと付加情報を取得したり、これらを制御したりすることができる。さらに、インターネット上に設けられているデータセンターやサーバ群から構成されるいわゆるクラウドに蓄積されている写真データや付加情報を、送受信アンテナ101A及び無線通信部101を通じて取得することもできるようにされる。   In addition, a digital camera or a smartphone equipped with a camera function or a drone is wirelessly connected through the short-range wireless communication antenna 120A and the short-range wireless communication unit 120 to obtain photo data and additional information from them, And can be controlled. Furthermore, the photograph data and additional information stored in a so-called cloud composed of a data center and a server group provided on the Internet can be acquired through the transmission / reception antenna 101A and the wireless communication unit 101. .

なお、デジタルカメラ、スマートホン、ドローンなどの外部機器から写真データや付加情報を取得する場合、当該付加情報には電子ペン2との関連付けのために必要なペンIDは含まれていない。このため、デジタルカメラ、スマートホン、ドローンなどの外部機器から写真データや付加情報を取得する場合には、後から付加情報に電子ペン2のペンIDを付加することができる。   In addition, when acquiring photograph data and additional information from external devices, such as a digital camera, a smart phone, and a drone, the additional information does not include a pen ID necessary for association with the electronic pen 2. For this reason, when acquiring photograph data and additional information from external apparatuses, such as a digital camera, a smart phone, and a drone, pen ID of the electronic pen 2 can be added to additional information later.

また、ペンIDを付加するのではなく、ペンIDとユーザIDとを対応付けて、情報処理装置部100のメモリ部103に格納し、同様に、デジタルカメラ、スマートホン、ドローンなどの外部機器の機器IDとユーザIDとを対応付けて、情報処理装置部100のメモリ部103に格納しておく。そして、電子ペン2からのペンIDにより特定されるユーザIDと、外部機器からの機器IDにより特定されるユーザIDとが同じ場合に、電子ペン2と当該機器IDが付加されていた写真データとを関連付けるようにしてもよい。ユーザIDは、ユーザ氏名、数字列、英数字などが組み合わせたものなど、ユーザを特定可能な種々のものを用いることができる。   Further, instead of adding the pen ID, the pen ID and the user ID are associated with each other and stored in the memory unit 103 of the information processing apparatus unit 100. Similarly, the external device such as a digital camera, a smart phone, or a drone is stored. The device ID and the user ID are associated with each other and stored in the memory unit 103 of the information processing device unit 100. When the user ID specified by the pen ID from the electronic pen 2 and the user ID specified by the device ID from the external device are the same, the electronic pen 2 and the photograph data to which the device ID is added May be associated. Various user IDs that can identify the user, such as a combination of a user name, a numeric string, and alphanumeric characters, can be used.

また、デジタルカメラ、スマートホン、ドローンなどの外部機器には、現在日時を提供する時計回路や現在位置を測位するGPS部が搭載されている。このため、電子ペン2にも時計回路やGPS部を搭載し、現在時刻や現在位置を電子ペン2から入力装置部300を通じて情報処理装置部100に提供できるようにする。そして、電子ペン2からの現在時刻及び現在位置と、デジタルカメラ、スマートホン、ドローンなどの外部機器から写真データに付加されている現在時刻及び現在位置とが、一定の範囲内にあり、電子ペン2と外部機器とが、同一時間帯に同一エリアで使用されていると判別できる場合に、電子ペン2と外部機器からの写真データとを関連付けるようにしてもよい。   Also, external devices such as digital cameras, smart phones, and drones are equipped with a clock circuit that provides the current date and time and a GPS unit that measures the current position. Therefore, the electronic pen 2 is also equipped with a clock circuit and a GPS unit so that the current time and current position can be provided from the electronic pen 2 to the information processing unit 100 through the input device unit 300. The current time and current position from the electronic pen 2 and the current time and current position added to the photo data from an external device such as a digital camera, a smart phone, or a drone are within a certain range. 2 and the external device may be associated with the photographic data from the external device when it can be determined that they are used in the same area in the same time zone.

また、現在時刻と現在位置との両方を用いるのではなく、いずれか一方だけを用いて、電子ペン2と写真データとの関連付けを行うようにしてもよい。このように、電子ペン2と写真データとの関連付けは、ペンID、機器ID、現在時刻、現在位置など種々の情報を用いて行うことができる。また、直接に関連付ける情報でなくとも、上述したペンIDと機器IDのように、同じ情報に紐付ける情報を、関連付け情報として用いるようにしてもよい。   Further, instead of using both the current time and the current position, only one of them may be used to associate the electronic pen 2 with the photo data. As described above, the association between the electronic pen 2 and the photo data can be performed using various information such as the pen ID, the device ID, the current time, and the current position. Further, information associated with the same information, such as the above-described pen ID and device ID, may be used as the association information, instead of the information directly associated.

また、上述した第1の実施の形態では、タブレット型情報端末1と電子ペン2とは有線により接続するものとして説明したが、これに限るものではない。無線により接続するようにしてももちろんよい。例えば、Wi−Fi(登録商標)規格の無線LAN接続、Bluetooh(登録商標)規格の無線通信、NFC(Near field radio communication)などと呼ばれる種々の近距離無線通信、これらを改良、発展させた無線方式により、タブレット型情報端末1と電子ペン2とを無線接続することが可能である。   Further, in the first embodiment described above, the tablet information terminal 1 and the electronic pen 2 are described as being connected by wire, but the present invention is not limited to this. Of course, the connection may be made wirelessly. For example, Wi-Fi (registered trademark) standard wireless LAN connection, Bluetooth (registered trademark) standard wireless communication, various near field wireless communication called NFC (Near field radio communication), etc. The tablet type information terminal 1 and the electronic pen 2 can be wirelessly connected by the method.

また、上述した第1の実施の形態では、点検対象エリアを選択した後に、情報処理装置部100は、自機を写真関連付けモードに遷移させ、操作ボタンに対する操作以外の電子ペン2による指示操作を、写真データに応じた写真の関連付け位置の指示操作と見做すようにした。しかしこれに限るものではない。   Further, in the first embodiment described above, after selecting the inspection target area, the information processing apparatus unit 100 shifts the own apparatus to the photo association mode and performs an instruction operation with the electronic pen 2 other than the operation on the operation button. This is considered to be an instruction operation for associating a photo according to photo data. However, it is not limited to this.

例えば、シャッターボタンが操作された場合に、写真関連付けモードに遷移させてもよい。また、電子ペン2のセンサ部320対する傾きを検出できるようにして、電子ペン2の傾きが所定角度以上、あるいは、所定角度以下の時に、写真関連付けモードに遷移させてもよい。また、電子ペン2と写真データとの関連付けができた場合に、写真関連付けモードに遷移させてもよいし、図18(B)を用いて説明したように、所定のサイドスイッチが押下操作された場合に、写真関連付けモードに遷移させてもよい。また、電子ペン2に加えられた筆圧が、所定値以上あるいは所定値以下のときに、写真関連付けモードに遷移させてもよい。   For example, when the shutter button is operated, the mode may be changed to the photo association mode. Alternatively, the tilt of the electronic pen 2 with respect to the sensor unit 320 can be detected, and when the tilt of the electronic pen 2 is equal to or greater than a predetermined angle or equal to or smaller than a predetermined angle, the mode may be changed to the photo association mode. Further, when the electronic pen 2 and the photo data can be associated with each other, the mode may be changed to the photo association mode, or as described with reference to FIG. 18B, a predetermined side switch is pressed. In this case, the mode may be changed to the photo association mode. Further, when the writing pressure applied to the electronic pen 2 is not less than a predetermined value or not more than a predetermined value, the mode may be changed to the photo association mode.

このように、電子ペン2によるセンサ部320上の指示位置が、写真データに応じた写真の関連付け位置の指示か、それ以外の指示かを情報処理装置部100が認識可能にするためには、所定の事象が発生した場合に、写真関連付けモードに遷移させるようにすればよい。もちろん、サイドスイッチを用いる場合には、写真関連付けモードに遷移させるのではなく、そのときだけ、写真データに応じた写真の関連付け位置の指示操作がされたと判別するようにすればよい。   As described above, in order to enable the information processing apparatus unit 100 to recognize whether the instruction position on the sensor unit 320 by the electronic pen 2 is an instruction of an association position of a photo according to the photo data or an instruction other than that, When a predetermined event occurs, the mode may be changed to the photo association mode. Of course, when the side switch is used, it is only necessary to determine that the instruction operation for the association position of the photo according to the photo data is performed, instead of shifting to the photo association mode.

また、上述した第1の実施の形態では、点検対象エリアの種々の設計図面を表示画面220に表示し、これに写真データを関連付ける場合を説明したが、これに限るものではない。例えば、被写体の全体写真に、当該被写体の各部分の写真を関連付けするようにしたり、電子データとして取り込むようにした手書き画像に写真を関連付けするようにしたりすることができる。すなわち、写真の関連付け対象となる画像は、設計図面の他、種々の画像を用いることが可能である。   Further, in the first embodiment described above, the case has been described in which various design drawings of the inspection target area are displayed on the display screen 220 and the photographic data is associated therewith, but the present invention is not limited to this. For example, a photograph of each part of the subject can be associated with the entire photograph of the subject, or a photograph can be associated with a handwritten image captured as electronic data. That is, various images can be used as an image to be associated with a photograph in addition to the design drawing.

また、上述した第1の実施の形態では、点検対象エリアの目的とする設計図面を表示画面220に表示し、これに点検対象部分の写真データを関連付ける場合について説明した。しかしながら、点検対象が化学プラントのような複雑な場所である場合、写真を取るべき点検箇所(点検部位)が即座に特定できない場合があると考えられる。特に点検に不慣れなユーザ(担当者)が点検を行う場合には点検箇所の特定に時間がかかる場合がある。   Further, in the first embodiment described above, the case has been described in which the design drawing intended for the inspection target area is displayed on the display screen 220 and the photographic data of the inspection target portion is associated therewith. However, when the inspection target is a complex place such as a chemical plant, it is considered that the inspection location (inspection site) to be photographed may not be immediately identified. In particular, when a user (person in charge) unfamiliar with the inspection performs the inspection, it may take time to specify the inspection portion.

そこで、点検部位の画像を予め撮影してその部位の画像データを得て、これを点検対象エリアのエリア設計図等と対応付けて記憶保持しておく。そして、ユーザが目的とする点検エリアに到着し、点検に用いる設計図面を選択した後に、点検部位が即座に特定できない場合に、点検部位サーチ機能を用いるようにする。タブレット型情報端末1の点検部位サーチ機能は、以下の(1)〜(3)の3つのステップからなる。   Therefore, an image of the inspection part is taken in advance to obtain image data of the part, and this is stored and held in association with the area design drawing of the inspection target area. Then, after the user arrives at a target inspection area and selects a design drawing to be used for inspection, the inspection region search function is used when the inspection region cannot be immediately identified. The inspection site search function of the tablet information terminal 1 includes the following three steps (1) to (3).

(1)点検エリアの画像を電子ペン2のカメラユニット22を通じて撮像するようにして取り込む。(2)取り込んだカメラ画像と、選択された設計図等に対応付けられている点検部位の画像データによる画像(点検部位画像)との画像マッチングを行う。(3)この画像マッチングにより点検部位画像と一致する部位(箇所)を点検部位として特定し、これをユーザに通知する。以下、この点検部位サーチ機能について具体的に説明する。   (1) An image of the inspection area is captured so as to be captured through the camera unit 22 of the electronic pen 2. (2) Image matching between the captured camera image and an image (inspection site image) based on the image data of the inspection site associated with the selected design drawing or the like is performed. (3) By this image matching, a part (part) that matches the inspection part image is specified as an inspection part, and this is notified to the user. The inspection site search function will be specifically described below.

図23は、タブレット型情報端末1が備える点検部位サーチ機能を説明するための図である。図23(A)は、予め撮影されて記憶保持されている点検部位の画像データにより形成される点検部位画像TZを示す図である。上述もしたように、点検部位の画像データは、エリア設計図等と対応付けられて、図面等DB105に記憶保持されているものとする。   FIG. 23 is a diagram for explaining an inspection site search function provided in the tablet information terminal 1. FIG. 23A is a diagram showing an inspection site image TZ formed from image data of an inspection site that has been captured and stored in advance. As described above, the image data of the inspection site is associated with the area design drawing and the like, and is stored and held in the drawing DB 105.

そして、点検対象エリアに到着したユーザによって、例えば、タブレット型情報端末1の表示画面220に表示されるメニューから点検部位サーチ機能に対応する項目が選択されることにより、点検部位サーチ機能が実行するようにされたとする。この場合、タブレット型情報端末1の制御部102は、電子ペン2に制御信号を供給し、電子ペン2のカメラユニット22を起動させる。   The user who arrives at the inspection target area executes the inspection region search function by selecting an item corresponding to the inspection region search function from a menu displayed on the display screen 220 of the tablet information terminal 1, for example. Suppose that In this case, the control unit 102 of the tablet information terminal 1 supplies a control signal to the electronic pen 2 and activates the camera unit 22 of the electronic pen 2.

更に、制御部102は、音声メッセージや表示メッセージにより、ユーザに対して点検エリアの撮影を指示する。これに応じて、ユーザは電子ペン2のカメラユニット22の撮像レンズを点検エリアに向けて撮影を行うようにする。これにより、カメラユニット22を通じて点検エリアが撮像され、カメラ画像(撮像画像)がタブレット型情報端末1に送信されて、表示装置部200の表示画面220に表示される。   Further, the control unit 102 instructs the user to shoot the inspection area by a voice message or a display message. In response to this, the user takes an image with the imaging lens of the camera unit 22 of the electronic pen 2 facing the inspection area. Thereby, an inspection area is imaged through the camera unit 22, and a camera image (captured image) is transmitted to the tablet information terminal 1 and displayed on the display screen 220 of the display device unit 200.

図23(B)は、タブレット型情報端末1の表示画面220に表示されたカメラ画像CZの例を示す図である。タブレット型情報端末1の制御部102は、カメラ画像CZ(図23(B))と、点検部位画像TZ(図23(A))とのパターンマッチングを行って、カメラ画像CZ中の点検部位を特定する処理を行う。簡単には、制御部102は、カメラ画像CZ中の各オブジェクトの輪郭を特定し、点検部位画像TZ中のオブジェクトの輪郭と類似の高い部分を検出する。   FIG. 23B is a diagram illustrating an example of the camera image CZ displayed on the display screen 220 of the tablet information terminal 1. The control unit 102 of the tablet-type information terminal 1 performs pattern matching between the camera image CZ (FIG. 23B) and the inspection site image TZ (FIG. 23A), and determines the inspection site in the camera image CZ. Perform the specified process. In brief, the control unit 102 specifies the contour of each object in the camera image CZ, and detects a high portion similar to the contour of the object in the inspection site image TZ.

図23(B)に示すカメラ画像CZの例の場合、カメラ画像CZの右側に点検部位画像TZと類似の高い部位が検出され、その部位を囲むように点線が表示されると共に、矢印YMも表示されて、点検部位CPがユーザに通知される。このように、点検部位サーチ機能は、点検部位画像TZをマーカーとして利用し、このマーカーと一致する部位を点検箇所として通知する機能である。換言すれば、点検部位サーチ機能は、いわゆるAR(Augmented Reality)マーカーとしての機能を実現するものである。これにより、点検に不慣れなユーザが点検を実行する場合にも、点検箇所を間違えることなく迅速に特定し、適切に点検を行うことができる。   In the example of the camera image CZ shown in FIG. 23B, a high part similar to the inspection part image TZ is detected on the right side of the camera image CZ, a dotted line is displayed so as to surround the part, and an arrow YM is also displayed. The inspection site CP is displayed to the user by being displayed. Thus, the inspection part search function is a function that uses the inspection part image TZ as a marker and notifies a part that matches the marker as an inspection part. In other words, the inspection site search function realizes a function as a so-called AR (Augmented Reality) marker. Thereby, even when a user unaccustomed to the inspection performs the inspection, it is possible to quickly specify the inspection portion without making a mistake and perform the inspection appropriately.

また、実際の点検の場面では、例えば、亀裂や変色部位などの問題箇所が発見された場合、その問題箇所の寸法を適切に把握したいとする要求がある。もちろん、問題箇所を撮影した写真の画像データに対して付加できる上述した手書きメモで、問題箇所の寸法等の情報を残すことも可能である。しかし、問題箇所を撮影した写真の画像から問題箇所の寸法等について一見して把握できるようにしておくとより便利である。   Further, in the actual inspection scene, for example, when a problem part such as a crack or a discolored part is found, there is a demand for appropriately grasping the dimension of the problem part. Of course, the above-mentioned handwritten memo that can be added to the image data of a photograph taken of the problem part can leave information such as the dimension of the problem part. However, it is more convenient to make it possible to grasp at a glance the dimensions of the problem part from the image of the photograph taken of the problem part.

ところが、単に問題箇所を撮影しても撮影画像からは問題箇所等の大きさ、具体的には、亀裂の長さや変色部位の大きさを正確に把握できない。撮影時におけるカメラユニット22から被写体(問題箇所等)までの距離などの撮影時の状態が分からないため、問題箇所等の実際の大きさが撮影画像からは把握できないのである。そこで、この実施の形態のタブレット型情報端末1と電子ペン2とからなる装置では、撮像した写真の画像自体に目盛りを自動で付加したり、実際に定規を当てて寸法を測り、撮像した画像上に手書きメモを付加したりすることもできるようにする。   However, even if the problem part is simply photographed, the size of the problem part or the like, specifically, the length of the crack or the size of the discolored part cannot be accurately grasped from the photographed image. Since the state at the time of shooting such as the distance from the camera unit 22 to the subject (problem portion, etc.) at the time of shooting is unknown, the actual size of the problem portion or the like cannot be grasped from the captured image. Therefore, in the apparatus comprising the tablet information terminal 1 and the electronic pen 2 of this embodiment, a scale is automatically added to the photographed image itself, or the dimensions are measured by actually applying a ruler. A handwritten memo can be added to the top.

図24は、自動的に目盛りを付した撮影画像(図24(A))と、目的被写体に定規を当てて被写体の大きさを把握し、手書きメモを記入した撮影画像(図24(B))を説明するための図である。まず、図24(A)を参照しながら、自動的に目盛りを付した撮影画像を得る場合について説明する。図24(A)に示すように、点検箇所の例えば壁面に生じている亀裂KRと当該亀裂KRの周囲に生じている変色箇所HBとを撮影する場合を考える。   FIG. 24 shows a photographed image automatically scaled (FIG. 24A) and a photographed image (FIG. 24B) in which the size of the subject is grasped by applying a ruler to the target subject and a handwritten memo is written. FIG. First, with reference to FIG. 24A, a case where a photographed image automatically scaled is obtained will be described. As shown in FIG. 24A, a case is considered in which a crack KR generated on, for example, a wall surface of an inspection location and a discoloration location HB generated around the crack KR are photographed.

この場合に、タブレット型情報端末1の使用者は、電子ペン2のカメラユニット22を通じて撮影を行うに際して、例えば、表示画面220に表示されている目盛り付与ボタンを指示するなどの撮影画像に目盛りを付加するための所定の操作を行う。この場合、ファインダ制御部110が機能して、カメラユニット22を通じて取り込まれた画像中に存在する被写体を認識し、当該被写体の大きさに応じた目盛りを当該画像中に合成する。   In this case, when the user of the tablet information terminal 1 performs shooting through the camera unit 22 of the electronic pen 2, for example, the scale is displayed on the photographed image such as indicating a scale assignment button displayed on the display screen 220. A predetermined operation for adding is performed. In this case, the finder control unit 110 functions to recognize a subject existing in the image captured through the camera unit 22 and synthesize a scale corresponding to the size of the subject in the image.

被写体の大きさいを算出する方法は種々の方法があるが、その一例について説明する。簡単には、カメラユニット22の焦点距離f、撮影された画像の水平画素数W、撮影された画像中の被写体の水平方向の占有画素数N、被写体までの距離Rが分かれば、被写体の水平方向の大きさL(mm)は、「(36R/f)(N/W)」で求めることができる。この場合、撮像素子サイズのフォーマットが、35mmフィルムサイズ相当の(水平方向36mm×垂直方向24mm)であるものとしている。   There are various methods for calculating the size of the subject, and an example will be described. Briefly, if the focal length f of the camera unit 22, the number of horizontal pixels W of the captured image, the number of pixels O in the horizontal direction of the subject in the captured image, and the distance R to the subject are known, The size L (mm) in the direction can be obtained by “(36 R / f) (N / W)”. In this case, the image sensor size format is equivalent to a 35 mm film size (horizontal direction 36 mm × vertical direction 24 mm).

したがって、上述の式では、(36R/f)で水平方向の倍率を求め、これに(N/W)で写真全体における被写体の横方向に占める割合を掛けることにより、被写体の水平方向の長さを(大きさ)求めている。なお、物体の垂直方向の長さ(大きさ)は、定数「36」に替えて定数「24」を用い、撮影された画像の垂直画素数と、撮影された画像中の被写体の垂直方向の占有画素数を用いれば、同様に計算できる。また、撮像素子サイズのフォーマットが変われば、それに応じて計算式の定数部分の値が変わる。   Therefore, in the above formula, the horizontal magnification of the subject is obtained by calculating the horizontal magnification by (36R / f) and multiplying this by the proportion of the subject in the horizontal direction in the entire photo by (N / W). Seeking (size). Note that the vertical length (size) of the object uses the constant “24” instead of the constant “36”, and the number of vertical pixels of the captured image and the vertical direction of the subject in the captured image. If the number of occupied pixels is used, the same calculation can be performed. If the format of the image sensor size changes, the value of the constant part of the calculation formula changes accordingly.

この場合、焦点距離fは事前に分かっている情報であり、水平画素数Wと占有画素数Nとは、タブレット型情報端末1側で撮影画像に基づいて把握可能な情報である。しかし、カメラユニット22から被写体までの距離Rは、通常分かっていない。このため、被写体までの距離Rは、撮影時にユーザがタブレット型情報端末1に入力するか、あるいは、被写体までの距離Rをタブレット型情報端末1側で算出する。   In this case, the focal length f is information known in advance, and the number of horizontal pixels W and the number of occupied pixels N are information that can be grasped on the tablet information terminal 1 side based on the captured image. However, the distance R from the camera unit 22 to the subject is usually unknown. Therefore, the distance R to the subject is input to the tablet information terminal 1 by the user at the time of shooting, or the distance R to the subject is calculated on the tablet information terminal 1 side.

被写体までの距離Rの算出方法も種々の方法がある。その一例について説明する。この実施の形態の利用態様では多くの場合、1m以内の近距離から点検箇所を撮影する場合が多い。このため、焦点距離やフォーカス調整時の制御量などの取得可能な情報と、被写体までの距離との対応テーブルを作成しても、それほどデータ量が大きくなることもない。そこで、焦点距離やフォーカス調整時の制御量などの取得可能な情報と、被写体までの距離との対応テーブルを用意しておき、これに基づいて被写体までの距離を求めるようにすることができる。   There are various methods for calculating the distance R to the subject. One example will be described. In many cases, in this embodiment, the inspection location is photographed from a short distance of 1 m or less. For this reason, even if a correspondence table between information that can be acquired, such as a focal length and a control amount at the time of focus adjustment, and a distance to a subject is created, the amount of data does not increase so much. Therefore, a correspondence table between information that can be acquired, such as the focal length and the control amount at the time of focus adjustment, and the distance to the subject is prepared, and the distance to the subject can be obtained based on this.

また、タブレット型情報端末1や電子ペン2が、いわゆる深度センサを搭載することにより、被写体までの距離を計測することもできる。また、カメラユニット22が、後述する3Dカメラの構成とされた場合にも、被写体までの距離を計測できる。このような場合には、深度センサや3Dカメラにより計測するようにした被写体までの距離を用いることができる。   Moreover, the tablet-type information terminal 1 and the electronic pen 2 can measure the distance to the subject by mounting a so-called depth sensor. Also, the distance to the subject can be measured even when the camera unit 22 has a 3D camera configuration to be described later. In such a case, it is possible to use a distance to a subject that is measured by a depth sensor or a 3D camera.

このようにして、被写体の大きさ、この例の場合には、亀裂KRと変色箇所HBの大きさが分かれば、ファインダ制御部110は、当該被写体の大きさに合致する目盛りを、カメラユニット22を通じて取り込まれた画像に対して重畳する。これにより、図24(A)に示した態様で、自動的に目盛りを付した被写体の画像を撮影することができる。図24(A)に示した例の場合には、縦には1cm刻みの10cmの目盛りSC1が、横にも1cm刻みの10cmの目盛りSC2が表示されている。これにより、長さは約8cmの亀裂が生じ、その周囲に直径が約8cmの円形の変色箇所が存在することが、当該画像から一目瞭然に把握可能となる。   In this way, if the size of the subject, in this example, the size of the crack KR and the discoloration portion HB is known, the finder control unit 110 displays a scale that matches the size of the subject. Is superimposed on the image captured through. Thereby, the image of the subject automatically calibrated can be taken in the manner shown in FIG. In the example shown in FIG. 24A, a 10 cm scale SC1 in 1 cm increments is displayed in the vertical direction, and a 10 cm scale SC2 in 1 cm increments is also displayed in the horizontal direction. As a result, a crack having a length of about 8 cm is generated, and it can be clearly understood from the image that a circular discoloration portion having a diameter of about 8 cm exists around the crack.

なお、亀裂や変色箇所が目立たない場合には、電子ペン2により、亀裂の上をなぞったり、変色箇所の周囲をなぞったりして、そのなぞった線上の位置を特定して、画像上の亀裂や変色箇所である被写体の位置や形状をタブレット型情報端末1が把握する。この把握した被写体の位置や形状に基づいて、撮影された画像の水平画素数Wや、撮影された画像の垂直画素数を把握するようにし、上述した計算に利用することができる。   If the crack or discoloration is not conspicuous, the electronic pen 2 can be traced on the crack or around the discoloration to identify the position on the traced line, and the crack on the image The tablet-type information terminal 1 grasps the position and shape of the subject that is a discoloration point. Based on the grasped position and shape of the subject, the horizontal pixel number W of the photographed image and the vertical pixel number of the photographed image can be grasped and used for the above-described calculation.

次に、図24(B)を参照しながら、目的被写体に定規を当てて被写体の大きさを把握し、手書きメモを記入した撮影画像を得るようにする場合について説明する。図24(B)においても、図24(A)を用いて説明した場合と同様に、点検箇所の例えば壁面に生じている亀裂KRと当該亀裂KRの周囲の変色箇所HBとを撮影する場合を考える。   Next, with reference to FIG. 24B, a case will be described in which a ruler is applied to a target subject to grasp the size of the subject and a photographed image in which a handwritten memo is written is obtained. In FIG. 24 (B), as in the case described with reference to FIG. 24 (A), a case where a crack KR generated on, for example, a wall surface of the inspection location and a discoloration location HB around the crack KR are photographed. Think.

この例の場合には、図24(B)に示すように、亀裂KRに沿って実際に定規RLを当てて、亀裂KRや変色箇所HBの大きさを実測する。そして、当該部分を撮像し、撮像した画像をタブレット型情報端末1の表示画面220に表示し、電子ペン2を用いて当該撮像画像上に手書きメモを入力する。図24(B)の場合には、「亀裂長8cm」という手書きメモHM1と、「亀裂の周囲に直径約8cmの変色箇所」という手書きメモHM2が入力された状態を示している。   In the case of this example, as shown in FIG. 24B, a ruler RL is actually applied along the crack KR to actually measure the size of the crack KR and the discolored portion HB. And the said part is imaged, the imaged image is displayed on the display screen 220 of the tablet-type information terminal 1, and a handwritten memo is input on the said captured image using the electronic pen 2. FIG. In the case of FIG. 24B, a state is shown in which a handwritten memo HM1 “crack length 8 cm” and a handwritten memo HM2 “discolored portion having a diameter of about 8 cm around the crack” are input.

この例の場合、点検箇所の撮像画像に対して、手書きメモHM1、HM2を重畳するようにして一体の画像データとし記憶保持してもよい。また、撮像画像にとは別に、手書きメモHM1、HM2を当該撮像画像上の重畳位置を示す座標データとともに記憶保持するようにしてもよい。後者の場合には、当該撮像画像の再生時において、当該手書きメモHM1、HM2を当該撮像画像に重畳して表示することになる。   In the case of this example, the handwritten memos HM1 and HM2 may be superimposed on the captured image of the inspection location and stored and held as integral image data. In addition to the captured image, the handwritten memos HM1 and HM2 may be stored and held together with coordinate data indicating the superimposed position on the captured image. In the latter case, when the captured image is reproduced, the handwritten memos HM1 and HM2 are displayed superimposed on the captured image.

これにより、点検箇所の画像と共に、その点検箇所に存在する亀裂や変色箇所などについての問題の所在をユーザ(点検者)の手書きメモにより明確に示すことができる。また、亀裂や変色箇所などの問題箇所の大きさ、その他の重要な情報についても、ユーザの手書きメモによって明確に把握することができる。   Thereby, the location of the problem about a crack, a discoloration location, etc. which exist in the inspection location with the image of the inspection location can be clearly indicated by the handwritten memo of the user (inspector). In addition, the size of problem parts such as cracks and discoloration parts and other important information can be clearly grasped by the user's handwritten memo.

なお、定規RLを問題箇所に当てた状態で、当該問題箇所の画像を撮影するようにしてももちろんよい。また、手書きメモの内容も問題箇所の大きさに関するものだけでなく、今後の処置方法や緊急性の有無などの必要となる種々の情報を手書きにより付加することができる。   Of course, the image of the problem part may be taken in a state where the ruler RL is applied to the problem part. In addition, the contents of the handwritten memo can be added not only with respect to the size of the problem part, but also with various information necessary for the future treatment method and the presence or absence of urgency.

また、撮影画像と手書きメモとを別々に記憶保持する場合には、手書きメモデータにも、これが入力されたときに用いられた電子ペン2のペンIDを付加しておくようにする。このようにすれば、上述したように撮影画像にも電子ペン2のペンIDが付加されているので、撮影画像と、これに重畳させる手書きメモデータとの対応付けをしやすくすることができる。また、撮影画像の場合と同様に、手書き画像データについても、これが利用可能なユーザをペンIDやユーザIDなどの個別情報により制限することもできる。   When the captured image and the handwritten memo are stored and held separately, the pen ID of the electronic pen 2 used when the photographed image and the handwritten memo are input is added. In this way, since the pen ID of the electronic pen 2 is added to the captured image as described above, it is possible to easily associate the captured image with the handwritten memo data to be superimposed on the captured image. Similarly to the case of the captured image, the user who can use the handwritten image data can be restricted by individual information such as a pen ID and a user ID.

[第2の実施の形態]
上述した第1の実施の形態では、2次元の画像データ(エリア設計図)の指示した位置に、電子ペン2のカメラユニット22を通じて取得し、ペンIDが付加されている画像データ(写真)を関連付けるようにした。すなわち、関連付けられる画像データはいずれも2次元の画像データであった。しかし、これに限るものではない。3次元データを関連付けの対象とすることもできる。
[Second Embodiment]
In the first embodiment described above, image data (photographs) acquired through the camera unit 22 of the electronic pen 2 at the position indicated by the two-dimensional image data (area design drawing) and the pen ID is added. It was made to relate. That is, all the associated image data is two-dimensional image data. However, it is not limited to this. Three-dimensional data can also be the target of association.

この第2の実施の形態では、第1の実施例として、3Dオブジェクトデータを予め用意しておき、これに電子ペン2のカメラユニット22を通じて撮影することにより得た2次元の画像データを関連付けることができるようにする。3Dオブジェクトデータは、3Dオブジェクト(3次元物体)を表示するためのデータであり、テクスチャ画像データやポリゴンデータなどからなる3次元データである。   In the second embodiment, as a first example, 3D object data is prepared in advance, and two-dimensional image data obtained by photographing through the camera unit 22 of the electronic pen 2 is associated with the 3D object data. To be able to. The 3D object data is data for displaying a 3D object (three-dimensional object), and is three-dimensional data including texture image data and polygon data.

また、この第2の実施の形態では、第2の実施例として、3D(3次元)空間画像データと、3D(3次元)カメラを用いて撮影することにより取り込むようにした3Dオブジェクトデータとを関連付けることができるようにする。3D空間画像データは、例えば屋内の状態などの3次元空間画像を表示するためのデータであり、3Dオブジェクトデータと同様にテクスチャ画像データやポリゴンデータなどからなる3次元データである。   In the second embodiment, as a second example, 3D (three-dimensional) space image data and 3D object data captured by photographing using a 3D (three-dimensional) camera are used. To be able to associate. The 3D space image data is data for displaying a 3D space image such as an indoor state, for example, and is 3D data composed of texture image data, polygon data, and the like, similar to 3D object data.

このように、以下に説明する第2の実施の形態の場合には、処理対象となるデータが、3Dオブジェクトデータや3D空間画像データである点が、上述した第1の実施の形態の場合とは異なっている。しかし、3Dオブジェクトデータや3D空間画像データを処理する情報処理装置としては、上述した第1の実施の形態のタブレット型情報端末1を用いることができる。このため、以下に説明する第2の実施の形態においても、図1〜図6を用いて説明した第1の実施の形態のタブレット型情報端末1と電子ペン2とを用いるものとし、必要に応じて図1、図2等の図面についても参照しながら説明する。   Thus, in the case of the second embodiment described below, the point that the data to be processed is 3D object data or 3D spatial image data is the same as in the case of the first embodiment described above. Is different. However, as the information processing apparatus that processes 3D object data and 3D spatial image data, the tablet information terminal 1 according to the first embodiment described above can be used. For this reason, also in the second embodiment described below, the tablet-type information terminal 1 and the electronic pen 2 according to the first embodiment described with reference to FIGS. Accordingly, description will be made with reference to FIGS. 1 and 2 as well.

まず、第1の実施例として、予め用意される3Dオブジェクトデータと2次元の画像データ(写真)とを関連付ける場合について説明する。まず、市場に種々提供されている3Dソフトウェアを用いて、目的とする3Dオブジェクトを表示するための3Dオブジェクトデータを作成し、これをタブレット型情報端末1の図面等DB105の所定の記憶領域に記憶保持しておく。   First, as a first embodiment, a case in which 3D object data prepared in advance and two-dimensional image data (photograph) are associated will be described. First, 3D object data for displaying a target 3D object is created by using 3D software provided in the market, and this is stored in a predetermined storage area of the DB 105 such as a drawing of the tablet information terminal 1. Keep it.

この場合、3Dソフトウェアを用いた3Dオブジェクトデータの作成は、タブレット型情報端末1で行ってもよいし、他のパーソナルコンピュータなどで行って、作成したものをタブレット型情報端末1の図面等DB105に記憶するようにしてもよい。なお、3Dソフトウェアは、モデリング機能やレンダリンク機能を備え、3Dオブジェクト(3次元モデル)を作成して、これを描画(表示)することができるものである。図25は、第2の実施の形態において、図面等DB105の所定の格納エリアに格納される3Dオブジェクトデータファイルの例を説明するための図である。   In this case, the creation of 3D object data using the 3D software may be performed by the tablet information terminal 1 or may be performed by another personal computer or the like, and the created data may be stored in the DB 105 or the like of the tablet information terminal 1. You may make it memorize | store. The 3D software has a modeling function and a render link function, and can create a 3D object (three-dimensional model) and draw (display) it. FIG. 25 is a diagram for explaining an example of a 3D object data file stored in a predetermined storage area of the drawing 105 DB 105 in the second embodiment.

図25(A)に示すように、この例の3Dオブジェクトデータファイルは、3Dオブジェクトを表示するための3Dオブジェクトデータに対して、立体画像ID、枝番、備考といったメタデータが付加されたものである。この例において、立体画像IDは5桁の数字であり、枝番は2桁の数字である。これら立体画像IDと枝番とによって、3Dオブジェクトデータを一意に特定することができる。立体画像IDは、例えば、円柱、角柱、円錐、角錐、…といった代表的な3Dオブジェクト(立体画像)に対応している。枝番は、立体画像IDによって特定される3Dオブジェクトについてバリエーションがある場合に、バリエーションを特定する情報となる。   As shown in FIG. 25A, the 3D object data file in this example is obtained by adding metadata such as a stereoscopic image ID, a branch number, and remarks to 3D object data for displaying a 3D object. is there. In this example, the stereoscopic image ID is a 5-digit number, and the branch number is a 2-digit number. The 3D object data can be uniquely specified by the stereoscopic image ID and the branch number. The stereoscopic image ID corresponds to a typical 3D object (stereoscopic image) such as a cylinder, a prism, a cone, a pyramid,. The branch number is information for specifying a variation when there is a variation for the 3D object specified by the stereoscopic image ID.

すなわち、円柱にも底面や上面の面積の大小、高さの高低など種々のバリエーションがあるため、そのバリエーションに応じた3Dオブジェクトを表示するための複数の3Dオブジェクトデータを図面等DB105に蓄積し、立体画像IDと枝番とによって、その1つ1つを特定できるようにしている。例えば、予め決められた基本的な円柱は、立体画像IDが「10001」で枝番が「01」であり、それよりも上面、底面が小さな円柱は、立体画像IDが「10001」で枝番が「02」などというように、3Dオブジェクトデータのそれぞれが一意に特定可能になっている。   That is, since the cylinder has various variations such as the size of the bottom and top surfaces and the height, the plurality of 3D object data for displaying the 3D object corresponding to the variation is stored in the drawing DB 105. Each of them can be specified by the stereoscopic image ID and the branch number. For example, a predetermined basic cylinder has a stereoscopic image ID “10001” and a branch number “01”, and a cylinder having a smaller top surface and bottom surface has a stereoscopic image ID “10001” and a branch number. Each of the 3D object data can be uniquely specified such as “02”.

なお、図面等DB105に記憶保持される3Dオブジェクトデータファイルにおいて、立体画像IDには、当該立体画像IDによって特定される3Dオブジェクトデータによって表示される3Dオブジェクト(立体画像)の名称も対応付けられている。さらに、備考として、当該3Dオブジェクトデータに関連する種々のテキスト情報も付加できるようになっている。   In the 3D object data file stored and held in the DB 105 such as a drawing, the stereoscopic image ID is also associated with the name of the 3D object (stereoscopic image) displayed by the 3D object data specified by the stereoscopic image ID. Yes. Further, as remarks, various text information related to the 3D object data can be added.

そして、図25(A)に示した3Dオブジェクトデータファイルは、立体画像IDが「10001」で、当該3Dオブジェクトデータファイルに格納されている3Dオブジェクトデータは「円柱」を表示するためのものであり、その枝番は「01」であることが示されている。また、備考には「基本的な3次元図形」である旨のテキスト情報が付加されている。そして、この例では、図25(A)に示した3Dオブジェクトデータファイルに格納されている3Dオブジェクトデータにより、例えば図25(B)に示すように、円柱である3DオブジェクトGXを表示することができるようになっている。   The 3D object data file shown in FIG. 25A has a stereoscopic image ID “10001”, and the 3D object data stored in the 3D object data file is for displaying “cylinder”. The branch number is “01”. In addition, text information indicating “basic three-dimensional figure” is added to the remarks. In this example, the 3D object GX that is a cylinder can be displayed as shown in, for example, FIG. 25B by using the 3D object data stored in the 3D object data file shown in FIG. It can be done.

なお、上述もしたように、3Dソフトウェアが用いられて、種々の3Dオブジェクト(立体図形)を表示するための複数の3Dオブジェクトデータが事前に形成される。そして、形成した3Dオブジェクトデータに対して、立体画像ID、枝番、備考といった必要となる情報が付与されて、図25(A)に示した態様で図面等DB105の所定の記憶領域に記憶保持される。このようにして、図面等DB105に記憶保持されている3Dオブジェクトデータファイルは、タブレット型情報端末1のユーザが利用できるようになっている。   As described above, a plurality of 3D object data for displaying various 3D objects (solid figures) is formed in advance using 3D software. Then, necessary information such as a stereoscopic image ID, branch number, and remarks is added to the formed 3D object data, and stored in a predetermined storage area of the DB 105 such as a drawing in the form shown in FIG. Is done. In this way, the user of the tablet information terminal 1 can use the 3D object data file stored and retained in the DB 105 such as a drawing.

また、この例においても、図4を用いて説明したように、写真フォルダ104には、電子ペン2のカメラユニット22を通じて撮影することにより得た写真データ(2次元の画像データ)が記憶保持されている。図26は、写真フォルダ104に格納されている写真ファイルの具体例を説明するための図である。この例においては、図26に示すように、写真フォルダ104には、ある点検エリアで撮影した例えば圧力計の写真PXを表示する写真データが記憶保持されているものとする。   Also in this example, as described with reference to FIG. 4, the photo folder 104 stores and holds photo data (two-dimensional image data) obtained by photographing through the camera unit 22 of the electronic pen 2. ing. FIG. 26 is a diagram for explaining a specific example of a photo file stored in the photo folder 104. In this example, as shown in FIG. 26, it is assumed that the photo folder 104 stores, for example, photo data for displaying a photo PX of a pressure gauge taken in a certain inspection area.

そして、用途は特に限定されないが、例えば、撮影することにより得た複数の写真データを整理するなどのために、各写真データを目的とする3Dオブジェクトデータと関係付けるようにしたい場合が生じたとする。この場合に、この例のタブレット型情報端末1では、点検エリアの設計図面データに対して写真データを関連付けた第1の実施の形態の場合と同様に、目的とする3Dオブジェクトデータに対して、目的とする写真データを関連付けることができるようにしている。   The usage is not particularly limited. For example, there is a case where it is desired to associate each piece of photo data with the target 3D object data in order to organize a plurality of pieces of photo data obtained by shooting. . In this case, in the tablet type information terminal 1 of this example, as in the case of the first embodiment in which the photo data is associated with the design drawing data of the inspection area, the target 3D object data is The target photo data can be associated.

図27は、3Dオブジェクトデータと写真データとの関連付けについて説明するための図である。タブレット型情報端末1のユーザは、表示装置部200の表示画面に220に表示されるメニューから例えば「テクスチャーマッピング」などいった3Dオブジェクトデータと写真データの関連付けを行うための項目を選択する。これにより、タブレット型情報端末1の制御部102は、3Dオブジェクトデータと写真データの関連付けを行う処理を実行する。   FIG. 27 is a diagram for explaining the association between 3D object data and photo data. The user of the tablet information terminal 1 selects an item for associating 3D object data and photo data such as “texture mapping” from a menu displayed on the display screen 220 of the display device unit 200. Thereby, the control part 102 of the tablet-type information terminal 1 performs the process which associates 3D object data and photograph data.

この場合、制御部102は、図面等DB105の3Dオブジェクトデータファイルに基づき、代表的な3Dオブジェクトの一覧リストを表示画面220に表示して、ユーザにより選択可能する。この一覧リストからユーザは関連付けに用いる3Dオブジェクトを選択する。ここでは、立体識別IDが「10001」の円柱が選択されたとする。そして、制御部102が各部を制御することにより、ユーザによって選択された3Dオブジェクトデータに対して、ユーザにより指示された写真データを関連付ける処理が実行される。   In this case, the control unit 102 displays a list of representative 3D objects on the display screen 220 based on the 3D object data file of the DB 105 such as a drawing and can be selected by the user. From this list, the user selects a 3D object to be used for association. Here, it is assumed that the cylinder with the solid identification ID “10001” is selected. Then, when the control unit 102 controls each unit, a process of associating the photo data instructed by the user with the 3D object data selected by the user is executed.

この例の場合、まず、図面取得部111が機能し、図面等DB105から立体画像IDが「10001」である3Dオブジェクトデータファイルを抽出する。次に、図面表示処理部112が機能し、抽出された立体画像IDが「10001」の3Dオブジェクトデータファイルのうち、枝番が「01」の3Dオブジェクトデータファイルの3Dオブジェクトデータに応じた3Dオブジェクを表示画面220に表示する。   In this example, first, the drawing acquisition unit 111 functions to extract a 3D object data file whose stereoscopic image ID is “10001” from the drawing etc. DB 105. Next, the drawing display processing unit 112 functions, and the 3D object corresponding to the 3D object data of the 3D object data file whose branch number is “01” among the extracted 3D object data files whose stereoscopic image ID is “10001”. Is displayed on the display screen 220.

当該3Dオブジェクトの表示画面においては、例えば、図27に示すように、表示画面220の上端部には、改頁ボタンLP、RPが表示されると共に、立体画像IDと、立体画像(3Dオブジェクト)名称と、「1/10」などといった頁番号が表示される。なお、当該3Dオブジェクトの最初の頁には左改頁ボタンLPは表示されず、最後の頁には右改頁ボタンは表示されない。有効でない操作を行わせないためである。そして、改頁ボタンLP、RP上を電子ペン2で指示することにより改頁が行われ、関連付けの対象とする3Dオブジェクトの選択ができる。また、頁番号により、その立体画像IDの3Dオブジェクトデータファイルの総数はいくついあり、現在の表示頁は何頁かが把握できる。   On the display screen of the 3D object, for example, as shown in FIG. 27, the page break buttons LP and RP are displayed at the upper end of the display screen 220, and the stereoscopic image ID and the stereoscopic image (3D object) are displayed. The name and page number such as “1/10” are displayed. Note that the left page break button LP is not displayed on the first page of the 3D object, and the right page break button is not displayed on the last page. This is because an invalid operation is not performed. Then, a page break is performed by instructing the page break buttons LP and RP with the electronic pen 2, and a 3D object to be associated can be selected. In addition, the total number of 3D object data files of the stereoscopic image ID is determined based on the page number, and the current display page can be recognized.

そして、ユーザは、改頁ボタンLP、RPを使用して目的とする3Dオブジェクトを表示画面220上に表示させると、次に、写真データに応じた2次元画像を張り付行け位置の例えば左上端部PLを電子ペン2で指示する。この場合、制御部102は、入力装置部330のセンサ部320から指示位置を示す座標データと電子ペン2のペンIDを取得する。そして、写真取得部106が機能し、制御部102が取得したペンIDと同じペンIDを付加情報として有する写真データファイルを写真フォルダ104から読み出す。   Then, when the user uses the page break buttons LP and RP to display the target 3D object on the display screen 220, next, for example, the upper left corner of the pasting position of the two-dimensional image corresponding to the photo data The part PL is indicated with the electronic pen 2. In this case, the control unit 102 acquires coordinate data indicating the indicated position and the pen ID of the electronic pen 2 from the sensor unit 320 of the input device unit 330. Then, the photo acquisition unit 106 functions and reads out from the photo folder 104 a photo data file having the same pen ID as the additional information acquired by the control unit 102 as additional information.

この後、第1関連付け部107が、指示位置を示す座標データ(センサ部上の座標位置を示すもの)と写真データとを対応付ける。次に、写真関連付け部108が機能して、図27に示したように、指示された座標位置(左上端部PL)を基準にして、当該座標位置を示す座標データに対応付けられている写真ファイルの写真データに応じた写真PXを表示する。この写真表示処理部115の写真表示処理は、選択された3Dオブジェクトである円柱の表面に沿って、抽出され写真データによる写真を貼り付けて表示するものであり、いわゆるテクスチャーマッピングの手法が用いられる。これにより、図27に示すように、選択された3Dオブジェクトである円柱GXの表面(この例の場合は側面)に沿うようにして、読み出された写真データに応じた圧力計の写真PXが貼り付けられる。   Thereafter, the first associating unit 107 associates the coordinate data indicating the indicated position (indicating the coordinate position on the sensor unit) with the photo data. Next, as shown in FIG. 27, the photo associating unit 108 functions, and the photo associated with the coordinate data indicating the coordinate position on the basis of the instructed coordinate position (upper left corner PL). A photo PX corresponding to the photo data of the file is displayed. The photo display processing of the photo display processing unit 115 is to extract and display a photo based on photo data extracted along the surface of a cylinder that is a selected 3D object, and a so-called texture mapping method is used. . As a result, as shown in FIG. 27, the photo PX of the pressure gauge corresponding to the read photo data is formed along the surface (side surface in this example) of the column GX that is the selected 3D object. It is pasted.

そして、貼り付けた写真PX上に電子ペン2を接触させて、ドラッグ操作を行えば、3DオブジェクトGX上において、写真PXの貼付位置を移動させることができる。したがって、3DオブジェクトGXの上面から側面にかけて写真PXを貼り付けるようにするなどのこともできる。また、貼り付けた写真PXの4辺のうちのいずれかの辺上に電子ペン2を接触させて、ドラッグ操作を行えば、その辺を移動させ、写真PXの幅や高さを変更することができる。また、貼り付けた写真PXの4つの頂点のうちのいずれかの頂点に電子ペン2を接触させてドラッグ操作を行えば、その頂点を移動させ写真PXを変形させることができる。   If the electronic pen 2 is brought into contact with the pasted photograph PX and a drag operation is performed, the pasting position of the photograph PX can be moved on the 3D object GX. Therefore, the photograph PX can be pasted from the upper surface to the side surface of the 3D object GX. Further, if the electronic pen 2 is brought into contact with any one of the four sides of the pasted photo PX and a drag operation is performed, the side is moved to change the width or height of the photo PX. Can do. Further, when the electronic pen 2 is brought into contact with any one of the four vertices of the pasted photograph PX and a drag operation is performed, the vertex can be moved to deform the photograph PX.

このようにして、3Dオブジェクトに対して写真が貼り付けられると、第2関連付け部114が機能する。第2関連付け部114は、立体画像IDと枝番と備考とからなる3Dオブジェクトに関するメタデータと、写真IDと貼付場所を示す座標データとからなる写真に関するメタデータとからなる関連付けデータを生成する。ここで、写真の貼付場所は、写真の最終的に確定した4つの頂点のそれぞれの位置を示す座標データであるが、センサ部320上の位置ではなく、貼り付け対象の3Dオブジェクト上の位置を示すデータに変換される。   Thus, when a photograph is pasted on a 3D object, the second association unit 114 functions. The second associating unit 114 generates association data including metadata regarding a 3D object including a stereoscopic image ID, a branch number, and remarks, and metadata regarding a photo including a photo ID and coordinate data indicating a pasting location. Here, the location where the photo is pasted is coordinate data indicating the positions of the four final vertices of the photo, but the location on the 3D object to be pasted is not the location on the sensor unit 320. Is converted to the data shown.

この場合の変換は、例えば、3Dオブジェクトが円柱であれば図27の原点Oを基準にした位置に変換される。どこが基準(原点O)になるかは、3Dオブジェクト毎に決められている。そして、第2関連付け部114は、生成した関連付けデータを、例えば、メモリ部103の所定の記憶領域に記録して、必要に応じて繰り返し利用することができるようにする。この場合の関連付けデータは、図16を用いて説明した第1の実施の形態の関連付けデータに対応するものである。   For example, if the 3D object is a cylinder, the conversion in this case is converted to a position based on the origin O in FIG. The reference (origin O) is determined for each 3D object. Then, the second association unit 114 records the generated association data in, for example, a predetermined storage area of the memory unit 103 so that it can be used repeatedly as necessary. The association data in this case corresponds to the association data of the first embodiment described with reference to FIG.

なお、電子ペン2により撮影され、電子ペン2の電子ペンIDが付加された写真データファイルが複数存在する場合には、第1の実施の形態の場合と同様に、まず複数の写真データによる写真のそれぞれのサムネイル画像を表示する。そして、そのサムネイル画像の中から関連付けに用いる写真データを選択するようにできる。   When there are a plurality of photograph data files that are taken with the electronic pen 2 and to which the electronic pen ID of the electronic pen 2 is added, as in the case of the first embodiment, first, a photograph using a plurality of photograph data. Each thumbnail image of is displayed. Then, photo data used for association can be selected from the thumbnail images.

また、選択した写真データが違う場合には、ボタンB4上に電子ペン2を接触させることにより、写真データの選択をやり直すことができる。また、目的とする3Dオブジェクトの目的とする位置に目的とする写真を貼り付けることが出来た場合には、OKボタンB5に電子ペン2を接触させることにより関連付け処理を終了し、上述したように関連付けデータを生成し、これをメモリ部103の所定の記憶領域に記録することができる。   If the selected photograph data is different, the photograph data can be selected again by bringing the electronic pen 2 into contact with the button B4. If the target photograph can be pasted to the target position of the target 3D object, the association process is terminated by bringing the electronic pen 2 into contact with the OK button B5, and as described above. Association data can be generated and recorded in a predetermined storage area of the memory unit 103.

このように、この第2の実施の形態の第1の実施例の場合には、3Dオブジェクトに対して、写真を貼り付けるようにする操作を行うことによって、3Dオブジェクトデータと写真データとの関連付けを行うことができる。しかも、写真データには、電子ペン2のペンIDが付加されているので、電子ペン2のカメラユニット22を通じて撮像することにより得た写真データを自動的に関連付けの対象とすることができる。   As described above, in the case of the first example of the second embodiment, the operation of pasting the photo on the 3D object is performed to associate the 3D object data with the photo data. It can be performed. Moreover, since the pen ID of the electronic pen 2 is added to the photograph data, the photograph data obtained by taking an image through the camera unit 22 of the electronic pen 2 can be automatically associated.

次に、この第2の実施の形態の第2の実施例である、予め用意される3D空間画像データと3Dカメラで撮影することにより取り込むようにした3Dオブジェクトデータとを関連付ける場合について説明する。まず、例えば、3Dソフトウェアを用いて、目的とする3D空間画像を表示するための3D空間画像データを作成し、これをタブレット型情報端末1の図面等DB105の所定の記憶領域に記憶保持しておく。3D空間画像データの作成はタブレット型情報端末1で行うこともできるし、他のパーソナルコンピュータなどで行って、作成したものをタブレット型情報端末1の図面等DB105に記憶するようにしてもよい。   Next, a case of associating 3D spatial image data prepared in advance with 3D object data captured by shooting with a 3D camera, which is a second example of the second embodiment, will be described. First, for example, using 3D software, 3D space image data for displaying a target 3D space image is created and stored in a predetermined storage area of the DB 105 such as the drawing of the tablet information terminal 1. deep. The creation of the 3D space image data can be performed by the tablet information terminal 1 or may be performed by another personal computer or the like, and the created data may be stored in the drawing 105 of the tablet information terminal 1 in the DB 105.

図28は、この例において、図面等DB105に格納される3D空間画像データファイルの例を説明するための図である。図28(A)に示すように、この例の3D空間画像データファイルは、3D空間画像を表示するための3D空間画像データに対して、3D空間ID、備考といったメタデータが付加されたものである。この例において、3D空間IDは5桁の数字であり、3D空間画像データを一意に特定することができるものである。また、3D空間IDに対応して、当該3D空間IDによって特定される3D空間画像データによって表示される3D空間画像(立体画像)の名称も対応付けられている。さらに、備考には、当該3D空間画像データに関連する種々のテキスト情報が格納される。   FIG. 28 is a diagram for explaining an example of a 3D spatial image data file stored in the drawing DB 105 in this example. As shown in FIG. 28A, the 3D space image data file in this example is obtained by adding metadata such as a 3D space ID and remarks to 3D space image data for displaying a 3D space image. is there. In this example, the 3D space ID is a five-digit number and can uniquely identify the 3D space image data. In addition, a name of a 3D space image (stereoscopic image) displayed by 3D space image data specified by the 3D space ID is also associated with the 3D space ID. Further, the remarks store various text information related to the 3D spatial image data.

そして、図28(A)に示した3D空間画像データファイルは、3D空間IDが「00001」で、当該3D空間画像データファイルに格納されている3D空間画像データは「室内A」の3D空間画像を表示するためのものであることが示されている。また、備考には「室内の3次元空間画像パターン」である旨のテキスト情報が付加されている。そして、図28(A)に示した3D空間画像データファイルに格納されている3D空間画像データにより、例えば図28(B)に示すように、テーブルTBが置かれた室内の3次元空間画像を表示することができる。   The 3D space image data file shown in FIG. 28A has the 3D space ID “00001”, and the 3D space image data stored in the 3D space image data file is the 3D space image “room A”. It is shown that it is for displaying. In addition, text information indicating “indoor three-dimensional space image pattern” is added to the remarks. Then, using the 3D space image data stored in the 3D space image data file shown in FIG. 28A, for example, as shown in FIG. 28B, the indoor 3D space image in which the table TB is placed is converted. Can be displayed.

なお、上述もしたように、3Dソフトウェアが用いられて、種々の3D空間画像を表示するための複数の3D空間画像データが事前に形成される。そして、形成した3D空間画像データに対して、3D空間ID、備考といった必要となる情報が付与されて、図28(A)に示した態様で図面等DB105に記憶保持される。このようにして、図面等DB105に記憶保持されている3D空間画像データファイルは、タブレット型情報端末1のユーザが利用することができるようになっている。   As described above, 3D software is used to generate a plurality of 3D space image data for displaying various 3D space images in advance. Then, necessary information such as a 3D space ID and remarks is given to the formed 3D space image data, and is stored and held in the drawing etc. DB 105 in the manner shown in FIG. In this way, the user of the tablet information terminal 1 can use the 3D space image data file stored and held in the DB 105 such as a drawing.

そして、この例において、タブレット型情報端末1には、3Dカメラユニット22Cを搭載した電子ペン2Cが接続されている。3Dカメラを用いて目的とする被写体(対象物)を撮影する場合には、3Dカメラから被写体までの距離が分かる。このため、タブレット型情報端末1では、電子ペン2Cの3Dカメラユニット22Cを通じて撮影した画像に基づいて、被写体(対象物)を3Dオブジェクトとして表示する3Dオブジェクトデータを生成し、これを写真フォルダ104に記憶保持する。   In this example, the tablet type information terminal 1 is connected to an electronic pen 2C equipped with a 3D camera unit 22C. When a target subject (object) is photographed using a 3D camera, the distance from the 3D camera to the subject is known. For this reason, the tablet information terminal 1 generates 3D object data for displaying a subject (target object) as a 3D object based on an image photographed through the 3D camera unit 22C of the electronic pen 2C, and stores this in the photo folder 104. Keep in memory.

図29は、この例の電子ペン2Cの外観を説明するための図である。図29に示すように、電子ペン2Cが備える3Dカメラユニット22Cは、撮像レンズを2つ備えたものである。そして、図示しないが、2つの撮像レンズのそれぞれに対応する2つの撮像素子を備え、2つのそれぞれの撮像レンズを通じて被写体を撮像することができるものである。   FIG. 29 is a view for explaining the appearance of the electronic pen 2C of this example. As shown in FIG. 29, the 3D camera unit 22C included in the electronic pen 2C includes two imaging lenses. Although not shown, two imaging elements corresponding to each of the two imaging lenses are provided, and the subject can be imaged through the two imaging lenses.

したがって、3Dカメラユニット22Cは、ヒトの左右のそれぞれの目で見ているそれぞれの画像を撮影するのと同様の画像が撮影できる。そして、2つの撮像レンズ間の距離は既知である。この2つの撮像レンズ間を結ぶ直線を基線とする。そして、この基線の両端(撮像レンズの中心)のそれぞれから目的とする被写体の注目点までの直線と、当該基線とのなす角の角度も分かる。このため、三角測量法により、当該被写体の注目点までの距離が分かる。   Therefore, the 3D camera unit 22 </ b> C can capture the same image as capturing each image viewed by the left and right eyes of the human. The distance between the two imaging lenses is known. A straight line connecting the two imaging lenses is a base line. Then, the angle between the straight line from each of both ends of the base line (the center of the imaging lens) to the target point of interest of the object and the base line is also known. For this reason, the distance to the attention point of the subject can be known by the triangulation method.

これを利用し、タブレット型情報端末1においては、電子ペン2Cの3Dカメラユニット22Cからの写真データから被写体の複数の注目点までの距離を算出し、これに基づき被写体(対象物)の3Dオブジェクトデータを生成することができる。このため、タブレット型情報端末1においては、例えば制御部102が機能し、3Dカメラユニット22Cを通じて撮像した2つの写真データのほかに、被写体の3Dオブジェクトデータも生成して、写真フォルダ104に記憶保持するようにしている。   Using this, in the tablet information terminal 1, the distance from the photograph data from the 3D camera unit 22C of the electronic pen 2C to a plurality of points of interest of the subject is calculated, and based on this, the 3D object of the subject (target object) is calculated. Data can be generated. For this reason, in the tablet type information terminal 1, for example, the control unit 102 functions to generate 3D object data of a subject in addition to two pieces of photograph data captured through the 3D camera unit 22C, and store them in the photograph folder 104. Like to do.

図30は、写真フォルダ104に格納されている被写体の3Dオブジェクトデータファイルの具体例を説明するための図である。図30に示すように、この例の被写体の3Dオブジェクトデータファイルは、上述したように、3Dカメラユニット22Cを通じて撮影された写真出たに基づいて生成された被写体の3Dオブジェクトデータに対して、被写体IDと付加情報とが付加されて形成されたものである。   FIG. 30 is a diagram for explaining a specific example of the 3D object data file of the subject stored in the photo folder 104. As shown in FIG. 30, the 3D object data file of the subject in this example corresponds to the subject 3D object data generated based on the photograph taken through the 3D camera unit 22C as described above. It is formed by adding an ID and additional information.

被写体IDは、被写体の3Dオブジェクトデータを一意に特定できるものであり、付加情報は、上述した写真データファイルの場合と同様に、撮影日時、撮影場所、ペンID、その他の情報からなるものである。また、被写体の3Dオブジェクトデータファイルには、上述した写真データファイルの場合と同様に、必要に応じてユーザが電子ペン2Cを用いてタブレット型情報端末1を通じて入力するようにした手書きメモも付加することができるようにされている。   The subject ID can uniquely identify the 3D object data of the subject, and the additional information includes the shooting date / time, shooting location, pen ID, and other information as in the case of the above-described photo data file. . In addition, as in the case of the above-described photographic data file, a handwritten memo that a user inputs through the tablet information terminal 1 using the electronic pen 2C is added to the 3D object data file of the subject as necessary. Have been able to.

図30(A)に示した被写体の3Dオブジェクトデータファイルに格納されている被写体の3Dオブジェクトデータにより、例えば図30(B)に示すように、撮影された被写体の3Dオブジェクトを表示することができる。図30(B)は、円柱形状の例えばストール(腰掛け)J1の3Dオブジェクトの画像である。   The 3D object data of the subject stored in the 3D object data file of the subject shown in FIG. 30A can display the 3D object of the photographed subject, for example, as shown in FIG. . FIG. 30B is an image of a 3D object having a cylindrical shape, for example, a stall (stool) J1.

そして、例えば想定される室内への家具のレイアウトを確認するために、図面等DB105に用意されている3D空間画像データと、写真フォルダ104に記憶保持されている被写体の3Dオブジェクトデータとを関係付けるようにしたい場合が生じたとする。このような場合に、この例のタブレット型情報端末1では、点検エリアの図面データに対して写真データを関連付けたように、目的とする3D空間画像データに対して、目的とする被写体の3Dオブジェクトデータを関連付けることができる。   Then, for example, in order to check the assumed furniture layout in the room, the 3D space image data prepared in the DB 105 such as a drawing and the 3D object data of the subject stored in the photo folder 104 are related to each other. Suppose that you want to do so. In such a case, in the tablet type information terminal 1 of this example, the 3D object of the target subject with respect to the target 3D spatial image data, as the photo data is associated with the drawing data of the inspection area. Data can be associated.

図31は、3D空間画像データと被写体の3Dオブジェクトデータとの関連付けについて説明するための図である。タブレット型情報端末1のユーザは、表示装置部200の表示画面に220に表示されるメニューから例えば「3D空間内レイアウト確認」などいった3D空間画像データと被写体の3Dオブジェクトデータの関連付けを行うための項目を選択する。これにより、タブレット型情報端末1の制御部102の制御の下、3D空間画像データと被写体の3Dオブジェクトデータとの関連付けを行う処理が実行される。   FIG. 31 is a diagram for explaining the association between 3D space image data and 3D object data of a subject. The user of the tablet information terminal 1 associates 3D space image data such as “confirm layout in 3D space” with the 3D object data of the subject from a menu displayed on the display screen 220 of the display device unit 200, for example. Select the item. Thereby, the process of associating the 3D space image data with the 3D object data of the subject is executed under the control of the control unit 102 of the tablet information terminal 1.

この場合、制御部102は、図面等DB105に記憶保持されている3D空間画像データファイルに基づき、3D空間画像の一覧リストを形成し、これを表示画面220に表示する。タブレット型情報端末1のユーザは、表示画面220に表示された一覧リストから目的とする3D空間画像を選択する。ここでは、3D空間IDが「00001」の「室内A」の3D空間画像データが選択されたとする。そして、制御部102が各部を制御し、3D空間画像データに対して被写体の3Dオブジェクトデータを関連付ける処理が行われる。   In this case, the control unit 102 forms a list of 3D space images based on the 3D space image data files stored and held in the DB 105 such as a drawing, and displays the list on the display screen 220. The user of the tablet information terminal 1 selects a target 3D space image from the list displayed on the display screen 220. Here, it is assumed that 3D space image data of “room A” whose 3D space ID is “00001” is selected. And the control part 102 controls each part and the process which associates 3D object data of a to-be-photographed object with 3D space image data is performed.

まず、図面取得部111が機能し、図面等DB105から3D空間IDが「00001」である3D空間画像データファイルを抽出する。次に、図面表示処理部112が機能し、抽出された3D空間IDが「00001」の3D空間画像データファイルの3D空間画像データに応じた3D空間画像を表示画面220に表示する。この場合、例えば図31に示すように、表示画面220の上端部には、改頁ボタンLP、RPが表示されると共に、3D空間IDと、3D空間画像の名称と、「2/10」などといった頁番号が表示される。なお、当該3D空間画像の最初の頁には左改頁ボタンLPは表示されず、最後の頁には右改頁ボタンは表示されない。有効でない操作を行わせないためである。また、頁番号により、3D空間画像データファイルの総数はいくついあり、現在の表示頁は何頁かが把握できる。   First, the drawing acquisition unit 111 functions, and extracts a 3D space image data file whose 3D space ID is “00001” from the drawing DB 105. Next, the drawing display processing unit 112 functions to display a 3D space image corresponding to the 3D space image data of the 3D space image data file whose extracted 3D space ID is “00001” on the display screen 220. In this case, for example, as shown in FIG. 31, the page break buttons LP and RP are displayed at the upper end of the display screen 220, the 3D space ID, the name of the 3D space image, “2/10”, and the like. The page number is displayed. Note that the left page break button LP is not displayed on the first page of the 3D space image, and the right page break button is not displayed on the last page. This is because an invalid operation is not performed. Further, the total number of 3D space image data files is determined by the page number, and the current display page can be grasped.

そして、ユーザは、選択した3D空間画像が目的とするものでなかった場合には、改頁ボタンLP、RPを使用して改頁を行い、目的とする3D空間画像を表示画面220に表示させるようにできる。このようにして、目的とする3D空間画像を表示画面220上に表示させると、次に、被写体の3Dオブジェクトを表示させる(配置する)位置Ptを表示画面220に電子ペン2Cを接触させるようにして指示する。この場合、制御部102は、入力装置部330のセンサ部320から指示位置を示す座標データと電子ペン2CのペンIDを取得する。そして、写真取得部106が機能し、制御部102が取得したペンIDと同じペンIDを付加情報として有する被写体の3Dオブジェクトデータファイルを写真フォルダ104から読み出す。   When the selected 3D space image is not the target, the user performs a page break using the page break buttons LP and RP, and displays the target 3D space image on the display screen 220. You can When the target 3D space image is displayed on the display screen 220 in this way, the electronic pen 2C is then brought into contact with the display screen 220 at the position Pt at which the 3D object of the subject is displayed (placed). Instruct. In this case, the control unit 102 acquires coordinate data indicating the indicated position and the pen ID of the electronic pen 2C from the sensor unit 320 of the input device unit 330. Then, the photo acquisition unit 106 functions, and reads the 3D object data file of the subject having the same pen ID as the additional information acquired by the control unit 102 from the photo folder 104.

この後、第1関連付け部107は、指示された座標位置を示す座標データと読み出した被写体の3Dオブジェクトデータファイルとを関連付ける。次に、写真関連付け部108が機能して、指示された座標位置Ptを基準にして、当該座標位置を示す座標データに対応付けられている被写体の3Dオブジェクトデータファイルの3Dオブジェクトデータに応じた3DオブジェクトJ1を表示する。これにより、図31に示すように、選択された3D空間画像内に、抽出された被写体の3Dオブジェクトデータに応じた3Dオブジェクト(この例では円柱のストール)が、指示された位置に配置される(貼り付けられる)。そして、配置した3DオブジェクトJ1上に電子ペン2Cを接触させて、ドラッグ操作を行えば、3Dオブジェクト(円柱のストール)の配置位置を移動させることができる。   Thereafter, the first associating unit 107 associates the coordinate data indicating the designated coordinate position with the read 3D object data file of the subject. Next, the photo associating unit 108 functions, and the 3D corresponding to the 3D object data in the 3D object data file of the subject associated with the coordinate data indicating the coordinate position with reference to the designated coordinate position Pt. The object J1 is displayed. As a result, as shown in FIG. 31, a 3D object (in this example, a cylindrical stall) corresponding to the extracted 3D object data of the subject is placed in the designated position in the selected 3D space image. (Attached) If the electronic pen 2C is brought into contact with the arranged 3D object J1 and a drag operation is performed, the arrangement position of the 3D object (cylinder stall) can be moved.

このようにして、3D空間画像に対して被写体の3Dオブジェクトが配置されると、第2関連付け部114が機能し、2D空間IDと備考とからなる3D空間画像に関するメタデータと、被写体IDと貼付場所を示す座標データとからなる被写体の3Dオブジェクトに関するメタデータとからなる関連付けデータを生成し、これを例えば、メモリ部103の所定の記憶領域に記録して、必要に応じて繰り返し利用することができるようにされる。   In this way, when the 3D object of the subject is arranged with respect to the 3D space image, the second associating unit 114 functions, and metadata about the 3D space image including the 2D space ID and the remarks, the subject ID, and the pasting It is possible to generate association data composed of metadata related to a 3D object of a subject composed of coordinate data indicating a place, and record this in, for example, a predetermined storage area of the memory unit 103 and repeatedly use it as necessary. Be made possible.

ここで、被写体の3Dオブジェクトの貼付場所は、最終的に確定した被写体の3Dオブジェクトの貼付位置を特定可能な座標データということになるが、センサ部320上の位置ではなく、配置対象の3D空間画像上の位置を示すデータに変換される。この場合の変換は、例えば、3D空間画像が図31に示したものであれば、図32の原点Oを基準にした位置に変換される。そして、第2関連付け部114は、生成した関連付けデータを、例えば、メモリ部103の所定の記憶領域に記録して、必要に応じて繰り返し利用することができるようにする。この場合の関連付けデータは、図16を用いて説明した第1の実施の形態の関連付けデータに対応するものである。   Here, the pasting location of the 3D object of the subject is coordinate data that can specify the pasting position of the finally determined 3D object of the subject, but it is not the position on the sensor unit 320 but the 3D space to be arranged. It is converted into data indicating the position on the image. For example, if the 3D space image is shown in FIG. 31, the conversion in this case is converted to a position based on the origin O in FIG. Then, the second association unit 114 records the generated association data in, for example, a predetermined storage area of the memory unit 103 so that it can be used repeatedly as necessary. The association data in this case corresponds to the association data of the first embodiment described with reference to FIG.

なお、電子ペン2Cの3Dカメラユニット22Cを通じて撮影されることにより得た画像データに基づいて生成された被写体の3Dオブジェクトの3Dオブジェクトデータファイルが複数存在する場合もある。この場合には、第1の実施の形態の場合と同様に、まず複数の被写体の3Dオブジェクトのサムネイル画像を表示し、そのサムネイル画像の中から関連付けに用いる被写体の3Dオブジェクトを選択するようにできる。   There may be a plurality of 3D object data files of a 3D object of a subject generated based on image data obtained by shooting through the 3D camera unit 22C of the electronic pen 2C. In this case, as in the case of the first embodiment, first, thumbnail images of 3D objects of a plurality of subjects are displayed, and a 3D object of a subject used for association can be selected from the thumbnail images. .

また、図31に示すように、被写体の3DオブジェクトJ1を配置した後に、電子ペン2Cにより他の貼付位置Pt2を指示することにより、当該貼付位置に他の被写体の3Dオブジェクト(図31では直方体のストール)J2を追加して配置することもできる。   In addition, as shown in FIG. 31, after placing the 3D object J1 of the subject, the other pen position Pt2 is instructed by the electronic pen 2C, so that the 3D object of the other subject (in FIG. 31, a rectangular parallelepiped is displayed). Stall) J2 can be added and arranged.

また、選択した被写体の3Dオブジェクトデータが違う場合には、ボタンB4上に電子ペン2Cを接触させることにより、被写体の3Dオブジェクトデータの選択をやり直すことができる。また、目的とする3D空間画像の目的とする位置に目的とする被写体の3Dオブジェクトを配置することが出来た場合には、OKボタンB5に電子ペン2Cを接触させることにより関連付け処理を終了させる。この場合に、制御部102は、上述したように生成される関連付けデータをメモリ部103の所定の記憶領域に記録することができる。   If the 3D object data of the selected subject is different, the 3D object data of the subject can be selected again by bringing the electronic pen 2C into contact with the button B4. When the 3D object of the target subject can be placed at the target position of the target 3D space image, the association process is terminated by bringing the electronic pen 2C into contact with the OK button B5. In this case, the control unit 102 can record the association data generated as described above in a predetermined storage area of the memory unit 103.

さらに、3D空間画像内に配置する被写体の3Dオブジェクトの拡大、縮小を行うことも可能である。この場合には、第2関連付け部114が生成する関連付けデータに、被写体の3Dオブジェクトの縮拡率を示す情報も付加されることになる。また、被写体の3Dオブジェクトについて、これを配置する3D空間画像の大きさに応じて、自動的に適切な大きさに変換することも可能である。   Further, it is possible to enlarge or reduce the 3D object of the subject arranged in the 3D space image. In this case, information indicating the reduction / enlargement ratio of the 3D object of the subject is also added to the association data generated by the second association unit 114. In addition, the 3D object of the subject can be automatically converted to an appropriate size according to the size of the 3D space image in which the 3D object is arranged.

このように、この第2の実施の形態の第2の実施例の場合には、3D空間画像に対して、被写体の3Dオブジェクトを配置するようにする操作を行うことによって、3D空間画像出たと被写体の3Dオブジェクトデータとの関連付けを行うことができる。しかも、被写体の3Dオブジェクトデータには、電子ペン2CのペンIDが付加されているので、電子ペン2Cの3Dカメラユニット22Cを通じて撮像することにより得た被写体の3Dオブジェクトデータを自動的に関連付けの対象とすることができる。   As described above, in the case of the second example of the second embodiment, it is assumed that a 3D space image is obtained by performing an operation to arrange the 3D object of the subject on the 3D space image. Association with the 3D object data of the subject can be performed. Moreover, since the pen ID of the electronic pen 2C is added to the 3D object data of the subject, the 3D object data of the subject obtained by taking an image through the 3D camera unit 22C of the electronic pen 2C is automatically associated. It can be.

[第2の実施の形態の効果]
上述した第2の実施の形態の第1の実施例のタブレット型情報端末1及び電子ペン2によれば、電子ペン2に関連付けられる写真データを取得することができる。そして、取得した写真データに応じた写真(画像)を、3Dオブジェクトデータにより表示画面220に表示される3Dオブジェクトの目的とする位置に貼り付けるようにして表示することができる。もちろん、貼り付け対象の写真データと、表示された3Dオブジェクト上の指示位置とを関連付けて管理することもできる。
[Effect of the second embodiment]
According to the tablet type information terminal 1 and the electronic pen 2 of the first example of the second embodiment described above, it is possible to acquire photo data associated with the electronic pen 2. Then, a photograph (image) corresponding to the acquired photograph data can be displayed by being pasted at a target position of the 3D object displayed on the display screen 220 by the 3D object data. Of course, the photo data to be pasted and the designated position on the displayed 3D object can also be managed in association with each other.

上述した第2の実施の形態の第2の実施例のタブレット型情報端末1及び電子ペン2Cによれば、電子ペン2Cに関連付けられる被写体の3Dオブジェクトデータを取得することができる。そして、取得した3Dオブジェクトデータに応じた3Dオブジェクトを、3D空間画像データにより表示画面220に表示される3D空間画像の目的とする位置に貼り付けるようにして表示することができる。もちろん、貼り付け対象の被写体の3Dオブジェクトデータと、表示された3D空間画像上の指示位置とを関連付けて管理することもできる。   According to the tablet information terminal 1 and the electronic pen 2C of the second example of the second embodiment described above, 3D object data of a subject associated with the electronic pen 2C can be acquired. Then, the 3D object corresponding to the acquired 3D object data can be displayed by being pasted at a target position of the 3D space image displayed on the display screen 220 by the 3D space image data. Of course, it is also possible to manage the 3D object data of the subject to be pasted and the designated position on the displayed 3D space image in association with each other.

[第2の実施の形態の変形例等]
なお、この例においては、3D空間画像データが、3Dソフトウェアを用いて事前に作成しておくものとして説明したが、これに限るものではない。例えば、実際にモデルルームが存在する等、3D空間画像として表現すべき実空間が存在する場合には、当該実空間を3Dカメラを用いて撮影し、撮影することにより写真データに基づいて、3D空間画像データを生成するようにしてもよい。当該3D空間画像データの生成は、制御部102が行ったり、制御部102の制御の下に機能する生成部を別途設けるようにしたりしてもよい。
[Modifications of Second Embodiment, etc.]
In this example, 3D spatial image data has been described as being created in advance using 3D software. However, the present invention is not limited to this. For example, when there is a real space that should be expressed as a 3D space image, such as when a model room actually exists, the real space is captured using a 3D camera, and the 3D camera 3D is captured based on the photograph data. Spatial image data may be generated. The generation of the 3D space image data may be performed by the control unit 102, or a generation unit that functions under the control of the control unit 102 may be provided separately.

また、第2の実施の形態の場合にも、第1の実施の形態の場合と同様に、入力装置部300のセンサ部320が、静電容量方式のセンサである場合には、ユーザの指によって位置指示が可能である。また、ペンIDを示す情報を送出しない電子ペンを用いて位置指示を行うようにすることもできる。   Also in the case of the second embodiment, as in the case of the first embodiment, when the sensor unit 320 of the input device unit 300 is a capacitive sensor, the user's finger The position can be indicated by. Further, the position instruction can be performed using an electronic pen that does not transmit information indicating the pen ID.

また、第2の実施の形態の場合にも、写真の貼り付け対象とする3Dオブジェクトデータ、3D空間画像データ、3D空間画像に対応付ける被写体の3Dオブジェクトデータなどは、外部から供給を受けるようにすることができる。また、これらに付加される付加情報やメタデータについてもこれらの3次元データとともに提供を受けることができる。この場合、タブレット型情報端末1に対して優先接続される外部機器から提供を受けることもできるし、近距離無線通信を介して提供を受けることもできる。もちろん、インターネット上に存在するサーバ、すなわちいわゆるクラウドから3次元データやこれに付随する情報の提供を受けるようにすることもできる。   Also in the case of the second embodiment, 3D object data, 3D space image data, 3D object data of a subject to be associated with a 3D space image, and the like to be pasted are received from the outside. be able to. Further, additional information and metadata added to these can be provided together with these three-dimensional data. In this case, provision can be received from an external device preferentially connected to the tablet-type information terminal 1, or provision can be received via short-range wireless communication. Of course, it is also possible to receive provision of three-dimensional data and information associated therewith from a server existing on the Internet, that is, a so-called cloud.

また、第2の実施の形態の第2の実施例の場合には、第1の実施の形態のエリア設計図の選択と同様に、タブレット型情報端末1を所持するユーザが目的とする場所に到達した場合に、その場所の3D空間画像データを抽出する。そして、抽出した3D空間画像データに応じた3D空間画像を表示画面に自動的に表示するように構成することもできる。   Further, in the case of the second example of the second embodiment, as in the selection of the area design drawing of the first embodiment, the user who owns the tablet information terminal 1 is placed at the target location. When it reaches, 3D spatial image data of the place is extracted. And it can also comprise so that the 3D space image according to the extracted 3D space image data may be displayed on a display screen automatically.

この場合、上述した第1の実施の形態の場合と同様に、基地局からのビーコン信号を用いて到達した場所を特定することができる。もちろん、上述した第1の実施の形態でも説明したように、目的とする場所に設置された赤外線通信装置との間での赤外線通信を用いたり、タブレット型情報端末1に搭載されたGPS機能により検出された現在位置を用いて現在位置を特定したりするなどの方法で、目的とする場所に到達したか否かを判別するようにできる。   In this case, the location reached using the beacon signal from the base station can be specified as in the case of the first embodiment described above. Of course, as described in the first embodiment described above, infrared communication with an infrared communication device installed at a target location is used, or the GPS function mounted on the tablet information terminal 1 is used. It is possible to determine whether or not the target location has been reached by a method such as specifying the current location using the detected current location.

[その他]
なお、上述した実施の形態においては、情報処理装置部100、表示装置部200、入力装置部300が一体になったタブレット型情報端末1にこの発明を適用した場合を例にして説明したが、これに限るものではない。例えば、それぞれが別体となる、パーソナルコンピュータ本体(情報処理装置部に相当)と、モニタ装置(表示装置部に相当)と、電子ペンによる指示入力を受け付けるデジタイザ(入力装置部に相当)とからなる画像情報処理システムのこの発明を適用することができる。
[Others]
In the above-described embodiment, the case where the present invention is applied to the tablet information terminal 1 in which the information processing device unit 100, the display device unit 200, and the input device unit 300 are integrated has been described as an example. This is not a limitation. For example, from a personal computer main body (corresponding to an information processing device unit), a monitor device (corresponding to a display device unit), and a digitizer (corresponding to an input device unit) that accepts an instruction input by an electronic pen, which are separate from each other. The present invention of an image information processing system can be applied.

上述した実施の形態のタブレット型情報端末1の場合には、入力装置部300のセンサ部320が、表示装置部200の表示画面220の全面に対応するように設けられていた。このため、センサ部320上の指示位置は、表示装置部200の表示画面220上の対応する位置を直接に指示するものとなっていた。しかし、表示画面220がセンサ部320の一部に配置される場合には、パーソナルコンピュータ本体において、デジタイザのセンサ領域上の指示位置を、モニタ装置の表示画面上の指示位置(座標データ)に変換し、この変換後の座標データと、関連付け対象の画像データとを関連付ければよい。したがって、デジタイザのセンサ領域上の指示位置と関連付け対象の画像データとを関連付けておき、これらをパーソナルコンピュータなどの情報処理装置に供給して、当該センサ領域上の指示位置を表示画面上の指示位置に変換して利用することもできる。   In the case of the tablet information terminal 1 according to the above-described embodiment, the sensor unit 320 of the input device unit 300 is provided so as to correspond to the entire display screen 220 of the display device unit 200. For this reason, the indicated position on the sensor unit 320 directly indicates the corresponding position on the display screen 220 of the display device unit 200. However, when the display screen 220 is arranged in a part of the sensor unit 320, the designated position on the sensor area of the digitizer is converted into the designated position (coordinate data) on the display screen of the monitor device in the personal computer body. Then, the coordinate data after the conversion may be associated with the image data to be associated. Accordingly, the designated position on the sensor area of the digitizer and the image data to be associated are associated with each other and supplied to an information processing apparatus such as a personal computer so that the designated position on the sensor area is indicated on the display screen. It can also be used after being converted to.

また、上述した実施の形態では、電子ペン2、2C等のカメラユニット22、22Cで撮像した写真データは、撮像の都度、タブレット型情報端末1に送信するようにしたが、これに限るものではない。電子ペン2、2Cに画像記憶用のフラッシュメモリなどの不揮発性メモリを搭載しておくことにより、複数の写真の写真データを記憶保持できるようにしておく。この場合にも、各写真データに対して、電子ペンIDなど付加情報(第2の付加情報)が対応付けられるようにされる。   In the above-described embodiment, the photograph data captured by the camera units 22 and 22C such as the electronic pens 2 and 2C is transmitted to the tablet information terminal 1 every time the image is captured. However, the present invention is not limited to this. Absent. By mounting a non-volatile memory such as a flash memory for storing images on the electronic pens 2 and 2C, it is possible to store and hold photo data of a plurality of photos. Also in this case, additional information (second additional information) such as an electronic pen ID is associated with each photo data.

そして、電子ペン2、2Cの不揮発性メモリに蓄積された複数の写真データを、タブレット型情報端末1に送信して、これを利用可能にすることもできる。この場合、複数の写真データの中から目的とする写真データを特定する方法は、図13(B)を用いて説明した方法を用いることができる。   Then, a plurality of photo data stored in the non-volatile memory of the electronic pens 2 and 2C can be transmitted to the tablet information terminal 1 to make it usable. In this case, the method described with reference to FIG. 13B can be used as a method for identifying target photo data from a plurality of photo data.

また、タブレット型情報端末1が撮像部(カメラ機能)を備える場合には、タブレット型情報端末1の撮像部を通じて撮像することにより得た写真データを、関連付け対象として利用することができる。この場合、タブレット型情報端末1の撮像部を通じて撮像することにより得た写真データに対しても、ペンIDなどの付加情報(第2の付加情報)を付加しておく。これにより、タブレット型情報端末1の撮像部を通じて撮像することにより得た写真データについても、電子ペン2のカメラユニットや外部のデジタルカメラやスマートホンなどにより撮像することにより得た写真データと同様に扱うことができる。   When the tablet information terminal 1 includes an imaging unit (camera function), photo data obtained by imaging through the imaging unit of the tablet information terminal 1 can be used as an association target. In this case, additional information (second additional information) such as a pen ID is also added to the photograph data obtained by imaging through the imaging unit of the tablet information terminal 1. Thereby, also about the photographic data obtained by imaging through the imaging part of the tablet-type information terminal 1, it is the same as the photographic data obtained by imaging with the camera unit of the electronic pen 2, an external digital camera, a smart phone, etc. Can be handled.

なお、上述した実施の形態の説明からも分かるように、特許請求の範囲に記載した画像情報処理装置(以下、単に画像情報処理装置と記載する。)の第1の取得手段、第2の取得手段、第1の関連付け手段の各機能は、実施の形態のタブレット型情報端末1の情報処理装置部(以下、単に情報処理装置部と記載する。)100のI/O140、写真取得部106、第1関連付け部107が実現している。   As can be understood from the description of the above-described embodiment, the first acquisition unit and the second acquisition unit of the image information processing apparatus described in the claims (hereinafter simply referred to as an image information processing apparatus). Each function of the means and the first association means is the I / O 140 of the information processing unit (hereinafter simply referred to as information processing unit) 100 of the tablet information terminal 1 of the embodiment, the photo acquisition unit 106, The first association unit 107 is realized.

また、画像情報処理装置の付加情報抽出手段の機能は、情報処理装置部100のI/Oポート140、あるいは、受信アンテナ150A及び受信回路150が実現している。また、画像情報処理装置の関連付け手段の機能は、情報処理装置部100の写真関連付け部108が実現し、画像情報処理装置の撮像制御手段の機能は、情報処理装置部100の撮像制御部109が実現している。   Further, the function of the additional information extracting unit of the image information processing apparatus is realized by the I / O port 140 of the information processing apparatus unit 100, or the reception antenna 150A and the reception circuit 150. Further, the function of the association unit of the image information processing apparatus is realized by the photo association unit 108 of the information processing apparatus unit 100, and the function of the imaging control unit of the image information processing apparatus is performed by the imaging control unit 109 of the information processing apparatus unit 100. Realized.

また、画像情報処理装置の第1の表示処理手段の機能は、情報処理装置部100のファインダ制御部110が実現し、画像情報処理装置の受付手段の機能は、入力装置部300が実現している。また、画像情報処理装置の第3の取得手段の機能は、情報処理装置部100の図面取得部111が実現し、画像情報処理装置の第2の表示処理手段の機能は、情報処理装置部100の図面表示処理部112が実現している。   The function of the first display processing unit of the image information processing apparatus is realized by the finder control unit 110 of the information processing apparatus unit 100, and the function of the reception unit of the image information processing apparatus is realized by the input device unit 300. Yes. The function of the third acquisition unit of the image information processing apparatus is realized by the drawing acquisition unit 111 of the information processing apparatus unit 100, and the function of the second display processing unit of the image information processing apparatus is the information processing apparatus unit 100. The drawing display processing unit 112 is realized.

また、画像情報処理装置の座標変換手段の機能は、情報処理装置部100の座標変換部113が実現し、画像情報処理装置の第2の関連付け手段の機能は、情報処理装置部100の第2関連付け部114が実現している。また、画像情報処理装置の近距離無線通信手段の機能は、情報処理装置部100の近距離無線通信アンテナ120A及び近距離無線通信部120が実現し、画像情報処理装置の第3の表示処理手段の機能は、情報処理装置部100の写真表示処理部115が実現している。   Further, the function of the coordinate conversion unit of the image information processing apparatus is realized by the coordinate conversion unit 113 of the information processing apparatus unit 100, and the function of the second association unit of the image information processing apparatus is the second of the information processing apparatus unit 100. The associating unit 114 is realized. The function of the short-range wireless communication unit of the image information processing apparatus is realized by the short-range wireless communication antenna 120A and the short-range wireless communication unit 120 of the information processing apparatus unit 100, and the third display processing unit of the image information processing apparatus. This function is realized by the photo display processing unit 115 of the information processing apparatus unit 100.

また、画像情報処理装置の編集処理手段の機能は、情報処理装置部100の編集処理部116が実現し、画像情報処理装置のモード切替手段の機能は、情報処理装置部100のモード切替部117が実現している。   The function of the editing processing unit of the image information processing apparatus is realized by the editing processing unit 116 of the information processing apparatus unit 100, and the function of the mode switching unit of the image information processing apparatus is the mode switching unit 117 of the information processing apparatus unit 100. Is realized.

また、上述した実施の形態において、図7〜図10のフローチャートを用いて説明した方法が、この発明による画像情報処理方法の一実施の形態が適用されたものである。また、図2に示した、情報処理装置部100の写真取得部106、第1関連付け部107、写真関連付け部108、撮像制御部109、ファインダ制御部110、図面取得部111、図面表示処理部112、座標変換部113、第2関連付け部114、写真表示処理部115、編集処理部116、モード切替部117の各機能は、制御部102で実行されるプログラムにより、制御部102の機能として実現することもできる。   Further, in the above-described embodiment, the method described with reference to the flowcharts of FIGS. 7 to 10 is the one to which the embodiment of the image information processing method according to the present invention is applied. In addition, the photo acquisition unit 106, the first association unit 107, the photo association unit 108, the imaging control unit 109, the finder control unit 110, the drawing acquisition unit 111, and the drawing display processing unit 112 of the information processing apparatus unit 100 illustrated in FIG. Each function of the coordinate conversion unit 113, the second association unit 114, the photo display processing unit 115, the editing processing unit 116, and the mode switching unit 117 is realized as a function of the control unit 102 by a program executed by the control unit 102. You can also.

1…タブレット型情報端末、100…情報処理装置部、101A…送受信アンテナ、101…無線通信部、102…制御部、103…メモリ部、104…写真フォルダ、105…図面等DB、106…写真取得部、107…第1関連付け部、108…写真関連付け部、109…撮像制御部、110…ファインダ制御部、111…図面取得部、112…図面表示処理部、113…座標変換部、114…第2関連付け部、115…写真表示処理部、116…編集処理部、117…モード切替部、118…操作部、118A…電源ボタン、119…外部I/F、120…近距離無線通信部、120A…近距離無線通信アンテナ、130…I/Oポート、140…I/Oポート、150…受信回路、150A…受信アンテナ、200…表示装置部、210…コントローラ、220…表示画面、300…入力装置部、310…コントローラ、320…センサ部、2、2A、2B、2C…電子ペン、21…電子ペン機能部、21M…メモリ、22…カメラユニット、22C…3Dカメラユニット、23…I/F、24…ケーブル、25…ペンIDメモリ、26…送信回路、27…送信アンテナ、28…シャッターボタン、29、30…サイドスイッチ
DESCRIPTION OF SYMBOLS 1 ... Tablet-type information terminal, 100 ... Information processing apparatus part, 101A ... Transmission / reception antenna, 101 ... Wireless communication part, 102 ... Control part, 103 ... Memory part, 104 ... Photo folder, 105 ... Drawing etc. DB, 106 ... Photo acquisition 107: First association unit, 108: Photo association unit, 109: Imaging control unit, 110: Finder control unit, 111: Drawing acquisition unit, 112: Drawing display processing unit, 113: Coordinate conversion unit, 114: Second Association unit 115 ... Photo display processing unit 116 ... Edit processing unit 117 ... Mode switching unit 118 ... Operation unit 118A ... Power button 119 ... External I / F 120 ... Near field communication unit 120A ... Near Distance wireless communication antenna, 130 ... I / O port, 140 ... I / O port, 150 ... receiving circuit, 150A ... receiving antenna, 200 ... display unit, 2 DESCRIPTION OF SYMBOLS 0 ... Controller, 220 ... Display screen, 300 ... Input device part, 310 ... Controller, 320 ... Sensor part, 2, 2A, 2B, 2C ... Electronic pen, 21 ... Electronic pen function part, 21M ... Memory, 22 ... Camera unit 22C ... 3D camera unit, 23 ... I / F, 24 ... Cable, 25 ... Pen ID memory, 26 ... Transmission circuit, 27 ... Transmission antenna, 28 ... Shutter button, 29, 30 ... Side switch

Claims (27)

指示体により指示された座標位置を検出するセンサ部から、前記座標位置を示す第1の座標データを取得する第1の取得手段と、
所定の付加情報が付加された第1の画像データを取得する第2の取得手段と、
前記第1の取得手段を通じて取得した前記第1の座標データに対応する表示装置部の表示画面上の位置を示す位置データと、前記第2の取得手段を通じて取得した前記第1の画像データとを関連付ける第1の関連付け手段と
を備えることを特徴とする画像情報処理装置。
First acquisition means for acquiring first coordinate data indicating the coordinate position from a sensor unit that detects the coordinate position indicated by the indicator;
Second acquisition means for acquiring first image data to which predetermined additional information is added;
Position data indicating a position on the display screen of the display device unit corresponding to the first coordinate data acquired through the first acquisition unit, and the first image data acquired through the second acquisition unit. An image information processing apparatus comprising: first associating means for associating.
請求項1に記載の画像情報処理装置であって、
前記第2の取得手段は、当該情報処理装置の外部の撮像部を通じて撮像することにより得られた画像データであって、前記所定の付加情報が付加された画像データを前記第1の画像データとして取得することを特徴とする画像情報処理装置。
The image information processing apparatus according to claim 1,
The second acquisition unit is image data obtained by imaging through an imaging unit outside the information processing apparatus, and image data to which the predetermined additional information is added is used as the first image data. An image information processing apparatus characterized by being acquired.
請求項1に記載の画像情報処理装置であって、
前記第2の取得手段は、前記指示体に内蔵された撮像部を通じて撮像することにより得られた画像データであって、前記所定の付加情報が付加された画像データを前記第1の画像データとして取得することを特徴とする画像情報処理装置。
The image information processing apparatus according to claim 1,
The second acquisition means is image data obtained by imaging through an imaging unit built in the indicator, and image data to which the predetermined additional information is added is used as the first image data. An image information processing apparatus characterized by being acquired.
請求項1に記載の画像情報処理装置であって、
前記第2の取得手段は、ネットワーク上に保持されている画像データであって、前記所定の付加情報が付加された画像データを前記第1の画像データとして取得することを特徴とする画像情報処理装置。
The image information processing apparatus according to claim 1,
The second acquisition means acquires image data, which is image data held on a network and to which the predetermined additional information is added, as the first image data. apparatus.
請求項1に記載の画像情報処理装置であって、
前記第2の取得手段が取得する前記第1の画像データは、3次元オブジェクトデータであることを特徴とする画像情報処理装置。
The image information processing apparatus according to claim 1,
The image information processing apparatus, wherein the first image data acquired by the second acquisition means is three-dimensional object data.
請求項1に記載の画像情報処理装置であって、
前記指示体である位置指示器から送信される信号により通知される第1の付加情報を取得する付加情報取得手段を備え、
前記第2の取得手段は、前記付加情報取得手段を通じて取得した前記第1の付加情報と、第1の画像データに付加されている前記所定の付加情報である第2の付加情報とに基づいて認証が取られることにより、前記位置指示器に関連付けられる前記第1の画像データを取得するものである
ことを特徴とする画像情報処理装置。
The image information processing apparatus according to claim 1,
Additional information acquisition means for acquiring first additional information notified by a signal transmitted from a position indicator that is the indicator;
The second acquisition means is based on the first additional information acquired through the additional information acquisition means and the second additional information that is the predetermined additional information added to the first image data. The image information processing apparatus is characterized in that the first image data associated with the position indicator is acquired by authentication.
請求項6に記載の画像情報処理装置であって、
前記付加情報取得手段は、前記位置指示器からの信号を受信して、指示された座標位置を検出すると共に、前記信号に含まれる前記第1の付加情報を抽出するセンサ部から、前記第1の付加情報を取得することを特徴とする画像情報処理装置。
The image information processing apparatus according to claim 6,
The additional information acquisition means receives a signal from the position indicator, detects the designated coordinate position, and extracts the first additional information included in the signal from the sensor unit. An image information processing apparatus characterized by acquiring additional information.
請求項6に記載の画像情報処理装置であって、
前記付加情報取得手段は、前記位置指示器から近距離無線通信により送信された信号を受信し、この受信した信号から前記第1の付加情報を取得することを特徴とする画像情報処理装置。
The image information processing apparatus according to claim 6,
The image processing apparatus according to claim 1, wherein the additional information acquisition unit receives a signal transmitted from the position indicator by short-range wireless communication, and acquires the first additional information from the received signal.
請求項6に記載の画像情報処理装置であって、
前記第2の取得手段は、当該情報処理装置の外部の撮像部を通じて撮像することにより得られた画像データであって、前記位置指示器からの前記第1の付加情報との間で、関連付けを可能にする前記第2の付加情報が付加された画像データを前記第1の画像データとして取得することを特徴とする画像情報処理装置。
The image information processing apparatus according to claim 6,
The second acquisition means is image data obtained by imaging through an imaging unit external to the information processing apparatus, and associates with the first additional information from the position indicator. An image information processing apparatus, wherein the image data to which the second additional information to be enabled is added is acquired as the first image data.
請求項6に記載の画像情報処理装置であって、
前記第2の取得手段は、前記位置指示器に内蔵された撮像部を通じて撮像することにより得られた画像データであって、前記位置指示器からの前記第1の付加情報との間で、関連付けを可能にする前記第2の付加情報が付加された画像データを前記第1の画像データとして取得することを特徴とする画像情報処理装置。
The image information processing apparatus according to claim 6,
The second acquisition means is image data obtained by imaging through an imaging unit incorporated in the position indicator, and is associated with the first additional information from the position indicator. An image information processing apparatus, wherein the image data to which the second additional information is added is acquired as the first image data.
請求項6に記載の画像情報処理装置であって、
前記第2の取得手段は、ネットワーク上に保持されている画像データであって、前記位置指示器からの前記第1の付加情報との間で、関連付けを可能にする前記第2の付加情報が付加された画像データを前記第1の画像データとして取得することを特徴とする画像情報処理装置。
The image information processing apparatus according to claim 6,
The second acquisition means is image data held on a network, and the second additional information enabling association with the first additional information from the position indicator is An image information processing apparatus, wherein the added image data is acquired as the first image data.
請求項6に記載の画像情報処理装置であって、
前記第2の取得手段が取得する前記第1の画像データは、3次元オブジェクトデータであることを特徴とする画像情報処理装置。
The image information processing apparatus according to claim 6,
The image information processing apparatus, wherein the first image data acquired by the second acquisition means is three-dimensional object data.
請求項1または請求項6に記載の画像情報処理装置であって、
前記関連付け手段によって関連付けられた前記位置データと前記第1の画像データとを表示装置部に供給し、前記位置データに対応する前記表示装置部の表示画面上の位置に、前記第1の画像データに応じた画像を張り付けるようにする関連付け手段を備えることを特徴とする画像情報処理装置。
The image information processing apparatus according to claim 1 or 6,
The position data and the first image data associated by the association unit are supplied to a display device unit, and the first image data is displayed at a position on the display screen of the display device unit corresponding to the position data. An image information processing apparatus comprising an associating means for pasting an image according to the image.
請求項2、請求項3、請求項9または請求項10に記載の画像情報処理装置であって、
ユーザからの操作入力に応じて、前記撮像部を制御する撮像制御手段を備えることを特徴とする画像情報処理装置。
An image information processing apparatus according to claim 2, claim 3, claim 9 or claim 10,
An image information processing apparatus comprising: an imaging control unit that controls the imaging unit in response to an operation input from a user.
請求項2、請求項3、請求項9または請求項10に記載の画像情報処理装置であって、
前記撮像部からの被写体の画像を形成する画像データの提供を受けて、前記画像データに応じた画像を表示装置部の表示画面の所定の表示領域に表示する第1の表示処理手段と、
ユーザからの操作入力に応じて、前記撮像部を制御する撮像制御手段と
を備えることを特徴とする画像情報処理装置。
An image information processing apparatus according to claim 2, claim 3, claim 9 or claim 10,
First display processing means for receiving image data forming an image of a subject from the imaging unit and displaying an image corresponding to the image data in a predetermined display area of a display screen of a display device unit;
An image information processing apparatus comprising: an imaging control unit that controls the imaging unit in response to an operation input from a user.
請求項1または請求項6に記載の画像情報処理装置であって、
ユーザからの指示入力を受け付ける受付手段と、
前記受付手段を通じて受け付けた前記指示入力に応じて、表示装置部の表示画面に表示する主画像を形成する第2の画像データを取得する第3の取得手段と、
前記第3の取得手段により取得された前記第2の画像データに応じた前記主画像を、前記表示装置部の前記表示画面に表示するようにする第2の表示処理手段と、
前記第1の取得手段を通じて取得した前記座標データに対応する前記表示装置部の前記表示画面上の位置を、前記表示画面に表示されている前記主画像上の位置を示す第2の座標データに変換する座標変換手段と、
前記表示画面に表示された前記主画像を形成する前記第2の画像データと、前記座標変換手段により変換された前記第2の座標データと、前記第2の取得手段を通じて取得した前記第1の画像データとを関連付ける第2の関連付け手段と
を備えることを特徴とする画像情報処理装置。
The image information processing apparatus according to claim 1 or 6,
A receiving means for receiving an instruction input from a user;
Third acquisition means for acquiring second image data forming a main image to be displayed on the display screen of the display device unit in response to the instruction input received through the reception means;
Second display processing means for displaying the main image corresponding to the second image data acquired by the third acquisition means on the display screen of the display device section;
The position on the display screen of the display unit corresponding to the coordinate data acquired through the first acquisition means is set as second coordinate data indicating the position on the main image displayed on the display screen. Coordinate conversion means for converting;
The second image data forming the main image displayed on the display screen, the second coordinate data converted by the coordinate conversion means, and the first acquisition acquired through the second acquisition means. An image information processing apparatus comprising: second association means for associating with image data.
請求項16に記載の画像情報処理装置であって、
前記第3の取得手段が取得する前記主画像を形成する前記第2の画像データは、3次元オブジェクトを形成する3次元オブジェクトデータであることを特徴とする画像情報処理装置。
The image information processing apparatus according to claim 16,
The image information processing apparatus, wherein the second image data forming the main image acquired by the third acquisition unit is three-dimensional object data forming a three-dimensional object.
請求項16に記載の画像情報処理装置であって、
前記第2の取得手段が取得する前記第1の画像データは、3次元オブジェクトを形成する3次元オブジェクトデータであり、
前記第3の取得手段が取得する前記主画像を形成する前記第2の画像データは、3次元空間画像を形成する3次元空間画像データであることを特徴とする画像情報処理装置。
The image information processing apparatus according to claim 16,
The first image data acquired by the second acquisition means is three-dimensional object data forming a three-dimensional object,
The image information processing apparatus, wherein the second image data forming the main image acquired by the third acquisition unit is three-dimensional space image data forming a three-dimensional space image.
請求項1または請求項6に記載の画像情報処理装置であって、
近距離無線通信により近隣の基地局からの信号を受信する近距離無線通信手段と、
前記近距離無線通信手段を通じて受信した情報に基づいて、表示装置部の表示画面に表示する主画像を形成する第2の画像データを取得する第3の取得手段と、
前記第3の取得手段により取得された前記第2の画像データに応じた前記主画像を、前記表示装置部の前記表示画面に表示するようにする第2の表示処理手段と、
前記第1の取得手段を通じて取得した前記座標データに対応する前記表示装置部の前記表示画面上の位置を、前記表示画面に表示されている前記主画像上の位置を示す第2の座標データに変換する座標変換手段と、
前記表示画面に表示された前記主画像を形成する前記第2の画像データと、前記座標変換手段により変換された前記第2の座標データと、前記第2の取得手段を通じて取得した前記第1の画像データとを関連付ける第2の関連付け手段と
を備えることを特徴とする画像情報処理装置。
The image information processing apparatus according to claim 1 or 6,
Short-range wireless communication means for receiving signals from neighboring base stations by short-range wireless communication;
Third acquisition means for acquiring second image data forming a main image to be displayed on the display screen of the display device section based on information received through the short-range wireless communication means;
Second display processing means for displaying the main image corresponding to the second image data acquired by the third acquisition means on the display screen of the display device section;
The position on the display screen of the display unit corresponding to the coordinate data acquired through the first acquisition means is set as second coordinate data indicating the position on the main image displayed on the display screen. Coordinate conversion means for converting;
The second image data forming the main image displayed on the display screen, the second coordinate data converted by the coordinate conversion means, and the first acquisition acquired through the second acquisition means. An image information processing apparatus comprising: second association means for associating with image data.
請求項19に記載の画像情報処理装置であって、
前記第2の取得手段が取得する前記第1の画像データは、3次元オブジェクトを形成する3次元オブジェクトデータであり、
前記第3の取得手段が取得する前記主画像を形成する前記第2の画像データは、3次元空間画像を形成する3次元空間画像データであることを特徴とする画像情報処理装置。
The image information processing apparatus according to claim 19,
The first image data acquired by the second acquisition means is three-dimensional object data forming a three-dimensional object,
The image information processing apparatus, wherein the second image data forming the main image acquired by the third acquisition unit is three-dimensional space image data forming a three-dimensional space image.
請求項1または請求項6に記載の画像情報処理装置であって、
前記第2の取得手段により取得された前記第1の画像データに応じた画像を、表示装置部の表示画面に表示する第3の表示処理手段と、
前記センサ部を通じて検出される前記指示体の前記センサ部に対する距離に応じて、前記表示装置部の前記表示画面に表示された前記画像の縮小/拡大を行う編集処理手段と
を備えることを特徴とする画像情報処理装置。
The image information processing apparatus according to claim 1 or 6,
Third display processing means for displaying an image according to the first image data acquired by the second acquisition means on a display screen of a display device unit;
Editing processing means for reducing / enlarging the image displayed on the display screen of the display device unit according to a distance of the indicator detected through the sensor unit with respect to the sensor unit. Image information processing apparatus.
請求項1または請求項6に記載の画像情報処理装置であって、
ユーザからの操作入力を受け付ける受付手段と、
前記受付手段を通じて所定の操作を受け付けた場合に、前記第1の取得手段を通じて取得する前記第1の座標データを、前記第2の取得手段を通じて取得した前記第1の画像データによる画像の関連付け位置として利用する関連付けモードに切り替えるモード切替手段を備えることを特徴とする画像情報処理装置。
The image information processing apparatus according to claim 1 or 6,
A receiving means for receiving an operation input from a user;
When a predetermined operation is received through the receiving unit, the first coordinate data acquired through the first acquiring unit is used as the image association position by the first image data acquired through the second acquiring unit. An image information processing apparatus comprising mode switching means for switching to an association mode used as
請求項1または請求項6に記載の画像情報処理装置であって、
表示装置部と前記センサ部とを一体に備えてなる画像情報処理装置。
The image information processing apparatus according to claim 1 or 6,
An image information processing apparatus comprising a display unit and the sensor unit integrally.
指示体により指示された座標位置を検出するセンサ部から、第1の取得手段が、前記座標位置を示す第1の座標データを取得する第1の取得工程と、
第2の取得手段が、所定の付加情報が付加された第1の画像データを取得する第2の取得工程と、
第1の関連付け手段が、前記第1の取得工程において取得した前記第1の座標データに対応する表示装置部の表示画面上の位置を示す位置データと、前記第2の取得工程において取得した前記第1の画像データとを関連付ける第1の関連付け工程と
を有することを特徴とする画像情報処理方法。
A first acquisition step in which a first acquisition unit acquires first coordinate data indicating the coordinate position from a sensor unit that detects the coordinate position instructed by the indicator;
A second acquisition step in which the second acquisition means acquires the first image data to which the predetermined additional information is added;
The first association means includes position data indicating the position on the display screen of the display device unit corresponding to the first coordinate data acquired in the first acquisition step, and the acquired in the second acquisition step. An image information processing method comprising: a first associating step associating with first image data.
請求項24に記載の画像情報処理方法であって、
付加情報取得手段が、前記指示体である位置指示器から送信される信号により通知される第1の付加情報を取得する付加情報取得工程を備え、
前記第2の取得工程においては、前記付加情報取得工程において取得した前記第1の付加情報と、第1の画像データに付加されている前記所定の付加情報である第2の付加情報とに基づいて認証が取られることにより、前記第2の取得手段が、前記位置指示器に関連付けられる前記第1の画像データを取得する
ことを特徴とする画像情報処理方法。
An image information processing method according to claim 24,
The additional information acquisition means includes an additional information acquisition step of acquiring first additional information notified by a signal transmitted from the position indicator as the indicator,
In the second acquisition step, based on the first additional information acquired in the additional information acquisition step and second additional information that is the predetermined additional information added to the first image data. When the authentication is obtained, the second acquisition means acquires the first image data associated with the position indicator.
請求項24または請求項25に記載の画像情報処理方法であって、
受付手段を通じてユーザからの指示入力を受け付ける受付工程と、
特定手段が、前記受付工程において受け付けた前記指示入力に応じて、表示装置部の表示画面に表示する主画像を形成する第2の画像データを特定する特定工程と、
表示処理手段が、前記特定工程において特定した前記第2の画像データに応じた前記主画像を、前記表示装置部の前記表示画面に表示するようにする表示処理工程と、
座標変換手段が、前記第1の取得工程において取得した前記第1の座標データに対応する前記表示装置部の前記表示画面上の位置を、前記表示画面に表示されている前記主画像上の位置を示す第2の座標データに変換する座標変換工程と、
第2の関連付け手段が、前記表示画面に表示された前記主画像を形成する前記第2の画像データと、前記座標変換手段により変換された前記第2の座標データと、前記第2の取得手段を通じて取得した前記第1の画像データとを関連付ける第2の関連付け工程と
を有することを特徴とする画像情報処理方法。
An image information processing method according to claim 24 or claim 25,
An accepting step of accepting an instruction input from the user through the accepting means;
A specifying step of specifying second image data forming a main image to be displayed on a display screen of a display device unit in accordance with the instruction input received in the receiving step;
A display processing step for causing the display processing means to display the main image corresponding to the second image data specified in the specifying step on the display screen of the display device unit;
A position on the display screen of the display unit corresponding to the first coordinate data acquired by the coordinate conversion means in the first acquisition step is a position on the main image displayed on the display screen. A coordinate conversion step for converting into second coordinate data indicating
The second association means includes the second image data forming the main image displayed on the display screen, the second coordinate data converted by the coordinate conversion means, and the second acquisition means. And a second associating step for associating the first image data acquired through the second image processing method.
請求項22または請求項23に記載の画像情報処理方法であって、
近距離無線通信部が、近距離無線通信により近隣の基地局からの信号を受信する近距離無線通信工程と、
特定手段が、前記近距離無線通信工程において受信した信号に基づいて、表示装置部の表示画面に表示する主画像を形成する第2の画像データを特定する特定工程と、
表示処理手段が、前記特定工程において特定された前記第2の画像データに応じた前記主画像を、前記表示装置部の前記表示画面に表示するようにする表示処理工程と、
座標変換手段が、前記第1の取得工程において取得した前記第1の座標データに対応する前記表示装置部の前記表示画面上の位置を、前記表示画面に表示されている前記主画像上の位置を示す第2の座標データに変換する座標変換工程と、
第2の関連付け手段が、前記表示画面に表示された前記主画像を形成する前記第2の画像データと、前記座標変換工程において変換された前記第2の座標データと、前記第2の取得工程において取得した前記第1の画像データとを関連付ける第2の関連付け工程と
を有することを特徴とする画像情報処理方法。
An image information processing method according to claim 22 or claim 23,
A short-range wireless communication process in which the short-range wireless communication unit receives a signal from a neighboring base station by short-range wireless communication;
A specifying step of specifying a second image data forming a main image to be displayed on the display screen of the display unit based on the signal received in the short-range wireless communication step;
A display processing step for causing the display processing means to display the main image corresponding to the second image data specified in the specifying step on the display screen of the display device unit;
A position on the display screen of the display unit corresponding to the first coordinate data acquired by the coordinate conversion means in the first acquisition step is a position on the main image displayed on the display screen. A coordinate conversion step for converting into second coordinate data indicating
The second association means includes the second image data forming the main image displayed on the display screen, the second coordinate data converted in the coordinate conversion step, and the second acquisition step. And a second associating step for associating the first image data acquired in step 1 with the image information processing method.
JP2017158470A 2016-12-27 2017-08-21 Image information processing device and image information processing method Active JP7012485B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/842,138 US11048345B2 (en) 2016-12-27 2017-12-14 Image processing device and image processing method
CN201711431672.8A CN108303062B (en) 2016-12-27 2017-12-26 Image information processing apparatus and image information processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016252249 2016-12-27
JP2016252249 2016-12-27

Publications (2)

Publication Number Publication Date
JP2018106671A true JP2018106671A (en) 2018-07-05
JP7012485B2 JP7012485B2 (en) 2022-01-28

Family

ID=62787283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017158470A Active JP7012485B2 (en) 2016-12-27 2017-08-21 Image information processing device and image information processing method

Country Status (2)

Country Link
JP (1) JP7012485B2 (en)
CN (1) CN108303062B (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020101892A (en) * 2018-12-20 2020-07-02 シャープ株式会社 Information processing apparatus
CN116975335A (en) * 2023-09-25 2023-10-31 瀚博半导体(上海)有限公司 Sequential copy method, device, medium and electronic equipment for image distortion operation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002365071A (en) * 2001-06-12 2002-12-18 Fujitsu Ten Ltd Map information distribution method
JP2011028621A (en) * 2009-07-28 2011-02-10 Seiko Epson Corp Information terminal apparatus
JP2016091355A (en) * 2014-11-06 2016-05-23 セイコーエプソン株式会社 Display device, projector, and display control method
JP2016192236A (en) * 2011-09-28 2016-11-10 アマゾン テクノロジーズ インコーポレイテッド Magnetic stylus

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01320521A (en) * 1988-06-22 1989-12-26 Wacom Co Ltd Electronic blackboard device and its writing tool or the like
EP0451281A4 (en) * 1989-09-14 1993-03-24 Fujitsu Limited Data base system for each of the functions and data processing system for each of the functions
GB9105107D0 (en) * 1991-03-11 1991-04-24 Field Aircraft Services Heathr Imaging apparatus and method of tracking a moving object
AUPQ439299A0 (en) * 1999-12-01 1999-12-23 Silverbrook Research Pty Ltd Interface system
US20060167648A1 (en) * 2003-08-13 2006-07-27 Hitoshi Ohtani 3-Dimensional measurement device and electronic storage medium
US7649527B2 (en) * 2003-09-08 2010-01-19 Samsung Electronics Co., Ltd. Image display system with light pen
EP1669890A4 (en) * 2003-09-26 2007-04-04 Nikon Corp Electronic image accumulation method, electronic image accumulation device, and electronic image accumulation system
WO2010070870A1 (en) * 2008-12-18 2010-06-24 日本電気株式会社 Information acquiring apparatus, information acquiring method and program
WO2010098050A1 (en) * 2009-02-25 2010-09-02 日本電気株式会社 Interface for electronic device, electronic device, and operation method, operation program, and operation system for electronic device
JP5325060B2 (en) * 2009-09-18 2013-10-23 株式会社バンダイナムコゲームス Program, information storage medium and image control system
JP2011253310A (en) * 2010-06-01 2011-12-15 Panasonic Corp Information data management device, information data management method and program
JP5617375B2 (en) * 2010-06-22 2014-11-05 ソニー株式会社 Image display device, display control method, and program
JP5656111B2 (en) * 2010-11-10 2015-01-21 コニカミノルタ株式会社 Image composition apparatus and image composition program
CN102073454A (en) * 2011-01-13 2011-05-25 宇龙计算机通信科技(深圳)有限公司 Mobile terminal and input control method for touch panel
JP5599741B2 (en) * 2011-02-21 2014-10-01 シャープ株式会社 Electronic device, content display method, and content display program
ES2816323T3 (en) * 2011-06-17 2021-04-05 Rakuten Inc Information processing device, information processing method, information processing program, and recording medium on which the information processing program is recorded
JP5137150B1 (en) * 2012-02-23 2013-02-06 株式会社ワコム Handwritten information input device and portable electronic device provided with handwritten information input device
JP6120521B2 (en) * 2012-10-19 2017-04-26 株式会社トプコン 3D surveying device and 3D surveying system
JP5362092B1 (en) * 2012-10-31 2013-12-11 株式会社東芝 Electronic apparatus and drawing method
WO2014208169A1 (en) * 2013-06-26 2014-12-31 ソニー株式会社 Information processing device, control method, program, and recording medium
JP6249486B2 (en) * 2013-08-19 2017-12-20 株式会社ワコム Drawing device
JP2015041126A (en) * 2013-08-20 2015-03-02 株式会社ソニー・コンピュータエンタテインメント Information processing device and information processing method
CN203909745U (en) * 2014-05-14 2014-10-29 深圳市昊德富科技有限公司 Liquid crystal screen device allowing touch display all-in-one machine to have handwriting input function
CN106210530A (en) * 2016-07-29 2016-12-07 广东欧珀移动通信有限公司 Image generating method, device, system and electronic equipment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002365071A (en) * 2001-06-12 2002-12-18 Fujitsu Ten Ltd Map information distribution method
JP2011028621A (en) * 2009-07-28 2011-02-10 Seiko Epson Corp Information terminal apparatus
JP2016192236A (en) * 2011-09-28 2016-11-10 アマゾン テクノロジーズ インコーポレイテッド Magnetic stylus
JP2016091355A (en) * 2014-11-06 2016-05-23 セイコーエプソン株式会社 Display device, projector, and display control method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020101892A (en) * 2018-12-20 2020-07-02 シャープ株式会社 Information processing apparatus
JP7141327B2 (en) 2018-12-20 2022-09-22 シャープ株式会社 Information processing equipment
CN116975335A (en) * 2023-09-25 2023-10-31 瀚博半导体(上海)有限公司 Sequential copy method, device, medium and electronic equipment for image distortion operation
CN116975335B (en) * 2023-09-25 2023-12-26 瀚博半导体(上海)有限公司 Sequential copy method, device, medium and electronic equipment for image distortion operation

Also Published As

Publication number Publication date
JP7012485B2 (en) 2022-01-28
CN108303062A (en) 2018-07-20
CN108303062B (en) 2022-03-22

Similar Documents

Publication Publication Date Title
US11048345B2 (en) Image processing device and image processing method
US10136057B2 (en) Image management system, image management method, and computer program product
US9836886B2 (en) Client terminal and server to determine an overhead view image
KR101977703B1 (en) Method for controlling photographing in terminal and terminal thereof
KR102627612B1 (en) Method for displaying nerby information using augmented reality and electonic device therof
CN105320695B (en) Picture processing method and device
JP2014112302A (en) Prescribed area management system, communication method, and program
CN104735348B (en) Double-camera photographing method and system
CN102420936B (en) Apparatus and method for providing road view
CN106911885B (en) Electronic equipment and photo shooting method
JP2008225862A (en) System for picking-up construction photograph with electric blackboard and automatically preparing construction management ledger and program for use in the same
KR101703013B1 (en) 3d scanner and 3d scanning method
CN107925740A (en) Image management system, image management method and program
KR20150134960A (en) Method and apparatus for recommending photo composition
WO2015159775A1 (en) Image processing apparatus, communication system, communication method, and image-capturing device
JP7012485B2 (en) Image information processing device and image information processing method
JP2018036760A (en) Image management system, image management method, and program
JP6115113B2 (en) Predetermined area management system, predetermined area management method, and program
JP2016194784A (en) Image management system, communication terminal, communication system, image management method, and program
JP2016194783A (en) Image management system, communication terminal, communication system, image management method, and program
CN106909280B (en) Electronic equipment and photo shooting method
US20150206282A1 (en) Image processing device, image processing method, and image processing program
CN104346051A (en) Display method, image acqusition method and electronic equipment
JP6689492B2 (en) Terminal device, data processing system and program
JP2017162014A (en) Communication terminal, image communication system, display method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220118

R150 Certificate of patent or registration of utility model

Ref document number: 7012485

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150