JP6868665B2 - Data entry device, data entry method and data entry program - Google Patents

Data entry device, data entry method and data entry program Download PDF

Info

Publication number
JP6868665B2
JP6868665B2 JP2019124281A JP2019124281A JP6868665B2 JP 6868665 B2 JP6868665 B2 JP 6868665B2 JP 2019124281 A JP2019124281 A JP 2019124281A JP 2019124281 A JP2019124281 A JP 2019124281A JP 6868665 B2 JP6868665 B2 JP 6868665B2
Authority
JP
Japan
Prior art keywords
input
data
unit
procedure
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019124281A
Other languages
Japanese (ja)
Other versions
JP2019219662A (en
Inventor
山本 俊輔
俊輔 山本
陽介 渡邊
陽介 渡邊
高道 小出
高道 小出
和也 白石
和也 白石
陽子 小寺
陽子 小寺
遥 大森
遥 大森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Information Systems Corp
Original Assignee
Mitsubishi Electric Information Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Information Systems Corp filed Critical Mitsubishi Electric Information Systems Corp
Priority to JP2019124281A priority Critical patent/JP6868665B2/en
Publication of JP2019219662A publication Critical patent/JP2019219662A/en
Application granted granted Critical
Publication of JP6868665B2 publication Critical patent/JP6868665B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

この発明は、手続書類に記入する内容の入力技術に関する。 The present invention relates to an input technique for the contents to be entered in a procedure document.

金融機関及び役所といった場所では、利用者が、各種手続書類に必要事項を記入して、窓口に提出する。しかし、利用者は、手続書類の記入に関して不明点がある場合がある。この場合、利用者は、不明点を事務員に質問した上で手続書類に記入する必要がある。事務員に質問しながら手続書類に記入することは、利用者にとって非常に手間がかかる。また、質問を受ける事務員にも手間がかかる。 At places such as financial institutions and government offices, users fill out various procedure documents and submit them to the counter. However, the user may have questions regarding the entry of the procedure documents. In this case, the user needs to ask the clerk any questions and then fill out the procedure documents. It is very troublesome for the user to fill out the procedure documents while asking the clerk. In addition, it takes time and effort for the clerk who receives the question.

特許文献1には、手続書類に対して説明を投影することが記載されている。特許文献1では、これにより、利用者が手続書類に記入することをサポートして、効率的に手続書類に記入できるようにしている。 Patent Document 1 describes that an explanation is projected on a procedural document. In Patent Document 1, this supports the user to fill out the procedural documents so that the procedural documents can be filled out efficiently.

特開2015−191382号公報Japanese Unexamined Patent Publication No. 2015-191382

環境保護といった観点から紙の使用量を減らす、いわゆるペーパレス化が進められている。特許文献1に記載された方法では、手続書類に入力することが前提となっている。そのため、紙の使用量は減っていない。
利用者にコンピュータを操作してもらい、データを入力してもらうことにより、ペーパレス化を進めることが考えられる。しかし、利用者によっては、コンピュータを操作することが苦手な場合がある。この場合、利用者及び事務員の手間が増えてしまう可能性がある。
From the viewpoint of environmental protection, the so-called paperless office is being promoted to reduce the amount of paper used. The method described in Patent Document 1 is premised on inputting into procedural documents. Therefore, the amount of paper used has not decreased.
It is conceivable to promote paperless offices by having users operate computers and input data. However, some users may not be good at operating a computer. In this case, there is a possibility that the labor of the user and the clerk will increase.

そこで、入力フォーマットを入力台の上に投影表示し、投影表示された入力フォーマットに電子ペンといった入力装置により情報を入力させることが考えられる。これにより、利用者に対する手続きの負担を増やすことなく、紙の使用量を減らすことが可能である。
このとき、投影装置の設置現場によって、投影装置が入力フォーマット等を投影表示する入力台のサイズが異なる可能性がある。入力台のサイズによっては、予定していた全てのコンテンツを表示することが困難な場合がある。また、逆に、入力台のサイズによっては、不要にスペースが空いてしまう場合がある。
この発明は、入力台のサイズに合った適切な表示をすることを目的とする。
Therefore, it is conceivable that the input format is projected and displayed on the input table, and information is input to the projected input format by an input device such as an electronic pen. This makes it possible to reduce the amount of paper used without increasing the burden of procedures on the user.
At this time, the size of the input stand on which the projection device projects and displays the input format and the like may differ depending on the installation site of the projection device. Depending on the size of the input table, it may be difficult to display all the planned content. On the contrary, depending on the size of the input table, an unnecessary space may be created.
An object of the present invention is to provide an appropriate display according to the size of an input table.

この発明に係るデータ入力装置は、
入力台の上面のサイズを認識する表示エリア認識部と、
前記表示エリア認識部によって認識されたサイズに応じた表示コンテンツを、前記入力台の上に投影表示する投影部と、
を備える。
The data input device according to the present invention is
A display area recognition unit that recognizes the size of the top surface of the input stand,
A projection unit that projects and displays display content according to the size recognized by the display area recognition unit on the input table, and a projection unit.
To be equipped.

前記投影部は、前記サイズに応じた大きさで、前記表示コンテンツを、前記入力台の上に投影表示する。 The projection unit projects and displays the display content on the input table in a size corresponding to the size.

前記投影部は、入力内容と入力欄とを示す入力フォーマットを含む前記表示コンテンツを投影表示し、
前記データ入力装置は、さらに、
前記投影部によって投影表示された前記入力フォーマットの前記入力欄に手書きされた文字を認識するデータ認識部
を備える。
The projection unit projects and displays the display content including the input format indicating the input content and the input field.
The data input device further
A data recognition unit that recognizes handwritten characters in the input field of the input format projected and displayed by the projection unit is provided.

前記投影部は、前記サイズが基準よりも大きい場合に、前記入力フォーマットに加えて、その他の前記表示コンテンツを投影表示する。 When the size is larger than the reference, the projection unit projects and displays the other display contents in addition to the input format.

この発明に係るデータ入力方法は、
表示エリア認識部が、入力台の上面のサイズを認識し、
投影部が、認識されたサイズに応じた表示コンテンツを、前記入力台の上に投影表示する。
The data input method according to the present invention is
The display area recognition unit recognizes the size of the upper surface of the input stand and
The projection unit projects and displays the display content according to the recognized size on the input table.

この発明に係るデータ入力プログラムは、
入力台の上面のサイズを認識する表示エリア認識処理と、
前記表示エリア認識処理によって認識されたサイズに応じた表示コンテンツを、前記入力台の上に投影表示する投影処理と、
を行うデータ入力装置としてコンピュータを機能させる。
The data input program according to the present invention
Display area recognition processing that recognizes the size of the top surface of the input stand,
The projection process of projecting the display content according to the size recognized by the display area recognition process onto the input table, and the projection process.
Make the computer function as a data input device.

この発明では、入力台の上面のサイズを認識し、認識されたサイズに応じた表示コンテンツを投影表示する。これにより、入力台のサイズに合った適切な表示をすることが可能である。 In the present invention, the size of the upper surface of the input table is recognized, and the display content corresponding to the recognized size is projected and displayed. This makes it possible to display an appropriate display according to the size of the input table.

実施の形態1に係るデータ入力システム1の構成図。The block diagram of the data input system 1 which concerns on Embodiment 1. FIG. 実施の形態1に係るデータ入力装置10の構成図。The block diagram of the data input device 10 which concerns on Embodiment 1. FIG. 実施の形態1に係るデータ入力システム1の動作のフローチャート。The flowchart of the operation of the data input system 1 which concerns on Embodiment 1. FIG. 実施の形態1に係る投影処理のフローチャート。The flowchart of the projection processing which concerns on Embodiment 1. 実施の形態1に係る手続きの選択画面81の説明図。The explanatory view of the selection screen 81 of the procedure which concerns on Embodiment 1. FIG. 実施の形態1に係る表示内容記憶部51の説明図。The explanatory view of the display content storage part 51 which concerns on Embodiment 1. FIG. 実施の形態1に係る表示内容82の説明図。The explanatory view of the display content 82 which concerns on Embodiment 1. FIG. 実施の形態1に係るデータ認識処理のフローチャート。The flowchart of data recognition processing which concerns on Embodiment 1. 実施の形態1に係る表示内容82の説明図。The explanatory view of the display content 82 which concerns on Embodiment 1. FIG. 実施の形態1に係る確認処理のフローチャート。The flowchart of the confirmation process which concerns on Embodiment 1. 実施の形態1に係るフォーマット記憶部52の説明図。The explanatory view of the format storage part 52 which concerns on Embodiment 1. FIG. 実施の形態1に係る確認データ88の説明図。Explanatory drawing of confirmation data 88 which concerns on Embodiment 1. FIG. 実施の形態1に係る利用者情報記憶部53の説明図。The explanatory view of the user information storage part 53 which concerns on Embodiment 1. FIG. 変形例4に係るデータ入力装置10の構成図。The block diagram of the data input device 10 which concerns on modification 4. 実施の形態2に係るデータ入力システム1の構成図。The block diagram of the data input system 1 which concerns on Embodiment 2. FIG. 実施の形態2に係るデータ認識処理のフローチャート。The flowchart of data recognition processing which concerns on Embodiment 2. 実施の形態3に係るデータ入力装置10の構成図。The block diagram of the data input device 10 which concerns on Embodiment 3. 実施の形態3に係るデータ認識処理のフローチャート。The flowchart of the data recognition process which concerns on Embodiment 3. 実施の形態4に係るデータ入力装置10の構成図。The block diagram of the data input device 10 which concerns on Embodiment 4. FIG. 実施の形態4に係るデータ入力システム1のフローチャート。The flowchart of the data input system 1 which concerns on Embodiment 4. 実施の形態4に係る紛失防止処理のフローチャート。The flowchart of the loss prevention processing which concerns on Embodiment 4. 実施の形態4に係る紛失防止処理の説明図。The explanatory view of the loss prevention processing which concerns on Embodiment 4. 実施の形態5に係るデータ入力システム1のフローチャート。The flowchart of the data input system 1 which concerns on embodiment 5. 実施の形態5に係るデータ入力装置10の構成図。The block diagram of the data input device 10 which concerns on Embodiment 5. 実施の形態5に係る投影処理のフローチャート。The flowchart of the projection processing which concerns on embodiment 5. 実施の形態5に係る投影処理の説明図。The explanatory view of the projection processing which concerns on embodiment 5. 実施の形態5に係る投影処理の説明図。The explanatory view of the projection processing which concerns on embodiment 5. 実施の形態6に係る投影処理のフローチャート。The flowchart of the projection processing which concerns on Embodiment 6. 実施の形態6に係るデータ認識処理のフローチャート。The flowchart of the data recognition process which concerns on Embodiment 6. 実施の形態6に係る確認処理のフローチャート。The flowchart of the confirmation process which concerns on Embodiment 6. 実施の形態7に係るデータ入力装置10の構成図。The block diagram of the data input device 10 which concerns on Embodiment 7. 実施の形態7に係る筆跡鑑定処理のフローチャート。The flowchart of the handwriting appraisal processing which concerns on Embodiment 7. 実施の形態8に係るデータ入力システム1の構成図。The block diagram of the data input system 1 which concerns on Embodiment 8. 実施の形態8に係るデータ入力装置10の構成図。The block diagram of the data input device 10 which concerns on Embodiment 8. 実施の形態8に係る自然言語認識処理のフローチャート。The flowchart of the natural language recognition process which concerns on Embodiment 8. 実施の形態8に係る自然言語記憶部55の説明図。The explanatory view of the natural language memory part 55 which concerns on Embodiment 8. 実施の形態9に係るデータ入力システム1の構成図。The block diagram of the data input system 1 which concerns on Embodiment 9. 実施の形態9に係るデータ入力装置10の構成図。The block diagram of the data input device 10 which concerns on Embodiment 9. 実施の形態9に係る画面共有処理のフローチャート。The flowchart of the screen sharing process which concerns on Embodiment 9.

実施の形態1.
***構成の説明***
図1を参照して、実施の形態1に係るデータ入力システム1の構成を説明する。
データ入力システム1は、データ入力装置10と、プロジェクタ20と、電子ペン30と、入力台40と、データベースサーバ50とを備える。データ入力装置10と、プロジェクタ20及びデータベースサーバ50とは、伝送路60を介して接続されている。
Embodiment 1.
*** Explanation of configuration ***
The configuration of the data input system 1 according to the first embodiment will be described with reference to FIG.
The data input system 1 includes a data input device 10, a projector 20, an electronic pen 30, an input stand 40, and a database server 50. The data input device 10, the projector 20, and the database server 50 are connected via a transmission line 60.

データ入力装置10は、PC(Personal Computer)といったコンピュータである。プロジェクタ20は、データ入力装置10の制御に従い、入力フォーマットといったデータを入力台40の上に投影表示する装置である。電子ペン30は、入力台40に投影表示された入力フォーマットに対して入力する装置であり、文字(文字とは、文字、数字、図形、記号およびチェックマークを含む)を手書きし、ボタンをクリックするといった操作をするための装置である。入力台40は、プロジェクタ20によってデータが投影表示される台である。データベースサーバ50は、入力フォーマットといったデータを記憶するコンピュータである。 The data input device 10 is a computer such as a PC (Personal Computer). The projector 20 is a device that projects and displays data such as an input format on an input table 40 under the control of the data input device 10. The electronic pen 30 is a device for inputting to an input format projected and displayed on the input table 40. Characters (characters include characters, numbers, figures, symbols and check marks) are handwritten and a button is clicked. It is a device for performing operations such as. The input table 40 is a table on which data is projected and displayed by the projector 20. The database server 50 is a computer that stores data such as an input format.

図2を参照して、実施の形態1に係るデータ入力装置10の構成を説明する。
データ入力装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
The configuration of the data input device 10 according to the first embodiment will be described with reference to FIG.
The data input device 10 includes hardware for a processor 11, a memory 12, a storage 13, and a communication interface 14. The processor 11 is connected to other hardware via a signal line and controls these other hardware.

プロセッサ11は、プロセッシングを行うIC(Integrated Circuit)である。プロセッサ11は、具体例としては、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)である。 The processor 11 is an IC (Integrated Circuit) that performs processing. Specific examples of the processor 11 are a CPU (Central Processing Unit), a DSP (Digital Signal Processor), and a GPU (Graphics Processing Unit).

メモリ12は、データを一時的に記憶する記憶装置である。メモリ12は、具体例としては、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)である。 The memory 12 is a storage device that temporarily stores data. Specific examples of the memory 12 are SRAM (Static Random Access Memory) and DRAM (Dynamic Random Access Memory).

ストレージ13は、データを保管する記憶装置である。ストレージ13は、具体例としては、HDD(Hard Disk Drive)である。また、ストレージ13は、SD(登録商標,Secure Digital)メモリカード、CF(CompactFlash)、NANDフラッシュ、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD(Digital Versatile
Disk)といった可搬記憶媒体であってもよい。
The storage 13 is a storage device for storing data. As a specific example, the storage 13 is an HDD (Hard Disk Drive). The storage 13 includes an SD (registered trademark, Secure Digital) memory card, a CF (CompactFlash), a NAND flash, a flexible disk, an optical disk, a compact disk, a Blu-ray (registered trademark) disk, and a DVD (Digital Versaille).
It may be a portable storage medium such as Disk).

通信インタフェース14は、プロジェクタ20及びデータベースサーバ50といった外部の装置と通信するためのインタフェースである。通信インタフェース14は、具体例としては、Ethernet(登録商標)、USB(Universal Serial Bus)、HDMI(登録商標,High−Definition Multimedia Interface)のポートである。 The communication interface 14 is an interface for communicating with an external device such as the projector 20 and the database server 50. As a specific example, the communication interface 14 is a port of Ethernet (registered trademark), USB (Universal Serial Bus), HDMI (registered trademark, High-Definition Multimedia Interface).

データ入力装置10は、機能構成要素として、投影部111と、データ認識部112と、確認処理部113とを備える。投影部111と、データ認識部112と、確認処理部113との機能はソフトウェアにより実現される。
ストレージ13には、投影部111と、データ認識部112と、確認処理部113との機能を実現するプログラムが記憶されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、投影部111と、データ認識部112と、確認処理部113との機能が実現される。
The data input device 10 includes a projection unit 111, a data recognition unit 112, and a confirmation processing unit 113 as functional components. The functions of the projection unit 111, the data recognition unit 112, and the confirmation processing unit 113 are realized by software.
The storage 13 stores a program that realizes the functions of the projection unit 111, the data recognition unit 112, and the confirmation processing unit 113. This program is read into the memory 12 by the processor 11 and executed by the processor 11. As a result, the functions of the projection unit 111, the data recognition unit 112, and the confirmation processing unit 113 are realized.

図2では、プロセッサ11は、1つだけ示されている。しかし、データ入力装置10は、プロセッサ11を代替する複数のプロセッサを備えていてもよい。これら複数のプロセッサは、投影部111と、データ認識部112と、確認処理部113との機能を実現するプログラムの実行を分担する。それぞれのプロセッサは、プロセッサ11と同じように、プロセッシングを行うICである。 In FIG. 2, only one processor 11 is shown. However, the data input device 10 may include a plurality of processors that replace the processor 11. These plurality of processors share the execution of the program that realizes the functions of the projection unit 111, the data recognition unit 112, and the confirmation processing unit 113. Each processor is an IC that performs processing in the same manner as the processor 11.

データベースサーバ50は、表示内容記憶部51と、フォーマット記憶部52と、利用者情報記憶部53との機能を実現する。 The database server 50 realizes the functions of the display content storage unit 51, the format storage unit 52, and the user information storage unit 53.

***動作の説明***
図3から図13を参照して、実施の形態1に係るデータ入力システム1の動作を説明する。
実施の形態1に係るデータ入力システム1の動作は、実施の形態1に係るデータ入力方法に相当する。また、実施の形態1に係るデータ入力システム1の動作は、実施の形態1に係るデータ入力プログラムの処理に相当する。
*** Explanation of operation ***
The operation of the data input system 1 according to the first embodiment will be described with reference to FIGS. 3 to 13.
The operation of the data input system 1 according to the first embodiment corresponds to the data input method according to the first embodiment. Further, the operation of the data input system 1 according to the first embodiment corresponds to the processing of the data input program according to the first embodiment.

(図3のステップS1:投影処理)
投影部111は、利用者によって選択された手続きについて、プロジェクタ20により、入力内容85と入力欄86とが指定された入力フォーマット84を入力台40の上に投影表示する。
(Step S1: Projection processing in FIG. 3)
The projection unit 111 projects and displays the input format 84 in which the input contents 85 and the input field 86 are specified by the projector 20 on the input table 40 for the procedure selected by the user.

図4から図7を参照して、実施の形態1に係る投影処理を説明する。
(図4のステップS11:手続選択処理)
図5に示すように、投影部111は、プロジェクタ20により、手続きの選択画面81を入力台40の上に表示する。選択画面81は、選択可能な手続きのボタンが示されている。図5では、手続きのボタンとして、口座開設と、預金引出と、住所変更と、名義変更と、印鑑変更と、振込とが示されている。選択画面81は、入力台40の上におけるプロジェクタ20の投影可能な投影面21の一部に表示される。
すると、利用者によって、行いたい手続きのボタンが電子ペン30によりタッチされ、選択される。
The projection process according to the first embodiment will be described with reference to FIGS. 4 to 7.
(Step S11 in FIG. 4: Procedure selection process)
As shown in FIG. 5, the projection unit 111 displays the procedure selection screen 81 on the input table 40 by the projector 20. The selection screen 81 shows buttons for selectable procedures. In FIG. 5, as the procedure buttons, account opening, deposit withdrawal, address change, name change, seal change, and transfer are shown. The selection screen 81 is displayed on a part of the projectable projection surface 21 of the projector 20 on the input table 40.
Then, the user touches and selects the button of the procedure to be performed by the electronic pen 30.

(図4のステップS12:表示内容読込処理)
投影部111は、ステップS11で選択された手続きについての表示内容82を、データベースサーバ50の表示内容記憶部51から読み出す。
図6に示すように、表示内容記憶部51には、手続き毎に、表示内容82が記憶されている。表示内容82は、対象の手続きについての入力内容85の入力順を示す一覧83と、各入力内容85についての入力フォーマット84とを含む。
例えば、手続きが口座開設の場合には、一覧83は、入力内容85が、氏名、住所、生年月日、電話番号、金額の入力順であることを示す。そして、表示内容82には、氏名と、住所と、生年月日と、電話番号と、金額とについて、入力フォーマット84が含まれている。
(Step S12 in FIG. 4: Display content reading process)
The projection unit 111 reads the display content 82 for the procedure selected in step S11 from the display content storage unit 51 of the database server 50.
As shown in FIG. 6, the display content storage unit 51 stores the display content 82 for each procedure. The display content 82 includes a list 83 showing the input order of the input content 85 for the target procedure, and an input format 84 for each input content 85.
For example, when the procedure is to open an account, the list 83 indicates that the input contents 85 are in the order of inputting the name, address, date of birth, telephone number, and amount. The display content 82 includes an input format 84 for a name, an address, a date of birth, a telephone number, and an amount of money.

(図4のステップS13:表示内容投影処理)
投影部111は、プロジェクタ20により、ステップS12で読み出された表示内容82を、入力台40の上に投影表示する。
図7に示すように、投影部111は、ステップS11で口座開設が選択された場合、一覧83と、入力順が先頭の入力内容85である氏名についての入力フォーマット84を投影表示する。一覧83は、複数の入力内容85が入力順に並べられ、星印によって入力対象になっている入力内容85が示されている。入力フォーマット84は、入力内容85と入力欄86とを示す。
(Step S13 of FIG. 4: Display content projection process)
The projection unit 111 projects and displays the display content 82 read in step S12 on the input base 40 by the projector 20.
As shown in FIG. 7, when the account opening is selected in step S11, the projection unit 111 projects and displays the list 83 and the input format 84 for the name whose input order is the first input content 85. In the list 83, a plurality of input contents 85 are arranged in the input order, and the input contents 85 to be input are indicated by the stars. The input format 84 indicates an input content 85 and an input field 86.

この際、投影部111は、入力内容85に応じた説明と入力例との少なくともいずれかを入力台40の上に投影表示してもよい。投影部111は、入力方法を説明した動画を入力台40の上に投影表示してもよい。 At this time, the projection unit 111 may project and display at least one of the explanation and the input example according to the input content 85 on the input table 40. The projection unit 111 may project and display a moving image explaining the input method on the input table 40.

また、図7に示すように、投影部111は、表示内容の拡大及び縮小のボタンを表示してもよい。投影部111は、拡大ボタンがタッチされた場合、表示内容82全体を拡大して表示する。つまり、図7に示すように、表示内容82は投影面21の一部に表示されているため、表示内容82全体を拡大して表示することが可能である。また、投影部111は、縮小ボタンがタッチされた場合、表示内容82全体を縮小して表示する。 Further, as shown in FIG. 7, the projection unit 111 may display buttons for enlarging and reducing the displayed contents. When the enlargement button is touched, the projection unit 111 enlarges and displays the entire display content 82. That is, as shown in FIG. 7, since the display content 82 is displayed on a part of the projection surface 21, the entire display content 82 can be enlarged and displayed. Further, when the reduction button is touched, the projection unit 111 reduces the entire display content 82 and displays it.

(図3のステップS2:データ認識処理)
データ認識部112は、ステップS1で投影部111によって投影表示された入力フォーマット84の入力欄86に手書きされた文字を認識する。
(Step S2 in FIG. 3: Data recognition process)
The data recognition unit 112 recognizes the characters handwritten in the input field 86 of the input format 84 projected and displayed by the projection unit 111 in step S1.

図8から図9を参照して、実施の形態1に係るデータ認識処理を説明する。
(図8のステップS21:認識処理)
利用者によって、入力欄86に入力内容85に応じた内容が電子ペン30により手書きされる。例えば、図7に示すように、氏名についての入力フォーマット84が投影表示されている場合には、入力欄86に利用者の氏名が手書きされる。
データ認識部112は、入力欄86に手書きされる度に、手書きされた文字を認識する。つまり、データ認識部112は、入力欄86に一筆手書きされる度に、文字を認識し直す。
この際、まず、データ認識部112は、電子ペン30の位置の軌跡を特定する。位置の軌跡を特定する方法はどのような方法でもよい。例えば、データ認識部112が電子ペン30と通信することにより、位置の軌跡を特定してもよいし、プロジェクタ20により入力台40の上に赤外線を張り巡らし、電子ペン30の位置の軌跡を特定してもよい。なお、赤外線を用いる場合には、電子ペン30ではなく、指等により文字を書くことも可能である。
次に、データ認識部112は、特定された軌跡に基づきOCR(Optical Character Reader)処理を行い、手書きされた文字を認識して文字コードに変換する。OCR処理とは、手書きや印刷された文字を光学的に読み取り、コンピュータが利用できる文字コードに変換する処理である。データ認識部112は、どのようなOCRソフトウェアを使用してもよい。例えば、データ認識部112は、書かれた文字の形状と、書き順と等を考慮して、文字を認識するOCRソフトウェアを使用する。
The data recognition process according to the first embodiment will be described with reference to FIGS. 8 to 9.
(Step S21 in FIG. 8: Recognition process)
By the user, the content corresponding to the input content 85 is handwritten in the input field 86 by the electronic pen 30. For example, as shown in FIG. 7, when the input format 84 for the name is projected and displayed, the user's name is handwritten in the input field 86.
The data recognition unit 112 recognizes the handwritten characters each time the handwriting is performed in the input field 86. That is, the data recognition unit 112 re-recognizes the character each time the input field 86 is handwritten with one stroke.
At this time, first, the data recognition unit 112 identifies the locus of the position of the electronic pen 30. Any method may be used to specify the locus of the position. For example, the data recognition unit 112 may specify the locus of the position by communicating with the electronic pen 30, or the projector 20 spreads infrared rays on the input table 40 to specify the locus of the position of the electronic pen 30. You may. When infrared rays are used, it is possible to write characters with a finger or the like instead of the electronic pen 30.
Next, the data recognition unit 112 performs OCR (Optical Character Reader) processing based on the specified locus, recognizes the handwritten character, and converts it into a character code. The OCR process is a process of optically reading handwritten or printed characters and converting them into a character code that can be used by a computer. The data recognition unit 112 may use any OCR software. For example, the data recognition unit 112 uses OCR software that recognizes characters in consideration of the shape of the written characters, the stroke order, and the like.

(図8のステップS22:不備判定処理)
データ認識部112は、ステップS21で認識された文字について不備があるか否かを判定する。例えば、データ認識部112は、数値を入力する入力欄86に対して数値以外の文字が入力された場合には、不備があると判定する。
(Step S22 of FIG. 8: Deficiency determination process)
The data recognition unit 112 determines whether or not there is a defect in the character recognized in step S21. For example, the data recognition unit 112 determines that there is a defect when a character other than a numerical value is input to the input field 86 for inputting a numerical value.

(図8のステップS23:画像化処理)
データ認識部112は、ステップS21で特定された軌跡を画像化して、画像化された軌跡を投影部111に送信する。また、データ認識部112は、ステップS21でOCR処理により認識された文字を投影部111に送信する。
例えば、図7に示すように、入力欄86に、画像化された軌跡を表示する。また、OCR処理により文字列変換された文字を、入力欄86の下に表示している。
(Step S23 in FIG. 8: Imaging process)
The data recognition unit 112 images the locus identified in step S21 and transmits the imaged locus to the projection unit 111. Further, the data recognition unit 112 transmits the character recognized by the OCR process in step S21 to the projection unit 111.
For example, as shown in FIG. 7, the imaged locus is displayed in the input field 86. In addition, the characters converted into character strings by the OCR process are displayed below the input field 86.

データ認識部112は、ステップS22で不備があると判定された場合には、不備があることを利用者に通知して、修正を促す。
例えば、データ認識部112は、ステップS22で不備があると判定された場合には、文字列変換された文字とともに、不備があることを示すデータも投影部111に送信する。投影部111は、認識された文字に印をつけて投影表示するといった方法により、利用者に不備があることを通知する。
When the data recognition unit 112 determines in step S22 that there is a defect, the data recognition unit 112 notifies the user of the defect and prompts the user to correct it.
For example, when the data recognition unit 112 determines in step S22 that there is a defect, the data recognition unit 112 transmits to the projection unit 111 data indicating that there is a defect together with the character string-converted character. The projection unit 111 notifies the user that there is a defect by a method such as marking the recognized characters and projecting and displaying them.

(図8のステップS24:書込終了判定処理)
データ認識部112は、入力欄86への書込みが終了したか否かを判定する。ここでは、データ認識部112は、入力欄86への書込みが終了したことを示すボタンにタッチされた場合に、入力欄86への書込みが終了したと判定する。図7では、データ認識部112は、入力フォーマット84の右下の矢印ボタンにタッチされた場合に、入力欄86への書込みが終了したと判定する。
データ認識部112は、入力欄86への書込みが終了したと判定された場合には、処理をステップS25に進める。一方、データ認識部112は、入力欄86への書込みが終了していないと判定された場合には、処理をステップS21に戻して、次の文字を認識する。
前記データ認識部は、入力欄への書込みが終了した時点で、認識された文字をデジタルデータとしてメモリ12に保存するとともに、特定された軌跡を画像化し証跡データとしてメモリ12に保存する。
(Step S24 of FIG. 8: Writing end determination process)
The data recognition unit 112 determines whether or not the writing to the input field 86 is completed. Here, the data recognition unit 112 determines that the writing to the input field 86 is completed when the button indicating that the writing to the input field 86 is completed is touched. In FIG. 7, the data recognition unit 112 determines that writing to the input field 86 has been completed when the arrow button at the lower right of the input format 84 is touched.
When it is determined that the writing to the input field 86 is completed, the data recognition unit 112 proceeds to the process in step S25. On the other hand, when it is determined that the writing to the input field 86 has not been completed, the data recognition unit 112 returns the process to step S21 and recognizes the next character.
When the writing to the input field is completed, the data recognition unit stores the recognized characters as digital data in the memory 12, and images the specified locus and stores it in the memory 12 as trail data.

データ認識部112は、入力欄86への書込みが終了したと判定された場合に、入力欄86に書き込まれた文字の不備があるか否かを再判定してもよい。
ステップS22では、認識された1文字についての不備の判定ができる。これに対して、入力欄86への書込みが終了したと判定された場合に、入力欄86に書き込まれた文字列についての不備の判定ができる。例えば、入力内容85が電話番号である場合に、書き込まれた数値の桁数が多い、又は、少ないといった判定ができる。
When it is determined that the writing to the input field 86 is completed, the data recognition unit 112 may redetermine whether or not there is a defect in the characters written in the input field 86.
In step S22, it is possible to determine the deficiency of one recognized character. On the other hand, when it is determined that the writing to the input field 86 is completed, it is possible to determine that the character string written in the input field 86 is inadequate. For example, when the input content 85 is a telephone number, it can be determined that the number of digits of the written numerical value is large or small.

(図8のステップS25:手続終了判定処理)
データ認識部112は、全ての入力内容85についての書込みが終了したか否かを判定する。ここでは、最後の入力内容85についての入力欄86への書込みが終了した場合に、全ての入力内容85についての書込みが終了したと判定する。
データ認識部112は、全ての入力内容85についての書込みが終了したと判定された場合には、図3のステップS3に進める。一方、データ認識部112は、全ての入力内容85についての書込みが終了していない場合には、処理を図4のステップS13に戻して、次の入力内容85についての入力フォーマット84を表示させる。
(Step S25 in FIG. 8: Procedure end determination process)
The data recognition unit 112 determines whether or not the writing of all the input contents 85 is completed. Here, when the writing of the last input content 85 to the input field 86 is completed, it is determined that the writing of all the input content 85 is completed.
When it is determined that the writing of all the input contents 85 is completed, the data recognition unit 112 proceeds to step S3 of FIG. On the other hand, when the writing of all the input contents 85 is not completed, the data recognition unit 112 returns the process to step S13 of FIG. 4 and displays the input format 84 for the next input contents 85.

例えば、図7に示された、氏名についての入力フォーマット84が投影表示されているときに、右下の矢印ボタンにタッチされた場合には、データ認識部112は、処理を図4のステップS13に戻す。すると、図9に示すように、投影部111は、入力順が2番目の入力内容85である住所についての入力フォーマット84を投影表示する。 For example, when the input format 84 for the name shown in FIG. 7 is projected and displayed, and the arrow button at the lower right is touched, the data recognition unit 112 performs the process in step S13 of FIG. Return to. Then, as shown in FIG. 9, the projection unit 111 projects and displays the input format 84 for the address whose input order is the second input content 85.

(図3のステップS3:確認処理)
確認処理部113は、ステップS2で書き込まれた文字を確認するための確認データ88を生成する。
(Step S3 in FIG. 3: Confirmation process)
The confirmation processing unit 113 generates confirmation data 88 for confirming the characters written in step S2.

図10から図13を参照して、実施の形態1に係る確認処理を説明する。
(図10のステップS31:フォーマット取得処理)
確認処理部113は、ステップS11で選択された手続きについての手続書類のフォーマット87を、データベースサーバ50のフォーマット記憶部52から読み出す。
図11に示すように、フォーマット記憶部52には、手続き毎に、手続書類のフォーマットが記憶されている。手続書類のフォーマット87は、例えば、従来の紙の手続書類と同様のフォーマットである。表示内容82の入力フォーマット84が示す各入力欄86は、手続書類の記入欄に対応している。
The confirmation process according to the first embodiment will be described with reference to FIGS. 10 to 13.
(Step S31 in FIG. 10: Format acquisition process)
The confirmation processing unit 113 reads the format 87 of the procedure document for the procedure selected in step S11 from the format storage unit 52 of the database server 50.
As shown in FIG. 11, the format storage unit 52 stores the format of the procedure document for each procedure. The format 87 of the procedural document is, for example, the same format as the conventional paper procedural document. Each input field 86 indicated by the input format 84 of the display content 82 corresponds to an entry field of the procedure document.

(図10のステップS32:確認データ生成処理)
図12に示すように、確認処理部113は、ステップS2で認識された文字を、その文字が手書きされた入力欄86に対応する、ステップS31で取得された手続書類のフォーマット87の記入欄に示して確認データ88を生成する。図12では、口座開設の場合の確認データ88が示されている。そのため、図12では、氏名と、住所と、生年月日と、電話番号と、金額とが示されている。
(Step S32 in FIG. 10: Confirmation data generation process)
As shown in FIG. 12, the confirmation processing unit 113 puts the character recognized in step S2 into the entry field of the procedure document format 87 acquired in step S31, which corresponds to the input field 86 in which the character is handwritten. Shown to generate confirmation data 88. In FIG. 12, confirmation data 88 in the case of opening an account is shown. Therefore, in FIG. 12, a name, an address, a date of birth, a telephone number, and an amount of money are shown.

確認処理部113は、確認データ88を生成する際、各入力欄86に書き込まれた文字の不備があるか否かを再判定してもよい。ここでは、各入力欄86に書き込まれた文字列間の対応関係に不備があるか否かを判定できる。例えば、住所と電話番号の市外局番とが不一致であるといった判定ができる。 When the confirmation processing unit 113 generates the confirmation data 88, the confirmation processing unit 113 may redetermine whether or not there is a defect in the characters written in each input field 86. Here, it can be determined whether or not there is a defect in the correspondence between the character strings written in each input field 86. For example, it can be determined that the address and the area code of the telephone number do not match.

(図10のステップS33:手続実行判定処理)
確認処理部113は、生成された確認データ88を投影部111に送信する。投影部111は、確認データ88を入力台40の上に投影表示する。
利用者によって、確認データ88の内容が確認される。確認データ88の内容に修正がなければ、利用者によって手続きを実行することを示すボタンが電子ペン30によりタッチされる。すると、確認処理部113は、処理をステップS34に進める。一方、確認データ88の内容に修正があれば、利用者によって修正することを示すボタンが電子ペン30によりタッチされる。すると、確認処理部113は、投影部111に該当の入力内容85についての修正画面を投影表示させる。そして、確認処理部113は、修正完了後、処理をステップS32に戻して、確認データ88を再生成する。
(Step S33 in FIG. 10: Procedure execution determination process)
The confirmation processing unit 113 transmits the generated confirmation data 88 to the projection unit 111. The projection unit 111 projects and displays the confirmation data 88 on the input table 40.
The content of the confirmation data 88 is confirmed by the user. If there is no correction in the content of the confirmation data 88, the electronic pen 30 touches a button indicating that the procedure is executed by the user. Then, the confirmation processing unit 113 advances the processing to step S34. On the other hand, if the content of the confirmation data 88 is corrected, the electronic pen 30 touches a button indicating that the content is corrected by the user. Then, the confirmation processing unit 113 causes the projection unit 111 to project and display the correction screen for the corresponding input content 85. Then, after the correction is completed, the confirmation processing unit 113 returns the processing to step S32 and regenerates the confirmation data 88.

(図10のステップS34:利用者情報記憶処理)
確認処理部113は、ステップS2で認識された各入力内容85についての文字等のデータを、金融機関等の手続き先の事務員の端末に送信する。事務員によって、データに不備がないことが確認されると、確認処理部113は、データをデータベースサーバ50の利用者情報記憶部53に書き込む。図13に示すように、利用者情報記憶部53は、利用者毎に、利用者についての情報が記憶されている。
(Step S34 in FIG. 10: User information storage processing)
The confirmation processing unit 113 transmits data such as characters for each input content 85 recognized in step S2 to the terminal of the clerk at the procedure destination such as a financial institution. When the clerk confirms that the data is complete, the confirmation processing unit 113 writes the data to the user information storage unit 53 of the database server 50. As shown in FIG. 13, the user information storage unit 53 stores information about the user for each user.

(図10のステップS35:参照情報生成処理)
確認処理部113は、手続書類についての情報を利用者端末から参照するための参照情報89を生成する。手続書類についての情報は、登録された利用者についての情報と、手続きの進捗状況と等である。参照情報89は、手続書類についての情報を参照可能なURL(Uniform Resource Locator)を示す。例えば、参照情報89は、URLが埋め込まれた二次元コードである。利用者端末は、スマートフォン及び携帯電話といった端末である。利用者は、利用者端末を用いて、参照情報89が示すURLを指定して、ウェブサイトにアクセスすることにより、手続書類についての情報を参照することが可能である。
確認処理部113は、生成された参照情報89を投影部111に送信する。投影部111は、参照情報89を入力台40の上に投影表示する。例えば、利用者端末に付属するカメラを用いて、二次元コードを読み取ることにより、参照情報89が示すURLを利用者端末に取り込むことができる。
(Step S35 of FIG. 10: Reference information generation process)
The confirmation processing unit 113 generates reference information 89 for referring to information about the procedure document from the user terminal. Information about the procedure documents includes information about the registered users and the progress of the procedure. Reference information 89 indicates a URL (Uniform Resource Locator) in which information about the procedure document can be referred to. For example, the reference information 89 is a two-dimensional code in which a URL is embedded. User terminals are terminals such as smartphones and mobile phones. The user can refer to the information about the procedure documents by accessing the website by designating the URL indicated by the reference information 89 using the user terminal.
The confirmation processing unit 113 transmits the generated reference information 89 to the projection unit 111. The projection unit 111 projects and displays the reference information 89 on the input table 40. For example, the URL indicated by the reference information 89 can be imported into the user terminal by reading the two-dimensional code using the camera attached to the user terminal.

なお、図10のステップS34で利用者情報記憶部53に書き込まれたデータを用いて、金融機関等の手続き先の事務員によって手続きが進められる。そして、事務員によって手続きの進捗がデータベースサーバ50に登録され、参照情報89が示すURLのウェブサイトの情報が更新される。 The procedure is carried out by a clerk at a procedure destination such as a financial institution using the data written in the user information storage unit 53 in step S34 of FIG. Then, the progress of the procedure is registered in the database server 50 by the clerk, and the information on the website of the URL indicated by the reference information 89 is updated.

***実施の形態1の効果***
以上のように、実施の形態1に係るデータ入力装置10は、入力フォーマット84を入力台40の上に投影表示し、入力フォーマット84の入力欄86に手書きされた文字を認識する。これにより、紙を用いずに手続きの申し込み等を行うことが可能となり、紙の使用量を減らすことが可能である。
*** Effect of Embodiment 1 ***
As described above, the data input device 10 according to the first embodiment projects the input format 84 onto the input table 40 and recognizes the characters handwritten in the input field 86 of the input format 84. This makes it possible to apply for procedures without using paper, and it is possible to reduce the amount of paper used.

また、利用者は、手続書類に文字を記入する場合と同じように、入力欄86に文字を手書きすればよい。つまり、利用者は、キーボードを打つといった、従来の紙の書類に記入する場合と異なる処理をする必要がなく、手続の手間が増えることもない。 In addition, the user may handwrite the characters in the input field 86 in the same manner as when writing the characters in the procedure document. In other words, the user does not have to perform a process different from the case of filling out a conventional paper document, such as hitting the keyboard, and the time and effort of the procedure does not increase.

また、紙の手続書類を用いて手続きの申し込み等をしていた場合には、手続書類に記入された内容を、事務員がコンピュータに入力していた。そのため、事務員の入力ミス等により正しくデータが登録されない恐れがあった。
実施の形態1に係るデータ入力装置10は、利用者が文字認識され文字列変換された文字を確認する。そのため、利用者の意図した通りのデータが登録される。
In addition, when applying for a procedure using paper procedure documents, the clerk entered the contents entered in the procedure documents into the computer. Therefore, there is a risk that the data will not be registered correctly due to an input error of the clerk.
The data input device 10 according to the first embodiment confirms the character recognized by the user and converted into a character string. Therefore, the data as intended by the user is registered.

また、実施の形態1に係るデータ入力装置10は、参照情報89を生成する。そのため、利用者が手続きの進捗を確認することが可能である。 Further, the data input device 10 according to the first embodiment generates reference information 89. Therefore, the user can check the progress of the procedure.

また、実施の形態1に係るデータ入力装置10は、入力フォーマット84を投影表示する。そのため、入力フォーマット84の表示を拡大及び縮小することが可能である。特に、投影面21は大きくすることが容易である。そのため、入力フォーマット84を大きく表示することを容易に実現できる。
また、入力内容85に応じた説明と入力例とを、入力フォーマット84上に表示することも可能であるし、入力フォーマット84の外に表示することも可能である。
Further, the data input device 10 according to the first embodiment projects and displays the input format 84. Therefore, the display of the input format 84 can be enlarged or reduced. In particular, the projection surface 21 can be easily enlarged. Therefore, it is possible to easily realize that the input format 84 is displayed in a large size.
Further, the description and the input example according to the input content 85 can be displayed on the input format 84, or can be displayed outside the input format 84.

また、実施の形態1に係るデータ入力装置10は、入力内容85に応じた説明と入力例とを投影表示する。そのため、利用者がスムーズに入力内容85を書き込むことができる。その結果、手続き窓口の混雑を緩和することが可能である。また、事務員への問合せも減るため、事務員の作業不可を減らすことが可能である。 Further, the data input device 10 according to the first embodiment projects and displays an explanation and an input example according to the input content 85. Therefore, the user can smoothly write the input content 85. As a result, it is possible to alleviate the congestion at the procedure window. In addition, since the number of inquiries to the clerk is reduced, it is possible to reduce the inability of the clerk to work.

また、実施の形態1に係るデータ入力装置10は、OCR処理により認識された文字をデジタルデータとして保存するとともに、特定された軌跡を画像化し証跡データとして保存する。そのため、後日利用者から手続き内容についての問い合わせがあった場合でも、手続き内容についての確認を行うことが可能である。 Further, the data input device 10 according to the first embodiment stores the characters recognized by the OCR process as digital data, and images the specified locus and stores it as trail data. Therefore, even if the user inquires about the procedure contents at a later date, it is possible to confirm the procedure contents.

また、実施の形態1に係るデータ入力装置10は、紙の手続書類が必要ない。そのため、手続きに必要な入力内容85に変更があった場合には、データベースサーバ50に記憶されたデータを変更するだけで対応できる。
なお、特許文献1のように、手続書類に対して説明を投影する場合には、紙の手続書類を変更するとともに、手続書類に投影する説明の位置調整といった煩雑な作業が必要になる。
Further, the data input device 10 according to the first embodiment does not require paper procedure documents. Therefore, if there is a change in the input content 85 required for the procedure, it can be dealt with simply by changing the data stored in the database server 50.
When the explanation is projected onto the procedure document as in Patent Document 1, complicated work such as changing the paper procedure document and adjusting the position of the explanation projected on the procedure document is required.

***他の構成***
<変形例1>
実施の形態1では、データ入力システム1は、データ入力装置10とプロジェクタ20と電子ペン30と入力台40との組を1つ備えていた。しかし、データ入力システム1は、データ入力装置10とプロジェクタ20と電子ペン30と入力台40との組を複数備えてもよい。
*** Other configurations ***
<Modification example 1>
In the first embodiment, the data input system 1 includes one set of a data input device 10, a projector 20, an electronic pen 30, and an input stand 40. However, the data input system 1 may include a plurality of sets of a data input device 10, a projector 20, an electronic pen 30, and an input stand 40.

<変形例2>
実施の形態1では、データベースサーバ50が、表示内容記憶部51と、フォーマット記憶部52と、顧客情報記憶部53との機能を実現した。しかし、データ入力装置10のストレージ13が、表示内容記憶部51と、フォーマット記憶部52と、顧客情報記憶部53との機能を実現してもよい。
<Modification 2>
In the first embodiment, the database server 50 realizes the functions of the display content storage unit 51, the format storage unit 52, and the customer information storage unit 53. However, the storage 13 of the data input device 10 may realize the functions of the display content storage unit 51, the format storage unit 52, and the customer information storage unit 53.

<変形例3>
実施の形態1では、入力欄86に対して手書きするとした。しかし、データ入力システム1は、手書き以外の入力手段を提供してもよい。例えば、データ入力システム1は、テンキーを備えていてもよい。これにより、利用者は数値をテンキーから入力することが可能である。また、データ入力システム1は、キーボードを備えていてもよい。これにより、キーボードの入力に慣れた利用者であれば、キーボードから文字を入力することが可能である。なお、テンキー及びキーボードを物理的に用意してもよいし、投影型のテンキー及びキーボードを用意してもよい。投影型のテンキー及びキーボードを用意する場合、データ入力装置10の投影部111が、プロジェクタ20により、テンキー及びキーボードを入力台40の上に投影表示すればよい。
<Modification example 3>
In the first embodiment, the input field 86 is handwritten. However, the data input system 1 may provide an input means other than handwriting. For example, the data input system 1 may include a numeric keypad. This allows the user to enter a numerical value from the numeric keypad. Further, the data input system 1 may include a keyboard. As a result, a user who is accustomed to keyboard input can input characters from the keyboard. The numeric keypad and keyboard may be physically prepared, or a projection type numeric keypad and keyboard may be prepared. When a projection type numeric keypad and keyboard are prepared, the projection unit 111 of the data input device 10 may project the numeric keypad and keyboard onto the input table 40 by the projector 20.

<変形例4>
実施の形態1では、投影部111と、データ認識部112と、確認処理部113との機能がソフトウェアで実現された。しかし、変形例4として、投影部111と、データ認識部112と、確認処理部113との機能はハードウェアで実現されてもよい。この変形例4について、実施の形態1と異なる点を説明する。
<Modification example 4>
In the first embodiment, the functions of the projection unit 111, the data recognition unit 112, and the confirmation processing unit 113 are realized by software. However, as a modification 4, the functions of the projection unit 111, the data recognition unit 112, and the confirmation processing unit 113 may be realized by hardware. The difference between the modified example 4 and the first embodiment will be described.

図14を参照して、変形例4に係るデータ入力装置10の構成を説明する。
投影部111と、データ認識部112と、確認処理部113との機能がハードウェアで実現される場合、データ入力装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、処理回路15を備える。処理回路15は、投影部111と、データ認識部112と、確認処理部113との機能と、メモリ12とストレージ13との機能とを実現する専用の電子回路である。
The configuration of the data input device 10 according to the modified example 4 will be described with reference to FIG.
When the functions of the projection unit 111, the data recognition unit 112, and the confirmation processing unit 113 are realized by hardware, the data input device 10 replaces the processor 11, the memory 12, and the storage 13 with the processing circuit 15. Be prepared. The processing circuit 15 is a dedicated electronic circuit that realizes the functions of the projection unit 111, the data recognition unit 112, the confirmation processing unit 113, and the functions of the memory 12 and the storage 13.

処理回路15は、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)が想定される。
投影部111と、データ認識部112と、確認処理部113との機能を1つの処理回路15で実現してもよいし、投影部111と、データ認識部112と、確認処理部113との機能を複数の処理回路15に分散させて実現してもよい。
The processing circuit 15 is assumed to be a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, a logic IC, a GA (Gate Array), an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable Gate Array). Will be done.
The functions of the projection unit 111, the data recognition unit 112, and the confirmation processing unit 113 may be realized by one processing circuit 15, or the functions of the projection unit 111, the data recognition unit 112, and the confirmation processing unit 113. May be distributed to a plurality of processing circuits 15 and realized.

<変形例5>
変形例5として、一部の機能がハードウェアで実現され、他の機能がソフトウェアで実現されてもよい。つまり、投影部111と、データ認識部112と、確認処理部113とのうち、一部の機能がハードウェアで実現され、他の機能がソフトウェアで実現されてもよい。
<Modification 5>
As a modification 5, some functions may be realized by hardware and other functions may be realized by software. That is, some of the functions of the projection unit 111, the data recognition unit 112, and the confirmation processing unit 113 may be realized by hardware, and other functions may be realized by software.

プロセッサ11とメモリ12とストレージ13と処理回路15とを、総称して「プロセッシングサーキットリー」という。つまり、各機能構成要素の機能は、プロセッシングサーキットリーにより実現される。 The processor 11, the memory 12, the storage 13, and the processing circuit 15 are collectively referred to as a "processing circuit Lee". That is, the function of each functional component is realized by the processing circuit.

実施の形態2.
実施の形態2は、自動車の運転免許証のような書類を読み込む点が実施の形態1と異なる。実施の形態2では、この異なる点を説明し、同一の点については説明を省略する。
Embodiment 2.
The second embodiment is different from the first embodiment in that a document such as a driver's license of a car is read. In the second embodiment, these different points will be described, and the same points will be omitted.

***構成の説明***
図15を参照して、実施の形態2に係るデータ入力システム1の構成を説明する。
データ入力システム1は、撮像装置70を備える点が図1に示すデータ入力システム1と異なる。撮像装置70は、自動車の運転免許証のような書類を撮像する装置である。
*** Explanation of configuration ***
The configuration of the data input system 1 according to the second embodiment will be described with reference to FIG.
The data input system 1 is different from the data input system 1 shown in FIG. 1 in that it includes an imaging device 70. The image pickup device 70 is a device that captures a document such as a driver's license of an automobile.

***動作の説明***
図16を参照して、実施の形態2に係るデータ認識処理を説明する。
ステップS42からステップS46の処理は、図8のステップS21からステップS25の処理と同じである。
*** Explanation of operation ***
The data recognition process according to the second embodiment will be described with reference to FIG.
The process from step S42 to step S46 is the same as the process from step S21 to step S25 in FIG.

(図16のステップS41:読込処理)
利用者によって、自動車の運転免許証のような書類が撮像装置70の撮像領域に設置される。
データ認識部112は、撮像装置70により撮像領域に設置された書類を撮像して、書類の画像データを取得する。データ認識部112は、取得された画像データから各入力内容85に対応する文字を認識する。データ認識部112は、認識された文字を、入力フォーマット84における対応する入力欄86に入力された文字として扱う。
ここでは、自動車の運転免許証のように、入力内容が定められた書類が設置される。なお、自動車の運転免許証に限らず、パスポート、保険証といった他の書類であってもよい。また、事前に、書類の各欄と、表示内容82の各入力内容85とは対応付けされている。
データ認識部112は、認識された文字を投影部111に送信する。すると、投影部111により、認識された文字が、入力欄86の下に表示される。あるいは、入力欄86にも合わせて表示してもよく、もしくは入力欄86のみに表示してもよい。
(Step S41 of FIG. 16: Reading process)
A document such as a driver's license of a car is installed in the imaging area of the imaging device 70 by the user.
The data recognition unit 112 takes an image of the document installed in the image pickup region by the image pickup apparatus 70, and acquires the image data of the document. The data recognition unit 112 recognizes characters corresponding to each input content 85 from the acquired image data. The data recognition unit 112 treats the recognized characters as the characters input in the corresponding input field 86 in the input format 84.
Here, a document that defines the input contents, such as a driver's license of a car, is installed. In addition, it is not limited to a driver's license of a car, and may be other documents such as a passport and an insurance card. Further, each field of the document and each input content 85 of the display content 82 are associated with each other in advance.
The data recognition unit 112 transmits the recognized characters to the projection unit 111. Then, the characters recognized by the projection unit 111 are displayed below the input field 86. Alternatively, it may be displayed together with the input field 86, or may be displayed only in the input field 86.

***実施の形態2の効果***
以上のように、実施の形態2に係るデータ入力装置10は、自動車の運転免許証のような書類に記載された文字を認識して、入力欄86に入力された文字として扱う。これにより、利用者が入力内容85を書き込む手間を減らすことが可能である。
*** Effect of Embodiment 2 ***
As described above, the data input device 10 according to the second embodiment recognizes the characters described in the document such as the driver's license of the automobile and treats them as the characters input in the input field 86. This makes it possible to reduce the time and effort for the user to write the input content 85.

実施の形態3.
実施の形態3は、書込みに関する統計をとる点が実施の形態1と異なる。実施の形態3では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態3を実施の形態2と組み合わせることも可能である。
Embodiment 3.
The third embodiment is different from the first embodiment in that statistics on writing are collected. In the third embodiment, these different points will be described, and the same points will be omitted.
It is also possible to combine the third embodiment with the second embodiment.

***構成の説明***
図17を参照して、実施の形態3に係るデータ入力装置10の構成を説明する。
データ入力装置10は、機能構成要素として、統計部114を備える点が図3に示すデータ入力装置10と異なる。統計部114は、他の機能構成要素と同様に、ソフトウェアによって実現される。なお、統計部114は、他の機能構成要素と同様に、ハードウェアによって実現されてもよい。
また、データベースサーバ50は、統計記憶部54の機能を実現する。
*** Explanation of configuration ***
The configuration of the data input device 10 according to the third embodiment will be described with reference to FIG.
The data input device 10 is different from the data input device 10 shown in FIG. 3 in that the data input device 10 includes the statistics unit 114 as a functional component. The statistics unit 114 is realized by software like other functional components. The statistics unit 114 may be realized by hardware like other functional components.
Further, the database server 50 realizes the function of the statistical storage unit 54.

***動作の説明***
図18を参照して、実施の形態3に係るデータ認識処理を説明する。
ステップS51からステップS55の処理は、図8のステップS21からステップS25の処理と同じである。
*** Explanation of operation ***
The data recognition process according to the third embodiment will be described with reference to FIG.
The processing of steps S51 to S55 is the same as the processing of steps S21 to S25 of FIG.

(図18のステップS56:統計処理)
統計部114は、ステップS52又はステップS54で不備と判定された内容を取得して、統計記憶部54に書き込む。また、統計部114は、各入力欄86への書込み時間についても取得して、統計記憶部54に書き込む。
(Step S56 of FIG. 18: Statistical processing)
The statistics unit 114 acquires the contents determined to be inadequate in step S52 or step S54 and writes them in the statistics storage unit 54. Further, the statistics unit 114 also acquires the writing time in each input field 86 and writes it in the statistics storage unit 54.

これにより、統計記憶部54には、不備についてのデータと、書込み時間についてのデータが蓄積される。例えば、事務員等によって、不備及び書込み時間についてのデータが分析され、入力フォーマット84が変更されたり、入力内容85の説明が追加されたりする。例えば、不備の多い入力内容85については、入力内容85に関する説明を追加で投影表示するようにして、不備が減るようにされる。 As a result, the statistical storage unit 54 stores data on the deficiency and data on the writing time. For example, a clerk or the like analyzes data on deficiencies and writing times, changes the input format 84, or adds a description of the input content 85. For example, with respect to the input content 85 having many deficiencies, the explanation regarding the input content 85 is additionally projected and displayed so that the deficiencies are reduced.

***実施の形態3の効果***
以上のように、実施の形態3に係るデータ入力装置10は、不備等のデータを蓄積する。これにより、入力フォーマット84及び説明を改善することができる。その結果、利用者にとってより利用し易いシステムにすることができる。
*** Effect of Embodiment 3 ***
As described above, the data input device 10 according to the third embodiment accumulates data such as deficiencies. Thereby, the input format 84 and the description can be improved. As a result, the system can be made easier for the user to use.

実施の形態4.
実施の形態4では、電子ペン30の紛失防止処理を行う点が実施の形態1と異なる。実施の形態4では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態4を実施の形態2,3と組み合わせることも可能である。
Embodiment 4.
The fourth embodiment is different from the first embodiment in that the loss prevention process of the electronic pen 30 is performed. In the fourth embodiment, these different points will be described, and the same points will be omitted.
It is also possible to combine the fourth embodiment with the second and third embodiments.

***構成の説明***
図19を参照して、実施の形態4に係るデータ入力装置10の構成を説明する。
データ入力装置10は、機能構成要素として、配置判定部115を備える点が図2に示すデータ入力装置10と異なる。配置判定部115は、他の機能構成要素と同様に、ソフトウェアによって実現される。なお、配置判定部115は、他の機能構成要素と同様に、ハードウェアによって実現されてもよい。
*** Explanation of configuration ***
The configuration of the data input device 10 according to the fourth embodiment will be described with reference to FIG.
The data input device 10 is different from the data input device 10 shown in FIG. 2 in that the arrangement determination unit 115 is provided as a functional component. The arrangement determination unit 115 is realized by software like other functional components. The arrangement determination unit 115 may be realized by hardware like other functional components.

***動作の説明***
図20を参照して、実施の形態4に係るデータ入力システム1の動作を説明する。
ステップS1からステップS3の処理は、実施の形態1と同じである。
*** Explanation of operation ***
The operation of the data input system 1 according to the fourth embodiment will be described with reference to FIG.
The processing of steps S1 to S3 is the same as that of the first embodiment.

(図20のステップS4:紛失防止処理)
投影部111は、プロジェクタ20により、入力装置である電子ペン30の置き場である配置領域90を入力台40の上に投影表示する。そして、配置判定部115は、投影部111によって投影された配置領域90に入力装置である電子ペン30が基準時間以上置かれているか否かを判定する。
(Step S4 in FIG. 20: Loss prevention processing)
The projection unit 111 projects and displays the arrangement area 90, which is a storage place for the electronic pen 30, which is an input device, on the input table 40 by the projector 20. Then, the arrangement determination unit 115 determines whether or not the electronic pen 30, which is an input device, is placed in the arrangement area 90 projected by the projection unit 111 for a reference time or longer.

図21から図22を参照して、実施の形態4に係る紛失防止処理を説明する。
(図21のステップS61:領域表示処理)
投影部111は、プロジェクタ20により、電子ペン30の置き場である配置領域90を入力台40の上に投影表示する。例えば、図22に示すように、投影部111は、電子ペン30を拡大したような形状の配置領域90を、電子ペン30を配置領域90に置くことを促すメッセージ91とともに、入力台40の上に投影表示する。
つまり、投影部111は、ステップS11からステップS13で、入力フォーマット84を入力台40の上に投影表示し、入力フォーマット84への入力が終了した後に、配置領域90を投影表示する。
The loss prevention process according to the fourth embodiment will be described with reference to FIGS. 21 to 22.
(Step S61 of FIG. 21: Area display processing)
The projection unit 111 projects and displays the arrangement area 90, which is the place where the electronic pen 30 is placed, on the input table 40 by the projector 20. For example, as shown in FIG. 22, the projection unit 111 places an arrangement area 90 having an enlarged shape of the electronic pen 30 on the input table 40 together with a message 91 urging the electronic pen 30 to be placed in the arrangement area 90. Project to display.
That is, the projection unit 111 projects and displays the input format 84 on the input table 40 in steps S11 to S13, and projects and displays the arrangement area 90 after the input to the input format 84 is completed.

図22の配置領域90は、ペンの形状をしているが、形状はペンに限らない。矩形や円でもよいし、点や線でも構わない。また、領域のサイズについては、必ずしもペンが入る大きさでなくてもよく、ペン先が入る程度の大きさでも構わない。 The arrangement area 90 in FIG. 22 has the shape of a pen, but the shape is not limited to the pen. It may be a rectangle or a circle, or it may be a point or a line. Further, the size of the area does not necessarily have to be the size that the pen can be inserted, and may be the size that the pen tip can be inserted.

(図21のステップS62:配置判定処理)
配置判定部115は、配置領域90に電子ペン30が基準時間以上継続して置かれているか否かを判定する。この際、配置判定部115は、電子ペン30のポインタが配置領域90内を指している場合に、配置領域90に電子ペン30が置かれていると判定する。一方、配置判定部115は、電子ペン30のポインタが配置領域90外を指している場合に、配置領域90に電子ペン30が置かれていないと判定する。
配置判定部115は、配置領域90に電子ペン30が基準時間以上継続して置かれている場合には、処理をステップS63に進める。
一方、配置判定部115は、制限時間以上経過しても、配置領域90に電子ペン30が基準時間以上継続して置かれていない場合には、処理をステップS64に進める。ここで、制限時間は、基準時間よりも長い時間である。具体例としては、制限時間を10秒とし、基準時間を3秒とする。
(Step S62 of FIG. 21: Arrangement determination process)
The placement determination unit 115 determines whether or not the electronic pen 30 has been continuously placed in the placement area 90 for a reference time or longer. At this time, when the pointer of the electronic pen 30 points to the inside of the arrangement area 90, the arrangement determination unit 115 determines that the electronic pen 30 is placed in the arrangement area 90. On the other hand, when the pointer of the electronic pen 30 points to the outside of the arrangement area 90, the arrangement determination unit 115 determines that the electronic pen 30 is not placed in the arrangement area 90.
When the electronic pen 30 is continuously placed in the placement area 90 for the reference time or longer, the placement determination unit 115 proceeds to step S63.
On the other hand, if the electronic pen 30 is not continuously placed in the placement area 90 for the reference time or longer even after the time limit has elapsed, the placement determination unit 115 proceeds to step S64. Here, the time limit is a time longer than the reference time. As a specific example, the time limit is 10 seconds and the reference time is 3 seconds.

(図21のステップS63:正常終了処理)
配置判定部115は、電子ペン30が配置領域90に戻されたとして、処理を終了する。
(Step S63 in FIG. 21: Normal termination processing)
The placement determination unit 115 ends the process, assuming that the electronic pen 30 has been returned to the placement area 90.

(図21のステップS64:異常終了処理)
配置判定部115は、電子ペン30が配置領域90に戻されなかったとして、警告音を鳴らす、担当者へメッセージを送信するといった方法により担当者と利用者との少なくともいずれかに通知した上で、処理を終了する。
(Step S64 of FIG. 21: Abnormal termination processing)
The placement determination unit 115 notifies at least one of the person in charge and the user by sounding a warning sound or sending a message to the person in charge, assuming that the electronic pen 30 has not been returned to the arrangement area 90. , End the process.

***実施の形態4の効果***
以上のように、実施の形態4に係るデータ入力装置10は、入力が終了すると、電子ペン30の置き場である配置領域90を入力台40の上に投影表示する。
利用者は電子ペン30を持ち去る意図がないにも関わらず、電子ペン30を置くことを忘れて持ち去ってしまう可能性がある。しかし、配置領域90を入力台40の上に投影表示することにより、電子ペン30を置くことが利用者に促され、誤って持ち去ってしまうことを防止できる。また、電子ペン30が任意の位置に置かれてしまうと、次の利用者が電子ペン30を発見できない可能性がある。しかし、配置領域90を入力台40の上に投影表示することにより、電子ペン30を置く場所が統一され、次の利用者が電子ペン30を発見し易くなる。
その結果、電子ペン30が紛失することを防止できる。
*** Effect of Embodiment 4 ***
As described above, when the input is completed, the data input device 10 according to the fourth embodiment projects and displays the arrangement area 90, which is the storage place of the electronic pen 30, on the input table 40.
There is a possibility that the user forgets to put the electronic pen 30 and takes it away even though he / she does not intend to take the electronic pen 30 away. However, by projecting and displaying the arrangement area 90 on the input table 40, the user is prompted to place the electronic pen 30 and it is possible to prevent the electronic pen 30 from being accidentally taken away. Further, if the electronic pen 30 is placed at an arbitrary position, the next user may not be able to find the electronic pen 30. However, by projecting and displaying the arrangement area 90 on the input table 40, the place where the electronic pen 30 is placed is unified, and the next user can easily find the electronic pen 30.
As a result, it is possible to prevent the electronic pen 30 from being lost.

また、電子ペン30が配置領域90に置かれなかった場合には、警告音を鳴らす、担当者へメッセージを送信するといった方法により通知される。警告音を鳴らすことにより、電子ペン30の持ち去り等を防止することができる。また、担当者へメッセージを送信することにより、電子ペン30が紛失した場合でも、新たな電子ペン30を早期に補充することが可能になる。 Further, when the electronic pen 30 is not placed in the arrangement area 90, it is notified by a method such as sounding a warning sound or sending a message to the person in charge. By sounding the warning sound, it is possible to prevent the electronic pen 30 from being taken away. Further, by sending a message to the person in charge, even if the electronic pen 30 is lost, a new electronic pen 30 can be replenished at an early stage.

***他の構成***
<変形例6>
実施の形態4では、図19のステップS1からステップS3の処理の後に、紛失防止処理が実行された。つまり、入力フォーマット84へのデータの入力が終了し、データの登録が完了した後に、紛失防止処理が実行された。
しかし、電子ペン30を置くとデータが登録されるようにしてもよい。具体的には、図10のステップS33で確認データ88を入力台40の上に投影表示するとともに、合わせて紛失防止処理が実行されてもよい。つまり、図10のステップS33で確認データ88を入力台40の上に投影表示するとともに、合わせて配置領域90を入力台40の上に投影表示する。確認データ88の内容に修正がなければ、電子ペン30を配置領域90に置いてもらう。そして、配置領域90に電子ペン30が基準時間以上継続して置かれた場合に、図10のステップS34に進むようにする。
すなわち、実施の形態1では、確認データ88の内容に修正がなければ、利用者によって手続きを実行することを示すボタンが電子ペン30によりタッチされた。しかし、変形例6では、確認データ88の内容に修正がなければ、電子ペン30によるタッチに代え、電子ペン30を配置領域90に置いてもらう。これにより、電子ペン30を配置領域90に置かなければ手続きを実行することができないため、より確実に電子ペン30の紛失を防止することができる。
*** Other configurations ***
<Modification 6>
In the fourth embodiment, the loss prevention process was executed after the processes of steps S1 to S3 of FIG. That is, after the data input to the input format 84 is completed and the data registration is completed, the loss prevention process is executed.
However, the data may be registered when the electronic pen 30 is placed. Specifically, the confirmation data 88 may be projected and displayed on the input table 40 in step S33 of FIG. 10, and the loss prevention process may be executed at the same time. That is, in step S33 of FIG. 10, the confirmation data 88 is projected and displayed on the input table 40, and the arrangement area 90 is projected and displayed on the input table 40. If there is no correction in the content of the confirmation data 88, the electronic pen 30 is placed in the arrangement area 90. Then, when the electronic pen 30 is continuously placed in the arrangement area 90 for the reference time or longer, the process proceeds to step S34 in FIG.
That is, in the first embodiment, if the content of the confirmation data 88 is not modified, the button indicating that the procedure is executed by the user is touched by the electronic pen 30. However, in the modification 6, if the content of the confirmation data 88 is not corrected, the electronic pen 30 is placed in the arrangement area 90 instead of the touch by the electronic pen 30. As a result, the procedure cannot be executed unless the electronic pen 30 is placed in the arrangement area 90, so that the loss of the electronic pen 30 can be prevented more reliably.

<変形例7>
配置判定部115は、図21のステップS63の正常終了処理が終わった後も、定期的に配置領域90に電子ペン30が置かれているか否かを判定してもよい。なお、この際には、配置領域90は投影表示されている必要はない。つまり、図21のステップS63の正常終了処理が終わると、配置領域90は消えてしまうが、配置判定部115は、図21のステップS61で表示された配置領域90の位置に電子ペン90が置かれているか否かを判定する。
そして、配置判定部115は、一定時間継続して電子ペン30が配置領域90に置かれていない場合には、警告音を鳴らす、担当者へメッセージを送信するといった方法により担当者と利用者との少なくともいずれかに通知してもよい。
<Modification 7>
The arrangement determination unit 115 may periodically determine whether or not the electronic pen 30 is placed in the arrangement area 90 even after the normal end processing of step S63 in FIG. 21 is completed. At this time, the arrangement area 90 does not need to be projected and displayed. That is, when the normal end processing of step S63 in FIG. 21 is completed, the arrangement area 90 disappears, but the arrangement determination unit 115 places the electronic pen 90 at the position of the arrangement area 90 displayed in step S61 of FIG. Determine if it is.
Then, when the electronic pen 30 is not continuously placed in the arrangement area 90 for a certain period of time, the arrangement determination unit 115 causes the person in charge and the user to sound a warning sound or send a message to the person in charge. You may notify at least one of.

実施の形態5.
実施の形態5では、入力台40の大きさに応じて表示内容82を制御する点が実施の形態1と異なる。実施の形態5では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態5を実施の形態2〜4と組み合わせることも可能である。
Embodiment 5.
The fifth embodiment is different from the first embodiment in that the display content 82 is controlled according to the size of the input table 40. In the fifth embodiment, these different points will be described, and the same points will be omitted.
It is also possible to combine the fifth embodiment with the second to fourth embodiments.

***構成の説明***
図23を参照して、実施の形態5に係るデータ入力システム1の構成を説明する。
データ入力システム1は、センサ71を備える点が図1に示すデータ入力システム1と異なる。センサ71は、入力台40の大きさを検出する装置である。
*** Explanation of configuration ***
The configuration of the data input system 1 according to the fifth embodiment will be described with reference to FIG. 23.
The data input system 1 is different from the data input system 1 shown in FIG. 1 in that the sensor 71 is provided. The sensor 71 is a device that detects the size of the input base 40.

図24を参照して、実施の形態5に係るデータ入力装置10の構成を説明する。
データ入力装置10は、表示エリア認識部116を備える点が、図2に示すデータ入力装置10と異なる。表示エリア認識部116は、他の機能構成要素と同様に、ソフトウェアによって実現される。なお、表示エリア認識部116は、他の機能構成要素と同様に、ハードウェアによって実現されてもよい。
The configuration of the data input device 10 according to the fifth embodiment will be described with reference to FIG. 24.
The data input device 10 is different from the data input device 10 shown in FIG. 2 in that it includes a display area recognition unit 116. The display area recognition unit 116 is realized by software like other functional components. The display area recognition unit 116 may be realized by hardware like other functional components.

***動作の説明***
図25から図27を参照して、実施の形態5に係る投影処理を説明する。
ステップS75の処理は、図4のステップS12の処理と同じである。
*** Explanation of operation ***
The projection process according to the fifth embodiment will be described with reference to FIGS. 25 to 27.
The process of step S75 is the same as the process of step S12 of FIG.

(ステップS71:大きさ検出処理)
表示エリア認識部116は、センサ71により、入力装置の置き場である配置領域のサイズを認識する。具体的には、入力台40の縦及び横の寸法を認識する。
(Step S71: Size detection process)
The display area recognition unit 116 recognizes the size of the arrangement area where the input device is placed by the sensor 71. Specifically, the vertical and horizontal dimensions of the input base 40 are recognized.

(ステップS72:コンテンツ特定処理)
投影部111は、ステップS71で検出された入力台40の上面の大きさに応じた表示コンテンツを特定する。
表示するコンテンツは、あらかじめ配置領域のサイズに応じた表示内容のレイアウトをサイズごとに複数保持され、大きさ検出処理で検出されたサイズによって、一意に決まるようになっている。
具体例として、大と中と小の3種類のレイアウトが登録されている例について説明する。は、投影部111は、検出された入力台40の上面の大きさが大と中と小とのいずれの分類に該当するかを特定する。投影部111は、特定された分類に応じた表示コンテンツを特定する。
例えば、分類が大の場合には、選択画面81又は表示内容82と、広告動画及び広告画像とを表示コンテンツとし、分類が中の場合には、選択画面81又は表示内容82と、広告動画とを表示コンテンツとし、分類が小の場合には、選択画面81又は表示内容82だけを表示コンテンツとする。
(Step S72: Content identification process)
The projection unit 111 specifies the display content according to the size of the upper surface of the input base 40 detected in step S71.
A plurality of layouts of display contents according to the size of the arrangement area are held in advance for each size of the contents to be displayed, and the contents are uniquely determined by the size detected by the size detection process.
As a specific example, an example in which three types of layouts, large, medium, and small, are registered will be described. The projection unit 111 identifies whether the size of the upper surface of the detected input base 40 corresponds to the classification of large, medium, and small. The projection unit 111 identifies the display content according to the specified classification.
For example, when the classification is large, the selection screen 81 or the display content 82 and the advertisement video and the advertisement image are used as the display contents, and when the classification is medium, the selection screen 81 or the display content 82 and the advertisement video are used. Is the display content, and when the classification is small, only the selection screen 81 or the display content 82 is the display content.

(ステップS73:投影サイズ決定処理)
投影部111は、ステップS72で特定された配置領域のサイズに応じた表示内容を、表示コンテンツが登録されたレイアウトから特定し、特定したレイアウトの表示コンテンツを検出された入力台の大きさに合わせて拡大表示する。
(Step S73: Projection size determination process)
The projection unit 111 specifies the display content according to the size of the arrangement area specified in step S72 from the layout in which the display content is registered, and matches the display content of the specified layout with the size of the detected input stand. To enlarge.

(ステップS74:手続選択処理)
投影部111は、プロジェクタ20により、手続きの選択画面81を入力台40の上に投影表示する。この際、上記例であれば、投影部111は、分類が大の場合には、選択画面81とともに、広告動画及び広告画像を入力台40の上に投影表示する。また、投影部111は、分類が中の場合には、選択画面81とともに、広告動画を入力台40の上に投影表示する。
例えば、分類が中の場合には、図26に示すように、投影部111は、選択画面81と広告動画とを入力台40の上に投影表示する。
すると、利用者によって、行いたい手続きのボタンが電子ペン30によりタッチされ、選択される。この際、利用者が広告動画を見る可能性がある。
(Step S74: Procedure selection process)
The projection unit 111 projects and displays the procedure selection screen 81 on the input table 40 by the projector 20. At this time, in the above example, when the classification is large, the projection unit 111 projects and displays the advertisement video and the advertisement image on the input table 40 together with the selection screen 81. Further, when the classification is medium, the projection unit 111 projects and displays the advertisement video on the input table 40 together with the selection screen 81.
For example, when the classification is medium, as shown in FIG. 26, the projection unit 111 projects and displays the selection screen 81 and the advertisement moving image on the input table 40.
Then, the user touches and selects the button of the procedure to be performed by the electronic pen 30. At this time, the user may watch the advertisement video.

(ステップS76:表示内容投影処理)
投影部111は、プロジェクタ20により、ステップS75で読み出された表示内容82を、伝送路60の上に投影表示する。この際、上記例であれば、投影部111は、分類が大の場合には、選択画面81とともに、広告動画及び広告画像を入力台40の上に投影表示する。また、投影部111は、分類が中の場合には、選択画面81とともに、広告動画を入力台40の上に投影表示する。
例えば、分類が中の場合には、図27に示すように、投影部111は、選択画面81と広告動画とを入力台40の上に投影表示する。
その後、図3のステップS2のデータ認識処理が実行される。この際、利用者が広告動画を見る可能性がある。
(Step S76: Display content projection process)
The projection unit 111 projects and displays the display content 82 read in step S75 on the transmission line 60 by the projector 20. At this time, in the above example, when the classification is large, the projection unit 111 projects and displays the advertisement video and the advertisement image on the input table 40 together with the selection screen 81. Further, when the classification is medium, the projection unit 111 projects and displays the advertisement video on the input table 40 together with the selection screen 81.
For example, when the classification is medium, as shown in FIG. 27, the projection unit 111 projects and displays the selection screen 81 and the advertisement moving image on the input table 40.
After that, the data recognition process of step S2 of FIG. 3 is executed. At this time, the user may watch the advertisement video.

***実施の形態5の効果***
以上のように、実施の形態5に係るデータ入力装置10は、入力台40の上面の大きさに応じて、表示コンテンツを決定する。これにより、用意された入力台40に応じて適切なコンテンツを投影表示することができる。
*** Effect of Embodiment 5 ***
As described above, the data input device 10 according to the fifth embodiment determines the display content according to the size of the upper surface of the input table 40. As a result, appropriate content can be projected and displayed according to the prepared input stand 40.

また、実施の形態5に係るデータ入力装置10は、決定された表示コンテンツを入力台40の上面の大きさに合わせ拡大して投影表示する。 Further, the data input device 10 according to the fifth embodiment enlarges and projects the determined display content according to the size of the upper surface of the input table 40.

実施の形態6.
実施の形態6は、複数の手続きを連続して行う場合に、他の手続きで既に入力された内容を利用する点が実施の形態1と異なる。実施の形態6では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態6を実施の形態2〜5と組み合わせることも可能である。
Embodiment 6.
The sixth embodiment is different from the first embodiment in that when a plurality of procedures are performed in succession, the contents already input in the other procedures are used. In the sixth embodiment, these different points will be described, and the same points will be omitted.
It is also possible to combine the sixth embodiment with the second to fifth embodiments.

***動作の説明***
図28及び図5を参照して、実施の形態6に係る投影処理を説明する。
(図28のステップS81:手続選択処理)
実施の形態1と同様に、手続きが選択される。実施の形態6では、1つ以上の手続きが選択される。
具体的には、図5に示すように、投影部111は、プロジェクタ20により、手続きの選択画面81を入力台40の上に表示する。すると、利用者によって、行いたい手続きのボタンが順に電子ペン30によりタッチされ、1つ以上の手続きが選択される。
*** Explanation of operation ***
The projection process according to the sixth embodiment will be described with reference to FIGS. 28 and 5.
(Step S81 in FIG. 28: Procedure selection process)
As in the first embodiment, the procedure is selected. In Embodiment 6, one or more procedures are selected.
Specifically, as shown in FIG. 5, the projection unit 111 displays the procedure selection screen 81 on the input table 40 by the projector 20. Then, the user touches the buttons of the procedure to be performed in order with the electronic pen 30, and one or more procedures are selected.

投影部111は、ステップS81で選択された各手続きを順に対象の手続きとする。ここでは、投影部111は、ステップS81で選択された順に各手続きを対象とする。 The projection unit 111 sets each procedure selected in step S81 as a target procedure in order. Here, the projection unit 111 targets each procedure in the order selected in step S81.

(図28のステップS82:表示内容読込処理)
投影部111は、対象の手続きについての表示内容82を、データベースサーバ50の表示内容記憶部51から読み出す。
(Step S82 of FIG. 28: Display content reading process)
The projection unit 111 reads the display content 82 for the target procedure from the display content storage unit 51 of the database server 50.

(図28のステップS83:表示内容投影処理)
投影部111は、プロジェクタ20により、ステップS12で読み出された表示内容82を、入力台40の上に投影表示する。
(Step S83 of FIG. 28: Display content projection process)
The projection unit 111 projects and displays the display content 82 read in step S12 on the input base 40 by the projector 20.

図29を参照して、実施の形態6に係るデータ認識処理を説明する。
(図29のステップS91:手続き数判定処理)
データ認識部112は、図28のステップS81で選択された手続きの数が1つであるか否かを判定する。
データ認識部112は、手続きの数が2つ以上である場合には、処理をステップS92に進める。一方、データ認識部112は、手続きの数が1つである場合には、処理をステップS95に進める。
The data recognition process according to the sixth embodiment will be described with reference to FIG. 29.
(Step S91 in FIG. 29: Procedure number determination process)
The data recognition unit 112 determines whether or not the number of procedures selected in step S81 of FIG. 28 is one.
When the number of procedures is two or more, the data recognition unit 112 advances the process to step S92. On the other hand, when the number of procedures is one, the data recognition unit 112 advances the process to step S95.

(図29のステップS92:初回手続き判定処理)
データ認識部112は、対象の手続きが初回の手続きであるか否かを判定する。つまり、データ認識部112は、対象の手続きが、図28のステップS81で選択された手続きのうち初めに処理される手続きであるか否かを判定する。
データ認識部112は、対象の手続きが初回の手続きでない場合には、処理をステップS93に進める。一方、データ認識部112は、対象の手続きが初回の手続きである場合には、処理をステップS95に進める。
(Step S92 in FIG. 29: Initial procedure determination process)
The data recognition unit 112 determines whether or not the target procedure is the first procedure. That is, the data recognition unit 112 determines whether or not the target procedure is the procedure to be processed first among the procedures selected in step S81 of FIG. 28.
If the target procedure is not the first procedure, the data recognition unit 112 advances the process to step S93. On the other hand, when the target procedure is the first procedure, the data recognition unit 112 advances the process to step S95.

(図29のステップS93:記入内容判定処理)
データ認識部112は、入力内容85が既に対象となった過去手続きに含まれる入力内容85である既出内容であるか否かを判定する。
データ認識部112は、入力内容85が過去手続きで入力された既出内容である場合には、処理をステップS94に進める。一方、データ認識部112は、入力内容85が過去の手続きで入力された内容でない場合には、処理をステップS95に進める。
(Step S93 in FIG. 29: Entry content determination process)
The data recognition unit 112 determines whether or not the input content 85 is the already-existing content that is the input content 85 included in the past procedure that has already been the target.
If the input content 85 is the already-existing content input in the past procedure, the data recognition unit 112 proceeds to step S94. On the other hand, if the input content 85 is not the content input in the past procedure, the data recognition unit 112 proceeds to step S95.

(図29のステップS94:データ読込処理)
データ認識部112は、入力内容85について過去手続きで入力されたデータをメモリ12から読み出し、投影部111に投影表示させる。
具体的には、データ認識部112は、入力内容85について過去手続きで認識された文字のデジタルデータと、入力内容85について過去手続きで特定された軌跡が画像化されたデータとをメモリ12から読み出す。データ認識部112は、読み出されたデジタルデータと画像化されたデータとを投影部111に送信する。すると、投影部111は、デジタルデータが示す文字と、画像化されたデータとを入力台40の上に投影表示する。ここで、画像化されたデータは入力欄86に投影表示され、デジタルデータが示す文字は、入力欄86の付近に投影表示される。
そして、データ認識部112は、処理をステップS98に進める。
(Step S94 of FIG. 29: Data reading process)
The data recognition unit 112 reads the data input in the past procedure for the input content 85 from the memory 12 and projects and displays it on the projection unit 111.
Specifically, the data recognition unit 112 reads out from the memory 12 the digital data of the characters recognized in the past procedure for the input content 85 and the data in which the trajectory specified in the past procedure is imaged for the input content 85. .. The data recognition unit 112 transmits the read digital data and the imaged data to the projection unit 111. Then, the projection unit 111 projects and displays the characters indicated by the digital data and the imaged data on the input table 40. Here, the imaged data is projected and displayed in the input field 86, and the characters indicated by the digital data are projected and displayed in the vicinity of the input field 86.
Then, the data recognition unit 112 advances the process to step S98.

つまり、投影部111は、対象の手続きについての入力内容のうち、複数の手続きのうち既に対象となった過去手続きに含まれる入力内容である既出内容について、過去手続きの入力フォーマットを投影表示した際にデータ認識部112によって認識された文字を既出内容に対応する入力欄86に入力された文字として投影表示する。また、合わせて、投影部111は、既出内容に対応する入力欄86に入力された軌跡を示す画像化されたデータを入力欄86に投影表示する。 That is, when the projection unit 111 projects and displays the input format of the past procedure with respect to the already-existing content which is the input content already included in the past procedure which has already been the target among the plurality of input contents of the target procedure. The characters recognized by the data recognition unit 112 are projected and displayed as the characters input in the input field 86 corresponding to the existing contents. At the same time, the projection unit 111 projects and displays the imaged data indicating the locus input in the input field 86 corresponding to the already-existing content in the input field 86.

ステップS95からステップS99の処理は、図8のステップS21からステップS25の処理と同じである。但し、ステップS99では、データ認識部112は、全ての入力内容85についての書込みが終了していない場合には、処理を図28のステップS83に戻して、次の入力内容85についての入力フォーマット84を表示させる。 The process from step S95 to step S99 is the same as the process from step S21 to step S25 in FIG. However, in step S99, if the data recognition unit 112 has not completed writing of all the input contents 85, the process returns to step S83 of FIG. 28, and the input format 84 for the next input contents 85 Is displayed.

なお、ステップS94で読み込まれ、投影表示された内容を変更したい場合には、入力欄86に表示された軌跡を削除して、入力し直せばよい。入力し直されると、ステップS98からステップS95に処理が戻される。そして、入力し直された内容について、ステップS95からステップS97の処理が実行される。その結果、入力し直された軌跡から文字認識され、認識された文字と、入力し直された軌跡を画像化したデータとが入力台40の上に投影表示される。
つまり、ステップS94で既出内容に対応する入力欄86に投影表示された情報が削除され、改めて手書きされた場合には、データ認識部112は、手書きされた文字を認識する。そして、投影部111は、過去手続きの入力フォーマット84を投影表示した際にデータ認識部112によって認識された文字の投影表示を止め、データ認識部112によって新たに認識された文字を投影表示する。
If it is desired to change the content read and projected in step S94, the locus displayed in the input field 86 may be deleted and the input may be re-entered. When the input is re-entered, the process is returned from step S98 to step S95. Then, the processes of steps S95 to S97 are executed for the re-entered contents. As a result, characters are recognized from the re-input locus, and the recognized characters and the data obtained by imaging the re-input locus are projected and displayed on the input table 40.
That is, when the information projected and displayed in the input field 86 corresponding to the existing content is deleted in step S94 and handwritten again, the data recognition unit 112 recognizes the handwritten characters. Then, the projection unit 111 stops the projection display of the character recognized by the data recognition unit 112 when the input format 84 of the past procedure is projected and displayed, and projects and displays the character newly recognized by the data recognition unit 112.

また、データ認識部112は、実施の形態1と同様に、手書きされた軌跡を特定して、特定された軌跡に基づき手書きされた文字を認識し、特定された軌跡と認識された文字とを対応付けて保管する。この際、データ認識部112は、既出内容に対応する入力欄86に手書きされない場合には、過去手続きの入力フォーマット84が示す入力欄86に手書きされた軌跡と、過去手続きの入力フォーマットを投影表示した際にデータ認識部によって認識された文字とを対応付けて保管する。 Further, the data recognition unit 112 identifies the handwritten locus, recognizes the handwritten character based on the specified locus, and determines the specified locus and the recognized character, as in the first embodiment. Store in association with each other. At this time, if the data recognition unit 112 is not handwritten in the input field 86 corresponding to the existing content, the data recognition unit 112 projects and displays the trajectory handwritten in the input field 86 indicated by the input format 84 of the past procedure and the input format of the past procedure. When this is done, the characters recognized by the data recognition unit are stored in association with each other.

図30を参照して、実施の形態6に係る確認処理を説明する。
ステップS101からステップS105の処理は、図10のステップS31からステップS35の処理と同じである。
The confirmation process according to the sixth embodiment will be described with reference to FIG.
The process from step S101 to step S105 is the same as the process from step S31 to step S35 in FIG.

(図30のステップS106:手続き判定処理)
確認処理部113は、未処理の手続きが残っているか否かを判定する。つまり、確認処理部113は、図28のステップS81で選択された手続きのうち、未だ処理がされていない手続きが残っているか否かを判定する。
確認処理部113は、未処理の手続きが残っている場合には、処理を図28のステップS82に戻す。そして、確認処理部113は、投影部111に次の手続きの表示内容82を読み込ませる。一方、確認処理部113は、未処理の手続きが残っていない場合には、処理を終了する。
(Step S106 of FIG. 30: Procedure determination process)
The confirmation processing unit 113 determines whether or not unprocessed procedures remain. That is, the confirmation processing unit 113 determines whether or not, among the procedures selected in step S81 of FIG. 28, there are still procedures that have not been processed.
If the unprocessed procedure remains, the confirmation processing unit 113 returns the process to step S82 in FIG. 28. Then, the confirmation processing unit 113 causes the projection unit 111 to read the display content 82 of the next procedure. On the other hand, the confirmation processing unit 113 ends the processing when there are no unprocessed procedures remaining.

***実施の形態6の効果***
以上のように、実施の形態6に係るデータ入力装置10は、複数の手続きを連続して行う場合に、他の手続きで既に入力された内容を利用する。これにより、利用者は同じ内容を何度も記入する必要がなく、紙を用いて手続きを行う場合に比べて、手続きの手間を減らすことができる。
*** Effect of Embodiment 6 ***
As described above, the data input device 10 according to the sixth embodiment uses the contents already input in the other procedures when performing the plurality of procedures in succession. As a result, the user does not have to fill in the same contents many times, and the labor of the procedure can be reduced as compared with the case where the procedure is performed using paper.

実施の形態7.
実施の形態7は、氏名等により筆跡鑑定を行い、本人確認する点が実施の形態1と異なる。実施の形態7では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態7を実施の形態2〜6と組み合わせることも可能である。
Embodiment 7.
The seventh embodiment is different from the first embodiment in that the handwriting is verified by the name or the like and the identity is confirmed. In the seventh embodiment, these different points will be described, and the same points will be omitted.
It is also possible to combine the seventh embodiment with the second to sixth embodiments.

***構成の説明***
図31を参照して、実施の形態7に係るデータ入力装置10の構成を説明する。
データ入力装置10は、機能構成要素として、筆跡鑑定部117を備える点が図2に示すデータ入力装置10と異なる。筆跡鑑定部117は、他の機能構成要素と同様に、ソフトウェアによって実現される。なお、筆跡鑑定部117は、他の機能構成要素と同様に、ハードウェアによって実現されてもよい。
*** Explanation of configuration ***
The configuration of the data input device 10 according to the seventh embodiment will be described with reference to FIG. 31.
The data input device 10 is different from the data input device 10 shown in FIG. 2 in that the handwriting appraisal unit 117 is provided as a functional component. The handwriting appraisal unit 117 is realized by software like other functional components. The handwriting appraisal unit 117 may be realized by hardware like other functional components.

***動作の説明***
図32を参照して、実施の形態7に係る筆跡鑑定処理を説明する。
ステップS111からステップS115の処理は、図10のステップS31からステップS35の処理と同じである。
*** Explanation of operation ***
The handwriting appraisal process according to the seventh embodiment will be described with reference to FIG. 32.
The processing of steps S111 to S115 is the same as the processing of steps S31 to S35 of FIG.

(図32のステップS116:筆跡鑑定処理)
筆跡鑑定部117は、ステップS114でデータベースサーバ50の利用者情報記憶部53に書き込まれたデジタルデータ及び証跡データをもとに筆跡鑑定を行う。
例えば、筆跡鑑定部117は、利用者によって手書きされた氏名及び電話番号を元に筆跡鑑定を行う場合、過去に手書きされた同一利用者の氏名及び電話番号を、デジタルデータを元に特定する。筆跡鑑定部117は、特定された氏名及び電話番号の証跡データと、今回利用者によって手書きされた氏名及び電話番号の証跡データとを比較判定することで筆跡鑑定を行う。
筆跡鑑定部117は、入力欄に手書き入力された文字と過去に手書き入力された文字とを比較することにより、同一利用者により手書きされたと判定したとき、本人確認に関する手続きを終了する。
一方、筆跡鑑定部117は、同一利用者により手書きされたことが判定の結果確認できなければ、事務員に対して通知して、事務員に本人確認をさせる。
(Step S116 of FIG. 32: Handwriting appraisal processing)
The handwriting appraisal unit 117 performs handwriting appraisal based on the digital data and trail data written in the user information storage unit 53 of the database server 50 in step S114.
For example, when the handwriting appraisal unit 117 performs handwriting appraisal based on the name and telephone number handwritten by the user, the handwriting appraisal unit 117 identifies the name and telephone number of the same user handwritten in the past based on digital data. The handwriting appraisal unit 117 performs handwriting appraisal by comparing and determining the trail data of the specified name and telephone number and the trail data of the name and telephone number handwritten by the user this time.
The handwriting appraisal unit 117 ends the procedure for identity verification when it is determined that the characters have been handwritten by the same user by comparing the characters handwritten in the input field with the characters handwritten in the past.
On the other hand, if the handwriting appraisal unit 117 cannot confirm the handwriting by the same user as a result of the determination, the handwriting appraisal unit 117 notifies the clerk and asks the clerk to confirm the identity.

筆跡鑑定部117による判定は、例えば氏名と電話番号とのいずれか一方で行うようにしてもよいし、住所等で行うようにしてもよい。 The determination by the handwriting appraisal unit 117 may be performed by, for example, either the name or the telephone number, or may be performed by the address or the like.

***実施の形態7の効果***
以上のように、実施の形態7に係るデータ入力装置10は、筆跡鑑定を行う。これにより、入力手続完了後に、本人が手続したことを確認する運用においては、対面による本人確認を省略することができる。
*** Effect of Embodiment 7 ***
As described above, the data input device 10 according to the seventh embodiment performs handwriting appraisal. As a result, face-to-face identification can be omitted in the operation of confirming that the person has completed the procedure after the input procedure is completed.

また、本人確認を入力手続きの最初の段階で行うこととすれば、以降の入力手続について、利用者が過去の手続きで入力した入力内容を既出入力内容に対応する入力欄86に入力された文字として投影することが可能となる。 In addition, if identity verification is performed at the first stage of the input procedure, the characters entered in the input field 86 corresponding to the existing input contents by the user in the past procedure for the subsequent input procedures. It becomes possible to project as.

実施の形態8.
実施の形態8は、利用者によって発話された申請情報に関するキーワードを取得し、自然言語認識させることで、キーワードに関連する手続を一覧表示する点が実施の形態1と異なる。実施の形態8では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態8を実施の形態2〜7と組み合わせることも可能である。
Embodiment 8.
The eighth embodiment is different from the first embodiment in that a keyword related to the application information uttered by the user is acquired and the natural language is recognized to display a list of procedures related to the keyword. In the eighth embodiment, these different points will be described, and the same points will be omitted.
It is also possible to combine the eighth embodiment with the second to seventh embodiments.

***構成の説明***
図33を参照して、実施の形態8に係るデータ入力システム1の構成を説明する。
データ入力システム1は、音声入力装置71と音声出力装置72とを備える点が図1に示すデータ入力システム1と異なる。音声入力装置71は、音声入力のためのマイク装置である。音声出力装置72は、音声データを利用者に伝えるためのスピーカ装置である。
*** Explanation of configuration ***
The configuration of the data input system 1 according to the eighth embodiment will be described with reference to FIG. 33.
The data input system 1 is different from the data input system 1 shown in FIG. 1 in that it includes a voice input device 71 and a voice output device 72. The voice input device 71 is a microphone device for voice input. The voice output device 72 is a speaker device for transmitting voice data to the user.

図34を参照して、実施の形態8に係るデータ入力装置10の構成を説明する。
データ入力装置10は、機能構成要素として、自然言語認識部118を備える点が図2に示すデータ入力装置10と異なる。自然言語認識部118は、他の機能構成要素と同様に、ソフトウェアによって実現される。なお、自然言語認識部118は、他の機能構成要素と同様に、ハードウェアによって実現されてもよい。
また、データベースサーバ50は、自然言語記憶部55の機能を実現する。
The configuration of the data input device 10 according to the eighth embodiment will be described with reference to FIG. 34.
The data input device 10 is different from the data input device 10 shown in FIG. 2 in that it includes a natural language recognition unit 118 as a functional component. The natural language recognition unit 118 is realized by software like other functional components. The natural language recognition unit 118 may be realized by hardware like other functional components.
Further, the database server 50 realizes the function of the natural language storage unit 55.

***動作の説明***
図35を参照して、実施の形態8に係る自然言語認識処理を説明する。
ステップS123からステップS125の処理は、図4のステップS11からステップS13の処理と同じである。
*** Explanation of operation ***
The natural language recognition process according to the eighth embodiment will be described with reference to FIG. 35.
The processing of steps S123 to S125 is the same as the processing of steps S11 to S13 of FIG.

(図35のステップS121:目的確認処理)
自然言語認識部118は、利用者が発する音声を取得する。取得した利用者の音声は、自然言語記憶部55に記憶される。
利用者に来所の目的を音声発信してもらうために、音声出力装置72から来所目的を質問するようにしてもよいし、看板等により利用者に発話を促すようにしてもよい。
(Step S121 in FIG. 35: Purpose confirmation process)
The natural language recognition unit 118 acquires the voice emitted by the user. The acquired user's voice is stored in the natural language storage unit 55.
In order to have the user transmit the purpose of the visit by voice, the voice output device 72 may ask the purpose of the visit, or the user may be prompted to speak by a signboard or the like.

(図35のステップS122:手続一覧生成処理)
自然言語認識部118は、取得した利用者の音声からキーワードとなる文字を抽出し、予め登録しているキーワードに関連する手続の一覧として生成する。
(Step S122 of FIG. 35: Procedure list generation process)
The natural language recognition unit 118 extracts characters as keywords from the acquired voice of the user and generates them as a list of procedures related to the keywords registered in advance.

すると、ステップS123で、投影部111は、ステップS122で生成された手続きの一覧を示す選択画面81を入力台40の上に表示する。 Then, in step S123, the projection unit 111 displays the selection screen 81 showing the list of procedures generated in step S122 on the input table 40.

例えば、図36に示すように、自然言語認識部118は、利用者が発した音声から「引越」というキーワードを抽出した場合は、「住所変更」や「口座開設」の手続きを表示する一覧を生成する。 For example, as shown in FIG. 36, when the natural language recognition unit 118 extracts the keyword "moving" from the voice emitted by the user, the natural language recognition unit 118 displays a list displaying the procedures of "address change" and "account opening". Generate.

キーワードを認識できない場合と、認識したキーワードが特別なキーワードである場合と等には、窓口へ利用者を促すメッセージを表示する。 When the keyword cannot be recognized, or when the recognized keyword is a special keyword, a message prompting the user is displayed at the counter.

***実施の形態8の効果***
以上のように、実施の形態8に係るデータ入力装置10は、自然言語認識処理を行う。自然言語認識処理により、手続きのため来所した利用者に来所目的を音声により発してもらうことで、人手を介さず、必要な申請手続の一覧表示を行うことが可能となる。
手続機関によっては、可能な手続き項目は多数あり、どの項目を選択すべきかわからないことが多々発生するが、検索の手間を省くことができる。
*** Effect of Embodiment 8 ***
As described above, the data input device 10 according to the eighth embodiment performs the natural language recognition process. The natural language recognition process makes it possible to display a list of necessary application procedures without human intervention by having the user who came to the office for the procedure utter the purpose of the visit by voice.
Depending on the procedural institution, there are many possible procedural items, and it often happens that you do not know which item to select, but you can save the trouble of searching.

また、音声認識によらず来所目的を示すキーワード入力により動作するように構成してもよい。 Further, it may be configured to operate by inputting a keyword indicating the purpose of the visit without using voice recognition.

実施の形態9.
実施の形態9は、データ入力装置10aが別のデータ入力装置10bとネットワークを介して接続され、利用者と遠隔のオペレータとが投影画面を共有する点が実施の形態1と異なる。実施の形態9では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態9を実施の形態2〜8と組み合わせることも可能である。
Embodiment 9.
The ninth embodiment is different from the first embodiment in that the data input device 10a is connected to another data input device 10b via a network, and the user and the remote operator share the projection screen. In the ninth embodiment, these different points will be described, and the same points will be omitted.
It is also possible to combine the ninth embodiment with the second to eighth embodiments.

***構成の説明***
図37を参照して、実施の形態9に係るデータ入力システム1の構成を説明する。
データ入力システム1は、音声入力装置71と音声出力装置72とテレビカメラ73とを備える点が図1に示すデータ入力システム1と異なる。音声入力装置71は、利用者の音声を取得するためのマイク装置である。音声出力装置72は、音声データを利用者に伝えるためのスピーカ装置である。テレビカメラ73は、利用者の映像を取得するための撮像装置である。
*** Explanation of configuration ***
The configuration of the data input system 1 according to the ninth embodiment will be described with reference to FIG. 37.
The data input system 1 is different from the data input system 1 shown in FIG. 1 in that it includes an audio input device 71, an audio output device 72, and a television camera 73. The voice input device 71 is a microphone device for acquiring a user's voice. The voice output device 72 is a speaker device for transmitting voice data to the user. The TV camera 73 is an imaging device for acquiring a user's image.

図38を参照して、実施の形態9に係るデータ入力装置10の構成を説明する。
データ入力装置10は、機能構成要素として、画面共有部119を備える点が図2に示すデータ入力装置10と異なる。画面共有部119は、他の機能構成要素と同様に、ソフトウェアによって実現される。なお、画面共有部119は、他の機能構成要素と同様に、ハードウェアによって実現されてもよい。
The configuration of the data input device 10 according to the ninth embodiment will be described with reference to FIG. 38.
The data input device 10 is different from the data input device 10 shown in FIG. 2 in that the screen sharing unit 119 is provided as a functional component. The screen sharing unit 119 is realized by software like other functional components. The screen sharing unit 119 may be realized by hardware like other functional components.

***動作の説明***
図39を参照して、実施の形態9に係る画面共有処理を説明する。
ここでは、データ入力装置10aとデータ入力装置10bとがネットワークを介して接続されており、データ入力装置10aが利用者側に設置され、データ入力装置10bがオペレータ側に設置されているとする。
ステップS132とステップS133の処理は、図3のステップS2とステップS3の処理と同じである。
*** Explanation of operation ***
The screen sharing process according to the ninth embodiment will be described with reference to FIG. 39.
Here, it is assumed that the data input device 10a and the data input device 10b are connected via a network, the data input device 10a is installed on the user side, and the data input device 10b is installed on the operator side.
The processing of step S132 and step S133 is the same as the processing of step S2 and step S3 of FIG.

(図39のステップS131:画面共有処理)
投影部111は、利用者によって選択された手続きについて、プロジェクタ20により、入力内容85と入力欄86とが指定された入力フォーマット84を入力台40の上に投影表示する。すると、画面共有部119は、データ入力装置10aとネットワークを介して接続されたデータ入力装置10bに入力フォーマット84を送信する。データ入力装置10bの投影部は、送信された入力フォーマット84を投影面の上に投影表示し、データ入力装置10と映像を共有する。
(Step S131 in FIG. 39: Screen sharing process)
The projection unit 111 projects and displays the input format 84 in which the input contents 85 and the input field 86 are specified by the projector 20 on the input table 40 for the procedure selected by the user. Then, the screen sharing unit 119 transmits the input format 84 to the data input device 10b connected to the data input device 10a via the network. The projection unit of the data input device 10b projects and displays the transmitted input format 84 on the projection surface, and shares an image with the data input device 10.

なお、ステップS132では、データ入力装置10a側で入力欄86に手書きされた軌跡及び認識された文字は、データ入力装置10bに送信され、データ入力装置10bの投影部によって投影面の上に投影表示される。また、データ入力装置10b側で入力欄86に手書きされた軌跡及び認識された文字は、データ入力装置10aに送信され、データ入力装置10の投影部111によって入力台40の上に投影表示される。
つまり、データ入力装置10a側とデータ入力装置10b側との両方で入力欄86に入力することが可能であり、入力された内容はデータ入力装置10aとデータ入力装置10bとで共有される。
In step S132, the locus and the recognized characters handwritten in the input field 86 on the data input device 10a side are transmitted to the data input device 10b and projected onto the projection surface by the projection unit of the data input device 10b. Will be done. Further, the locus and the recognized characters handwritten in the input field 86 on the data input device 10b side are transmitted to the data input device 10a and projected and displayed on the input table 40 by the projection unit 111 of the data input device 10. ..
That is, it is possible to input to the input field 86 on both the data input device 10a side and the data input device 10b side, and the input contents are shared by the data input device 10a and the data input device 10b.

例えば、利用者が投影面に「田中」と記載すると、記載すると同時に、異なるデータ入力装置10bの投影面の上に表示される。
また、異なるデータ入力装置10bの投影面で、「田中」を「鈴木」に変更すると、変更したと同時に、利用者の投影面に記載された「田中」は「鈴木」に変更表示される。
For example, if the user writes "Tanaka" on the projection plane, it is displayed on the projection plane of a different data input device 10b at the same time as the description.
Further, when "Tanaka" is changed to "Suzuki" on the projection surface of the different data input device 10b, "Tanaka" written on the projection surface of the user is changed to "Suzuki" at the same time as the change.

***実施の形態9の効果***
以上のように、実施の形態9に係るデータ入力装置10aは、画面共有処理を行う。これにより、異なるデータ入力装置10bをオペレータが扱うことにより、手続き書類の書き方がわからない利用者に対して、音声入力装置71と音声出力装置72及びテレビカメラ73を使った説明だけでなく、手書きによる説明を行うことが可能となる。
*** Effect of Embodiment 9 ***
As described above, the data input device 10a according to the ninth embodiment performs the screen sharing process. As a result, by handling the different data input devices 10b by the operator, not only the explanation using the voice input device 71, the voice output device 72, and the TV camera 73 but also handwriting is performed for the user who does not know how to write the procedure documents. It becomes possible to give an explanation.

利用者に代わって、代筆を行う運用では、オペレータがその場にいなくても対応することが可能となる。 In the operation of writing on behalf of the user, it is possible to respond even if the operator is not present.

1 データ入力システム、10 データ入力装置、11 プロセッサ、12 メモリ、13 ストレージ、14 通信インタフェース、15 処理回路、111 投影部、112 データ認識部、113 確認処理部、114 統計部、115 配置判定部、116 表示エリア認識部、20 プロジェクタ、21 投影面、30 電子ペン、40 入力台、50 データベースサーバ、60 伝送路、70 撮像装置、81 選択画面、82 表示内容、83 一覧、84 入力フォーマット、85 入力内容、86 入力欄、87 手続書類のフォーマット、88 確認データ、89 参照情報。 1 data input system, 10 data input device, 11 processor, 12 memory, 13 storage, 14 communication interface, 15 processing circuit, 111 projection unit, 112 data recognition unit, 113 confirmation processing unit, 114 statistics unit, 115 placement determination unit, 116 Display area recognition unit, 20 Projector, 21 Projection surface, 30 Electronic pen, 40 Input stand, 50 Database server, 60 Transmission path, 70 Imaging device, 81 Selection screen, 82 Display contents, 83 List, 84 Input format, 85 Input Contents, 86 input fields, 87 procedure document formats, 88 confirmation data, 89 reference information.

Claims (5)

入力台の上面のサイズを認識する表示エリア認識部と、
前記表示エリア認識部によって認識されたサイズに応じた表示コンテンツであって、入力内容と入力欄とを示す入力フォーマットを含む表示コンテンツを、前記入力台の上に投影表示する投影部と、
前記投影部によって投影表示された前記入力フォーマットの前記入力欄に手書きされた文字を認識するデータ認識部と
を備えるデータ入力装置。
A display area recognition unit that recognizes the size of the top surface of the input stand,
A projection unit that projects display content according to the size recognized by the display area recognition unit and includes an input format indicating an input content and an input field onto the input table.
A data input device including a data recognition unit that recognizes handwritten characters in the input field of the input format projected and displayed by the projection unit.
前記投影部は、前記サイズに応じた大きさで、前記表示コンテンツを、前記入力台の上に投影表示する
請求項1に記載のデータ入力装置。
The data input device according to claim 1, wherein the projection unit has a size corresponding to the size and projects and displays the display content on the input table.
前記投影部は、前記サイズが基準よりも大きい場合に、前記入力フォーマットに加えて、その他の前記表示コンテンツを投影表示する
請求項1又は2に記載のデータ入力装置。
The data input device according to claim 1 or 2 , wherein the projection unit projects and displays other display contents in addition to the input format when the size is larger than the reference.
表示エリア認識部が、入力台の上面のサイズを認識し、
投影部が、認識されたサイズに応じた表示コンテンツであって、入力内容と入力欄とを示す入力フォーマットを含む表示コンテンツを、前記入力台の上に投影表示し、
データ認識部が、投影表示された前記入力フォーマットの前記入力欄に手書きされた文字を認識するデータ入力方法。
The display area recognition unit recognizes the size of the upper surface of the input stand and
The projection unit projects and displays the display content according to the recognized size , including the input content and the input format indicating the input field , on the input table.
Data input method data recognizing unit, recognizing handwritten characters in the input field of the input format which is projected and displayed.
入力台の上面のサイズを認識する表示エリア認識処理と、
前記表示エリア認識処理によって認識されたサイズに応じた表示コンテンツであって、入力内容と入力欄とを示す入力フォーマットを含む表示コンテンツを、前記入力台の上に投影表示する投影処理と、
前記投影処理によって投影表示された前記入力フォーマットの前記入力欄に手書きされた文字を認識するデータ認識処理と
を行うデータ入力装置としてコンピュータを機能させるデータ入力プログラム。
Display area recognition processing that recognizes the size of the top surface of the input stand,
The projection process of projecting the display content according to the size recognized by the display area recognition process and including the input format indicating the input content and the input field onto the input table.
A data input program that causes a computer to function as a data input device that performs a data recognition process for recognizing characters handwritten in the input field of the input format projected and displayed by the projection process.
JP2019124281A 2019-07-03 2019-07-03 Data entry device, data entry method and data entry program Active JP6868665B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019124281A JP6868665B2 (en) 2019-07-03 2019-07-03 Data entry device, data entry method and data entry program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019124281A JP6868665B2 (en) 2019-07-03 2019-07-03 Data entry device, data entry method and data entry program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018017137A Division JP6553217B1 (en) 2018-02-02 2018-02-02 Data input device, data input program and data input system

Publications (2)

Publication Number Publication Date
JP2019219662A JP2019219662A (en) 2019-12-26
JP6868665B2 true JP6868665B2 (en) 2021-05-12

Family

ID=69096470

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019124281A Active JP6868665B2 (en) 2019-07-03 2019-07-03 Data entry device, data entry method and data entry program

Country Status (1)

Country Link
JP (1) JP6868665B2 (en)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4647468B2 (en) * 2005-11-18 2011-03-09 シャープ株式会社 Display device, content display method, and content display program
JP4838694B2 (en) * 2006-11-28 2011-12-14 富士フイルム株式会社 Electronic handwriting input device
JP5811606B2 (en) * 2011-06-09 2015-11-11 セイコーエプソン株式会社 Projector, projection system, projector control method, and program
JP2015180988A (en) * 2014-03-03 2015-10-15 カシオ計算機株式会社 Entry guide display device, entry guide display method, and program
JP5999236B2 (en) * 2014-09-12 2016-09-28 キヤノンマーケティングジャパン株式会社 INFORMATION PROCESSING SYSTEM, ITS CONTROL METHOD, AND PROGRAM, AND INFORMATION PROCESSING DEVICE, ITS CONTROL METHOD, AND PROGRAM
JP6665415B2 (en) * 2015-03-30 2020-03-13 セイコーエプソン株式会社 Projector and projector control method
JP6479220B2 (en) * 2016-01-15 2019-03-06 楽天株式会社 Content projection control device, content projection control method, and program
JP2017163532A (en) * 2016-03-08 2017-09-14 パナソニックIpマネジメント株式会社 Projection apparatus
JP6903935B2 (en) * 2017-02-17 2021-07-14 ソニーグループ株式会社 Information processing systems, information processing methods, and programs

Also Published As

Publication number Publication date
JP2019219662A (en) 2019-12-26

Similar Documents

Publication Publication Date Title
US10262356B2 (en) Methods and arrangements including data migration among computing platforms, e.g. through use of steganographic screen encoding
KR102240279B1 (en) Content processing method and electronic device thereof
US20070050360A1 (en) Triggering applications based on a captured text in a mixed media environment
JP7206729B2 (en) Information processing device and program
JP2006514493A (en) Change request form annotation
CN104220973A (en) Information processing device and program
US9141775B2 (en) Mashup service support method and apparatus
US20130039535A1 (en) Method and apparatus for reducing complexity of a computer vision system and applying related computer vision applications
JP6734445B2 (en) Data input device, data input method, and data input program
CN112513922A (en) System and method for providing companion enhancements to books via learning inserts using a publishing platform
US20150138077A1 (en) Display system and display controll device
JP6553217B1 (en) Data input device, data input program and data input system
JP6868665B2 (en) Data entry device, data entry method and data entry program
KR101477642B1 (en) Flat board printer
JP6676121B2 (en) Data input device and data input program
JP2021018728A (en) Server, program, method, and system
KR101261753B1 (en) Method and system for generating and managing annotation on electronic book
JP6549209B2 (en) Data input device and data input program
JP6582464B2 (en) Information input device and program
CN111062377B (en) Question number detection method, system, storage medium and electronic equipment
JP6840811B1 (en) Questionnaire input device, questionnaire input method and questionnaire input program
KR20080020099A (en) System and method for object-based online post-it service in mobile environment
JP2018136709A (en) Data input device, data input program and data input system
JP2009289197A (en) Information processing apparatus, system and program
JP6682827B2 (en) Information processing apparatus and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210412

R150 Certificate of patent or registration of utility model

Ref document number: 6868665

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250