JP2021009619A - Information processing system and program - Google Patents

Information processing system and program Download PDF

Info

Publication number
JP2021009619A
JP2021009619A JP2019123927A JP2019123927A JP2021009619A JP 2021009619 A JP2021009619 A JP 2021009619A JP 2019123927 A JP2019123927 A JP 2019123927A JP 2019123927 A JP2019123927 A JP 2019123927A JP 2021009619 A JP2021009619 A JP 2021009619A
Authority
JP
Japan
Prior art keywords
address
gesture
user
information
image forming
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019123927A
Other languages
Japanese (ja)
Inventor
友貴 竹村
Tomoki Takemura
友貴 竹村
晃 品田
Akira Shinada
晃 品田
義丈 浜野
Yoshitake Hamano
義丈 浜野
秀幸 友金
Hideyuki Tomogane
秀幸 友金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2019123927A priority Critical patent/JP2021009619A/en
Publication of JP2021009619A publication Critical patent/JP2021009619A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To establish communication with a terminal without using a NFC even when an address on a network of a destination is unknown.SOLUTION: The information processing system includes storage means of mapping and storing an address on a network of an apparatus connected via the network and the information concerning an operation requested for a user as a condition for providing an address defined for each apparatus, and transmission means of transmitting, when the information received from a terminal connected via the network matches with the information concerning the operation stored in the storage means, the address mapped with the information concerning the operation to the terminal.SELECTED DRAWING: Figure 9

Description

本発明は、情報処理システム及びプログラムに関する。 The present invention relates to information processing systems and programs.

携帯型の端末に格納されている文書データを、最寄りの印刷装置で印刷したい場合がある。現在、携帯型の端末を印刷装置に接続するための仕組みとして、NFC(=Near Field Communication)が用いられることがある。NFCは、機器同士を近づけることで通信が可能であるが、文書データの送信には適していない。このため、NFCは、印刷装置のIP(=Internet Protocol)アドレスを携帯型の端末への送信に使用されている。IPアドレスを取得した携帯型の端末は、Wi−Fi(登録商標)等を使用して、文書データや印刷の設定を印刷装置に送信する。 You may want to print the document data stored in a portable terminal with the nearest printing device. Currently, NFC (= Near Field Communication) may be used as a mechanism for connecting a portable terminal to a printing device. NFC can communicate by bringing devices closer to each other, but it is not suitable for transmitting document data. Therefore, the NFC is used to transmit the IP (= Internet Protocol) address of the printing device to the portable terminal. The portable terminal that has acquired the IP address uses Wi-Fi (registered trademark) or the like to transmit document data and printing settings to the printing device.

特開2014−149666号公報Japanese Unexamined Patent Publication No. 2014-149666

セキュリティに関する関心の高まりに伴い、画像処理装置へのNFCの搭載を望まない顧客や設けられているNFCの機能を無効にする顧客も存在する。 With the growing concern about security, there are some customers who do not want to install NFC in the image processing device and some customers who disable the function of the provided NFC.

本発明は、相手先のネットワーク上のアドレスが未知の場合でも、NFCを用いずに端末との通信を確立することを目的とする。 An object of the present invention is to establish communication with a terminal without using NFC even when the address on the network of the other party is unknown.

請求項1に記載の発明は、ネットワーク経由で接続されている機器のネットワーク上のアドレスと、機器毎に定まる当該アドレスを提供する条件としてユーザに求める動作に関する情報とを対応付けて記憶する記憶手段と、ネットワーク経由で接続されている端末から受信される情報が前記記憶手段に記憶されている前記動作に関する情報に整合する場合、当該動作に関する情報に対応付けられている前記アドレスを当該端末に送信する送信手段とを有する情報処理システムである。
請求項2に記載の発明は、ユーザに求める前記動作は、前記機器が予め定めた操作を検知した場合に、当該機器の提示手段又は当該機器と連携する提示手段を通じてユーザに提示される、請求項1に記載の情報処理システムである。
請求項3に記載の発明は、前記送信手段は、予め定めた前記操作の検知を通知した前記機器について記憶されている前記動作に関する情報と、前記端末から受信した動作に関する情報とが一致する場合に、当該機器に対応付けられている前記アドレスを送信する、請求項2に記載の情報処理システムである。
請求項4に記載の発明は、ユーザに求める前記動作は、提示された形状を描くように又は予め定めた経路をたどるように前記端末を空中で移動させることである、請求項2に記載の情報処理システムである。
請求項5に記載の発明は、ユーザに求める前記動作は、提示された形状又は文字を前記端末のタッチパネルに入力することである、請求項2に記載の情報処理システムである。
請求項6に記載の発明は、ユーザに求める前記動作は、提示された頭部の動き、又は、顔の部位の動き、又は、手若しくは指若しくは腕の動き、又は、足の動きであり、前記端末により撮像される、請求項2に記載の情報処理システムである。
請求項7に記載の発明は、前記機器が予め定めた操作を検知するたびに、ユーザに求める前記動作を生成する生成手段を更に有する、請求項1に記載の情報処理システムである。
請求項8に記載の発明は、複数の前記機器が予め定めた操作を検知している場合、前記生成手段は、複数の当該機器の間で異なる動作をユーザに求める、請求項7に記載の情報処理システムである。
請求項9に記載の発明は、コンピュータに、ネットワーク経由で接続されている機器のネットワーク上のアドレスと、機器毎に定まる当該アドレスを提供する条件としてユーザに求める動作に関する情報とを対応付けた関係を記憶手段に記憶させる機能と、ネットワーク経由で接続されている端末から受信される情報が前記記憶手段に記憶されている前記動作に関する情報に整合する場合、当該動作に関する情報に対応付けられている前記アドレスを当該端末に送信させる機能とを実行させるプログラムである。
請求項10に記載の発明は、コンピュータに、センサを通じて検知されたユーザの動作を、ネットワーク経由で接続されているサーバに送信させる機能と、前記ユーザの動作に対応付けられている機器のネットワーク上のアドレスを、前記サーバから受信させる機能と、受信した前記アドレスを用いて、ネットワーク経由で前記機器と通信させる機能とを実行させるプログラムである。
The invention according to claim 1 is a storage means for storing an address on a network of a device connected via a network and information related to an operation required of a user as a condition for providing the address determined for each device. When the information received from the terminal connected via the network matches the information about the operation stored in the storage means, the address associated with the information about the operation is transmitted to the terminal. It is an information processing system having a transmission means to perform.
The invention according to claim 2 claims that the operation required of the user is presented to the user through the presenting means of the device or the presenting means linked with the device when the device detects a predetermined operation. The information processing system according to item 1.
According to the third aspect of the present invention, when the transmitting means matches the information about the operation stored in the device that has notified the detection of the operation and the information about the operation received from the terminal. The information processing system according to claim 2, wherein the address associated with the device is transmitted to the device.
The invention according to claim 4, wherein the operation required of the user is to move the terminal in the air so as to draw a presented shape or follow a predetermined route. It is an information processing system.
The invention according to claim 5 is the information processing system according to claim 2, wherein the operation required of the user is to input the presented shape or character to the touch panel of the terminal.
According to the sixth aspect of the present invention, the movement required of the user is the presented movement of the head, the movement of a facial part, the movement of a hand, a finger or an arm, or the movement of a foot. The information processing system according to claim 2, which is imaged by the terminal.
The invention according to claim 7 is the information processing system according to claim 1, further comprising a generation means for generating the operation requested by the user each time the device detects a predetermined operation.
The invention according to claim 8, wherein when a plurality of the devices detect a predetermined operation, the generation means requires the user to perform different operations among the plurality of the devices. It is an information processing system.
The invention according to claim 9 is a relationship in which a computer is associated with an address on a network of devices connected via a network and information on an operation required of a user as a condition for providing the address determined for each device. Is associated with the information about the operation when the function of storing the above in the storage means and the information received from the terminal connected via the network match the information about the operation stored in the storage means. It is a program that executes a function of transmitting the address to the terminal.
The invention according to claim 10 has a function of causing a computer to transmit a user's operation detected through a sensor to a server connected via a network, and a device network associated with the user's operation. This is a program that executes a function of receiving the address from the server and a function of communicating with the device via the network using the received address.

請求項1記載の発明によれば、相手先のネットワーク上のアドレスが未知の場合でも、NFCを用いずに端末との通信を確立できる。
請求項2記載の発明によれば、通信の確立に必要な動作の確認が容易になる。
請求項3記載の発明によれば、ユーザが実際に操作した機器との通信を確立できる。
請求項4記載の発明によれば、ユーザの動作を端末の移動として検出できる。
請求項5記載の発明によれば、タッチパネルに対するユーザの指の動きをユーザの動作として検出できる。
請求項6記載の発明によれば、ユーザの動作を画像として検出できる。
請求項7記載の発明によれば、ユーザに求める動作は操作回毎に有効であるので、セキュリティを高めることができる。
請求項8記載の発明によれば、機器への接続の要求が重なる場合にも誤ったアドレスが送信されないようにできる。
請求項9記載の発明によれば、相手先のネットワーク上のアドレスが未知の場合でも、NFCを用いずに端末との通信を確立できる。
請求項10記載の発明によれば、相手先のネットワーク上のアドレスが未知の場合でも、NFCを用いずに端末との通信を確立できる。
According to the invention of claim 1, even when the address on the network of the other party is unknown, communication with the terminal can be established without using NFC.
According to the invention of claim 2, it becomes easy to confirm the operation required for establishing communication.
According to the invention of claim 3, communication with a device actually operated by the user can be established.
According to the invention of claim 4, the user's operation can be detected as the movement of the terminal.
According to the invention of claim 5, the movement of the user's finger with respect to the touch panel can be detected as the movement of the user.
According to the invention of claim 6, the user's movement can be detected as an image.
According to the invention of claim 7, since the operation required of the user is effective for each operation, security can be enhanced.
According to the invention of claim 8, it is possible to prevent the wrong address from being transmitted even when the requests for connection to the device overlap.
According to the invention of claim 9, even when the address on the network of the other party is unknown, communication with the terminal can be established without using NFC.
According to the invention of claim 10, even when the address on the network of the other party is unknown, communication with the terminal can be established without using NFC.

実施の形態1で使用する印刷システムの全体構成の例を概略的に示す図である。It is a figure which shows typically the example of the whole structure of the printing system used in Embodiment 1. FIG. 実施の形態1で使用する画像形成装置の構成例を説明する図である。It is a figure explaining the structural example of the image forming apparatus used in Embodiment 1. FIG. 実施の形態1で使用する画像形成装置が有する機能のうちスマートフォンと画像形成装置の連携のために用意されている機能の一例を説明する図である。It is a figure explaining an example of the function which is prepared for the cooperation of a smartphone and an image forming apparatus among the functions which the image forming apparatus used in Embodiment 1 has. 実施の形態1で使用するサーバの構成例を説明する図である。It is a figure explaining the configuration example of the server used in Embodiment 1. FIG. サーバが画像形成装置のIPアドレス等の管理に使用するテーブルの例を説明する図である。It is a figure explaining the example of the table used by the server for management of the IP address of an image forming apparatus. 実施の形態1で使用するサーバが有する機能のうちスマートフォンと画像形成装置の連携のために用意されている機能の一例を説明する図である。It is a figure explaining an example of the function provided for the cooperation of a smartphone and an image forming apparatus among the functions which the server used in Embodiment 1 has. 実施の形態1で使用するスマートフォンの構成例を説明する図である。It is a figure explaining the configuration example of the smartphone used in Embodiment 1. FIG. スマートフォンが有する機能のうち通信を望む画像形成装置のIPアドレスをサーバに問い合わせるために使用される機能の一例を説明する図である。It is a figure explaining an example of the function used to inquire the server about the IP address of the image forming apparatus which wants communication among the functions which a smartphone has. 実施の形態1における処理動作の一例を説明する図である。It is a figure explaining an example of the processing operation in Embodiment 1. FIG. IPアドレスの問い合わせ用のボタンの操作が検知された場合に画像形成装置の操作及び表示部に表示される指示画面の一例を示す図である。It is a figure which shows an example of the operation of an image forming apparatus, and the instruction screen which is displayed on the display part when the operation of the button for inquiry of an IP address is detected. IPアドレスの問い合わせ用のボタンの操作が検知された場合に操作及び表示部に表示される指示画面の他の例を示す図である。It is a figure which shows another example of the instruction screen which is displayed on the operation and display part when the operation of the button for inquiry of an IP address is detected. 実施の形態2で使用する画像形成装置の機能構成の一例を説明する図である。It is a figure explaining an example of the functional structure of the image forming apparatus used in Embodiment 2. FIG. 実施の形態2で使用するサーバの機能構成の一例を説明する図である。It is a figure explaining an example of the functional structure of the server used in Embodiment 2. 実施の形態2における処理動作の一例を説明する図である。It is a figure explaining an example of the processing operation in Embodiment 2. FIG. 2回目以降のボタン操作時に実行される処理動作の一例を説明する図である。It is a figure explaining an example of the processing operation executed at the time of the button operation after the second time. 2回目以降のボタン操作時に実行される処理動作の他の例を説明する図である。It is a figure explaining another example of the processing operation executed at the time of the button operation after the second time. 実施の形態5で使用する印刷システムの全体構成の例を概略的に示す図である。It is a figure which shows typically the example of the whole structure of the printing system used in Embodiment 5. 実施の形態5における処理動作の一例を説明する図である。It is a figure explaining an example of the processing operation in Embodiment 5. IPアドレスの問い合わせ用のボタンの操作が検知された場合に画像形成装置の操作及び表示部に表示される指示画面の他の例を示す図である。It is a figure which shows another example of the operation of an image forming apparatus, and the instruction screen which is displayed on the display part when the operation of the button for inquiry of an IP address is detected. IPアドレスの問い合わせ用のボタンの操作が検知された場合に画像形成装置の操作及び表示部に表示される指示画面の他の例を示す図である。It is a figure which shows another example of the operation of an image forming apparatus, and the instruction screen which is displayed on the display part when the operation of the button for inquiry of an IP address is detected.

以下、図面を参照して、本発明の実施の形態を説明する。
<実施の形態1>
<印刷システムの全体構成>
図1は、実施の形態1で使用する印刷システム1の全体構成の例を概略的に示す図である。
図1に示す印刷システム1は、ローカルエリアネットワーク10に接続される画像形成装置20と、サーバ30と、アクセスポイント40と、スマートフォン50で構成されている。図1の場合、画像形成装置20、サーバ30、アクセスポイント40及びスマートフォン50は1台であるが、それぞれ複数台でもよい。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<Embodiment 1>
<Overall configuration of printing system>
FIG. 1 is a diagram schematically showing an example of the overall configuration of the printing system 1 used in the first embodiment.
The printing system 1 shown in FIG. 1 includes an image forming apparatus 20 connected to the local area network 10, a server 30, an access point 40, and a smartphone 50. In the case of FIG. 1, the image forming apparatus 20, the server 30, the access point 40, and the smartphone 50 are one, but a plurality of each may be used.

図1の場合、ローカルエリアネットワーク10は、有線LAN(=Local Area Network)である。このため、ローカルエリアネットワーク10と画像形成装置20、ローカルエリアネットワーク10とサーバ30、ローカルエリアネットワーク10とアクセスポイント40は、いずれもLANケーブルで接続されている。なお、アクセスポイント40とスマートフォン50は、無線LANで接続されている。本実施の形態の場合、無線LANには、Wi−Fiを使用する。
図1に示す印刷システム1を構成する画像形成装置20、サーバ30、アクセスポイント40、スマートフォン50のそれぞれには、LAN上の位置を示すIPアドレスが付与されている。IPアドレスは、ネットワーク上のアドレスの一例である。
In the case of FIG. 1, the local area network 10 is a wired LAN (= Local Area Network). Therefore, the local area network 10 and the image forming apparatus 20, the local area network 10 and the server 30, and the local area network 10 and the access point 40 are all connected by a LAN cable. The access point 40 and the smartphone 50 are connected by a wireless LAN. In the case of this embodiment, Wi-Fi is used for the wireless LAN.
An IP address indicating a location on the LAN is assigned to each of the image forming apparatus 20, the server 30, the access point 40, and the smartphone 50 constituting the printing system 1 shown in FIG. The IP address is an example of an address on the network.

図1に示す画像形成装置20は、用紙に画像を形成する機能に加え、原稿等の画像イメージを読み取る機能やファクシミリ通信を制御する機能も備えている。なお、列記した機能は一例に過ぎず、他の機能を備えることを妨げない。
本実施の形態における画像形成装置20は、NFC通信用のデバイスが設けられていないか、NFC通信用のデバイスの機能が無効に設定されている。このため、本実施の形態における画像形成装置20は、NFC通信により、自装置のIPアドレスをスマートフォン50に引き渡せない。ここでの画像形成装置20は、ネットワーク経由でサーバ30に接続されている機器の一例である。
The image forming apparatus 20 shown in FIG. 1 has, in addition to the function of forming an image on paper, a function of reading an image of an original or the like and a function of controlling facsimile communication. The listed functions are merely examples, and do not prevent the provision of other functions.
The image forming apparatus 20 in the present embodiment is not provided with a device for NFC communication, or the function of the device for NFC communication is disabled. Therefore, the image forming apparatus 20 in the present embodiment cannot deliver the IP address of its own device to the smartphone 50 by NFC communication. The image forming apparatus 20 here is an example of a device connected to the server 30 via a network.

図1に示すサーバ30は、NFC通信を用いずに、画像形成装置20のIPアドレスをスマートフォン50に引き渡すサービスを提供するコンピュータである。サービスの提供は、プログラムの実行を通じて実現される。
本実施の形態の場合、サーバ30は、前述したサービスの提供を主な目的とするが、他のサービスの提供に用いることも可能である。ここでのサーバ30は、情報処理システムの一例である。
The server 30 shown in FIG. 1 is a computer that provides a service of passing the IP address of the image forming apparatus 20 to the smartphone 50 without using NFC communication. The provision of services is realized through the execution of programs.
In the case of the present embodiment, the server 30 has the main purpose of providing the above-mentioned service, but it can also be used for providing other services. The server 30 here is an example of an information processing system.

アクセスポイント40は、スマートフォン50等の無線端末を収容するとともに、ローカルエリアネットワーク10との通信を中継する基地局である。
スマートフォン50は、ユーザによる持ち運びが可能な携帯型のコンピュータである。本実施の形態におけるスマートフォン50は、画像形成装置20に対して印刷データと印刷の設定を送信するコンピュータとして使用される。本実施の形態におけるスマートフォン50は、ネットワーク経由でサーバ30に接続されている機器の一例である。
なお、本実施の形態では、携帯型のコンピュータの一例としてスマートフォン50を用いるが、タブレット端末、ウェアラブル端末でもよい。
The access point 40 is a base station that accommodates a wireless terminal such as a smartphone 50 and relays communication with the local area network 10.
The smartphone 50 is a portable computer that can be carried by the user. The smartphone 50 in this embodiment is used as a computer that transmits print data and print settings to the image forming apparatus 20. The smartphone 50 in this embodiment is an example of a device connected to the server 30 via a network.
In the present embodiment, the smartphone 50 is used as an example of the portable computer, but a tablet terminal or a wearable terminal may also be used.

<画像形成装置20の構成>
図2は、実施の形態1で使用する画像形成装置20の構成例を説明する図である。
図2に示す画像形成装置20は、システム全体の動作を制御するシステム制御部201と、原稿等の画像イメージを読み取る画像読取部202と、記録媒体の一例である用紙の表面に画像を形成する画像形成部203と、画像データが表す画像に色補正や階調補正等の処理を加える画像処理部204と、画像データ等を記憶する記憶部205と、ユーザによる操作の受け付けや情報の表示に使用される操作及び表示部206と、ファクシミリ通信を制御するファクシミリ制御部207と、ネットワーク通信を制御するネットワーク制御部208と、これらを接続するバス209や不図示の信号線を有している。
<Structure of image forming apparatus 20>
FIG. 2 is a diagram illustrating a configuration example of the image forming apparatus 20 used in the first embodiment.
The image forming apparatus 20 shown in FIG. 2 forms an image on the surface of a paper, which is an example of a recording medium, and a system control unit 201 that controls the operation of the entire system, an image reading unit 202 that reads an image of an original or the like. The image forming unit 203, the image processing unit 204 that adds processing such as color correction and gradation correction to the image represented by the image data, the storage unit 205 that stores the image data, and the like, for accepting operations by the user and displaying information. It has an operation and display unit 206 used, a facsimile control unit 207 that controls facsimile communication, a network control unit 208 that controls network communication, a bus 209 connecting these, and a signal line (not shown).

システム制御部201は、CPU(=Central Processing Unit)と、ファームウェアやBIOS(=Basic Input Output System)等が記憶されたROM(=Read Only Memory)と、ワークエリアとして用いられるRAM(=Random Access Memory)等を有している。システム制御部201は、いわゆるコンピュータであり、プログラムの実行を通じて各種の機能を提供する。 The system control unit 201 includes a CPU (= Central Processing Unit), a ROM (= Read Only Memory) in which firmware, a BIOS (= Basic Input Output System), etc. are stored, and a RAM (= Random Access Memory) used as a work area. ) Etc. The system control unit 201 is a so-called computer, and provides various functions through the execution of a program.

画像読取部202は、原稿のコピーやファクシミリ送信に使用する原稿の読み取りに使用されるデバイスであり、スキャナとも呼ばれる。本実施の形態における画像読取部202には、読み取り位置に原稿を1枚ずつ搬送する機構も取り付けられている。以下、画像読取部202を用いて原稿を読み取る機能をスキャン機能という。
画像形成部203は、電子写真方式やインクジェット方式等により用紙の表面に画像を形成するデバイスである。用紙は、記録媒体の一例である。画像形成部203には、用紙を1枚ずつ搬送する機構も含まれる。以下、用紙に画像を形成する機能を印刷機能という。
画像処理部204は、画像データを印刷に適したデータに処理するための専用のプロセッサや処理回路等で構成される。
The image reading unit 202 is a device used for reading a document used for copying a document or transmitting by facsimile, and is also called a scanner. The image reading unit 202 of the present embodiment is also equipped with a mechanism for transporting the originals one by one to the reading position. Hereinafter, the function of reading a document using the image reading unit 202 is referred to as a scanning function.
The image forming unit 203 is a device that forms an image on the surface of paper by an electrophotographic method, an inkjet method, or the like. Paper is an example of a recording medium. The image forming unit 203 also includes a mechanism for transporting the sheets one by one. Hereinafter, the function of forming an image on paper is referred to as a printing function.
The image processing unit 204 is composed of a dedicated processor, a processing circuit, or the like for processing the image data into data suitable for printing.

記憶部205は、書き換え可能な不揮発性の記憶装置であり、例えばハードディスク装置等で構成される。記憶部205には、画像読取部202で読み取られた原稿の画像イメージに対応する画像データ、通信により外部から与えられる画像データ、ファクシミリ通信を通じて送信又は受信された画像データ等が保存される。記憶部205には、ローカルエリアネットワーク10上での自機の位置を示すIPアドレスも保存されている。 The storage unit 205 is a rewritable non-volatile storage device, and is composed of, for example, a hard disk device or the like. The storage unit 205 stores image data corresponding to the image of the original document read by the image reading unit 202, image data given from the outside by communication, image data transmitted or received through facsimile communication, and the like. The storage unit 205 also stores an IP address indicating the position of the own machine on the local area network 10.

操作及び表示部206は、操作パネル等に配置されるスイッチやボタン、情報の表示に用いられる液晶ディスプレイや有機EL(=Electro Luminescence)ディスプレイ、表示画面に対する作業者の操作を検知するタッチセンサ等で構成される。本実施の形態の場合、操作パネルには、画像形成装置20のIPアドレスを問い合わせる場合に操作する専用のボタンが配置されている。このボタンは、物理的なボタンである。もっとも、同ボタンは、操作画面にソフトウェア的に表示されるキー又はボタンでもよい。
ファクシミリ制御部207は、電話網を経由して実行されるファクシミリ通信を制御するデバイスである。以下、ファクシミリ制御部207を通じてファクシミリ文書を送信又は受信する機能をファクシミリ機能という。
ネットワーク制御部208は、ローカルエリアネットワーク10経由の通信を制御するデバイスである。
The operation and display unit 206 is a switch or button arranged on an operation panel or the like, a liquid crystal display or an organic EL (= Electro Luminescence) display used for displaying information, a touch sensor for detecting an operator's operation on the display screen, or the like. It is composed. In the case of the present embodiment, the operation panel is provided with a dedicated button to be operated when inquiring the IP address of the image forming apparatus 20. This button is a physical button. However, the button may be a key or a button displayed by software on the operation screen.
The facsimile control unit 207 is a device that controls facsimile communication executed via a telephone network. Hereinafter, the function of transmitting or receiving a facsimile document through the facsimile control unit 207 is referred to as a facsimile function.
The network control unit 208 is a device that controls communication via the local area network 10.

図3は、実施の形態1で使用する画像形成装置20が有する機能のうちスマートフォン50(図1参照)と画像形成装置20の連携のために用意されている機能の一例を説明する図である。
図3に示す処理は、システム制御部201によるプログラムの実行を通じて実現される。以下では、プログラムの実行を通じて実現される機能を順番に説明する。
接続要求操作検知部211は、ユーザによるスマートフォン50の接続を要求する操作を検知する機能部である。具体的には、接続要求操作検知部211は、操作パネルに配置されている専用のボタンや操作画面にソフトウェア的に表示されているキー又はボタンの操作を検知する。
FIG. 3 is a diagram illustrating an example of functions provided for cooperation between the smartphone 50 (see FIG. 1) and the image forming apparatus 20 among the functions of the image forming apparatus 20 used in the first embodiment. ..
The process shown in FIG. 3 is realized through the execution of the program by the system control unit 201. In the following, the functions realized through the execution of the program will be described in order.
The connection request operation detection unit 211 is a functional unit that detects an operation requesting the connection of the smartphone 50 by the user. Specifically, the connection request operation detection unit 211 detects the operation of a dedicated button arranged on the operation panel or a key or button displayed by software on the operation screen.

ジェスチャ生成部212は、自機のIPアドレスを要求するボタン操作が検知された場合に、自機のIPアドレスの提供を許可する条件としてユーザに求めるジェスチャを生成する機能部である。このジェスチャ生成部212は、生成手段の一例である。
本実施の形態の場合、ジェスチャは、スマートフォン50(図1参照)を把持した手の動きとして規定される。ジェスチャには、例えば円、×印、四角形等の図形、数字、ローマ字、漢字、仮名等の文字を想定する。
ジェスチャには、手が移動する順路の情報を含めてもよいし、順路の情報を含めなくてもよい。前者の場合、スマートフォン50を把持する手が移動する順路の違いを、異なるジェスチャとして区別することが可能になる。この場合、描画の対象となる形状の数が少なくても、生成されるジェスチャの数を増やすことが可能になる。一方、後者の場合、スマートフォン50を把持する手が移動する順路の違いが無視されるので、ユーザの手の動きとジェスチャの照合が容易になる。
なお、ジェスチャは、ユーザに求める動作に関する情報の一例である。
The gesture generation unit 212 is a functional unit that generates a gesture requested by the user as a condition for permitting the provision of the IP address of the own machine when a button operation requesting the IP address of the own machine is detected. The gesture generation unit 212 is an example of the generation means.
In the case of this embodiment, the gesture is defined as the movement of the hand holding the smartphone 50 (see FIG. 1). For gestures, for example, figures such as circles, x marks, and quadrangles, and characters such as numbers, romaji, kanji, and kana are assumed.
The gesture may or may not include information on the route in which the hand moves. In the former case, it is possible to distinguish the difference in the route in which the hand holding the smartphone 50 moves as different gestures. In this case, it is possible to increase the number of gestures generated even if the number of shapes to be drawn is small. On the other hand, in the latter case, since the difference in the route in which the hand holding the smartphone 50 moves is ignored, the movement of the user's hand and the gesture can be easily collated.
The gesture is an example of information regarding the operation required of the user.

本実施の形態の場合、スマートフォン50の空中での移動は、スマートフォン50側に搭載されている加速度センサを用いて検知する。このため、ジェスチャは、単純な形状等であることが望ましい。本実施の形態は、スマートフォン50をユーザの動作の検知手段として使用される。
本実施の形態の場合、ジェスチャの生成には、予め用意された複数の候補の中から選択する手法を採用する。選択は、予め用意した複数のジェスチャの中から順番に読み出す手法でもよいし、ランダムに読み出す手法でもよい。
また、本実施の形態の場合、ジェスチャに関する情報は、自機のIPアドレスの提供を許可する条件に用いるジェスチャの特定に必要な各種の情報をいう。例えばジェスチャが対象とする形状等や順路との組み合わせ、ジェスチャを特定する番号、加速度センサの時間変化等も、ユーザに求める動作に関する情報の一例である。
本実施の形態の場合、ジェスチャは、ユーザがIPアドレスを要求するボタンを操作するたびに生成される。このため、本実施の形態におけるジェスチャは、操作回限りのジェスチャとなる。
In the case of the present embodiment, the movement of the smartphone 50 in the air is detected by using the acceleration sensor mounted on the smartphone 50 side. Therefore, it is desirable that the gesture has a simple shape or the like. In this embodiment, the smartphone 50 is used as a means for detecting the user's movement.
In the case of the present embodiment, a method of selecting from a plurality of candidates prepared in advance is adopted for generating the gesture. The selection may be a method of sequentially reading from a plurality of gestures prepared in advance, or a method of randomly reading.
Further, in the case of the present embodiment, the information regarding the gesture refers to various information necessary for specifying the gesture used as a condition for permitting the provision of the IP address of the own machine. For example, the shape to be targeted by the gesture, the combination with the route, the number for identifying the gesture, the time change of the acceleration sensor, and the like are also examples of the information regarding the operation requested from the user.
In the present embodiment, the gesture is generated each time the user operates a button requesting an IP address. Therefore, the gesture in the present embodiment is a gesture limited to the number of operations.

IPアドレス取得部213は、自機のIPアドレスを記憶部205から取得する機能部である。
ジェスチャ等登録管理部214は、生成されたジェスチャに関する情報と取得されたIPアドレスを、ローカルエリアネットワーク10経由で接続されたサーバ30(図1参照)に登録する機能部である。なお、本実施の形態におけるジェスチャ等登録管理部214は、他の端末との通信の確立後に、ジェスチャ等の削除をサーバ30に要求する機能も有している。
The IP address acquisition unit 213 is a functional unit that acquires the IP address of the own machine from the storage unit 205.
The gesture registration management unit 214 is a functional unit that registers the generated gesture information and the acquired IP address in the server 30 (see FIG. 1) connected via the local area network 10. The gesture registration management unit 214 in the present embodiment also has a function of requesting the server 30 to delete the gesture or the like after establishing communication with another terminal.

表示制御部215は、生成されたジェスチャを表示画面に表示させる機能部である。この表示により、ユーザは、スマートフォン50を画像形成装置20に接続するために必要なジェスチャの内容を提示する。また、表示制御部215は、スマートフォン50との通信が確立すると、表示画面を初期画面に切り替える機能も有している。
通信要求受信部216は、他の端末からの接続要求をローカルエリアネットワーク10経由で受信する機能部である。ここでの他の端末として、本実施の形態では、スマートフォン50を想定する。
通信部217は、接続要求の対象である他の端末との間で通信を確立し、通信の確立をジェスチャ等登録管理部214と、表示制御部215と、通信の相手先である他の端末に通知する機能部である。
The display control unit 215 is a functional unit that displays the generated gesture on the display screen. With this display, the user presents the content of the gesture necessary for connecting the smartphone 50 to the image forming apparatus 20. The display control unit 215 also has a function of switching the display screen to the initial screen when communication with the smartphone 50 is established.
The communication request receiving unit 216 is a functional unit that receives a connection request from another terminal via the local area network 10. As another terminal here, a smartphone 50 is assumed in the present embodiment.
The communication unit 217 establishes communication with another terminal that is the target of the connection request, and establishes the communication with the gesture registration management unit 214, the display control unit 215, and the other terminal that is the communication destination. It is a functional part that notifies to.

<サーバ30の構成>
図4は、実施の形態1で使用するサーバ30の構成例を説明する図である。
図4に示すサーバ30は、装置全体の動作を制御する制御ユニット301と、画像形成装置20から通知されたジェスチャ等を記憶する記憶部302と、ネットワーク通信を制御するネットワーク制御部303とを有している。なお、制御ユニット301と、記憶部302と、ネットワーク制御部303は、バス304や不図示の信号線を通じて接続されている。
制御ユニット301は、CPU311と、基本ソフトウェアやBIOS等が記憶されたROM312と、ワークエリアとして用いられるRAM313とを有している。ROM312は、書き換え可能な不揮発性の半導体メモリでもよい。制御ユニット301は、いわゆるコンピュータである。
<Configuration of server 30>
FIG. 4 is a diagram illustrating a configuration example of the server 30 used in the first embodiment.
The server 30 shown in FIG. 4 has a control unit 301 that controls the operation of the entire device, a storage unit 302 that stores gestures and the like notified from the image forming device 20, and a network control unit 303 that controls network communication. doing. The control unit 301, the storage unit 302, and the network control unit 303 are connected to each other through a bus 304 or a signal line (not shown).
The control unit 301 has a CPU 311 and a ROM 312 in which basic software, a BIOS, and the like are stored, and a RAM 313 used as a work area. The ROM 312 may be a rewritable non-volatile semiconductor memory. The control unit 301 is a so-called computer.

記憶部302は、例えば不揮発性の記憶媒体にデータを読み書きする装置である。記憶部302には、例えばハードディスクドライブや書き換え可能な不揮発性の半導体メモリを使用する。本実施の形態の場合、記憶部302には、ローカルエリアネットワーク10(図1参照)経由で接続されている画像形成装置20(図1参照)から通知されたIPアドレス等を管理するテーブル302Aが記憶される。ここでのテーブル302Aは、IPアドレスとジェスチャを対応付けて記憶する記憶手段の一例である。
図5は、サーバ30が画像形成装置20のIPアドレス等の管理に使用するテーブル302Aの例を説明する図である。
図5に示すテーブル302Aは、管理ID(=IDentifier)321と、IPアドレス322と、ジェスチャ323で構成される。
The storage unit 302 is, for example, a device that reads and writes data to and from a non-volatile storage medium. For the storage unit 302, for example, a hard disk drive or a rewritable non-volatile semiconductor memory is used. In the case of the present embodiment, the storage unit 302 has a table 302A for managing the IP address and the like notified from the image forming apparatus 20 (see FIG. 1) connected via the local area network 10 (see FIG. 1). Be remembered. The table 302A here is an example of a storage means for storing the IP address and the gesture in association with each other.
FIG. 5 is a diagram illustrating an example of a table 302A used by the server 30 for managing the IP address and the like of the image forming apparatus 20.
The table 302A shown in FIG. 5 is composed of a management ID (= IDentifier) 321, an IP address 322, and a gesture 323.

図5の場合、テーブル302Aには、2台の画像形成装置20の情報が登録されている。管理ID「0001」のIPアドレス322には「192.168.1.1」が登録され、ジェスチャ323には「○」が登録されている。また、管理ID「0002」のIPアドレス322には「192.168.1.6」が登録され、ジェスチャ323には「W」が登録されている。図5の場合、管理ID「0001」には図形の一例である円形状が登録されている。また、管理ID「0002」には文字の一例であるローマ字のWが登録されている。
本実施の形態の場合、テーブル302Aに対するIPアドレス等の登録は、ユーザが画像形成装置20(図1参照)に対して特定の操作を行ってから該当する画像形成装置20との間で通信が確立するまでの期間である。このため、テーブル302Aに記憶される情報の数は増減する。最小値は0個であり、最大値はサーバ30で定められている管理上の上限値である。
この他、サーバ30は、必要に応じ、キーボード、マウス等の入力デバイス、液晶ディスプレイ等の表示デバイスも備える。
In the case of FIG. 5, the information of the two image forming devices 20 is registered in the table 302A. "192.168.1.1" is registered in the IP address 322 of the management ID "0001", and "○" is registered in the gesture 323. Further, "192.168.1.6" is registered in the IP address 322 of the management ID "0002", and "W" is registered in the gesture 323. In the case of FIG. 5, a circular shape, which is an example of a figure, is registered in the management ID “0001”. Further, the Roman character W, which is an example of the character, is registered in the management ID "0002".
In the case of the present embodiment, the registration of the IP address or the like for the table 302A is performed by the user performing a specific operation on the image forming apparatus 20 (see FIG. 1) and then communicating with the corresponding image forming apparatus 20. It is the period until it is established. Therefore, the number of information stored in the table 302A increases or decreases. The minimum value is 0, and the maximum value is the management upper limit value defined by the server 30.
In addition, the server 30 also includes an input device such as a keyboard and a mouse, and a display device such as a liquid crystal display, if necessary.

図6は、実施の形態1で使用するサーバ30が有する機能のうちスマートフォン50(図1参照)と画像形成装置20(図1参照)の連携のために用意されている機能の一例を説明する図である。図6に示す処理は、制御ユニット301によるプログラムの実行を通じて実現される。以下では、プログラムの実行を通じて実現される機能を順番に説明する。
ジェスチャ等登録要求受付部331は、画像形成装置20からIPアドレス等の登録の要求を受け付ける機能部である。IPアドレス等は、要求元である画像形成装置20のIPアドレスとジェスチャに関する情報である。
ジェスチャ等削除要求受付部332は、画像形成装置20からIPアドレス等の削除の要求を受け付ける機能部である。
FIG. 6 describes an example of the functions provided for the cooperation between the smartphone 50 (see FIG. 1) and the image forming apparatus 20 (see FIG. 1) among the functions of the server 30 used in the first embodiment. It is a figure. The process shown in FIG. 6 is realized through the execution of the program by the control unit 301. In the following, the functions realized through the execution of the program will be described in order.
The gesture registration request receiving unit 331 is a functional unit that receives a registration request for an IP address or the like from the image forming apparatus 20. The IP address and the like are information about the IP address and the gesture of the image forming apparatus 20 which is the request source.
The gesture or the like deletion request receiving unit 332 is a functional unit that receives a request for deleting an IP address or the like from the image forming apparatus 20.

ジェスチャ等登録管理部333は、IPアドレス等の登録を管理する機能部である。画像形成装置20からIPアドレス等の登録の要求を受け付けた場合、ジェスチャ等登録管理部333は、受け付けたIPアドレス等をテーブル302Aに登録する。また、画像形成装置20からIPアドレス等の削除の要求を受け付けた場合、ジェスチャ等登録管理部333は、テーブル302Aから該当するIPアドレス等を削除する。なお、受け付けたジェスチャに関する情報が既にテーブル302Aに登録されている場合には、別のジェスチャ等を生成するように該当する画像形成装置20に通知する機能を設けてもよい。同じジェスチャについて複数のIPアドレスが登録されていると、スマートフォン50に対してユーザの想定しない画像形成装置20のIPアドレスが送信されてしまうためである。サーバ30が管理する画像形成装置20の台数が多いほど、ジェスチャが重複する可能性は高くなる。 Gesture registration management unit 333 is a functional unit that manages registration of IP addresses and the like. When a request for registration of an IP address or the like is received from the image forming apparatus 20, the gesture registration management unit 333 registers the received IP address or the like in the table 302A. When the image forming apparatus 20 receives a request for deleting an IP address or the like, the gesture registration management unit 333 deletes the corresponding IP address or the like from the table 302A. If the information regarding the received gesture is already registered in the table 302A, a function may be provided to notify the corresponding image forming apparatus 20 to generate another gesture or the like. This is because if a plurality of IP addresses are registered for the same gesture, the IP address of the image forming apparatus 20 that the user does not anticipate is transmitted to the smartphone 50. The greater the number of image forming devices 20 managed by the server 30, the higher the possibility of overlapping gestures.

ジェスチャ情報受信部334は、ローカルエリアネットワーク10(図1参照)経由で、スマートフォン50からジェスチャ情報を受け付ける機能部である。受信するジェスチャ情報の内容は、スマートフォン50にインストールされているアプリケーションプログラムによって規定されている。本実施の形態におけるジェスチャ情報は、加速度センサから出力されるセンサ情報に基づいて生成される。
ジェスチャ照合部335は、受信したジェスチャ情報とテーブル302Aに登録されているジェスチャとを照合する機能部である。本実施の形態の場合、受信したジェスチャ情報は、テーブル302Aに登録されているジェスチャとの照合の前に、照合に適した情報に加工される。例えばノイズの除去、サイズの調整、軌跡の整形、パターンの認識等の処理が実行される。
The gesture information receiving unit 334 is a functional unit that receives gesture information from the smartphone 50 via the local area network 10 (see FIG. 1). The content of the gesture information to be received is defined by the application program installed on the smartphone 50. The gesture information in the present embodiment is generated based on the sensor information output from the acceleration sensor.
The gesture collation unit 335 is a functional unit that collates the received gesture information with the gesture registered in the table 302A. In the case of the present embodiment, the received gesture information is processed into information suitable for collation before collation with the gesture registered in the table 302A. For example, processing such as noise removal, size adjustment, trajectory shaping, and pattern recognition is executed.

IPアドレス送信部336は、スマートフォン50から受信したジェスチャ情報とテーブル302Aに登録されているジェスチャとの照合が成功した場合、該当するジェスチャに紐付けられているIPアドレスをテーブル302Aから読み出してスマートフォン50に送信する機能部である。
送信先となるスマートフォン50のIPアドレスは、ジェスチャ情報の受信の際に取得されている。ここでのIPアドレス送信部336は、送信手段の一例である。
When the gesture information received from the smartphone 50 and the gesture registered in the table 302A are successfully collated, the IP address transmission unit 336 reads the IP address associated with the corresponding gesture from the table 302A and reads the IP address associated with the gesture in the table 302A. It is a functional part to send to.
The IP address of the smartphone 50 as the transmission destination is acquired when the gesture information is received. The IP address transmission unit 336 here is an example of transmission means.

<スマートフォン50の構成>
図7は、実施の形態1で使用するスマートフォン50の構成例を説明する図である。
図7に示すスマートフォン50は、装置全体の動作を制御する制御ユニット501と、各種のデータを記憶するメモリカード502と、アクセスポイント40(図1参照)との接続に用いられるWi−Fiインターフェース503と、4G網等の移動通信網との接続に用いられる4Gインターフェース504と、タップ、ドラッグ、フリック等の操作を検知するタッチセンサ505と、表示画面を表示する表示デバイス506と、カメラ507と、本体に作用する加速度を検知する加速度センサ508と、これらを接続するバス509や不図示の信号線を有している。
<Configuration of smartphone 50>
FIG. 7 is a diagram illustrating a configuration example of the smartphone 50 used in the first embodiment.
The smartphone 50 shown in FIG. 7 is a Wi-Fi interface 503 used for connecting a control unit 501 that controls the operation of the entire device, a memory card 502 that stores various data, and an access point 40 (see FIG. 1). A 4G interface 504 used for connecting to a mobile communication network such as a 4G network, a touch sensor 505 that detects operations such as tapping, dragging, and flicking, a display device 506 that displays a display screen, a camera 507, and the like. It has an acceleration sensor 508 that detects the acceleration acting on the main body, a bus 509 that connects them, and a signal line (not shown).

制御ユニット501は、CPU511と、ファームウェアやBIOS等が記憶されたROM512と、ワークエリアとして用いられるRAM513とを有している。ROM512は、書き換え可能な不揮発性の半導体メモリでもよい。
本実施の形態におけるメモリカード502は、例えば書き換え可能な不揮発性の半導体メモリであり、IPアドレスをサーバ30(図1参照)に問い合わせるためのアプリケーションプログラムも記憶する。
表示デバイス506は、例えば液晶ディスプレイや有機EL(=Electro Luminescence)ディスプレイで構成される。表示デバイス506の表面にタッチセンサ505を配置したモジュールは、タッチパネルと呼ばれる。
The control unit 501 has a CPU 511, a ROM 512 in which firmware, a BIOS, and the like are stored, and a RAM 513 used as a work area. The ROM 512 may be a rewritable non-volatile semiconductor memory.
The memory card 502 in the present embodiment is, for example, a rewritable non-volatile semiconductor memory, and also stores an application program for querying the server 30 (see FIG. 1) for an IP address.
The display device 506 is composed of, for example, a liquid crystal display or an organic EL (= Electro Luminescence) display. A module in which the touch sensor 505 is arranged on the surface of the display device 506 is called a touch panel.

図8は、スマートフォン50が有する機能のうち通信を望む画像形成装置20(図1参照)のIPアドレスをサーバ30(図1参照)に問い合わせるために使用される機能の一例を説明する図である。図8に示す処理は、制御ユニット501によるプログラムの実行を通じて実現される。以下では、プログラムの実行を通じて実現される機能を順番に説明する。
問い合わせアプリ起動検知部521は、IPアドレスの問い合わせに使用するアプリケーションプログラムの起動を検知する機能部である。該当するアプリケーションプログラムの起動は、対応するアイコンのタップ操作の受け付け等により実行される。
FIG. 8 is a diagram illustrating an example of a function used for inquiring the IP address of the image forming apparatus 20 (see FIG. 1) that desires communication among the functions of the smartphone 50 to the server 30 (see FIG. 1). .. The process shown in FIG. 8 is realized through the execution of the program by the control unit 501. In the following, the functions realized through the execution of the program will be described in order.
The inquiry application start detection unit 521 is a functional unit that detects the start of an application program used for inquiring an IP address. The corresponding application program is started by accepting a tap operation of the corresponding icon.

センサ情報取得部522は、ユーザのジェスチャに伴い自機に作用する加速度をセンサ情報として取得する機能部である。加速度は、スマートフォン50に内蔵されている加速度センサ508(図7参照)から出力される。
ジェスチャ情報変換部523は、取得したセンサ情報をジェスチャ情報に変換する機能部である。本実施の形態の場合、ジェスチャ情報は、予め定めた期間内に取得されたセンサ情報の集合である。換言すると、ジェスチャ情報は、加速度の時間変化を表す情報である。なお、アプリケーションプログラムに、加速度の時間変化よりスマートフォン50が空中を移動した軌跡を推定し、推定された結果をジェスチャ情報として出力する機能を設けてもよい。
The sensor information acquisition unit 522 is a functional unit that acquires the acceleration acting on the own machine as sensor information according to the gesture of the user. The acceleration is output from the acceleration sensor 508 (see FIG. 7) built into the smartphone 50.
The gesture information conversion unit 523 is a functional unit that converts the acquired sensor information into gesture information. In the case of the present embodiment, the gesture information is a set of sensor information acquired within a predetermined period. In other words, gesture information is information that represents the time change of acceleration. The application program may be provided with a function of estimating the trajectory of the smartphone 50 moving in the air from the time change of acceleration and outputting the estimated result as gesture information.

IPアドレス問合部524は、ジェスチャ情報に対応するIPアドレスをサーバ30に問い合わせる機能部である。問い合わせ先のサーバ30のIPアドレスは、予め登録されている。
IPアドレス受信部525は、送信したジェスチャ情報がサーバ30に登録されている場合に、操作パネルでジェスチャを確認した画像形成装置20(図1参照)のIPアドレスを、サーバ30から受信する機能部である。なお、画像形成装置20の操作パネルに表示されているジェスチャとは異なる動作を行った場合には、IPアドレスは受信されない。
通信要求部526は、受信したIPアドレスを宛先として自機との通信を要求する機能部である。本実施の形態の場合、この要求は、アクセスポイント40(図1参照)及びローカルエリアネットワーク10(図1参照)を経由して目的とする画像形成装置20に送信される。通信要求部526は、要求に対する応答を画像形成装置20から受信すると、通信が確立したと判定し、通信の確立を知らせる情報を該当する画像形成装置20に送信する。
通信部527は、通信の相手先である他の端末との間でネットワーク通信を実行する機能部である。通信が確立した後の通信は、通信部527が引き継ぐ。
The IP address inquiry unit 524 is a functional unit that inquires the server 30 of the IP address corresponding to the gesture information. The IP address of the server 30 to be inquired about is registered in advance.
The IP address receiving unit 525 receives from the server 30 the IP address of the image forming apparatus 20 (see FIG. 1) whose gesture has been confirmed on the operation panel when the transmitted gesture information is registered in the server 30. Is. If the operation is different from the gesture displayed on the operation panel of the image forming apparatus 20, the IP address is not received.
The communication request unit 526 is a functional unit that requests communication with the own machine with the received IP address as the destination. In the case of the present embodiment, this request is transmitted to the target image forming apparatus 20 via the access point 40 (see FIG. 1) and the local area network 10 (see FIG. 1). When the communication request unit 526 receives the response to the request from the image forming apparatus 20, it determines that the communication has been established, and transmits the information notifying the establishment of the communication to the corresponding image forming apparatus 20.
The communication unit 527 is a functional unit that executes network communication with another terminal that is the communication destination. After the communication is established, the communication unit 527 takes over the communication.

<スマートフォン50と画像形成装置20との通信が開始されるまでの処理動作>
図9は、実施の形態1における処理動作の一例を説明する図である。なお、図中に示す記号のSはステップを意味する。
まず、ユーザは、画像形成装置20に用意されているIPアドレスの問い合わせ用のボタンを押下する。
ボタン操作を検知した画像形成装置20は、ジェスチャを生成する(ステップ1)。
次に、画像形成装置20は、生成されたジェスチャと自機のIPアドレスを紐付けてサーバ30に登録する(ステップ2)。
続いて、画像形成装置20は、生成されたジェスチャを操作画面に表示する(ステップ3)。
<Processing operation until communication between the smartphone 50 and the image forming device 20 is started>
FIG. 9 is a diagram illustrating an example of a processing operation according to the first embodiment. The symbol S shown in the figure means a step.
First, the user presses a button for inquiring about the IP address provided in the image forming apparatus 20.
The image forming apparatus 20 that has detected the button operation generates a gesture (step 1).
Next, the image forming apparatus 20 associates the generated gesture with the IP address of its own machine and registers it in the server 30 (step 2).
Subsequently, the image forming apparatus 20 displays the generated gesture on the operation screen (step 3).

図10は、IPアドレスの問い合わせ用のボタンの操作が検知された場合に画像形成装置20(図1参照)の操作及び表示部206に表示される指示画面の一例を示す図である。
図10に示す指示画面には、ユーザに求める動作の説明文206Aと、ユーザに求めるジェスチャ206Bとが表示されている。ここでの操作及び表示部206は、提示手段の一例である。
図10に示す説明文206Aには、「スマートフォンを手に持ち、矢印で示すように順番に動かしてください」と記載されている。図10の場合、ジェスチャは、四角形である。また、図10の場合、ジェスチャには順路の情報も含まれている。具体的には、まず、右方向に動かし、次に下方向に動かし、次に左方向に動かし、最後に上方向に動かすことが示されている。
FIG. 10 is a diagram showing an example of an operation of the image forming apparatus 20 (see FIG. 1) and an instruction screen displayed on the display unit 206 when the operation of the button for inquiring the IP address is detected.
On the instruction screen shown in FIG. 10, a description 206A of the operation requested by the user and a gesture 206B requested by the user are displayed. The operation and display unit 206 here is an example of the presentation means.
In the explanation 206A shown in FIG. 10, it is described that "hold the smartphone in your hand and move it in order as shown by the arrow". In the case of FIG. 10, the gesture is a quadrangle. Further, in the case of FIG. 10, the gesture also includes information on the route. Specifically, it is shown to first move to the right, then to the bottom, then to the left, and finally to the top.

図11は、IPアドレスの問い合わせ用のボタンの操作が検知された場合に操作及び表示部206に表示される指示画面の他の例を示す図である。
図11に示す指示画面には、ユーザに求める動作の説明文206Cと、ユーザに求めるジェスチャ206Dとが表示されている。
図11に示す説明文206Cには、「スマートフォンを手に持ち、右の文字を描くように動かしてください」と記載されている。図11の場合、ジェスチャは、ローマ字のWである。図11の場合、書き順についての指定はない。
FIG. 11 is a diagram showing another example of the instruction screen displayed on the operation and display unit 206 when the operation of the button for inquiring the IP address is detected.
On the instruction screen shown in FIG. 11, the description 206C of the operation requested from the user and the gesture 206D requested from the user are displayed.
In the explanatory text 206C shown in FIG. 11, it is described that "hold the smartphone in your hand and move it so as to draw the character on the right." In the case of FIG. 11, the gesture is the Roman letter W. In the case of FIG. 11, there is no designation regarding the stroke order.

図9の説明に戻る。
画像形成装置20の指示画面上でジェスチャを確認したユーザは、スマートフォン50を操作して、問い合わせ用のアプリケーションプログラムを起動する。アプリケーションプログラムが起動すると、ユーザは、指示されたジェスチャを実行する。
ユーザのジェスチャは、スマートフォン50の加速度センサ508(図7参照)により検出され、センサ情報として出力される。
スマートフォン50は、このセンサ情報をジェスチャ情報に変換する(ステップ4)。
ジェスチャ情報が得られると、スマートフォン50は、サーバ30に対し、ジェスチャ情報に対応するIPアドレスを問い合わせる(ステップ5)。
Returning to the description of FIG.
The user who confirms the gesture on the instruction screen of the image forming apparatus 20 operates the smartphone 50 to start the application program for inquiry. When the application program starts, the user executes the instructed gesture.
The user's gesture is detected by the acceleration sensor 508 (see FIG. 7) of the smartphone 50 and output as sensor information.
The smartphone 50 converts this sensor information into gesture information (step 4).
When the gesture information is obtained, the smartphone 50 inquires the server 30 of the IP address corresponding to the gesture information (step 5).

ジェスチャ情報を取得したサーバ30は、登録されているジェスチャと受信したジェスチャ情報を照合する(ステップ6)。ここでの照合は、テーブル302A(図5参照)に記憶されているジェスチャについて実行される。また、スマートフォン50から受信されるジェスチャ情報には、ユーザの動作の揺らぎなどのノイズ成分が含まれる。このため、サーバ30は、照合の前に丸め処理を実行する。
照合の結果、該当するジェスチャが無い場合、サーバ30は、スマートフォン50を通じてユーザにジェスチャの再実行を要求する(ステップ7)この場合、ユーザは、ジェスチャを再度実施する。
一方、該当するジェスチャが有る場合、サーバ30は、該当する画像形成装置20のIPアドレスを送信する(ステップ8)。
The server 30 that has acquired the gesture information collates the registered gesture with the received gesture information (step 6). The collation here is performed on the gestures stored in table 302A (see FIG. 5). In addition, the gesture information received from the smartphone 50 includes noise components such as fluctuations in the user's movements. Therefore, the server 30 executes the rounding process before the collation.
As a result of the collation, if there is no corresponding gesture, the server 30 requests the user to re-execute the gesture through the smartphone 50 (step 7). In this case, the user re-executes the gesture.
On the other hand, if there is a corresponding gesture, the server 30 transmits the IP address of the corresponding image forming apparatus 20 (step 8).

サーバ30から画像形成装置20のIPアドレスの通知があった場合、スマートフォン50は、受信したIPアドレスを通信先として登録する(ステップ9)。
続いて、スマートフォン50は、登録したIPアドレスを通信先として通信の要求を送信する(ステップ10)。
通信先である画像形成装置20から応答があると、スマートフォン50は、通信の確立を確認する(ステップ11)。
続いて、スマートフォン50は、応答の発信元である画像形成装置20に対し、通信が確立したことを知らせる情報を送信する(ステップ12)。
When the server 30 notifies the IP address of the image forming apparatus 20, the smartphone 50 registers the received IP address as a communication destination (step 9).
Subsequently, the smartphone 50 transmits a communication request using the registered IP address as the communication destination (step 10).
When there is a response from the image forming apparatus 20 which is the communication destination, the smartphone 50 confirms the establishment of communication (step 11).
Subsequently, the smartphone 50 transmits information notifying that the communication has been established to the image forming apparatus 20 which is the source of the response (step 12).

一方、スマートフォン50との通信の確立を確認した画像形成装置20は、サーバ30に対し、自機のジェスチャとIPアドレスの削除を指示する(ステップ13)。
続いて、画像形成装置20は、操作画面を初期画面に切り替える(ステップ14)。
以後、スマートフォン50と画像形成装置20との連携が可能になる。具体的には、ユーザは、スマートフォン50を通じて画像形成装置20の制御が可能になる。換言すると、ユーザは、スマートフォン50の操作を通じ、画像形成装置20の印刷機能、ファクシミリ機能、スキャン機能の利用が可能な状態になる。
なお、画像形成装置20から削除の指示を受け付けたサーバ30は、該当するジェスチャとIPアドレスを削除する(ステップ15)。
On the other hand, the image forming apparatus 20 that has confirmed the establishment of communication with the smartphone 50 instructs the server 30 to delete the gesture and the IP address of its own device (step 13).
Subsequently, the image forming apparatus 20 switches the operation screen to the initial screen (step 14).
After that, the smartphone 50 and the image forming apparatus 20 can be linked. Specifically, the user can control the image forming apparatus 20 through the smartphone 50. In other words, the user can use the printing function, the facsimile function, and the scanning function of the image forming apparatus 20 through the operation of the smartphone 50.
The server 30 that has received the deletion instruction from the image forming apparatus 20 deletes the corresponding gesture and IP address (step 15).

<実施の形態2>
前述の実施の形態の場合では、通信を要求されている画像形成装置20(図1参照)が、ジェスチャを生成しているが、本実施の形態では、ジェスチャを生成する機能をサーバ30(図1参照)に設ける場合について説明する。
なお、本実施の形態で使用する画像形成装置20及びサーバ30のハードウェア上の構成は実施の形態1と同様である。
<Embodiment 2>
In the case of the above-described embodiment, the image forming apparatus 20 (see FIG. 1) that is requested to communicate generates the gesture, but in the present embodiment, the function of generating the gesture is provided by the server 30 (FIG. 1). 1) will be described.
The hardware configuration of the image forming apparatus 20 and the server 30 used in the present embodiment is the same as that of the first embodiment.

図12は、実施の形態2で使用する画像形成装置20の機能構成の一例を説明する図である。なお、図12には、図3との対応部分に対応する符号を付して示している。
図12に示す画像形成装置20は、ジェスチャ生成部212(図3参照)が設けられていない点とジェスチャ等登録管理部214Aを用いる点で、実施の形態1で使用する画像形成装置20と相違する。
FIG. 12 is a diagram illustrating an example of the functional configuration of the image forming apparatus 20 used in the second embodiment. It should be noted that FIG. 12 is shown with reference numerals corresponding to the portions corresponding to those in FIG.
The image forming apparatus 20 shown in FIG. 12 is different from the image forming apparatus 20 used in the first embodiment in that the gesture generation unit 212 (see FIG. 3) is not provided and the gesture registration management unit 214A is used. To do.

本実施の形態におけるジェスチャ等登録管理部214Aには、ジェスチャの生成と、生成されたジェスチャと自機のIPアドレスの登録とを、サーバ30(図1参照)に要求する機能が設けられている。
また、ジェスチャ等登録管理部214Aには、サーバ30から受信したジェスチャを表示制御部215に与えて表示させる機能も設けられている。
なお、ジェスチャ等登録管理部214Aにも、他の端末との通信が確立した場合に、ジェスチャ等の削除をサーバ30に要求する機能が設けられている。
The gesture registration management unit 214A in the present embodiment is provided with a function of requesting the server 30 (see FIG. 1) to generate a gesture and to register the generated gesture and the IP address of the own machine. ..
Further, the gesture registration management unit 214A is also provided with a function of giving the gesture received from the server 30 to the display control unit 215 and displaying the gesture.
The gesture registration management unit 214A is also provided with a function of requesting the server 30 to delete the gesture or the like when communication with another terminal is established.

図13は、実施の形態2で使用するサーバ30の機能構成の一例を説明する図である。なお、図13には、図6との対応部分に対応する符号を付して示している。
図13に示すサーバ30は、ジェスチャ等登録要求受付部331Aとジェスチャ生成部337を用いる点で、実施の形態1で使用するサーバ30と相違する。
本実施の形態におけるジェスチャ等登録要求受付部331Aは、ジェスチャの生成と、生成されたジェスチャと自機のIPアドレスの登録の要求とを画像形成装置20から受け付ける機能部である。ジェスチャ等登録要求受付部331Aは、この要求を受け付けると、ジェスチャ生成部337を起動すると共に、受信したIPアドレスをジェスチャ等登録管理部333に通知する。
ジェスチャ生成部337は、起動条件が異なる以外は、ジェスチャ生成部212(図3参照)と同等の機能を有している。なお、ジェスチャ生成部337は、生成されたジェスチャを画像形成装置20(図1参照)に通知するとともに、ジェスチャ等登録管理部333にも与える。ジェスチャ生成部337は、生成手段の一例である。
FIG. 13 is a diagram illustrating an example of the functional configuration of the server 30 used in the second embodiment. It should be noted that FIG. 13 is shown with reference numerals corresponding to the portions corresponding to those in FIG.
The server 30 shown in FIG. 13 is different from the server 30 used in the first embodiment in that the gesture registration request receiving unit 331A and the gesture generating unit 337 are used.
The gesture registration request receiving unit 331A in the present embodiment is a functional unit that receives a gesture generation and a request for registration of the generated gesture and the IP address of the own machine from the image forming apparatus 20. Upon receiving this request, the gesture registration request receiving unit 331A activates the gesture generation unit 337 and notifies the gesture registration management unit 333 of the received IP address.
The gesture generation unit 337 has the same function as the gesture generation unit 212 (see FIG. 3) except that the activation conditions are different. The gesture generation unit 337 notifies the image forming apparatus 20 (see FIG. 1) of the generated gesture, and also gives the gesture and the like registration management unit 333. The gesture generation unit 337 is an example of the generation means.

図14は、実施の形態2における処理動作の一例を説明する図である。図14には、図9との対応部分に対応する符号を付して示している。
本実施の形態における画像形成装置20は、ユーザによるIPアドレスの問い合わせ用のボタンの押下を検知すると、サーバ30に対し、ジェスチャの生成と、生成されたジェスチャと自機のIPアドレスの登録を要求する(ステップ21)。
この要求を受信したサーバ30は、要求元の画像形成装置20用にジェスチャを生成する(ステップ22)。
次に、サーバ30は、生成したジェスチャと受信したIPアドレスを紐付けて登録する(ステップ23)。
また、サーバ30は、要求元である画像形成装置20に対し、生成したジェスチャを通知する(ステップ24)。
画像形成装置20は、受信したジェスチャを操作画面に表示する(ステップ25)。
これ以降の動作は、実施の形態1と同じである。
FIG. 14 is a diagram illustrating an example of a processing operation according to the second embodiment. FIG. 14 is shown with reference numerals corresponding to the portions corresponding to those in FIG.
When the image forming apparatus 20 in the present embodiment detects that the user presses the button for inquiring about the IP address, the image forming apparatus 20 requests the server 30 to generate a gesture and register the generated gesture and the IP address of the own machine. (Step 21).
The server 30 that has received this request generates a gesture for the image forming apparatus 20 that is the request source (step 22).
Next, the server 30 associates the generated gesture with the received IP address and registers it (step 23).
Further, the server 30 notifies the image forming apparatus 20 which is the request source of the generated gesture (step 24).
The image forming apparatus 20 displays the received gesture on the operation screen (step 25).
Subsequent operations are the same as in the first embodiment.

<実施の形態3>
前述の実施の形態1及び2の場合には、画像形成装置20に設けられているIPアドレスの問い合わせ用のボタンが操作されるたびにジェスチャが生成されていた。
しかし、本実施の形態では、IPアドレスの問い合わせ用のボタンの生成のたびにジェスチャを生成してサーバ30に登録するのではなく、初回に生成したジェスチャをサーバ30に記憶して使用する。
すなわち、本実施の形態では、実施の形態1及び2で説明した動作は、初回のボタン操作時に限り実行され、2回目以降のボタン操作時には、サーバ30に登録されているジェスチャを用いて照合が実行される。
<Embodiment 3>
In the case of the above-described first and second embodiments, the gesture is generated every time the button for inquiring the IP address provided in the image forming apparatus 20 is operated.
However, in the present embodiment, instead of generating a gesture and registering it in the server 30 each time a button for inquiring an IP address is generated, the gesture generated for the first time is stored in the server 30 and used.
That is, in the present embodiment, the operations described in the first and second embodiments are executed only at the first button operation, and at the second and subsequent button operations, the collation is performed using the gesture registered in the server 30. Will be executed.

図15は、2回目以降のボタン操作時に実行される処理動作の一例を説明する図である。図15には、図14との対応部分に対応する符号を付して示している。
本実施の形態における画像形成装置20は、ユーザによるIPアドレスの問い合わせ用のボタンの押下を検知すると、サーバ30に対し、自機について登録されているジェスチャの読み出しを要求する(ステップ31)。
この要求を受信したサーバ30は、要求元の画像形成装置20のIPアドレスに対応するジェスチャを読み出す(ステップ32)。
次に、サーバ30は、要求元である画像形成装置20に対し、読み出したジェスチャを通知する(ステップ33)。
通知を受信した画像形成装置20は、受信したジェスチャを操作画面に表示する(ステップ25)。
なお、本実施の形態の場合、通信が確立したことを知らせる情報を受信してもジェスチャとIPアドレスの削除は行われない。このため、ステップ13(図14参照)とステップ15(図14参照)は実行されない。
FIG. 15 is a diagram illustrating an example of a processing operation executed at the time of the second and subsequent button operations. FIG. 15 is shown with reference numerals corresponding to the portions corresponding to those in FIG.
When the image forming apparatus 20 in the present embodiment detects that the user presses the button for inquiring about the IP address, the image forming apparatus 20 requests the server 30 to read the gesture registered for the own machine (step 31).
Upon receiving this request, the server 30 reads out the gesture corresponding to the IP address of the image forming apparatus 20 of the request source (step 32).
Next, the server 30 notifies the image forming apparatus 20 which is the request source of the read gesture (step 33).
The image forming apparatus 20 that has received the notification displays the received gesture on the operation screen (step 25).
In the case of the present embodiment, the gesture and the IP address are not deleted even if the information notifying that the communication has been established is received. Therefore, step 13 (see FIG. 14) and step 15 (see FIG. 14) are not executed.

なお、初回のボタン操作の時点で、自機で使用するジェスチャは画像形成装置20の記憶部205(図2参照)に記憶される。このため、ボタン操作のたびにサーバ30へのジェスチャの問い合わせを不要にすることも可能である。
図16は、2回目以降のボタン操作時に実行される処理動作の他の例を説明する図である。図16には、図15との対応部分に対応する符号を付して示している。
図16の場合、画像形成装置20は、ユーザによるIPアドレスの問い合わせ用のボタンの押下を検知すると、内部の記憶部205(図2参照)からジェスチャを読み出し(ステップ41)、読み出したジェスチャを操作画面に表示する(ステップ42)。
At the time of the first button operation, the gesture used by the own machine is stored in the storage unit 205 (see FIG. 2) of the image forming apparatus 20. Therefore, it is possible to eliminate the need to make a gesture inquiry to the server 30 each time a button is operated.
FIG. 16 is a diagram illustrating another example of the processing operation executed at the time of the second and subsequent button operations. In FIG. 16, reference numerals are given to correspond to the portions corresponding to those in FIG.
In the case of FIG. 16, when the image forming apparatus 20 detects that the user presses the button for inquiring about the IP address, the image forming apparatus 20 reads a gesture from the internal storage unit 205 (see FIG. 2) (step 41) and operates the read gesture. Display on the screen (step 42).

<実施の形態4>
前述の実施の形態3の場合には、1回目のボタンの操作時には、実施の形態1又は2の手法によりジェスチャが生成されているが、予めサーバ30に、画像形成装置20別にIPアドレスとジェスチャが登録されていてもよい。
この場合には、1回目のボタン操作の時点から、図15に示したように、サーバ30に記憶されているジェスチャを読み出して画像形成装置20の操作及び表示部206(図2参照)に表示してもよい。
<Embodiment 4>
In the case of the above-described third embodiment, the gesture is generated by the method of the first or second embodiment at the time of the first button operation, but the IP address and the gesture for each image forming apparatus 20 are generated in advance on the server 30. May be registered.
In this case, from the time of the first button operation, as shown in FIG. 15, the gesture stored in the server 30 is read out and displayed on the operation and display unit 206 (see FIG. 2) of the image forming apparatus 20. You may.

<実施の形態5>
前述の実施の形態の場合には、画像形成装置20(図1参照)のIPアドレスを取得したスマートフォン50(図1参照)が、画像形成装置20との間で通信を確立する場合について説明したが、画像形成装置20との間で通信を確立する端末は、IPアドレスの取得に使用するスマートフォン50以外の機器でもよい。例えばIPアドレスの取得のために要求されるジェスチャを検知する機能を有しないIoT機器でもよい。
<Embodiment 5>
In the case of the above-described embodiment, the case where the smartphone 50 (see FIG. 1) that has acquired the IP address of the image forming apparatus 20 (see FIG. 1) establishes communication with the image forming apparatus 20 has been described. However, the terminal that establishes communication with the image forming apparatus 20 may be a device other than the smartphone 50 used for acquiring the IP address. For example, an IoT device that does not have a function of detecting a gesture required for acquiring an IP address may be used.

図17は、実施の形態5で使用する印刷システム1Aの全体構成の例を概略的に示す図である。図17には、図1との対応部分に対応する符号を付して示している。
印刷システム1Aには、アクセスポイント40経由でローカルエリアネットワーク10に接続が可能なIoT機器60が追加されている。本実施の形態におけるIoT機器60は、アクセスポイント40と無線接続されている。もっとも、IoT機器60は、ローカルエリアネットワーク10にLANケーブルを介して接続されていてもよい。
ここでのIoT機器60には、スマートフォン50を用いる手法により画像形成装置20と接続できない機器を想定する。例えばテレビ、エアコン、冷蔵庫等の家電には、加速度センサが設けられていないか、設けられていてもユーザのジェスチャの検知には不向きである。
一方で、IoT機器60と画像形成装置20との間で通信が確立すると、IoT機器60に記憶されている情報を画像形成装置20で印刷させる等の使い方が可能になる。
FIG. 17 is a diagram schematically showing an example of the overall configuration of the printing system 1A used in the fifth embodiment. FIG. 17 is shown with reference numerals corresponding to the portions corresponding to those in FIG.
An IoT device 60 capable of connecting to the local area network 10 via the access point 40 is added to the printing system 1A. The IoT device 60 in this embodiment is wirelessly connected to the access point 40. However, the IoT device 60 may be connected to the local area network 10 via a LAN cable.
As the IoT device 60 here, it is assumed that the device cannot be connected to the image forming apparatus 20 by the method using the smartphone 50. For example, home appliances such as televisions, air conditioners, and refrigerators are not provided with an acceleration sensor, or even if an acceleration sensor is provided, it is not suitable for detecting a user's gesture.
On the other hand, when communication is established between the IoT device 60 and the image forming device 20, it becomes possible to use the image forming device 20 to print the information stored in the IoT device 60.

図18は、実施の形態5における処理動作の一例を説明する図である。図18には、図9との対応部分に対応する符号を付して示している。
図18の場合、スマートフォン50が画像形成装置20のIPアドレスをサーバ30から取得するまでの動作は同じである。すなわち、ステップ8までの動作は同じである。
本実施の形態の場合、スマートフォン50は、サーバ30から受信した画像形成装置20のIPアドレスをIoT機器60に転送する(ステップ51)。
一方、IoT機器60は、受信したIPアドレスを通信先として登録する(ステップ52)。
FIG. 18 is a diagram illustrating an example of a processing operation according to the fifth embodiment. In FIG. 18, a reference numeral corresponding to a portion corresponding to that in FIG. 9 is added.
In the case of FIG. 18, the operation until the smartphone 50 acquires the IP address of the image forming apparatus 20 from the server 30 is the same. That is, the operations up to step 8 are the same.
In the case of the present embodiment, the smartphone 50 transfers the IP address of the image forming apparatus 20 received from the server 30 to the IoT device 60 (step 51).
On the other hand, the IoT device 60 registers the received IP address as a communication destination (step 52).

続いて、IoT機器60は、登録したIPアドレスを通信先として通信の要求を送信する(ステップ53)。
通信先である画像形成装置20から応答があると、IoT機器60は、通信の確立を確認する(ステップ54)。
続いて、IoT機器60は、応答の発信元である画像形成装置20に対し、通信が確立したことを知らせる情報を送信する(ステップ55)。
Subsequently, the IoT device 60 transmits a communication request using the registered IP address as the communication destination (step 53).
When there is a response from the image forming apparatus 20 which is the communication destination, the IoT device 60 confirms the establishment of communication (step 54).
Subsequently, the IoT device 60 transmits information notifying that communication has been established to the image forming apparatus 20 that is the source of the response (step 55).

<他の実施の形態>
以上、本発明の実施の形態について説明したが、本発明の技術的範囲は前述した実施の形態に記載の範囲に限定されない。前述した実施の形態に、種々の変更又は改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
例えば前述の実施の形態の場合には、ローカルエリアネットワーク10経由で画像形成装置20(図1参照)と、そのIPアドレスを取得したスマートフォン50(図1参照)又はIoT機器60(図17参照)とを接続しているが、Wi−Fiダイレクトで接続してもよい。なお、Wi−Fiダイレクトのアクセスポイントとしての機能が画像形成装置20に設けられていることが前提である。Wi−Fiダイレクトによる接続では、スマートフォン50等と画像形成装置20を直接接続できるので通信の安全性を高めることが可能である。
<Other embodiments>
Although the embodiments of the present invention have been described above, the technical scope of the present invention is not limited to the scope described in the above-described embodiments. It is clear from the description of the scope of claims that the above-described embodiment with various modifications or improvements is also included in the technical scope of the present invention.
For example, in the case of the above-described embodiment, the image forming apparatus 20 (see FIG. 1) and the smartphone 50 (see FIG. 1) or the IoT device 60 (see FIG. 17) having acquired the IP address thereof via the local area network 10. Although it is connected to, it may be connected by Wi-Fi direct. It is premised that the image forming apparatus 20 is provided with a function as an access point for Wi-Fi Direct. In the Wi-Fi direct connection, the smartphone 50 and the like can be directly connected to the image forming apparatus 20, so that the security of communication can be improved.

また、前述の実施の形態の場合には、ジェスチャの入力に、ユーザが把持しているスマートフォン50(図1参照)を指示の通りに動かすことを求めているが、その他の手法を用いることも可能である
図19は、IPアドレスの問い合わせ用のボタンの操作が検知された場合に画像形成装置20(図1参照)の操作及び表示部206に表示される指示画面の他の例を示す図である。図19には、図11との対応部分に対応する符号を付して示している。
図19に示す例は、スマートフォン50を動かすのではなく、そのタッチパネルに示された図形や文字を入力する場合を想定する。このため、説明文206Eには、「スマートフォンに、右の文字を描いてください」と記載されている。この例の場合、タッチパネルに対するユーザの指の動きが、ユーザの動作として検出される。
Further, in the case of the above-described embodiment, it is required to move the smartphone 50 (see FIG. 1) held by the user as instructed to input the gesture, but other methods may also be used. FIG. 19 is a diagram showing another example of the operation of the image forming apparatus 20 (see FIG. 1) and the instruction screen displayed on the display unit 206 when the operation of the button for inquiring the IP address is detected. Is. In FIG. 19, a reference numeral corresponding to a portion corresponding to FIG. 11 is attached.
In the example shown in FIG. 19, it is assumed that the smartphone 50 is not moved, but the figures and characters shown on the touch panel are input. For this reason, the explanation 206E states, "Please draw the character on the right on your smartphone." In the case of this example, the movement of the user's finger with respect to the touch panel is detected as the movement of the user.

図20は、IPアドレスの問い合わせ用のボタンの操作が検知された場合に画像形成装置20(図1参照)の操作及び表示部206に表示される指示画面の他の例を示す図である。図20には、図11との対応部分に対応する符号を付して示している。
図20に示す例も、スマートフォン50を動かさない入力の方法である。ただし、図20の場合には、ユーザのジェスチャをスマートフォン50で撮像する場合を想定する。このため、説明文206Fには、「右に示すジェスチャを模倣してスマートフォンで撮像してください」と記載されている。図20の場合、模倣するジェスチャ206Gとして右手の指を広げるジェスチャが示されている。もっとも、手を振るジェスチャのように動きを伴ってもよい。
また、ジェスチャは、手を用いた動作に限らない。例えば指の動き、腕の動き、足の動き、頭部の動き、顔の部位の動きでもよい。例えば視線の向き、舌を出す、首を傾ける等でもよい。
FIG. 20 is a diagram showing another example of the operation of the image forming apparatus 20 (see FIG. 1) and the instruction screen displayed on the display unit 206 when the operation of the button for inquiring the IP address is detected. In FIG. 20, a reference numeral corresponding to a portion corresponding to FIG. 11 is attached.
The example shown in FIG. 20 is also an input method that does not move the smartphone 50. However, in the case of FIG. 20, it is assumed that the user's gesture is imaged by the smartphone 50. For this reason, the explanation 206F states, "Please imitate the gesture shown on the right and take an image with a smartphone." In the case of FIG. 20, a gesture of spreading the fingers of the right hand is shown as a gesture of imitating 206G. However, it may be accompanied by movement like a waving gesture.
Gestures are not limited to hand movements. For example, finger movements, arm movements, foot movements, head movements, and facial movements may be used. For example, the direction of the line of sight, the tongue sticking out, the neck tilting, etc. may be used.

また、前述の実施の形態の場合には、生成するジェスチャは、ユーザとは無関係に指定されるが、ユーザ毎にジェスチャの内容を変更してもよい。例えば怪我などによりスマートフォン50を持つことができなくても、スマートフォン50のタッチパネルに文字等を入力することが可能なユーザに対しては、ユーザに応じたジェスチャが表示されるようにしてもよい。この場合、画像形成装置20には、ユーザを認証する機能を用意し、認証の結果を使用する。 Further, in the case of the above-described embodiment, the gesture to be generated is specified regardless of the user, but the content of the gesture may be changed for each user. For example, even if the smartphone 50 cannot be held due to an injury or the like, a gesture corresponding to the user may be displayed for a user who can input characters or the like on the touch panel of the smartphone 50. In this case, the image forming apparatus 20 is provided with a function for authenticating the user, and the result of the authentication is used.

また、前述の実施の形態の場合には、サーバ30を情報処理システムの一例として説明したが、画像形成装置20とサーバ30が連携して情報処理システムを構成してもよい。
また、前述の実施の形態の場合には、IPアドレスを取得して接続を求める機器が画像形成装置20である場合について説明したが、接続の対象は必ずしも画像形成装置20に限らない。
接続の対象とする機器は、例えばテレビ、エアコン、冷蔵庫等の家電その他のIoT機器でもよいし、パソコン等の情報機器でもよい。なお、接続の対象とする機器は、表示部を有する機器に限らない。接続の対象とする機器が表示部を有しない場合、当該機器は既に連携している他の機器にユーザに要求するジェスチャを表示させてもよい。
また、ジェスチャの提示の方法は表示に限らず、音声でもよい。
Further, in the case of the above-described embodiment, the server 30 has been described as an example of the information processing system, but the image forming apparatus 20 and the server 30 may cooperate to form the information processing system.
Further, in the case of the above-described embodiment, the case where the device that acquires the IP address and requests the connection is the image forming apparatus 20, but the object of the connection is not necessarily limited to the image forming apparatus 20.
The device to be connected may be, for example, a home appliance such as a television, an air conditioner, or a refrigerator or other IoT device, or an information device such as a personal computer. The device to be connected is not limited to the device having a display unit. When the device to be connected does not have a display unit, the device may display a gesture requested by the user on another device that is already linked.
In addition, the method of presenting the gesture is not limited to the display, and may be voice.

1、1A…印刷システム、10…ローカルエリアネットワーク、20…画像形成装置、30…サーバ、40…アクセスポイント、50…スマートフォン、60…IoT機器、211…接続要求操作検知部、212…ジェスチャ生成部、213…IPアドレス取得部、214、214A、333…ジェスチャ等登録管理部、215…表示制御部、216…通信要求受信部、217…通信部、302A…テーブル、331、331Aジェスチャ等登録要求受付部、332…ジェスチャ等削除要求受付部、334…ジェスチャ情報受付部、335…ジェスチャ照合部、336…IPアドレス送信部、337…ジェスチャ生成部、521…アプリ起動検知部、522…センサ情報取得部、523…ジェスチャ情報変換部、524…IPアドレス問合部、525…IPアドレス受信部、526…通信要求部、527…通信部 1, 1A ... printing system, 10 ... local area network, 20 ... image forming device, 30 ... server, 40 ... access point, 50 ... smartphone, 60 ... IoT device, 211 ... connection request operation detection unit, 212 ... gesture generation unit , 213 ... IP address acquisition unit, 214, 214A, 333 ... Gesture registration management unit, 215 ... Display control unit, 216 ... Communication request reception unit, 217 ... Communication unit, 302A ... Table, 331, 331A Gesture registration request reception 332 ... Gesture deletion request reception unit 334 ... Gesture information reception unit 335 ... Gesture collation unit 336 ... IP address transmission unit 337 ... Gesture generation unit 521 ... App activation detection unit 522 ... Sensor information acquisition unit 523 ... Gesture information conversion unit 524 ... IP address inquiry unit 525 ... IP address reception unit 526 ... Communication request unit 527 ... Communication unit

Claims (10)

ネットワーク経由で接続されている機器のネットワーク上のアドレスと、機器毎に定まる当該アドレスを提供する条件としてユーザに求める動作に関する情報とを対応付けて記憶する記憶手段と、
ネットワーク経由で接続されている端末から受信される情報が前記記憶手段に記憶されている前記動作に関する情報に整合する場合、当該動作に関する情報に対応付けられている前記アドレスを当該端末に送信する送信手段と
を有する情報処理システム。
A storage means for associating and storing an address on the network of a device connected via a network and information on an operation required of a user as a condition for providing the address determined for each device.
When the information received from the terminal connected via the network matches the information related to the operation stored in the storage means, the address associated with the information related to the operation is transmitted to the terminal. An information processing system that has means.
ユーザに求める前記動作は、前記機器が予め定めた操作を検知した場合に、当該機器の提示手段又は当該機器と連携する提示手段を通じてユーザに提示される、請求項1に記載の情報処理システム。 The information processing system according to claim 1, wherein the operation requested from the user is presented to the user through the presenting means of the device or the presenting means linked with the device when the device detects a predetermined operation. 前記送信手段は、予め定めた前記操作の検知を通知した前記機器について記憶されている前記動作に関する情報と、前記端末から受信した動作に関する情報とが一致する場合に、当該機器に対応付けられている前記アドレスを送信する、請求項2に記載の情報処理システム。 The transmitting means is associated with the device when the information about the operation stored in the device that has notified the detection of the operation and the information about the operation received from the terminal match. The information processing system according to claim 2, wherein the address is transmitted. ユーザに求める前記動作は、提示された形状を描くように又は予め定めた経路をたどるように前記端末を空中で移動させることである、請求項2に記載の情報処理システム。 The information processing system according to claim 2, wherein the operation required of the user is to move the terminal in the air so as to draw a presented shape or follow a predetermined route. ユーザに求める前記動作は、提示された形状又は文字を前記端末のタッチパネルに入力することである、請求項2に記載の情報処理システム。 The information processing system according to claim 2, wherein the operation required of the user is to input the presented shape or character to the touch panel of the terminal. ユーザに求める前記動作は、提示された頭部の動き、又は、顔の部位の動き、又は、手若しくは指若しくは腕の動き、又は、足の動きであり、前記端末により撮像される、請求項2に記載の情報処理システム。 The motion requested from the user is a presented movement of the head, a movement of a facial part, a movement of a hand, a finger or an arm, or a movement of a foot, and is imaged by the terminal. The information processing system according to 2. 前記機器が予め定めた操作を検知するたびに、ユーザに求める前記動作を生成する生成手段を更に有する、請求項1に記載の情報処理システム。 The information processing system according to claim 1, further comprising a generation means for generating the operation requested by the user each time the device detects a predetermined operation. 複数の前記機器が予め定めた操作を検知している場合、前記生成手段は、複数の当該機器の間で異なる動作をユーザに求める、請求項7に記載の情報処理システム。 The information processing system according to claim 7, wherein when the plurality of the devices detect a predetermined operation, the generation means requires the user to perform different operations among the plurality of the devices. コンピュータに、
ネットワーク経由で接続されている機器のネットワーク上のアドレスと、機器毎に定まる当該アドレスを提供する条件としてユーザに求める動作に関する情報とを対応付けた関係を記憶手段に記憶させる機能と、
ネットワーク経由で接続されている端末から受信される情報が前記記憶手段に記憶されている前記動作に関する情報に整合する場合、当該動作に関する情報に対応付けられている前記アドレスを当該端末に送信させる機能と
を実行させるプログラム。
On the computer
A function to store in the storage means the relationship between the network address of the device connected via the network and the information related to the operation required of the user as a condition for providing the address determined for each device.
When the information received from the terminal connected via the network matches the information related to the operation stored in the storage means, the function of causing the terminal to transmit the address associated with the information related to the operation. A program that executes and.
コンピュータに、
センサを通じて検知されたユーザの動作を、ネットワーク経由で接続されているサーバに送信させる機能と、
前記ユーザの動作に対応付けられている機器のネットワーク上のアドレスを、前記サーバから受信させる機能と、
受信した前記アドレスを用いて、ネットワーク経由で前記機器と通信させる機能と
を実行させるプログラム。
On the computer
A function to send the user's action detected through the sensor to a server connected via the network,
A function to receive an address on the network of a device associated with the user's operation from the server, and
A program that executes a function to communicate with the device via a network using the received address.
JP2019123927A 2019-07-02 2019-07-02 Information processing system and program Pending JP2021009619A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019123927A JP2021009619A (en) 2019-07-02 2019-07-02 Information processing system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019123927A JP2021009619A (en) 2019-07-02 2019-07-02 Information processing system and program

Publications (1)

Publication Number Publication Date
JP2021009619A true JP2021009619A (en) 2021-01-28

Family

ID=74199556

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019123927A Pending JP2021009619A (en) 2019-07-02 2019-07-02 Information processing system and program

Country Status (1)

Country Link
JP (1) JP2021009619A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023157121A1 (en) * 2022-02-16 2023-08-24 マクセル株式会社 Information processing device and information processing system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012099584A1 (en) * 2011-01-19 2012-07-26 Hewlett-Packard Development Company, L.P. Method and system for multimodal and gestural control
JP2012150629A (en) * 2011-01-19 2012-08-09 Seiko Epson Corp Server device, printing system and printing method
JP2013021675A (en) * 2011-06-16 2013-01-31 Konica Minolta Business Technologies Inc Connection control device, information processing device, image formation device, portable mobile terminal, information processing system, method for controlling connection control device and control program for connection control device
JP2016009503A (en) * 2014-06-25 2016-01-18 トムソン ライセンシングThomson Licensing Method and apparatus for pairing devices
JP2017033195A (en) * 2015-07-30 2017-02-09 京セラドキュメントソリューションズ株式会社 Transmission type wearable terminal, data processing unit, and data processing system
JP2017108359A (en) * 2015-12-11 2017-06-15 富士ゼロックス株式会社 Information processing apparatus, information processing system, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012099584A1 (en) * 2011-01-19 2012-07-26 Hewlett-Packard Development Company, L.P. Method and system for multimodal and gestural control
JP2012150629A (en) * 2011-01-19 2012-08-09 Seiko Epson Corp Server device, printing system and printing method
JP2014507714A (en) * 2011-01-19 2014-03-27 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. Method and system for multimodal and gesture control
JP2013021675A (en) * 2011-06-16 2013-01-31 Konica Minolta Business Technologies Inc Connection control device, information processing device, image formation device, portable mobile terminal, information processing system, method for controlling connection control device and control program for connection control device
JP2016009503A (en) * 2014-06-25 2016-01-18 トムソン ライセンシングThomson Licensing Method and apparatus for pairing devices
JP2017033195A (en) * 2015-07-30 2017-02-09 京セラドキュメントソリューションズ株式会社 Transmission type wearable terminal, data processing unit, and data processing system
JP2017108359A (en) * 2015-12-11 2017-06-15 富士ゼロックス株式会社 Information processing apparatus, information processing system, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
伊藤 友隆 他: "Snappy:振る動作による異種ネットワーク間での機器連携の実現", 情報処理学会研究報告 2009−UBI−21 ユビキタスコンピューティングシステム, vol. 第2009巻,第17号, JPN6023009418, 25 February 2009 (2009-02-25), JP, pages 31 - 36, ISSN: 0005112967 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023157121A1 (en) * 2022-02-16 2023-08-24 マクセル株式会社 Information processing device and information processing system

Similar Documents

Publication Publication Date Title
JP6233218B2 (en) Destination information transfer system, portable terminal device, and destination information transfer program
JP6060776B2 (en) Image processing apparatus, information terminal, program, and cooperative display system
JP6098588B2 (en) Printing system, portable terminal device and printing control program
JP6035985B2 (en) Image processing apparatus, control program for image processing apparatus, and image processing system
JP6380689B2 (en) Mobile terminal device and control method of mobile terminal device
US20150201091A1 (en) Information processing system that uses short-range wireless communication and method of controlling the same, mobile information terminal, and storage medium
JP2016167679A (en) Image processing device, information processing device, and image processing system
JP6143100B2 (en) Image processing apparatus and image processing system
JP2013062654A (en) Information terminal, processing flow control program and processing flow control system
US10063730B2 (en) Image forming system, image forming apparatus, remote control apparatus, and recording medium
JP2021009619A (en) Information processing system and program
JP2015130661A (en) Display device, mobile device, system including the same and connection control method thereof
JP2015114795A (en) Information processor, information processing method, and information processing program
JP6257040B2 (en) Karaoke system, portable information processing apparatus and program
EP3304861B1 (en) Interactive method and system for file transfer
JP2015171134A (en) Information display system and electronic apparatus
US10917531B2 (en) Operation apparatus, information processing system, and operation method for outputting a message by voice sound
JP6314499B2 (en) Operation support program and terminal device
JP2017201515A (en) Information processing device and program
JP6398811B2 (en) Communication system, information processing apparatus, and program
JP6638780B2 (en) Communication system, information processing device, and program
JP6040970B2 (en) Character input system, character input method, information processing device, portable terminal device, and character input program
JP2016116127A (en) Communication device, control method of communication device, and program
JP2023018906A (en) Information processing device, control method therefor, and program
JP6089385B2 (en) Information processing system, transmission program, request program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230427

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230725