JP2023121710A - Information processing system, information processing apparatus, control method thereof, and program - Google Patents

Information processing system, information processing apparatus, control method thereof, and program Download PDF

Info

Publication number
JP2023121710A
JP2023121710A JP2022170871A JP2022170871A JP2023121710A JP 2023121710 A JP2023121710 A JP 2023121710A JP 2022170871 A JP2022170871 A JP 2022170871A JP 2022170871 A JP2022170871 A JP 2022170871A JP 2023121710 A JP2023121710 A JP 2023121710A
Authority
JP
Japan
Prior art keywords
message
control device
voice control
security level
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022170871A
Other languages
Japanese (ja)
Inventor
真人 福田
Masato Fukuda
隆志 大薄
Takashi Ousu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to EP22216904.7A priority Critical patent/EP4231185A1/en
Priority to US18/152,220 priority patent/US20230267218A1/en
Priority to CN202310104741.3A priority patent/CN116634072A/en
Publication of JP2023121710A publication Critical patent/JP2023121710A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Facsimiles In General (AREA)

Abstract

To solve the following problem: it is inappropriate to read out all messages in some locations in which a speaker is used when the messages are given by voice, for example, in a sales department area where a third party may walk in and out, there is a risk of leakage of customer information to the third party due to voice message including the customer information.SOLUTION: In an information processing system, an information processing apparatus and a voice control apparatus can communicate with each other over a network. The information processing apparatus holds a security level of the voice control apparatus. When detecting an occurrence of a predetermined event, the information processing apparatus acquires information on a message associated with the predetermined event, and determines a message to be transmitted to the voice control apparatus on the basis of the security level of the voice control apparatus and the information on the message. The voice control apparatus reproduces the message transmitted from the information processing apparatus, accordingly.SELECTED DRAWING: Figure 20

Description

本発明は、情報処理システム、情報処理装置とその制御方法、及びプログラムに関する。 The present invention relates to an information processing system, an information processing device and its control method, and a program.

ネットワーク上に存在するサービスが音声制御装置に対してメッセージを通知し、ユーザに音声でメッセージを通知することを可能にしたシステムが存在する。一般に、音声による通信は、文字ベースのチャット等と比較すると、情報の受信・発信がしやすく、大人数が瞬時に情報を共有し議論できるといった点で利便性が高い。しかしながら、このような発話は第三者に聞かれる可能性があり、例えば、社内での発話に比べてセキュリティリスクが高い。 Systems exist that allow a service present on the network to notify a voice control device of a message, and to notify the user of the message by voice. In general, voice communication is more convenient than text-based chat in that it is easier to receive and transmit information, and that a large number of people can instantly share and discuss information. However, such an utterance may be heard by a third party and poses a higher security risk than, for example, utterance within the company.

特許文献1には、複数の端末装置の各々から入力された音声情報を取得し、その音声情報から、予め定めた警告条件に該当する発話を検出した場合に、その予め定めた警告条件に該当する発話を回避するように、検出された発話に対応する対応処理を行う技術が記載されている。 In Patent Document 1, voice information input from each of a plurality of terminal devices is acquired, and when an utterance corresponding to a predetermined warning condition is detected from the voice information, a warning condition corresponding to the predetermined warning condition is detected. A technique is described for performing a corresponding process corresponding to the detected utterance so as to avoid the utterance that is uttered.

特開2019-184800号公報Japanese Patent Application Laid-Open No. 2019-184800

上記従来技術では、検出された警告条件に該当する発話に対応する対応処理として、発話者または視聴者の端末装置に対する警告表示、発話者の音声の音量低下、発話者の発話禁止を行っている。しかし、発話者または視聴者に対して、警告の内容の確認を促すことができない可能性がある。 In the above-described conventional technology, as a response process for the detected utterance corresponding to the warning condition, warning display on the terminal device of the utterer or the viewer, reduction of the volume of the utterer's voice, and prohibition of the utterance by the utterer are performed. . However, it may not be possible to prompt the speaker or viewer to confirm the content of the warning.

また音声でメッセージを通知する場合、スピーカを利用する場所によっては全てのメッセージを読み上げることが適切ではない。例えば、営業部門エリアなどの第三者が出入りする場所では、顧客情報が含まれたメッセージが発話されることで情報が第三者に漏洩するなどのリスクが発生する。 Also, when notifying a message by voice, it is not appropriate to read out the entire message depending on the location where the speaker is used. For example, in a place where a third party enters and exits, such as a sales department area, there is a risk that information may be leaked to a third party by speaking a message containing customer information.

本発明の目的は、上記従来技術の課題の少なくとも一つを解決することにある。 SUMMARY OF THE INVENTION An object of the present invention is to solve at least one of the problems of the prior art described above.

本発明の目的は、メッセージの発話による情報漏洩のリスクを低減して、イベントに対するユーザへの確認を促すことができる技術を提供することにある。 SUMMARY OF THE INVENTION An object of the present invention is to provide a technique capable of reducing the risk of information leakage due to message utterance and prompting the user to confirm an event.

上記目的を達成するために本発明の一態様に係る情報処理システムは以下のような構成を備える。即ち、
情報処理装置と音声制御装置がネットワークを介して通信可能な情報処理システムであって、
前記情報処理装置は、
前記音声制御装置のセキュリティレベルを保持する保持手段と、
所定のイベントの発生を検知すると、前記所定のイベントに紐づけられたメッセージに関する情報を取得する取得手段と、
前記音声制御装置のセキュリティレベルと前記メッセージに関する情報とに基づいて、前記音声制御装置に送信するメッセージを決定する決定手段と、を有し、
前記音声制御装置は、
前記情報処理装置から送信された前記メッセージを再生する再生手段を、有することを特徴とする。
In order to achieve the above object, an information processing system according to one aspect of the present invention has the following configuration. Namely
An information processing system in which an information processing device and a voice control device can communicate via a network,
The information processing device is
holding means for holding a security level of the voice control device;
Acquisition means for acquiring, upon detection of occurrence of a predetermined event, information relating to a message linked to the predetermined event;
determining means for determining a message to send to the voice control device based on the security level of the voice control device and information about the message;
The voice control device
The information processing apparatus further comprises reproducing means for reproducing the message transmitted from the information processing apparatus.

本発明によれば、メッセージの発話による情報漏洩のリスクを低減して、イベントに対するユーザへの確認を促すことが可能となる。 According to the present invention, it is possible to reduce the risk of information leakage due to utterance of a message, and prompt the user to confirm the event.

本発明のその他の特徴及び利点は、添付図面を参照とした以下の説明により明らかになるであろう。尚、添付図面においては、同じ若しくは同様の構成には、同じ参照番号を付す。 Other features and advantages of the present invention will become apparent from the following description with reference to the accompanying drawings. In the accompanying drawings, the same or similar structures are given the same reference numerals.

添付図面は明細書に含まれ、その一部を構成し、本発明の実施形態を示し、その記述と共に本発明の原理を説明するために用いられる。
本発明の実施形態に係る情報処理システムの構成を示す図。 本発明の実施形態に係る画像形成装置の概略構成を説明するブロック図。 実施形態に係る情報端末のハードウェア構成を説明するブロック図。 実施形態に係る音声制御装置のコントローラ部及び音声制御装置が内蔵しているデバイスのハードウェア構成例を説明するブロック図。 実施形態に係るクラウドサーバのハードウェア構成を説明するブロック図。 実施形態に係る音声制御装置の設定処理の一例を説明するシーケンス図。 実施形態に係る情報端末で表示されるデバイス設定画面の遷移を説明する図。 本発明の実施形態に係るFAX受信メッセージ通知の一例を説明するシーケンス図。 FAX受信イベントのメッセージの一例を示す図。 実施形態に係るクラウドサーバが、図8のS804で実行するイベントデータセキュリティレベルの取得処理を説明するフローチャート。 実施形態に係るクラウドサーバが実行するメッセージ生成処理を説明するフローチャート。 実施形態に係るクラウドサーバが実行する、図11のS1102のセクションデータリストの取得処理を説明するフローチャート。 イベントに対応するセクションとセキュリティレベルを含むイベントセクションテーブルの一例を示す図(A)と、属性に対応するセクションとセキュリティレベルを含むパラメータセクションテーブルの一例を示す図(B)。 実施形態に係る音声制御装置の設定テーブルの一例を示す図。 実施形態に係るクラウドサーバが実行するS1202のイベントセクションの取得処理を説明するフローチャート。 実施形態に係るアドレス帳の一例を示す図。 実施形態に係る画像形成装置が受信したFAX画像の一例を示す図。 実施形態に係る画像形成装置が実行するFAX画像のOCR処理を説明するフローチャート。 実施形態2に係るエリアの区分と、その区分条件を示す図(A)、実施形態2に係る音声制御装置のネットワーク接続状態を示す図(B)、各エリアのエリアセキュリティレベル例を示す図(C)、設置場所とエリア区分の関係を示す図(D)。 実施形態2におけるFAX受信メッセージを通知するときの処理の流れを説明するシーケンス図。 本発明の実施形態2に係る情報処理システム構成の一例を示す図。 実施形態2に係る情報端末で表示されるエリア毎のセキュリティレベルを設定する画面のイメージ図。
The accompanying drawings, which are incorporated in and constitute a part of the specification, illustrate embodiments of the invention and, together with the description, serve to explain the principles of the invention.
1 is a diagram showing the configuration of an information processing system according to an embodiment of the present invention; FIG. 1 is a block diagram illustrating a schematic configuration of an image forming apparatus according to an embodiment of the invention; FIG. FIG. 2 is a block diagram for explaining the hardware configuration of the information terminal according to the embodiment; FIG. FIG. 2 is a block diagram for explaining an example hardware configuration of a controller unit of the voice control device according to the embodiment and a device incorporated in the voice control device; FIG. 2 is a block diagram for explaining the hardware configuration of the cloud server according to the embodiment; FIG. 4 is a sequence diagram for explaining an example of setting processing of the audio control device according to the embodiment; FIG. FIG. 4 is a diagram for explaining transition of device setting screens displayed on the information terminal according to the embodiment; FIG. 4 is a sequence diagram illustrating an example of a FAX reception message notification according to the embodiment of the present invention; FIG. 10 is a diagram showing an example of a message of a FAX reception event; 9 is a flowchart for explaining event data security level acquisition processing executed in S804 of FIG. 8 by the cloud server according to the embodiment; 4 is a flowchart for explaining message generation processing executed by the cloud server according to the embodiment; 12 is a flowchart for explaining section data list acquisition processing in S1102 of FIG. 11, which is executed by the cloud server according to the embodiment; FIG. 2A shows an example of an event section table containing sections corresponding to events and security levels, and FIG. 2B shows an example of a parameter section table containing sections corresponding to attributes and security levels. The figure which shows an example of the setting table of the audio|voice control apparatus which concerns on embodiment. 12 is a flowchart for explaining event section acquisition processing in S1202 executed by the cloud server according to the embodiment; 4 is a diagram showing an example of an address book according to the embodiment; FIG. FIG. 4 is a diagram showing an example of a FAX image received by the image forming apparatus according to the embodiment; 4 is a flowchart for explaining OCR processing of a FAX image executed by the image forming apparatus according to the embodiment; A diagram (A) showing the division of areas according to the second embodiment and the division conditions thereof, a diagram (B) showing the network connection state of the voice control device according to the second embodiment, and a diagram showing an example of the area security level of each area ( C), and a diagram (D) showing the relationship between installation locations and area divisions. FIG. 11 is a sequence diagram for explaining the flow of processing when notifying a received FAX message according to the second embodiment; The figure which shows an example of an information processing system configuration|structure which concerns on Embodiment 2 of this invention. FIG. 11 is an image diagram of a screen for setting a security level for each area displayed on the information terminal according to the second embodiment;

以下、添付図面を参照して本発明の実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これら複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。更に、添付図面においては、同一もしくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. It should be noted that the following embodiments do not limit the invention according to the scope of claims. Although multiple features are described in the embodiments, not all of these multiple features are essential to the invention, and multiple features may be combined arbitrarily. Furthermore, in the accompanying drawings, the same or similar configurations are denoted by the same reference numerals, and redundant description is omitted.

<語句の説明>
本実施形態において使用する語句について一般的でないものについて、ここで定義する。
<Explanation of terms>
Unusual terms used in this embodiment are defined here.

・イベントセキュリティレベルとは、クラウドサーバが受信するイベント情報(データ)の持つセキュリティレベルである。数値が小さいほどレベルが高いと表現し、機密性の高い情報を示す。 - The event security level is the security level of the event information (data) received by the cloud server. The smaller the number, the higher the level, indicating highly confidential information.

・メッセージセキュリティレベルとは、クラウドサーバにおいて生成しようしている、もしくは生成したメッセージ(文言)のセキュリティレベルである。数値が小さいほどレベルが高いと表現し、機密性の高いメッセージであることを示す。 - The message security level is the security level of the message (text) that is about to be generated or generated in the cloud server. The smaller the number, the higher the level, indicating a highly confidential message.

・デバイスセキュリティレベルとは、数値が小さいほどレベルが高いと表現し、機密性の高い情報を取り扱えるデバイスであることを示す。 ・The device security level means that the smaller the number, the higher the level, indicating that the device can handle highly confidential information.

・エリアセキュリティレベルとは、数値が小さいほどレベルが高いと表現し、機密性の高い情報を取り扱えるエリアであることを示す。後述の図13におけるセキュリティレベルとは、数値が小さいほどレベルが高いと表現し、機密性の高いことを示す。また図14におけるセキュリティレベルとは、デバイスセキュリティレベルと同義である。 ・The area security level means that the smaller the number, the higher the level, indicating that the area can handle highly confidential information. The security level in FIG. 13, which will be described later, expresses that the smaller the numerical value, the higher the level, indicating that the confidentiality is high. Also, the security level in FIG. 14 is synonymous with the device security level.

[実施形態1]
図1は、本発明の実施形態1に係る情報処理システムの構成を示す図である。
[Embodiment 1]
FIG. 1 is a diagram showing the configuration of an information processing system according to Embodiment 1 of the present invention.

この情報処理システムは、クラウドサービスと連携するIoTデバイスである画像形成装置101、入力した発話データに基づいて音声でメッセージを出力できる、例えばスマートフォンやスマートスピーカなどの音声制御装置103,106,107を有する。画像形成装置101のストレージ205(図2)にはデバイスID「MFP1」が保存されているとする。また音声制御装置103のストレージ405(図4)にはデバイスID「スマートスピーカA」が保存されている。また音声制御装置106のストレージにはデバイスID「スマートスピーカB」が保存されているとする。更に、ユーザが操作する情報端末102とクラウドサーバ104がネットワーク105を介して接続されている。尚、画像形成装置101、情報端末102は単一接続ではなく複数接続された構成であってもよく、音声制御装置103,106,107は2つ以下接続された構成でも4つ以上接続された構成であってもよい。尚、ここでは音声制御装置103,106,107がスマートスピーカの場合で説明するが、例えばスマートフォンの場合がデバイスIDは、「スマートフォンA」或いはIPアドレス、電話番号などでもよい。 This information processing system includes an image forming device 101, which is an IoT device that cooperates with a cloud service, and voice control devices 103, 106, and 107, such as smartphones and smart speakers, which can output messages by voice based on input speech data. have. Assume that the device ID “MFP1” is stored in the storage 205 (FIG. 2) of the image forming apparatus 101 . Also, the device ID “smart speaker A” is saved in the storage 405 (FIG. 4) of the voice control device 103 . It is also assumed that the device ID “smart speaker B” is saved in the storage of the audio control device 106 . Furthermore, an information terminal 102 operated by a user and a cloud server 104 are connected via a network 105 . Note that the image forming apparatus 101 and the information terminal 102 may be connected in plural instead of being connected in a single connection. It may be a configuration. Here, a case where the audio control devices 103, 106, and 107 are smart speakers will be described, but in the case of smart phones, the device ID may be "smart phone A", an IP address, a phone number, or the like.

画像形成装置101は、コピー、スキャン、プリント、FAX等の複数の機能を備える複合機である。尚、画像形成装置101は、プリンタやスキャナなど、単体の機能を備える装置であってもよい。 An image forming apparatus 101 is a multi-function machine having multiple functions such as copying, scanning, printing, and facsimile. Note that the image forming apparatus 101 may be an apparatus having a single function such as a printer or a scanner.

情報端末102は、例えば、ユーザが使うPC(Personal Computer)である。情報端末102は、ネットワーク105を介してクラウドサーバ104のサービス情報の登録、変更を行う機能、及びクラウドサーバ104に格納されている画像ファイルを参照する機能を備える。 The information terminal 102 is, for example, a PC (Personal Computer) used by a user. The information terminal 102 has a function of registering and changing service information of the cloud server 104 via the network 105 and a function of referring to image files stored in the cloud server 104 .

音声制御装置103,106,107は、ネットワーク105を介してクラウドサーバ104から受信した発話データを発話可能な音声データに合成し、スピーカ410(図4)から発話することができる。またマイクロフォン408(図4)から入力されたユーザの音声操作開始指示に従い、ユーザの音声を録音して、ネットワーク105を介してクラウドサーバ104へ符号化された音声データとして送信することもできる。 The voice control devices 103, 106, and 107 can synthesize speech data received from the cloud server 104 via the network 105 into speech data that can be spoken, and speak from the speaker 410 (FIG. 4). In addition, according to the user's voice operation start instruction input from the microphone 408 (FIG. 4), the user's voice can be recorded and transmitted as encoded voice data to the cloud server 104 via the network 105.

クラウドサーバ104は、1つ以上のサーバにより構成され、画像データを含む電子ファイルのファイル管理を行うサービス、音声制御装置に音声メッセージを通知するサービス、及び電子ファイルにアクセスするためのユーザ情報を管理することができる。 The cloud server 104 is composed of one or more servers, and manages a service for file management of electronic files including image data, a service for notifying voice messages to voice control devices, and user information for accessing electronic files. can do.

デバイス管理サーバ108は、1つ以上のサーバにより構成され、音声制御装置103,106,107の各種設定値の値、ネットワーク接続環境、設置場所情報、設置位置情報等を管理し、クラウドサーバ104からの要求に応じて、管理している情報を返送する機能を有する。 The device management server 108 is composed of one or more servers, and manages various setting values, network connection environment, installation location information, installation location information, etc. of the audio control devices 103, 106, and 107. It has a function to return the information it manages in response to a request from

実施形態1では、クラウドサービスと連携するIoTデバイスを画像形成装置101、音声制御装置103,106,107とし、画像形成装置101のストレージ205(図2)にデバイスID「MFP1」が保存されているとする。また音声制御装置103のストレージ405(図4)には、デバイスID「スマートスピーカA」が保存されている。また音声制御装置106のストレージ405には、デバイスID「スマートスピーカB」が保存されている。またユーザは、クラウドサーバ104が提供するサービスを利用するためのID「AAA」、パスワード「asdfzxcv」を事前に登録していつ。そしてユーザは、情報端末102のWebブラウザ上で、IoTデバイスとクラウドサービスを連携するための設定である「クラウドサービス連携設定」を行う。このときユーザは、連携するIoTデバイスである画像形成装置101のデバイスID「MFP1」とIPアドレス「192.168.100.1」、音声制御装置103,106,107のデバイスIDとIPアドレスをクラウドサーバ104のストレージ505(図5)に保存する。ここでは音声制御装置103のデバイスID「スマートスピーカA」とIPアドレス「192.168.100.2」、音声制御装置106のデバイスID「スマートスピーカB」とIPアドレス「192.168.100.3」、音声制御装置107のデバイスID「スマートスピーカC」とIPアドレス「192.168.100.4」を保存する。尚、ここでは音声制御装置103,106,107がスマートスピーカの場合で説明するが、例えばスマートフォンの場合はデバイスIDは、「スマートフォンA」或いはその電話番号などでもよい。また画像形成装置101のストレージ205(図2)、音声制御装置103,106,107の各ストレージに、ID「AAA」、パスワード「asdfzxcv」及びクラウドサーバ104が提供するサービスにアクセスするためのURL(Uniformed Respirce Locator)であるサービスURL「http://service1.com」保存しているものとする。 In the first embodiment, the image forming apparatus 101 and the audio control apparatuses 103, 106, and 107 are the IoT devices that cooperate with the cloud service, and the device ID "MFP1" is stored in the storage 205 (FIG. 2) of the image forming apparatus 101. and Also, the device ID “smart speaker A” is stored in the storage 405 ( FIG. 4 ) of the voice control device 103 . Also, the device ID “smart speaker B” is stored in the storage 405 of the audio control device 106 . Also, the user has previously registered an ID "AAA" and a password "asdfzxcv" for using the services provided by the cloud server 104 . Then, on the web browser of the information terminal 102, the user performs "cloud service cooperation setting", which is a setting for cooperation between the IoT device and the cloud service. At this time, the user sends the device ID "MFP1" and IP address "192.168.100.1" of the image forming apparatus 101, which is an IoT device to be linked, and the device IDs and IP addresses of the audio control apparatuses 103, 106, and 107 to the cloud. It saves in the storage 505 (FIG. 5) of the server 104 . Here, the device ID “smart speaker A” and the IP address “192.168.100.2” of the audio control device 103 and the device ID “smart speaker B” and the IP address “192.168.100.3” of the audio control device 106 are used. ”, the device ID “smart speaker C” and the IP address “192.168.100.4” of the voice control device 107 are saved. Here, a case where the audio control devices 103, 106, and 107 are smart speakers will be described, but in the case of smart phones, for example, the device ID may be "smart phone A" or its phone number. Also, the ID "AAA", the password "asdfzxcv", and the URL for accessing the service provided by the cloud server 104 ( It is assumed that the service URL "http://service1.com", which is a Uniformed Resource Locator, is saved.

図2は、本発明の実施形態1に係る画像形成装置101の概略構成を説明するブロック図である。 FIG. 2 is a block diagram illustrating a schematic configuration of the image forming apparatus 101 according to Embodiment 1 of the present invention.

画像形成装置101は、システムバス201に接続されたCPU(Central Processing Unit)202、RAM203、ROM204、ストレージ205、ネットワークI/F206、操作パネルI/F207、プリントコントローラ209を含む。更に、スキャンコントローラ211、ファクスコントローラ213及び画像処理部214がシステムバス201に接続されている。 Image forming apparatus 101 includes a CPU (Central Processing Unit) 202 , RAM 203 , ROM 204 , storage 205 , network I/F 206 , operation panel I/F 207 and print controller 209 connected to system bus 201 . Further, a scan controller 211 , a facsimile controller 213 and an image processor 214 are connected to the system bus 201 .

CPU202は、画像形成装置101全体の動作を制御する。CPU202は、ROM204又はストレージ205に記憶された制御プログラムをRAM203に展開して実行することで、読取制御や印刷制御などの各種制御を行う。RAM203は、CPU202の主記憶メモリであり、ワークエリア、ROM204及びストレージ205に記憶された各種制御プログラムを展開するための一時記憶領域として用いられる。ROM204は、CPU202で実行可能な制御プログラムを記憶する。ストレージ205は、印刷データ、画像データ、各種プログラム、アドレス帳(図16)、及び各種設定情報を記憶する。 A CPU 202 controls the overall operation of the image forming apparatus 101 . The CPU 202 expands the control program stored in the ROM 204 or the storage 205 into the RAM 203 and executes it, thereby performing various controls such as reading control and printing control. A RAM 203 is the main memory of the CPU 202 and is used as a temporary storage area for loading various control programs stored in the work area, ROM 204 and storage 205 . The ROM 204 stores control programs executable by the CPU 202 . The storage 205 stores print data, image data, various programs, an address book (FIG. 16), and various setting information.

尚、実施形態1に係る画像形成装置101では、1つのCPU202が1つのメモリ(RAM203)を用いて後述するフローチャートに示す各処理を実行するものとするが、他の様態であっても構わない。例えば複数のCPU、RAM、ROM、及びストレージを協働させて後述するフローチャートに示す各処理を実行することもできる。また、ASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)等のハードウェア回路を用いて一部の処理を実行するようにしてもよい。 Note that in the image forming apparatus 101 according to the first embodiment, one CPU 202 uses one memory (RAM 203) to execute each process shown in a flow chart to be described later, but other modes may also be used. . For example, multiple CPUs, RAMs, ROMs, and storages can cooperate to execute each process shown in the flowcharts described later. Also, a part of the processing may be executed using a hardware circuit such as ASIC (Application Specific Integrated Circuit) or FPGA (Field-Programmable Gate Array).

ネットワークI/F206は、ネットワーク105を介して画像形成装置101を外部の装置と通信させるためのインタフェースである。画像形成装置101は、ネットワークI/F206を介して、スキャナ212で読み取った電子データをクラウドサーバ104や、ネットワーク105上の何処かのサーバに送信する。また画像形成装置101は、ネットワークI/F206を介して、クラウドサーバ104や、ネットワーク105上の何処かのサーバで管理されている電子データを受信し、プリントエンジン210で印刷することができる。 A network I/F 206 is an interface for communicating the image forming apparatus 101 with an external apparatus via the network 105 . The image forming apparatus 101 transmits electronic data read by the scanner 212 to the cloud server 104 or some server on the network 105 via the network I/F 206 . Also, the image forming apparatus 101 can receive electronic data managed by the cloud server 104 or some server on the network 105 via the network I/F 206 and print it using the print engine 210 .

操作パネル208は、操作パネルI/F207によって制御された画面を表示し、ユーザが操作パネル208を操作すると、画像形成装置101は操作パネルI/F207を介してユーザ操作に対応したイベントを取得する。プリントコントローラ209は、プリントエンジン210と接続される。印刷すべき画像データはプリントコントローラ209を介してプリントエンジン210に転送される。プリントエンジン210は、プリントコントローラ209を介して制御コマンド及び印刷すべき画像データを受信し、この画像データに基づいた画像をシートに形成する。プリントエンジン210の印刷方式は、電子写真方式であってもよいし、インクジェット方式であってもよい。電子写真方式の場合は、感光体上に静電潜像を形成した後、トナーにより現像し、そのトナー像をシートに転写し、転写されたトナー像を定着することにより画像を形成する。一方、インクジェット方式の場合は、インクを吐出してシートに画像を形成する。 The operation panel 208 displays a screen controlled by the operation panel I/F 207, and when the user operates the operation panel 208, the image forming apparatus 101 acquires an event corresponding to the user's operation via the operation panel I/F 207. . Print controller 209 is connected to print engine 210 . Image data to be printed is transferred to the print engine 210 via the print controller 209 . The print engine 210 receives control commands and image data to be printed via the print controller 209, and forms an image on a sheet based on this image data. The printing method of the print engine 210 may be an electrophotographic method or an inkjet method. In the case of electrophotography, an electrostatic latent image is formed on a photoreceptor, developed with toner, the toner image is transferred to a sheet, and the transferred toner image is fixed to form an image. On the other hand, in the case of the inkjet method, an image is formed on a sheet by ejecting ink.

スキャンコントローラ211は、スキャナ212と接続される。スキャナ212はシート(原稿)上の画像を読み取って画像データを生成する。スキャナ212によって生成された画像データはストレージ205に記憶される。また画像形成装置101は、スキャナ212により生成された画像データを用いてシート上に画像を形成することができる。スキャナ212は、原稿フィーダ(不図示)を有しており、原稿フィーダに載置されたシートを1枚ずつ搬送させながら読み取ることが可能である。 The scan controller 211 is connected with the scanner 212 . A scanner 212 reads an image on a sheet (document) to generate image data. Image data generated by scanner 212 is stored in storage 205 . Further, the image forming apparatus 101 can form an image on a sheet using image data generated by the scanner 212 . The scanner 212 has a document feeder (not shown), and can read sheets placed on the document feeder while conveying them one by one.

ファクスコントローラ213は、公衆回線(不図示)を介して、公衆回線に接続されている他の端末に対して、スキャナ212で読み取った画像を送信するファクス送信機能を実行する。また公衆回線を介して、公衆回線に接続されている他の端末から受信したファクスデータを、プリントエンジン210で印刷するファクス受信プリント機能を実現するためのファクス通信制御を行う。 A facsimile controller 213 performs a facsimile transmission function of transmitting an image read by the scanner 212 to another terminal connected to the public line (not shown). It also performs facsimile communication control for realizing a facsimile reception print function in which facsimile data received from another terminal connected to the public line is printed by the print engine 210 via the public line.

画像処理部214は、スキャナ212でスキャンして得られた画像データのサイズの拡大/縮小、変換処理、FAXを含む外部装置から受信した画像データをプリントエンジン210に変換するための処理、画像のOCR(Optical Character Reader)処理などの画像処理に関する制御を行う。 The image processing unit 214 performs processing for enlarging/reducing the size of image data obtained by scanning with the scanner 212, conversion processing, processing for converting image data received from an external device including facsimile to the print engine 210, and image processing. It controls image processing such as OCR (Optical Character Reader) processing.

図3は、実施形態1に係る情報端末102のハードウェア構成を説明するブロック図である。 FIG. 3 is a block diagram illustrating the hardware configuration of the information terminal 102 according to the first embodiment.

情報端末102は、システムバス301に接続されたCPU302、RAM303、ROM304、ストレージ305、ネットワークI/F306、操作部307、表示部308を含む。CPU302は、情報端末102全体の動作を制御する中央演算装置である。RAM303は揮発性メモリである。ROM304は不揮発性メモリであり、CPU302の起動用プログラムが格納されている。ストレージ305は、RAM303と比較して大容量な記憶装置(例えばハードディスクドライブ:HDD)である。尚、ストレージ305は、ソリッドステートドライブ(SSD)などでもよく、ハードディスクドライブと同等の機能を有する他の記憶装置に置き換えてもよい。 Information terminal 102 includes CPU 302 , RAM 303 , ROM 304 , storage 305 , network I/F 306 , operation unit 307 and display unit 308 connected to system bus 301 . A CPU 302 is a central processing unit that controls the operation of the entire information terminal 102 . RAM 303 is a volatile memory. A ROM 304 is a non-volatile memory and stores a boot program for the CPU 302 . The storage 305 is a large-capacity storage device (for example, hard disk drive: HDD) compared to the RAM 303 . The storage 305 may be a solid state drive (SSD) or the like, or may be replaced with another storage device having functions equivalent to those of a hard disk drive.

CPU302は、電源オン等の起動時、ROM304に格納されている起動用プログラムを実行する。この起動用プログラムは、ストレージ305に格納されている制御用プログラムを読み出し、RAM303上に展開するためのものである。CPU302は起動用プログラムを実行すると、続けてRAM303上に展開した制御用プログラムを実行し、情報端末102の制御を行う。またCPU302は、制御用プログラム実行時に用いるデータもRAM303上に格納して読み書きを行う。ストレージ305上には更に、制御用プログラムの実行時に必要な各種設定を格納することができ、CPU302によって読み書きされる。CPU302は、ネットワークI/F306を介してネットワーク105上の他の機器と通信を行う。また情報端末102は、ユーザが操作部307によって操作/入力/指示を行った内容を受け付けることができる。また情報端末102は、CPU302が制御した内容を表示部308に表示することができる。 The CPU 302 executes a boot program stored in the ROM 304 at the time of power-on or the like. This startup program is for reading the control program stored in the storage 305 and developing it on the RAM 303 . After executing the activation program, the CPU 302 subsequently executes the control program expanded on the RAM 303 to control the information terminal 102 . The CPU 302 also stores data used when executing the control program on the RAM 303 and reads and writes the data. The storage 305 can also store various settings necessary for execution of the control program, which are read and written by the CPU 302 . CPU 302 communicates with other devices on network 105 via network I/F 306 . The information terminal 102 can also receive the contents of the operation/input/instruction performed by the user through the operation unit 307 . The information terminal 102 can also display the content controlled by the CPU 302 on the display unit 308 .

図4は、実施形態1に係る音声制御装置103のコントローラ部400及び音声制御装置103が内蔵しているデバイスのハードウェア構成例を説明するブロック図である。ここで音声制御装置106,107の構成も同じであるため、ここでは音声制御装置103の例で説明する。 FIG. 4 is a block diagram illustrating a hardware configuration example of the controller unit 400 of the voice control device 103 and the devices incorporated in the voice control device 103 according to the first embodiment. Since the configurations of the voice control devices 106 and 107 are also the same, the voice control device 103 will be described here as an example.

コントローラ部400は、CPU402、RAM403、ROM404、ストレージ405、ネットワークI/F406、マイクI/F407、オーディオコントローラ409及び表示コントローラ411を含む。これらはシステムバス401に接続されており、互いに通信可能である。またコントローラ部400に付随するデバイスとして、音声制御デバイスとしてのマイクロフォン408、音声出力デバイスとしてのスピーカ410、通知デバイスとしてのLED412を含む。 Controller unit 400 includes CPU 402 , RAM 403 , ROM 404 , storage 405 , network I/F 406 , microphone I/F 407 , audio controller 409 and display controller 411 . These are connected to the system bus 401 and can communicate with each other. Devices associated with the controller unit 400 include a microphone 408 as an audio control device, a speaker 410 as an audio output device, and an LED 412 as a notification device.

CPU402は、コントローラ部400全体の動作を制御する中央演算装置である。RAM403は揮発性メモリである。ROM404は不揮発性メモリで、CPU402の起動用プログラム、音声制御装置を特定するためのIDであるシリアルNoを格納している。ストレージ405は、RAM403と比較して大容量な記憶デバイス(例えばSDカード)である。ストレージ405にはコントローラ部400が実行する、音声制御装置103の制御用プログラム、音声制御装置103が利用するサービスのサービスURLが格納されている。尚、ストレージ405は、SDカード以外のフラッシュROMなどに置き換えてもよく、SDカードと同等の機能を有する他の記憶デバイスに置き換えてもよい。 A CPU 402 is a central processing unit that controls the operation of the entire controller unit 400 . RAM 403 is a volatile memory. A ROM 404 is a non-volatile memory, and stores a boot program for the CPU 402 and a serial number, which is an ID for identifying the voice control device. The storage 405 is a large-capacity storage device (such as an SD card) compared to the RAM 403 . The storage 405 stores a control program for the voice control device 103 executed by the controller unit 400 and service URLs of services used by the voice control device 103 . The storage 405 may be replaced with a flash ROM or the like other than the SD card, or may be replaced with another storage device having functions equivalent to those of the SD card.

CPU402は電源オン等の起動時、ROM404に格納されている起動用プログラムを実行する。この起動用プログラムは、ストレージ405に格納されている制御用プログラムを読み出し、RAM403に展開するためのものである。CPU402は起動用プログラムを実行すると、続けてRAM403に展開した制御用プログラムを実行し、音声制御装置103の制御を行う。またCPU402は、制御用プログラムの実行時に用いるデータもRAM403に格納して読み書きを行う。ストレージ405には更に、制御用プログラムの実行時に必要な各種設定などを格納することができ、CPU402によって読み書きされる。CPU402は、ネットワークI/F406を介してネットワーク105上の他の機器との通信を行う。ネットワークI/F406は、例えばIEEE802.11規格シリーズに準拠した無線通信方式に従って通信を行うための回路やアンテナを含んでいる。但し、無線通信方式でなくEthernet規格に準拠した有線通信方式であってもよく、無線通信方式に限定するものではない。 The CPU 402 executes a startup program stored in the ROM 404 at startup such as power-on. This startup program is for reading the control program stored in the storage 405 and developing it in the RAM 403 . After executing the activation program, the CPU 402 subsequently executes the control program developed in the RAM 403 to control the voice control device 103 . The CPU 402 also stores data used when executing the control program in the RAM 403 for reading and writing. Further, the storage 405 can store various settings necessary for execution of the control program, which are read and written by the CPU 402 . CPU 402 communicates with other devices on network 105 via network I/F 406 . The network I/F 406 includes, for example, circuits and antennas for performing communication according to the wireless communication system conforming to the IEEE802.11 standard series. However, the wired communication method conforming to the Ethernet standard may be used instead of the wireless communication method, and the communication method is not limited to the wireless communication method.

マイクI/F407はマイクロフォン408に接続され、マイクロフォン408から入力されたユーザが発した音声を、符号化された音声データに変換し、CPU402の指示に応じてRAM403に保持する。マイクロフォン408は、例えば、スマートフォンなどに搭載される小型のMEMSマイクロフォンであるが、ユーザの音声を取得できるものであれば他のデバイスに置き換えてもよい。またマイクロフォン408は、ユーザが発した音声の到来方向を算出できるように、3個以上を所定の位置に配して用いることが好ましい。但し、マイクロフォン408が1個であっても本実施形態は実現でき、3個以上にこだわるものではない。 A microphone I/F 407 is connected to a microphone 408 , converts voice uttered by the user input from the microphone 408 into encoded voice data, and stores the encoded voice data in the RAM 403 according to an instruction from the CPU 402 . The microphone 408 is, for example, a small MEMS microphone mounted on a smart phone or the like, but may be replaced with another device as long as it can acquire the user's voice. Also, it is preferable to use three or more microphones 408 arranged at predetermined positions so that the direction of arrival of the voice uttered by the user can be calculated. However, the present embodiment can be realized even if the number of microphones 408 is one, and the number of microphones 408 is not limited to three or more.

オーディオコントローラ409は、スピーカ410に接続され、CPU402の指示に応じて音声データをアナログ音声信号に変換し、スピーカ410を通じて音声を出力する。スピーカ410は、音声制御装置103が応答していることを表す装置の応答音、及び、音声制御装置103によって合成された音声を再生する。スピーカ410は音声を再生するための汎用のデバイスである。 The audio controller 409 is connected to the speaker 410 , converts audio data into analog audio signals according to instructions from the CPU 402 , and outputs audio through the speaker 410 . The speaker 410 reproduces the device response sound indicating that the voice control device 103 is responding and the voice synthesized by the voice control device 103 . Speaker 410 is a general-purpose device for reproducing sound.

表示コントローラ411はLED412に接続され、CPU402の指示に応じてLED412の点灯を制御する。ここでは、表示コントローラ411は、音声制御装置103が、ユーザの音声を正しく入力していることを示すためのLEDの点灯制御を主に行う。LED412は、例えば、ユーザが可視可能な青色などのLEDである。LED412は汎用のデバイスである。尚、スマートフォンの場合は、LED412の代わりに、文字や絵を表示可能なディスプレイとなる。 The display controller 411 is connected to the LED 412 and controls lighting of the LED 412 according to instructions from the CPU 402 . Here, the display controller 411 mainly performs LED lighting control for indicating that the voice control device 103 is correctly inputting the user's voice. LED 412 is, for example, a user-visible LED such as blue. LED 412 is a general purpose device. In addition, in the case of a smart phone, instead of LED412, it becomes a display which can display a character or a picture.

図5は、実施形態1に係るクラウドサーバ104のハードウェア構成を説明するブロック図である。 FIG. 5 is a block diagram illustrating the hardware configuration of the cloud server 104 according to the first embodiment.

クラウドサーバ104は、システムバス501に接続されたCPU502、RAM503、ROM504、ストレージ505、ネットワークI/F506を含む。CPU502は、クラウドサーバ104全体の動作を制御する中央演算装置である。RAM503は揮発性メモリである。ROM504は不揮発性メモリで、CPU502の起動用プログラムを格納している。ストレージ505は、RAM503と比較して大容量な記憶装置(例えばハードディスクドライブ:HDD)である。尚、ストレージ505はソリッドステートドライブ(SSD)などでもよく、ハードディスクドライブと同等の機能を有する他の記憶装置に置き換えてもよい。CPU502は、ネットワークI/F506を介してネットワーク105上の他の機器との通信を行う。 Cloud server 104 includes CPU 502 , RAM 503 , ROM 504 , storage 505 and network I/F 506 connected to system bus 501 . The CPU 502 is a central processing unit that controls the operation of the cloud server 104 as a whole. RAM 503 is a volatile memory. A ROM 504 is a non-volatile memory and stores a boot program for the CPU 502 . The storage 505 is a large-capacity storage device (for example, hard disk drive: HDD) compared to the RAM 503 . The storage 505 may be a solid state drive (SSD) or the like, or may be replaced with another storage device having functions equivalent to those of a hard disk drive. CPU 502 communicates with other devices on network 105 via network I/F 506 .

尚、デバイス管理サーバ108のハードウェア構成も、このクラウドサーバ104のハードウェア構成と同様であるため、その説明を省略する。 The hardware configuration of the device management server 108 is the same as the hardware configuration of the cloud server 104, so the description thereof will be omitted.

図6は、実施形態1に係る音声制御装置の設定処理の一例を説明するシーケンス図である。 FIG. 6 is a sequence diagram illustrating an example of setting processing of the audio control device according to the first embodiment.

ユーザは、情報端末102のWebブラウザ上でクラウドサーバ104が提供するサービスに対してテナントID「AAA」とパスワード「asdfzxcv」でログインして、情報端末102とクラウドサーバ104の間でログインセッションを確立する。そして、ログインセッションに対応するセッションID「123456」を情報端末102のRAM203に保持した状態で、Webブラウザ上のサービスメニュー一覧(不図示)から音声制御装置の設定を選択することで、音声制御装置の設定シーケンスが開始される。 The user logs in to the service provided by the cloud server 104 on the web browser of the information terminal 102 with the tenant ID "AAA" and the password "asdfzxcv" to establish a login session between the information terminal 102 and the cloud server 104. do. Then, while the session ID "123456" corresponding to the login session is held in the RAM 203 of the information terminal 102, by selecting the setting of the voice control device from a service menu list (not shown) on the Web browser, the voice control device setting sequence is started.

まずS601で情報端末102のCPU302は、ネットワークI/F306を介してクラウドサーバ104に、セッションIDを付与したデバイス一覧の取得要求を送信する。 First, in S<b>601 , the CPU 302 of the information terminal 102 transmits a device list acquisition request to which a session ID is assigned to the cloud server 104 via the network I/F 306 .

これによりS602でクラウドサーバ104のCPU502は、ストレージ505の音声制御装置の設定テーブル(図14)から、S601で通知されたセッションID「123456」に対応したテナントID「AAA」に紐づいたサービス連携デバイスの情報を取得する。 As a result, in S602, the CPU 502 of the cloud server 104 retrieves the service linkage linked to the tenant ID "AAA" corresponding to the session ID "123456" notified in S601 from the voice control device setting table (FIG. 14) of the storage 505. Get device information.

図14は、実施形態に係る音声制御装置の設定テーブルの一例を示す図である。 14 is a diagram illustrating an example of a setting table of the voice control device according to the embodiment; FIG.

図14では、テナントIDとデバイスIDとが紐づけて登録されており、更に各デバイスのセキュリティレベルも登録されている。ここではS602で、テナントID「AAA」に関連付けられたサービス連携デバイスのデバイスID「スマートスピーカA」、「スマートスピーカB」、「スマートスピーカC」を取得する。 In FIG. 14, tenant IDs and device IDs are linked and registered, and the security level of each device is also registered. Here, in S602, the device IDs "smart speaker A", "smart speaker B", and "smart speaker C" of the service cooperation devices associated with the tenant ID "AAA" are acquired.

次にS603でクラウドサーバ104のCPU502は、S602で取得したデバイスID「スマートスピーカA」「スマートスピーカB」「スマートスピーカC」のデバイス選択画面701(図7)を生成し、情報端末102にHTML形式のデータで送信する。これによりS604で情報端末102のCPU302は、表示部308にS603で受信したデバイス選択画面701(図7)を表示する。 Next, in step S603, the CPU 502 of the cloud server 104 generates the device selection screen 701 (FIG. 7) of the device IDs “smart speaker A”, “smart speaker B”, and “smart speaker C” acquired in step S602. Send in data format. As a result, in S604, the CPU 302 of the information terminal 102 displays the device selection screen 701 (FIG. 7) received in S603 on the display unit 308. FIG.

図7は、実施形態に係る情報端末102で表示されるデバイス設定画面の遷移を説明する図である。 FIG. 7 is a diagram illustrating transition of device setting screens displayed on the information terminal 102 according to the embodiment.

図7において、デバイス選択画面701は、テナントID「AAA」に対応するデバイス情報を表示し、デバイスID「スマートスピーカA」「スマートスピーカB」「スマートスピーカC」のいずれかを選択できる。 In FIG. 7, the device selection screen 701 displays device information corresponding to the tenant ID "AAA", and one of the device IDs "smart speaker A", "smart speaker B", and "smart speaker C" can be selected.

そしてS605でユーザは、情報端末102の操作部307を介して、Webブラウザ上のデバイス選択画面701にあるデバイス選択ボタン702の「スマートスピーカA」を押下する。これによりS606で情報端末102のCPU302は、ネットワークI/F306を介してクラウドサーバ104に、セッションID「123456」とデバイスID「スマートスピーカA」を付与したデバイスの設定画面の取得要求を送信する。そしてS607でクラウドサーバ104のCPU502は、ストレージ505の音声制御デバイス設定テーブル(図14)からテナントID「AAA」、デバイスID「スマートスピーカA」に対応した設定情報を取得する。そしてS608でクラウドサーバ104のCPU502は、S607で取得したデバイスID「スマートスピーカA」の設定情報に対応したデバイス設定画面704(図7)を生成し、情報端末102にHTML形式のデータで送信する。これによりS609で情報端末102のCPU302は、表示部308にS608で受信したデバイス設定画面704を表示する。このデバイス設定画面704では、デバイスの名称とセキュリティレベルを設定することができる。図7では、デバイス設定画面704のデバイス名称705には「スマートスピーカA」が設定されている。そしてセキュリティレベルはリストボックス706から設定できるようになっている。 In step S<b>605 , the user presses “smart speaker A” of the device selection button 702 on the device selection screen 701 on the web browser via the operation unit 307 of the information terminal 102 . Accordingly, in S<b>606 , the CPU 302 of the information terminal 102 transmits to the cloud server 104 via the network I/F 306 a request to acquire the setting screen of the device assigned the session ID “123456” and the device ID “smart speaker A”. Then, in S607, the CPU 502 of the cloud server 104 acquires setting information corresponding to the tenant ID "AAA" and the device ID "smart speaker A" from the audio control device setting table (FIG. 14) of the storage 505. In step S608, the CPU 502 of the cloud server 104 generates the device setting screen 704 (FIG. 7) corresponding to the setting information of the device ID "smart speaker A" acquired in step S607, and transmits the data to the information terminal 102 in HTML format. . As a result, the CPU 302 of the information terminal 102 displays the device setting screen 704 received in S608 on the display unit 308 in S609. The device name and security level can be set on this device setting screen 704 . In FIG. 7, “smart speaker A” is set as the device name 705 on the device setting screen 704 . A security level can be set from a list box 706 .

そしてS610でユーザは、情報端末102の操作部307により、Webブラウザ上のデバイス設定画面704のセキュリティレベルのリストボックス706から「1」を選択した後、設定ボタン707を押下する。これによりS611で情報端末102のCPU302は、ネットワークI/F306を介してクラウドサーバ104に、セッションID「123456」、デバイスID「スマートスピーカA」を付与したデバイス設定情報を通知する。これによりS612でクラウドサーバ104のCPU502は、ストレージ505の音声制御デバイス設定テーブル(図14)に、S611で通知された設定情報とテナントID「AAA」とを紐づけて保存する。 In step S<b>610 , the user selects “1” from the security level list box 706 on the device setting screen 704 on the web browser using the operation unit 307 of the information terminal 102 , and then presses the setting button 707 . Accordingly, in S<b>611 , the CPU 302 of the information terminal 102 notifies the cloud server 104 via the network I/F 306 of device setting information to which the session ID “123456” and the device ID “smart speaker A” are assigned. As a result, in S612, the CPU 502 of the cloud server 104 associates and saves the setting information notified in S611 with the tenant ID "AAA" in the audio control device setting table (FIG. 14) of the storage 505.

次にS613でクラウドサーバ104のCPU502は、図7のデバイス設定完了画面709を生成し、情報端末102にHTML形式のデータで送信する。これによりS614で情報端末102のCPU302は、表示部308にS613で受信したデバイス設定完了画面709を表示する。デバイス設定完了画面709は、スマートスピーカAの設定が完了したことを示すメッセージを表示している。ここで閉じるボタン710が押下されるとデバイス選択画面701に戻る。尚、デバイス設定画面704で戻るボタン708が押下されたときもデバイス選択画面701に戻る。 Next, in S613, the CPU 502 of the cloud server 104 generates the device setting completion screen 709 of FIG. 7 and transmits it to the information terminal 102 as data in HTML format. As a result, the CPU 302 of the information terminal 102 displays the device setting completion screen 709 received in S613 on the display unit 308 in S614. A device setting completion screen 709 displays a message indicating that the setting of smart speaker A has been completed. When the close button 710 is pressed here, the screen returns to the device selection screen 701 . Note that when the return button 708 is pressed on the device setting screen 704, the device selection screen 701 also returns.

この処理によりユーザは、サービス連携デバイスを選択して、そのデバイスの名称やセキュリティレベルを設定することができる。 Through this process, the user can select a service-collaborating device and set the name and security level of the device.

図8は、本発明の実施形態に係るFAX受信メッセージ通知の一例を説明するシーケンス図である。本実施形態では、画像形成装置101のストレージ205にあるアドレス帳(図16)に、FAX番号「1111」と送信元の名称である「A」が対応付けられたアドレス情報が保存されている。そしてFAX番号「1111」からFAXを受信すると図8に示すFAX受信メッセージの通知シーケンスが開始される。 FIG. 8 is a sequence diagram illustrating an example of a FAX reception message notification according to the embodiment of the present invention. In this embodiment, the address book (FIG. 16) in the storage 205 of the image forming apparatus 101 stores address information in which the FAX number "1111" and the sender's name "A" are associated with each other. Then, when a FAX is received from the FAX number "1111", the notification sequence of the received FAX message shown in FIG. 8 is started.

S801で画像形成装置101のCPU202は、FAX受信のイベントの発生を検知すると受信したFAX番号「1111」に基づいて、ストレージ205のアドレス帳(図16)から取得した送信元「A」を取得する。またストレージ205に保存されているID「AAA」、パスワード「asdfzxcv」、デバイスID「MFP1」を取得する。そして、これらに基づいてFAX受信イベントメッセージ(図9)を生成し、ネットワーク105を介してストレージ205に保存されているクラウドサーバ104のサービスURL「http://service1.com」に送信する。 In step S801, the CPU 202 of the image forming apparatus 101 acquires the transmission source "A" from the address book (FIG. 16) of the storage 205 based on the received FAX number "1111" upon detecting the occurrence of the FAX reception event. . Also, the ID “AAA”, password “asdfzxcv”, and device ID “MFP1” stored in the storage 205 are obtained. Based on these, a FAX reception event message (FIG. 9) is generated and transmitted to the service URL "http://service1.com" of the cloud server 104 stored in the storage 205 via the network 105 .

図9は、FAX受信イベントメッセージの一例を示す図である。 FIG. 9 is a diagram showing an example of a FAX reception event message.

図9では、ID「AAA」、パスワード「asdfzxcv」、デバイスID「MFP1」の画像形成装置101が「A」さんからFAXを受信したことを示している。 FIG. 9 shows that the image forming apparatus 101 with ID "AAA", password "asdfzxcv", and device ID "MFP1" has received a FAX from Mr. "A".

ここで、受信したFAX番号がストレージ205のアドレス帳(図16)に存在しない場合、後述するFAX画像OCR処理(図18)を実行して、受信したFAX画像(図17)から送信元に該当する文字列を抽出し、抽出した文字列「A」を送信元としても良い。或いは、送信元に該当する文字列が抽出できなかった場合は、送信元のFAX番号「1111」をパラメータとしてクラウドサーバ104に通知しても良い。 Here, if the received FAX number does not exist in the address book (FIG. 16) of the storage 205, FAX image OCR processing (FIG. 18), which will be described later, is executed, and the received FAX image (FIG. 17) corresponds to the sender. It is also possible to extract the character string "A" and set the extracted character string "A" as the transmission source. Alternatively, if the character string corresponding to the sender cannot be extracted, the FAX number "1111" of the sender may be notified to the cloud server 104 as a parameter.

S802でクラウドサーバ104のCPU502は、S801で受信したFAX受信イベントのメッセージから、テナントID「AAA」、パスワード「asdfzxcv」がクラウドサーバ104のストレージ505に保存されているかどうか確認する。即ち、画像形成装置101がクラウドサーバ104が提供するサービスに登録されているかどうか判定する。そして保存されていると、即ち、認証に成功すると、正しいユーザ情報であると判定する。 In S802, the CPU 502 of the cloud server 104 checks whether the tenant ID "AAA" and password "asdfzxcv" are stored in the storage 505 of the cloud server 104 based on the FAX reception event message received in S801. That is, it is determined whether the image forming apparatus 101 is registered with the service provided by the cloud server 104 . If it is saved, that is, if the authentication is successful, it is determined that the user information is correct.

S801で送信されたFAX受信イベントメッセージのユーザ情報が正しいユーザ情報と判定されると、RAM503の「イベントメッセージ」にFAX受信イベントメッセージを保存する。そしてS803でクラウドサーバ104のCPU502は、このサービスに連携している音声制御装置103,106,107を特定する。 If the user information of the FAX reception event message transmitted in S801 is determined to be correct user information, the FAX reception event message is stored in the "event message" of the RAM 503. FIG. Then, in S803, the CPU 502 of the cloud server 104 identifies the voice control devices 103, 106, and 107 cooperating with this service.

次にS804でクラウドサーバ104のCPU502は、後述するイベントデータセキュリティレベル取得処理(図10)を実行し、S801で送信されたFAX受信イベントメッセージのイベントデータのセキュリティレベル「1」を取得する。次にS805でクラウドサーバ104のCPU502は、S804で取得したイベントのセキュリティレベルを最高レベルとした各セキュリティレベルのメッセージを生成する。ここではイベントデータセキュリティレベルが「1」であるため、メッセージセキュリティレベル「1」をRAM503に保存して、後述のメッセージ生成処理(図11)を実行する。こうして生成されたメッセージ「AさんからFAXを受信しました」をRAM503の「セキュリティレベル1メッセージ」に保存する。またメッセージセキュリティレベル「2」をRAM503に保存し、メッセージ生成処理(図11)を実行して生成したメッセージ「FAXを受信しました」をRAM503上の「セキュリティレベル2メッセージ」に保存する。更に、メッセージセキュリティレベル「3」をRAM503に保存し、メッセージ生成処理(図11)を実行して生成したメッセージ「メッセージを受信しました」をRAM503の「セキュリティレベル3メッセージ」に保存する。 Next, in S804, the CPU 502 of the cloud server 104 executes event data security level acquisition processing (FIG. 10), which will be described later, and acquires the event data security level "1" of the FAX reception event message transmitted in S801. Next, in S805, the CPU 502 of the cloud server 104 generates a message of each security level with the security level of the event acquired in S804 as the highest level. Since the event data security level is "1" here, the message security level "1" is stored in the RAM 503, and the message generation process (FIG. 11) described later is executed. The message "FAX has been received from Mr. A" thus generated is stored in the "security level 1 message" of the RAM 503. FIG. Also, the message security level "2" is stored in the RAM 503, and the message "FAX has been received" generated by executing the message generation process (FIG. 11) is stored in the "security level 2 message" on the RAM 503. Furthermore, the message security level "3" is stored in the RAM 503, and the message "message received" generated by executing the message generation process (FIG. 11) is stored in the "security level 3 message" of the RAM 503.

そしてS806でクラウドサーバ104のCPU502は、音声制御装置103のデバイスセキュリティレベルが「1」であるため、RAM503上の「セキュリティレベル1メッセージ」の「AさんからFAXを受信しました」を、音声制御装置103に送信するメッセージと決定する。そしてS807でクラウドサーバ104のCPU502は、S806で決定したメッセージ「AさんからFAXを受信しました」を音声データ化する。そしてS808でクラウドサーバ104のCPU502は、ネットワーク105を介して音声制御装置103に、S807で生成した音声データ「AさんからFAXを受信しました」を送信する。これによりS809で音声制御装置103のCPU402は、オーディオコントローラ409を介して、スピーカ410からS808で受信した音声データ「AさんからFAXを受信しました」を発声する。 Then, in step S806, the CPU 502 of the cloud server 104, since the device security level of the voice control device 103 is "1", sends the message "Fax from Mr. A" in the "security level 1 message" on the RAM 503 to voice control. A message to be sent to the device 103 is determined. Then, in S807, the CPU 502 of the cloud server 104 converts the message "A FAX has been received from Mr. A" determined in S806 into voice data. Then, in S808, the CPU 502 of the cloud server 104 transmits the voice data "A FAX was received from Mr. A" generated in S807 to the voice control device 103 via the network 105. FIG. As a result, in S809, the CPU 402 of the voice control device 103 utters the voice data "A FAX has been received from Mr. A" received in S808 from the speaker 410 via the audio controller 409. FIG.

このように音声制御装置103のデバイスセキュリティレベルが「1」で、イベントデータのセキュリティレベル「1」の場合は、音声制御装置103は、セキュリティレベルの高い宛先「Aさん」を含み、かつイベントして「FAXを受信」を含む音声データ「AさんからFAXを受信しました」を発声する。 Thus, when the device security level of the voice control device 103 is "1" and the security level of the event data is "1", the voice control device 103 includes the destination "Mr. and utters the audio data ``I received a FAX from Mr. A'' containing ``I received a FAX''.

次にS810でクラウドサーバ104のCPU502は、音声制御装置106のデバイスセキュリティレベルが「2」であるため、RAM503の「セキュリティレベル2メッセージ」の「FAXを受信しました」を、音声制御装置106に送信するメッセージと決定する。そしてS811でクラウドサーバ104のCPU502は、S810で決定したメッセージ「FAXを受信しました」を音声データ化する。次にS812でクラウドサーバ104のCPU502は、ネットワーク105を介して音声制御装置106に、S811で生成した音声データ「FAXを受信しました」を送信する。これによりS813で音声制御装置106のCPUは、オーディオコントローラを介して、S812で受信した音声データ「FAXを受信しました」をスピーカから発声する。 Next, in step S810, the CPU 502 of the cloud server 104 sends the "FAX received" of the "security level 2 message" in the RAM 503 to the voice control device 106 because the device security level of the voice control device 106 is "2". Decide which message to send. Then, in S811, the CPU 502 of the cloud server 104 converts the message "FAX has been received" determined in S810 into voice data. Next, in S812, the CPU 502 of the cloud server 104 transmits the voice data "FAX received" generated in S811 to the voice control device 106 via the network 105. FIG. As a result, in S813, the CPU of the audio control device 106 utters the audio data "FAX received" received in S812 from the speaker via the audio controller.

このように音声制御装置106のデバイスセキュリティレベルが「2」の場合は、セキュリティレベルの高い宛先「Aさん」を含まない「FAXを受信」を含む音声データ「FAXを受信しました」を発声する。 In this way, when the device security level of the voice control device 106 is "2", voice data "Received FAX" including "Received FAX" that does not include the destination "Mr. A" with a high security level is uttered. .

またS814でクラウドサーバ104のCPU502は、音声制御装置107のデバイスセキュリティレベルが「3」であるため、RAM503の「セキュリティレベル3メッセージ」の「お知らせがあります」を、音声制御装置107に送信するメッセージと決定する。そしてS815でクラウドサーバ104のCPU502は、S814で決定したメッセージ「メッセージを受信しました」を音声データ化する。そしてS816でクラウドサーバ104のCPU502は、ネットワーク105を介して音声制御装置107に、S815で生成した音声データ「お知らせがあります」を送信する。これによりS817で音声制御装置107のCPUは、オーディオコントローラを介して、S816で受信した音声データ「お知らせがあります」をスピーカから発声する。 In S814, the CPU 502 of the cloud server 104 sends a message "There is an announcement" of the "security level 3 message" in the RAM 503 to the voice control device 107 because the device security level of the voice control device 107 is "3". and decide. Then, in S815, the CPU 502 of the cloud server 104 converts the message "Message received" determined in S814 into voice data. Then, in S816, the CPU 502 of the cloud server 104 transmits the voice data "I have an announcement" generated in S815 to the voice control device 107 via the network 105. FIG. As a result, in S817, the CPU of the audio control device 107 utters the audio data "I have an announcement" received in S816 from the speaker via the audio controller.

このように音声制御装置107のデバイスセキュリティレベルが「3」の場合は、セキュリティレベルが「1」「2」に対応する宛先「Aさん」と「FAXを受信」を含まない「お知らせがあります」を発声する。 In this way, when the device security level of the voice control device 107 is "3", "I have an announcement" that does not include the destinations "Mr. A" and "Receive FAX" corresponding to the security levels "1" and "2" pronounce.

以上説明した処理により、画像形成装置101がFAXを受信すると、連携している音声制御装置により、その音声制御装置のセキュリティレベルに応じたメッセージを音声で出力して知らせることができる。 According to the processing described above, when the image forming apparatus 101 receives a FAX, the cooperating audio control apparatus can output a message according to the security level of the audio control apparatus by voice.

図18は、実施形態に係る画像形成装置101が実行するFAX画像のOCR処理を説明するフローチャートである。ここでは、FAX画像のOCR処理を実施する前にストレージ205にFAX画像(図17)が保存されており、RAM203に文字列を抽出するためのキーワードが保存されているとする。尚、このフローチャートで示す処理は、CPU202がRAM203に展開したプログラムを実行することにより達成される。この処理は、前述したように、受信したFAX番号が画像形成装置101に登録されていない場合に、受信したFAX画像から送信元の情報を取得する場合に実行される。 FIG. 18 is a flowchart illustrating OCR processing of a FAX image executed by the image forming apparatus 101 according to the embodiment. Here, it is assumed that the FAX image (FIG. 17) is stored in the storage 205 before OCR processing of the FAX image is performed, and the keyword for extracting the character string is stored in the RAM 203 . Note that the processing shown in this flowchart is achieved by the CPU 202 executing the program developed in the RAM 203 . As described above, this processing is executed when the information of the transmission source is acquired from the received FAX image when the received FAX number is not registered in the image forming apparatus 101 .

まずS1801でCPU202は、画像処理部214を制御して、ストレージ205のFAX画像(図17)をPDFファイルに変換する。次にS1802に進みCPU202は、画像処理部214を制御して、S1801で変換したPDFファイルにOCR処理(不図示)を実行する。これによりPDFファイルから文字列と、その文字列が記載されている位置を取得する。文字列の位置の一例として、画像の左上を原点として文字列画像と判定した領域の左上までを主走査方向、副走査方向のPixcel数で表現する方法が挙げられる。 First, in S1801, the CPU 202 controls the image processing unit 214 to convert the FAX image (FIG. 17) in the storage 205 into a PDF file. Next, proceeding to S1802, the CPU 202 controls the image processing unit 214 to execute OCR processing (not shown) on the PDF file converted in S1801. As a result, the character string and the position where the character string is described are obtained from the PDF file. As an example of the position of the character string, there is a method in which the upper left of the image is set as the origin and the upper left of the area determined as the character string image is represented by the number of pixels in the main scanning direction and the sub-scanning direction.

次にS1803に進みCPU202は、S1802で取得した文字列から、キーワードに該当する文字列を取得する。この文字列を取得する手段の一例として、テンプレートとなる画像ファイルをストレージ205に保存しておき、受信したFAX画像がテンプレートと一致する画像ファイルである場合に、ストレージ205に保存されているテンプレートに対応するキーワードの位置を取得する。そして、そのキーワードの位置の近傍にある文字列を、該当する文字列とする方法が挙げられるが、これは本発明の技術に関する本質的な内容ではないため、詳細な説明は割愛する。 Next, proceeding to S1803, the CPU 202 acquires a character string corresponding to the keyword from the character strings acquired in S1802. As an example of means for obtaining this character string, an image file that is a template is stored in the storage 205, and if the received FAX image is an image file that matches the template, the template stored in the storage 205 Get the position of the corresponding keyword. Then, there is a method of setting a character string near the position of the keyword as the relevant character string, but since this is not the essential content of the technology of the present invention, detailed explanation is omitted.

図10は、実施形態1に係るクラウドサーバ104が、図8のS804で実行するイベントデータセキュリティレベルの取得処理を説明するフローチャートである。実施形態では、メッセージテンプレートの「<」「>」で囲まれた領域をメッセージ属性部とする。尚、このフローチャートで示す処理は、CPU502がRAM503に展開したプログラムを実行することにより達成される。 FIG. 10 is a flowchart for explaining event data security level acquisition processing executed in S804 of FIG. 8 by the cloud server 104 according to the first embodiment. In the embodiment, the area surrounded by "<" and ">" of the message template is the message attribute portion. Note that the processing shown in this flowchart is achieved by the CPU 502 executing a program developed in the RAM 503 .

S1001でCPU502は、RAM503に記憶されている、例えば図9の「イベントメッセージ」の「<Event>」と「</Event>」に囲まれた文字列であるイベントを取得する。そして、そのイベントに対応するセキュリティレベルをイベントセクションテーブル(図13(A))から取得する。ここではイベントが「FaxReceive」であるため、図13(A)から、それに対応したセキュリティレベル「2」を取得してイベントセキュリティレベルとする。 In S1001, the CPU 502 acquires an event stored in the RAM 503, which is a character string between "<Event>" and "</Event>" in the "event message" in FIG. 9, for example. Then, the security level corresponding to that event is acquired from the event section table (FIG. 13(A)). Since the event is "FaxReceive" here, the corresponding security level "2" is acquired from FIG. 13A and set as the event security level.

次にS1002に進みCPU502は、図9の「イベントメッセージ」の「<Param>」と「</Param>」に囲まれた文字列であるパラメータ部から「<」「>」で囲まれた領域であるパラメータ属性部(ここでは「From」)を取得する。そして図13(B)から、このパラメータ属性部に対応したセキュリティレベルの最大値を取得してパラメータセキュリティレベルとする。例えば図9のFAX受信イベントメッセージの場合、パラメータ「From」に対応したセキュリティレベルは、パラメータセクションテーブル(図13(B))に「1」が存在するため、パラメータセキュリティレベルは「1」となる。ここで、パラメータ部の中にパラメータ属性部が複数存在する場合、各パラメータ属性部それぞれのパラメータに対応したセキュリティレベルをパラメータセクションテーブル(図13(B))から取得し、その中で最も高いセキュリティレベルをパラメータセキュリティレベルとする。 Next, proceeding to step S1002, the CPU 502 extracts the area enclosed by "<" and ">" from the parameter portion, which is a character string enclosed by "<Param>" and "</Param>" of the "event message" in FIG. is acquired (here, "From"). Then, from FIG. 13B, the maximum value of the security level corresponding to this parameter attribute portion is obtained and set as the parameter security level. For example, in the case of the FAX reception event message in FIG. 9, the security level corresponding to the parameter "From" is "1" because "1" exists in the parameter section table (FIG. 13B). . Here, if there are a plurality of parameter attribute parts in the parameter part, the security level corresponding to each parameter of each parameter attribute part is obtained from the parameter section table (FIG. 13B), and the highest security level among them is obtained. Let the level be the parameter security level.

そしてS1003に進みCPU502は、S1001で取得したイベントセキュリティレベルと、S1002で取得したパラメータセキュリティレベルとを比較し、高い方を、そのイベントデータのセキュリティレベルとする。例えば図9のFAX受信イベントメッセージの場合、イベントセキュリティレベルは「2」、パラメータ「From」に対応したセキュリティレベルは「1」であるため、イベントデータセキュリティレベルは「1」となる。こうしてクラウドサーバ104は、発生したイベントに対応するセキュリティレベルを設定することができる。 Then, proceeding to S1003, the CPU 502 compares the event security level acquired in S1001 and the parameter security level acquired in S1002, and sets the higher one as the security level of the event data. For example, in the case of the FAX reception event message in FIG. 9, the event data security level is "1" because the event security level is "2" and the security level corresponding to the parameter "From" is "1". The cloud server 104 can thus set the security level corresponding to the event that has occurred.

図11は、実施形態に係るクラウドサーバ104が実行するメッセージ生成処理を説明するフローチャートである。実施形態では、セクションデータ中の「$」で囲まれた領域を変数領域、メッセージテンプレートの「<」「>」で囲まれた領域をメッセージ属性部とする。尚、このフローチャートで示す処理は、CPU502がRAM503に展開したプログラムを実行することにより達成される。 FIG. 11 is a flowchart illustrating message generation processing executed by the cloud server 104 according to the embodiment. In the embodiment, the area surrounded by "$" in the section data is the variable area, and the area surrounded by "<" and ">" in the message template is the message attribute part. Note that the processing shown in this flowchart is achieved by the CPU 502 executing a program developed in the RAM 503 .

S1101でCPU502は、RAM503から「イベントメッセージ」を取得する。次にS1102に進みCPU502は、後述する図12のセクションデータリスト取得処理を実行し、セクションデータリストを取得する。例えばRAM503上の「イベントセキュリティレベル」が「1」、「イベントメッセージ」が図9のFAX受信イベントメッセージだった場合、セクションリストは{「Event:FAXを受信しました」、「From:$From$さんから」}となる。 In S<b>1101 , the CPU 502 acquires an “event message” from the RAM 503 . Next, in step S1102, the CPU 502 executes section data list acquisition processing in FIG. 12, which will be described later, to acquire a section data list. For example, if the "event security level" on the RAM 503 is "1" and the "event message" is the FAX reception event message in FIG. From Mr.”}.

次にS1103に進みCPU502は、セクションデータの変数領域をRAM503の「イベントメッセージ」に格納されている対応したパラメータの値を変換する。ここでは例えばセクションデータ「From:$From$さんから」は「From:Aさんから」と変換される。次にS1104に進みCPU502は、RAM503の「イベントメッセージ」の「<Event>」と「</Event>」に囲まれた文字列であるイベントに対応したメッセージテンプレートをストレージ505から取得する。例えばイベントが「FaxRecieve」の場合、FAX受信メッセージテンプレート「<From><Event>」を取得する。またイベントが「Alert」の場合、アラートメッセージテンプレート「<DeviceID><Cause><Event>」を取得する。 Next, proceeding to S1103, the CPU 502 converts the variable area of the section data into the corresponding parameter value stored in the “event message” of the RAM 503. FIG. Here, for example, the section data "From: From $From$" is converted to "From: From Mr. A". Next, proceeding to S1104, the CPU 502 acquires from the storage 505 a message template corresponding to the event, which is a character string between "<Event>" and "</Event>" in the "event message" of the RAM 503. FIG. For example, if the event is "FaxReceive", the received fax message template "<From><Event>" is acquired. If the event is "Alert", the alert message template "<DeviceID><Cause><Event>" is acquired.

次にS1105に進みCPU502は、S1104で取得したメッセージテンプレートのパラメータを、S1103で変換したセクションに書き換える。「セクションデータリスト」{「Event:FAXを受信しました」、「From:Aさんから」}をFAX受信メッセージテンプレート「<From><Event>」に置き換える場合、「<From>」を「Aさんから」に変換し、「<Event>」は「FAXを受信しました」に変換する。こうして、メッセージ「AさんからFAXを受信しました」を生成する。また、セクションデータ内のセクションが「NULL」の場合は、属性部は空文字に変換する。例えばセクションリストが{「Event:FAXを受信しました」}の場合、メッセージテンプレート「<From><Event>」の「<From>」を空文字に変換する。これにより、メッセージ「FAXを受信しました」を生成する。また、セクションリストにセクションデータが存在しない場合は、汎用メッセージである「お知らせがあります」を生成する。更に、セクションデータ内に対応する属性が無い場合は、属性部は空文字に変換する。例えばセクションデータが「Event:FAXを受信しました」のみの場合、FAX受信メッセージテンプレート「<From><Event>」の「<From>」を空文字に変換するため、メッセージ「FAXを受信しました」を生成する。 Next, proceeding to S1105, the CPU 502 rewrites the parameters of the message template acquired in S1104 with the section converted in S1103. When replacing "Section data list" {"Event: Fax received", "From: Mr. A"} with the FAX reception message template "<From><Event>", replace "<From>" with "Mr. A "From" is converted to "<Event>" is converted to "FAX has been received". In this way, the message "A FAX has been received from Mr. A" is generated. Also, if the section in the section data is "NULL", the attribute part is converted to a null character. For example, if the section list is {“Event: FAX has been received”}, “<From>” in the message template “<From><Event>” is converted to an empty character. This generates the message "FAX received". Also, if there is no section data in the section list, a general-purpose message "I have an announcement" is generated. Furthermore, if there is no corresponding attribute in the section data, the attribute part is converted to a null character. For example, if the section data is only "Event: Received a FAX", the message "Received a FAX" is converted to an empty string in the "<From>" of the received FAX message template "<From><Event>". to generate

図12は、実施形態に係るクラウドサーバ104が実行する、図11のS1102のセクションデータリストの取得処理を説明するフローチャートである。 FIG. 12 is a flowchart illustrating the section data list acquisition process in S1102 of FIG. 11, which is executed by the cloud server 104 according to the embodiment.

S1201でCPU502は、RAM503の「イベントメッセージ」の「<Event>」と「</Event>」に囲まれた文字列である「イベント」をキーとする。そしてこのキー(図9の例では「FaxReceive」))に対応する「セクション」と「セキュリティレベル」を図13(A)のイベントセクションテーブルから取得してRAM503に保存する。 In step S<b>1201 , the CPU 502 uses “event”, which is a character string enclosed by “<Event>” and “</Event>” of “event message” in the RAM 503 , as a key. Then, the “section” and “security level” corresponding to this key (“FaxReceive” in the example of FIG. 9) are acquired from the event section table of FIG.

次にS1202に進みCPU502は、図15を参照して後述するセクション取得処理を実行し、取得したセクションが空文字でない場合、「属性名」と「セクション」から成る「セクションデータ」をRAM503のイベントセクションに保存する。例えばFAX受信イベントメッセージ例(図9)の場合、イベント「FaxReceive」を「属性名」とし、セクション取得処理(図15)で取得したセクション「FAXを受信しました」を「セクション」とする。 Next, in step S1202, the CPU 502 executes section acquisition processing, which will be described later with reference to FIG. Save to For example, in the case of the FAX reception event message example (FIG. 9), the event "FaxReceive" is set as the "attribute name", and the section "FAX received" obtained in the section obtaining process (FIG. 15) is set as the "section".

次にS1203に進みCPU502は、RAM503の「イベントメッセージ」の「<Param>」と「</Param>」に囲まれた文字列であるパラメータ部から「<」「>」で囲まれた領域であるパラメータ属性部を取得する。そして「パラメータ属性部」をキーとして、「セクション」と「セキュリティレベル」のサブテーブル「セクションセキュリティテーブル」を、図13(B)のパラメータセクションテーブルから取得してRAM503に保存する。 Next, proceeding to step S1203, the CPU 502 extracts from the parameter part, which is a character string between "<Param>" and "</Param>", of the "event message" in the RAM 503, in the area surrounded by "<" and ">". Get a parameter attribute part. Then, using the “parameter attribute part” as a key, the sub-table “section security table” of “section” and “security level” is acquired from the parameter section table of FIG.

S1204でCPU502は、図15のセクション取得処理を実行して取得したセクションが空文字でない場合、「属性名」と「セクション」から成る「セクションデータ」をRAM503のパラメータセクションリストに保存する。例えば「メッセージセキュリティレベル」が「1」、パラメータ「From」の場合は「From」を「属性名」とし、セクション取得処理で取得したセクション「$From$さんから」を「セクション」とする。ここで、パラメータ属性部内にパラメータが複数存在する場合、それぞれのパラメータに対してS1203とS1204を実行する。 In S1204, if the section obtained by executing the section obtaining process in FIG. For example, when the "message security level" is "1" and the parameter is "From", "From" is set as the "attribute name", and the section "from $From$" obtained by the section obtaining process is set as the "section". Here, if there are multiple parameters in the parameter attribute section, S1203 and S1204 are executed for each parameter.

次にS1205に進みCPU502は、S1201で取得したイベントセクションと、S1202で取得したパラメータセクションをリスト化し、RAM503の「セクションリスト」に保存する。例えばRAM503上の「イベントセキュリティレベル」が「1」、「イベントメッセージ」が図9のFAX受信イベントメッセージの場合、セクションリストは{「Event:FAXを受信しました」、「From:$From$さんから」}となる。 Next, proceeding to S1205, the CPU 502 lists the event section acquired in S1201 and the parameter section acquired in S1202, and stores the list in the “section list” of the RAM 503. FIG. For example, if the "event security level" on the RAM 503 is "1" and the "event message" is the FAX reception event message in FIG. from "}.

図15は、実施形態1に係るクラウドサーバ104が実行するS1202のイベントセクションの取得処理を説明するフローチャートである。 FIG. 15 is a flowchart illustrating the event section acquisition processing in S1202 executed by the cloud server 104 according to the first embodiment.

S1501でCPU502は、RAM503の「イベントセキュリティレベル」と一致するセキュリティレベルが、RAM503の「セクションセキュリティテーブル」に存在するか判断する。ここでRAM503の「イベントセキュリティレベル」と一致するセキュリティレベルが存在すると判定するとS1502に進み、CPU502はRAM503の「セクションセキュリティテーブル」からRAM503の「イベントセキュリティレベル」に対応する「セクション」を取得してRAM503の「セクション」に保存して、この処理を終了する。 In S<b>1501 , the CPU 502 determines whether a security level matching the “event security level” of the RAM 503 exists in the “section security table” of the RAM 503 . If it is determined that there is a security level that matches the "event security level" of the RAM 503, the CPU 502 advances to S1502, and the CPU 502 acquires the "section" corresponding to the "event security level" of the RAM 503 from the "section security table" of the RAM 503. It is saved in the "section" of RAM 503, and this process ends.

一方、S1501でCPU502は、RAM503の「イベントセキュリティレベル」と一致するセキュリティレベルが存在しないと判定した場合はS1503に進み、CPU502は、メッセージセキュリティレベルよりも低いセキュリティレベルの項目が存在するかどうかを判定する。ここでメッセージセキュリティレベルよりも低いセキュリティレベルの項目が存在すると判定した場合はS1504に進む。S1504でCPU502は、RAM503の「セクションセキュリティテーブル」から、RAM503の「イベントセキュリティレベル」よりも低いセキュリティレベルの項目の中からセキュリティレベルが最も高い項目に対応する「セクション」を取得する。そして、それをRAM503の「セクション」に保存して、この処理を終了する。一方、S1503でメッセージセキュリティレベルよりも低いセキュリティレベルの項目が存在しないと判定するとS1505に進み、CPU502は、RAM503の「セクション」に「NULL」を保存して、この処理を終了する。 On the other hand, if the CPU 502 determines in S1501 that there is no security level matching the "event security level" of the RAM 503, the process advances to S1503, where the CPU 502 checks whether an item with a security level lower than the message security level exists. judge. If it is determined here that there is an item with a security level lower than the message security level, the process advances to S1504. In S<b>1504 , the CPU 502 acquires the “section” corresponding to the item with the highest security level among items with security levels lower than the “event security level” of the RAM 503 from the “section security table” of the RAM 503 . Then, it is saved in the "section" of RAM 503, and this process ends. On the other hand, if it is determined in S1503 that there is no item with a security level lower than the message security level, the CPU 502 advances to S1505, saves "NULL" in the "section" of the RAM 503, and terminates this process.

尚、上述の実施形態では、音声制御装置にメッセージを送信する方法として、FAX受信メッセージの通知シーケンスを示しているが、本発明はこれに限らない。またメッセージのセキュリティレベルの判定手段として、イベントメッセージ内の属性を解析する方法を説明したが、本発明はこれに限らない。例えば、通知メッセージを自然言語処理し、セキュリティリスクの高いワードが発話内容に含まれている場合、そのメッセージセキュリティレベルが高レベルであると判定しても良い。 In the above-described embodiment, as a method of transmitting a message to the voice control device, a notification sequence of a received FAX message is shown, but the present invention is not limited to this. Moreover, although the method of analyzing the attributes in the event message has been described as means for determining the security level of the message, the present invention is not limited to this. For example, natural language processing may be performed on the notification message, and if a word with a high security risk is included in the utterance content, it may be determined that the message security level is high.

以上説明したように実施形態1によれば、デバイスセキュリティレベルとメッセージセキュリティレベルとを用いて、音声制御装置に送信するメッセージを切り替えることで、音声制御装置が発話することによる情報漏洩のリスクを低減させることが可能となる。 As described above, according to the first embodiment, the device security level and the message security level are used to switch the message to be sent to the voice control device, thereby reducing the risk of information leakage caused by the voice control device speaking. It is possible to

また他の実施形態として、サービスを利用するユーザにセキュリティレベルを設け、デバイスのセキュリティレベルとユーザのセキュアマイコン組み合わせで発話内容を変更するようにしても良い。 As another embodiment, security levels may be set for users who use the service, and the utterance content may be changed according to the combination of the security level of the device and the user's secure microcomputer.

[実施形態2]
図21は、本発明の実施形態2に係る情報処理システム構成の一例を示す図である。尚、前述の実施形態1と同じ構成は、同じ参照番号を付してその説明を省略する。
[Embodiment 2]
FIG. 21 is a diagram showing an example of an information processing system configuration according to Embodiment 2 of the present invention. The same reference numerals are assigned to the same configurations as in the first embodiment described above, and the description thereof will be omitted.

この情報処理システムは、例えば、画像形成装置101、情報端末102、音声制御装置103,106,107、クラウドサーバ104、ネットワーク105を含んでいる。画像形成装置101、情報端末102、音声制御装置103,106,107、クラウドサーバ104はネットワーク105を介して互いに通信可能である。尚、画像形成装置101、情報端末102は単一接続ではなく複数接続された構成であってもよく、音声制御装置103,106,107は、2つ以下が接続された構成でも、2つ以上接続された構成であってもよい。 This information processing system includes, for example, an image forming apparatus 101, an information terminal 102, audio control apparatuses 103, 106, and 107, a cloud server 104, and a network 105. FIG. Image forming apparatus 101 , information terminal 102 , audio control apparatuses 103 , 106 and 107 , and cloud server 104 can communicate with each other via network 105 . Note that the image forming apparatus 101 and the information terminal 102 may have a configuration in which a plurality of devices are connected instead of a single connection. It may be a connected configuration.

デバイス管理サーバ108は、1つ以上のサーバにより構成され、音声制御装置103、106の各種設定値の値、ネットワーク接続環境、設置場所情報を管理し、クラウドサーバ104からの要求に応じて、管理している情報を返送する機能を有する。 The device management server 108 is composed of one or more servers, manages various setting values of the audio control devices 103 and 106, the network connection environment, and installation location information, and manages them in response to requests from the cloud server 104. It has a function to return the information

デバイス管理サーバ108と音声制御装置106は、ルーター2100を介してネットワーク105に接続されている。ルーター2100とネットワーク105の間にはファイヤーウォール等のセキュリティ障壁を設け、社内外のアクセス制御を行うのが一般的である。更に、音声制御装置103と画像形成装置101は、ルーター2101を介してルーター2100に接続されており、更に、このルーター2100を介してネットワーク105に接続されている。 Device management server 108 and voice control device 106 are connected to network 105 via router 2100 . Generally, a security barrier such as a firewall is provided between the router 2100 and the network 105 to control access inside and outside the company. Further, the audio control device 103 and the image forming device 101 are connected to the router 2100 via the router 2101 and further connected to the network 105 via this router 2100 .

実施形態2では、クラウドサービスと連携するIoTデバイスを画像形成装置101、音声制御装置103,106,107とし、画像形成装置101のストレージ205にデバイスID「MFP1」が保存されているとする。また音声制御装置103のストレージ405にはデバイスID「スマートスピーカA」が保存されていて、音声制御装置106のストレージ4にはデバイスID「スマートスピーカB」が保存されているとする。また、ユーザは、クラウドサーバ104が提供するサービスをユーザが利用するためのユーザID「AAA」、パスワード「asdfzxcv」を事前に登録している。そしてユーザは、情報端末102のWebブラウザ上で、IoTデバイスとクラウドサービスを連携するための設定である「クラウドサービス連携設定」を行う。そして連携するIoTデバイスである画像形成装置101のデバイスID「MFP1」とIPアドレス「192.168.100.1」、音声制御装置103のデバイスID「スマートスピーカA」とIPアドレス「192.168.100.2」、音声制御装置106のデバイスID「スマートスピーカB」とIPアドレス「192.168.110.3」、音声制御装置107のデバイスID「スマートスピーカC」とIPアドレス「192.168.190.4」をクラウドサーバ104のストレージ505に保存する。更に、画像形成装置101のストレージ205、音声制御装置103,106,107の各ストレージにID「AAA」、パスワード「asdfzxcv」及びクラウドサーバ104が提供するサービスにアクセスするためのURL(Uniformed Respirce Locator)であるサービスURL「http://service1.com」保存しているものとする。 In the second embodiment, the image forming apparatus 101 and the audio control apparatuses 103, 106, and 107 are assumed to be IoT devices that cooperate with the cloud service, and the device ID "MFP1" is stored in the storage 205 of the image forming apparatus 101. FIG. It is also assumed that the device ID “smart speaker A” is stored in the storage 405 of the audio control device 103 and the device ID “smart speaker B” is stored in the storage 4 of the audio control device 106 . Also, the user has previously registered a user ID “AAA” and a password “asdfzxcv” for using the service provided by the cloud server 104 . Then, on the web browser of the information terminal 102, the user performs "cloud service cooperation setting", which is a setting for cooperation between the IoT device and the cloud service. The device ID "MFP1" and IP address "192.168.100.1" of the image forming apparatus 101, which is an IoT device to be linked, and the device ID "smart speaker A" and IP address "192.168. 100.2", the device ID "smart speaker B" and IP address "192.168.110.3" of the audio control device 106, and the device ID "smart speaker C" and IP address "192.168.3" of the audio control device 107. 190.4” in the storage 505 of the cloud server 104. Further, an ID "AAA", a password "asdfzxcv", and a URL (Uniformed Respirce Locator) for accessing services provided by the cloud server 104 are stored in the storage 205 of the image forming apparatus 101 and the storages of the audio control apparatuses 103, 106, and 107. It is assumed that the service URL "http://service1.com" is saved.

実施形態2では、音声制御装置103,106,107のそれぞれの設置場所に関連する情報を用いて、いくつかのカテゴリに分類した「エリア」に対してエリアセキュリティレベルを設定する。1つエリアに対して、0以上の音声制御装置が関連付けられる。 In the second embodiment, using information related to the installation location of each of the audio control devices 103, 106, and 107, area security levels are set for "areas" classified into several categories. Zero or more voice control devices are associated with one area.

実施形態2において、エリアの設定情報はクラウドサーバ104で管理される。エリアには、部門エリア、社内エリア、社外エリアの三つを設定する例で説明する。尚、ユーザは、情報端末102のWebブラウザ上でクラウドサーバ104にログインし、クラウドサーバ104が提供するサービスメニューから、エリアの種類の追加や削除、変更を行うことができる。 In the second embodiment, area setting information is managed by the cloud server 104 . An example of setting three areas, a department area, an in-house area, and an outside area, will be described. Note that the user can log in to the cloud server 104 on the web browser of the information terminal 102 and add, delete, or change the type of area from the service menu provided by the cloud server 104 .

部門エリアは、クラウドサーバ104に接続されている機器からメッセージの内容を実際に確認する部門に所属しているユーザしか入室できないような場所を示すエリアである。この部門エリアに設置されているネットワーク機器は、ルーター2101に接続されることとし、他の部門エリアからは物理的に接続できないように構成されている。 The department area is an area indicating a place where only users belonging to a department who actually check the content of a message from a device connected to the cloud server 104 can enter. The network equipment installed in this department area is connected to the router 2101, and is configured so as not to be physically connectable from other department areas.

社内エリアは、クラウドサーバ104に接続されている機器からメッセージの内容を実際に確認する部門に所属しているユーザ以外が出入りできるが、社内所属のユーザ以外は立ち入らない場所を示すエリアである。 The company area is an area where users other than users who belong to a department that actually checks the content of a message from a device connected to the cloud server 104 can enter, but other users who do not belong to the company can enter.

実施形態2において、社内エリアに接続されているネットワーク機器は、社内用のサブネット192.168.100.0/24, 192.168.110.0/24で接続される。 In the second embodiment, the network devices connected to the office area are connected to the office subnets 192.168.100.0/24 and 192.168.110.0/24.

社外エリアは、社内の接客、商談場所や、サテライトオフィス、公共の場所など、社内所属のユーザも立ち入る場所を示すエリアである。この社外エリアで接続されているネットワーク機器は、サブネット192.168.190.0/24もしくはそれ以外のネットワークから接続される。 The outside area is an area where users belonging to the company can enter, such as places for customer service and business negotiations within the company, satellite offices, and public places. Network devices connected in this non-company area are connected from subnet 192.168.190.0/24 or other networks.

クラウドサーバ104は、音声制御装置103,106,107の接続ルーター、もしく他の管理サービスからネットワーク接続状態情報を取得可能である。 The cloud server 104 can obtain network connection status information from the connected routers of the voice control devices 103, 106, 107, or from other management services.

図19(A)は、実施形態2に係るエリアの区分と、その区分条件を示す図である。 FIG. 19A is a diagram showing area divisions and division conditions according to the second embodiment.

このようにエリア区分を設定することにより、クラウドサーバ104は各エリアと音声制御装置103,106,107を関連付けることができる。 By setting area divisions in this way, cloud server 104 can associate each area with voice control devices 103 , 106 , and 107 .

クラウドサーバ104は、デバイス管理サーバ108より音声制御装置103,106,107のネットワーク接続状態情報を取得する。 The cloud server 104 acquires network connection state information of the audio control devices 103 , 106 and 107 from the device management server 108 .

図19(B)は、実施形態2に係る音声制御装置のネットワーク接続状態を示す図である。尚、図19(B)において、スマートスピーカAは音声制御装置103、スマートスピーカBは音声制御装置106、そしてスマートスピーカCは音声制御装置107にそれぞれ対応している。 FIG. 19B is a diagram showing a network connection state of the voice control device according to the second embodiment. In FIG. 19B, smart speaker A corresponds to the voice control device 103, smart speaker B to the voice control device 106, and smart speaker C to the voice control device 107, respectively.

ユーザは、情報端末102のWebブラウザ上でクラウドサーバ104にログインし、各エリアのエリアセキュリティレベルを設定できる。ここでは図19(C)に示すように、部門エリアのエリアセキュリティレベルを1、社内エリアのエリアセキュリティレベルを2、社外エリアのエリアセキュリティレベルを3に設定する。 A user can log in to the cloud server 104 on the web browser of the information terminal 102 and set the area security level of each area. Here, as shown in FIG. 19C, the area security level of the department area is set to 1, the area security level of the office area is set to 2, and the area security level of the outside area is set to 3.

図22は、実施形態2に係る情報端末102で表示されるエリア毎のセキュリティレベルを設定する画面のイメージ図である。 FIG. 22 is an image diagram of a screen for setting a security level for each area displayed on the information terminal 102 according to the second embodiment.

図22において、エリア選択画面2201は、「部門エリア」「社内エリア」「スマートスピーカC」のいずれかを選択できる。エリア選択画面2201で、「部門エリア」を選択するエリア選択ボタン2202が押下されると、そのエリアのセキュリティレベルを設定する設定画面2204に遷移する。ここではエリアの名称として「部門エリア」2205が表示されている。そしてセキュリティレベルのリストボックス2206からレベル「1」を選択した後、設定ボタン2207が押下されると、エリアセキュリティレベル設定完了画面2209に遷移する。こうして「部門エリア」のセキュリティレベルを設定することができる。他のエリアに関しても同様に、そのセキュリティレベルを設定することができる。尚、この画面2209で閉じるボタン2210が押下されるとエリア選択画面2201に遷移する。また、設定画面2204で戻るボタン2208が押下されると、エリア選択画面2201に遷移する。 In FIG. 22, an area selection screen 2201 allows selection of one of "department area", "company area", and "smart speaker C". When an area selection button 2202 for selecting "department area" is pressed on the area selection screen 2201, the screen transitions to a setting screen 2204 for setting the security level of the area. Here, "department area" 2205 is displayed as the name of the area. After selecting level "1" from the security level list box 2206, when the setting button 2207 is pressed, the area security level setting completion screen 2209 is displayed. Thus, the security level of the "department area" can be set. The security level can be similarly set for other areas. When a close button 2210 is pressed on this screen 2209, the area selection screen 2201 is displayed. Also, when a return button 2208 is pressed on the setting screen 2204 , the area selection screen 2201 is displayed.

図20は、実施形態2におけるFAX受信メッセージを通知するときの処理の流れを説明するシーケンス図である。実施形態2では、画像形成装置101のストレージ205にあるアドレス帳(図16)に、FAX送信番号「1111」と送信元の名称である「A」に対応する情報であるアドレス情報が保存されており、FAX番号「1111」からFAXを受信すると、このFAX受信メッセージの通知シーケンスが開始される。 FIG. 20 is a sequence diagram illustrating the flow of processing when notifying of a received FAX message according to the second embodiment. In the second embodiment, the address book (FIG. 16) in the storage 205 of the image forming apparatus 101 stores the address information corresponding to the FAX transmission number "1111" and the sender's name "A". When a FAX is received from the FAX number "1111", this FAX reception message notification sequence is started.

まずS2001で画像形成装置101のCPU202は、受信したFAX番号「1111」に対応する、ストレージ205のアドレス帳(図16)から送信元「A」を取得し、ストレージ205に保存されているID「AAA」、パスワード「asdfzxcv」、デバイスID「MFP1」を元にFAX受信イベントメッセージ(図9)を生成する。そして、そのメッセージをネットワーク105を介してストレージ205に保存されているクラウドサーバ104のサービスURL「http://service1.com」に送信する。 First, in step S2001, the CPU 202 of the image forming apparatus 101 acquires the sender "A" from the address book (FIG. 16) of the storage 205 corresponding to the received FAX number "1111", and obtains the ID "A" stored in the storage 205. AAA", password "asdfzxcv", and device ID "MFP1", a FAX reception event message (FIG. 9) is generated. Then, the message is transmitted to the service URL “http://service1.com” of the cloud server 104 stored in the storage 205 via the network 105 .

ここで、受信したFAXがストレージ205のアドレス帳(図16)に存在しない場合、FAX画像に対してOCR処理(図18)を実行して、受信したFAX画像(図17)から送信元に該当する文字列を抽出し、抽出した文字列「A」を送信元としても良い。また送信元に該当する文字列が抽出できなかった場合は、送信元のFAX番号「1111」をパラメータとしてクラウドサーバ104に通知しても良い。 Here, if the received FAX does not exist in the address book (FIG. 16) of the storage 205, OCR processing (FIG. 18) is performed on the FAX image, and the received FAX image (FIG. 17) corresponds to the sender. It is also possible to extract the character string "A" and set the extracted character string "A" as the transmission source. If the character string corresponding to the sender cannot be extracted, the cloud server 104 may be notified of the FAX number "1111" of the sender as a parameter.

次にS2002でクラウドサーバ104のCPU502は、S2001で受信したFAX受信イベントメッセージからテナントID「AAA」、パスワード「asdfzxcv」がクラウドサーバ104のストレージ505に保存されていることを確認し、正しいユーザ情報と判断する。こうしてFAX受信イベントメッセージのユーザ情報が正しいユーザ情報と判定する(即ち、認証に成功する)と、CPU502はRAM503の「イベントメッセージ」にFAX受信イベントメッセージを保存し、S2003でCPU502は、連携している音声制御装置103,106,107を特定する。 Next, in S2002, the CPU 502 of the cloud server 104 confirms from the FAX reception event message received in S2001 that the tenant ID "AAA" and the password "asdfzxcv" are saved in the storage 505 of the cloud server 104, and confirms that the user information is correct. I judge. When the user information in the FAX reception event message is determined to be correct user information (that is, the authentication is successful), the CPU 502 saves the FAX reception event message in the "event message" of the RAM 503. Identify the voice control device 103, 106, 107 that is present.

次にS2004でCPU502は、イベントデータセキュリティレベル取得処理(図10)を実行し、受信したFAX受信イベントメッセージのイベントデータセキュリティレベル「1」を取得する。そしてS2005でCPU502は、S2004で取得したイベントセキュリティレベルを最高レベルとした、各セキュリティレベルのメッセージを生成する。ここではイベントデータセキュリティレベルが「1」であるため、メッセージセキュリティレベル「1」をRAM503上に保存してメッセージ生成処理(図11)を実行する。こうして生成した「AさんからFAXを受信しました」をRAM503上の「セキュリティレベル1メッセージ」に保存する。またメッセージセキュリティレベル「2」をRAM503上に保存してメッセージ生成処理(図11)を実行して生成したメッセージ「FAXを受信しました」をRAM503上の「セキュリティレベル2メッセージ」に保存する。更に、メッセージセキュリティレベル「3」をRAM503上に保存してメッセージ生成処理(図11)を実行して生成したメッセージ「メッセージを受信しました」をRAM503上の「セキュリティレベル3メッセージ」に保存する。 Next, in S2004, the CPU 502 executes event data security level acquisition processing (FIG. 10) to acquire the event data security level "1" of the received FAX reception event message. Then, in S2005, the CPU 502 generates a message of each security level, with the event security level acquired in S2004 as the highest level. Since the event data security level is "1" here, the message security level "1" is stored in the RAM 503 and the message generation process (FIG. 11) is executed. The thus generated "FAX has been received from Mr. A" is stored in the "security level 1 message" on the RAM 503. FIG. Also, the message security level "2" is stored in the RAM 503 and the message "FAX has been received" generated by executing the message generation process (FIG. 11) is stored in the "security level 2 message" on the RAM 503. Furthermore, the message security level "3" is stored in the RAM 503 and the message "message received" generated by executing the message generation process (FIG. 11) is stored in the "security level 3 message" on the RAM 503.

次にS2006でCPU502は、デバイス管理サーバ108に音声制御装置103のネットワーク接続状態情報を要求する。これによりデバイス管理サーバ108は音声制御装置103のネットワーク接続状態情報を返送する。 In step S<b>2006 , the CPU 502 requests the network connection state information of the audio control apparatus 103 from the device management server 108 . As a result, the device management server 108 returns the network connection state information of the voice control device 103 .

次にS2007でCPU502は、取得したネットワーク接続状態情報より、図19(A)(B)の条件に基づき、音声制御装置103はルーター2101に接続されているため部門エリアに設置されていると判定する。ここで図19(C)より、部門エリアのエリアセキュリティレベルは「1」であるため、RAM503上の「セキュリティレベル1」のメッセージ「AさんからFAXを受信しました」を音声制御装置103に送信するメッセージと決定する。そしてS2008でCPU502は、S2007で決定したメッセージ「AさんからFAXを受信しました」を音声データ化する。そしてS2009でCPU502は、ネットワーク105を介して音声制御装置103に、S2008で生成した音声データ「AさんからFAXを受信しました」を送信する。これによりS2010で音声制御装置103のCPU402は、オーディオコントローラ409を介して、スピーカ410からS2009で受信した音声データ「AさんからFAXを受信しました」を発声する。 Next, in step S2007, the CPU 502 determines from the obtained network connection status information that the audio control device 103 is installed in the department area because it is connected to the router 2101 based on the conditions of FIGS. 19A and 19B. do. Here, since the area security level of the department area is "1" from FIG. Decide which message to send. Then, in S2008, the CPU 502 converts the message "A FAX has been received from Mr. A" determined in S2007 into voice data. Then, in S2009, the CPU 502 transmits the voice data generated in S2008 to the voice control device 103 via the network 105, "A FAX has been received from Mr. A." As a result, in S2010, the CPU 402 of the voice control device 103 utters the voice data "A FAX has been received from Mr. A" received in S2009 from the speaker 410 via the audio controller 409. FIG.

次にS2011でクラウドサーバ104のCPU502は、デバイス管理サーバ108に音声制御装置106のネットワーク接続状態情報を要求する。これによりデバイス管理サーバ108は音声制御装置106のネットワーク接続状態情報を返送する。S2012でCPU502は、取得したネットワーク接続状態情報より、図19(A)(B)の条件に基づき、音声制御装置106はルーター2100に接続されているため社内エリアに設置されていると判定する。この社内エリアのエリアセキュリティレベルは「2」であるため、RAM503上の「セキュリティレベル2メッセージ」の「FAXを受信しました」を音声制御装置106に送信するメッセージと決定する。そしてS2013でCPU502は、S2012で決定したメッセージ「FAXを受信しました」を音声データ化する。そしてS2014でCPU502は、ネットワーク105を介して音声制御装置106に、S2013で生成した音声データ「FAXを受信しました」を送信する。これによりS2015で音声制御装置106のCPU402は、オーディオコントローラ409を介して、スピーカ410から、S2014で受信した音声データ「FAXを受信しました」を発声する。 Next, in S2011, the CPU 502 of the cloud server 104 requests the network connection state information of the audio control device 106 from the device management server . As a result, the device management server 108 returns the network connection status information of the voice control device 106 . In S2012, the CPU 502 determines that the voice control device 106 is connected to the router 2100 and therefore installed in the office area based on the conditions of FIGS. 19A and 19B from the acquired network connection state information. Since the area security level of this office area is "2", it is determined that "FAX has been received" of the "security level 2 message" on RAM 503 is to be sent to voice control device 106. FIG. Then, in S2013, the CPU 502 converts the message "FAX has been received" determined in S2012 into voice data. Then, in S2014, the CPU 502 transmits the voice data "FAX received" generated in S2013 to the voice control device 106 via the network 105. FIG. As a result, in S2015, the CPU 402 of the voice control device 106 utters the audio data "Received FAX" from the speaker 410 via the audio controller 409 in S2014.

次にS2016でクラウドサーバ104のCPU502は、デバイス管理サーバ108に音声制御装置107のネットワーク接続状態情報を要求する。デバイス管理サーバ108は音声制御装置107のネットワーク接続状態情報を返送する。S2017でCPU502は、取得したネットワーク接続状態情報より、図19(A)(B)の条件に基づき、音声制御装置107はサブネット192.168.190.0/24に接続されているため社外エリアに設置されていると判定する。ここで社外エリアのエリアセキュリティレベルは「3」であるため、RAM503上の「セキュリティレベル3メッセージ」の「お知らせがあります」を音声制御装置107に送信するメッセージと決定する。そしてS2018でCPU502は、S2017で決定したメッセージ「メッセージを受信しました」を音声データ化する。そしてS2019でCPU502は、ネットワーク105を介して音声制御装置107にS2018で生成した音声データ「お知らせがあります」を送信する。これによりS2020で音声制御装置107のCPU402は、オーディオコントローラ409を介して、スピーカ410からS2019で受信した音声データ「お知らせがあります」を発声する。 Next, in S<b>2016 , the CPU 502 of the cloud server 104 requests the network connection state information of the audio control device 107 from the device management server 108 . The device management server 108 returns network connection status information for the voice control device 107 . In S2017, the CPU 502 determines from the acquired network connection status information that the voice control device 107 is installed in the outside area because it is connected to the subnet 192.168.190.0/24 based on the conditions of FIGS. I judge. Here, since the area security level of the external area is "3", it is determined that "there is an announcement" of the "security level 3 message" on the RAM 503 is to be sent to the voice control device 107. FIG. Then, in S2018, the CPU 502 converts the message "Message received" determined in S2017 into voice data. Then, in S2019, the CPU 502 transmits the voice data "I have an announcement" generated in S2018 to the voice control device 107 via the network 105. FIG. As a result, in S2020, the CPU 402 of the audio control device 107 utters the audio data "I have an announcement" received in S2019 from the speaker 410 via the audio controller 409. FIG.

以上説明したように実施形態2によれば、エリアセキュリティレベルとメッセージセキュリティレベルを用いて音声制御装置に送信するメッセージを切り替えることで、音声制御装置が発話することによる情報漏洩のリスクを低減させることが可能となる。また、エリアセキュリティレベルは、音声制御装置ではなく、その設置されている場所を特定する情報に関連付いているため、音声制御装置を移動させたとしても、新たに設定を行うことなく適切なメッセージを通知することが出来る。 As described above, according to the second embodiment, the area security level and the message security level are used to switch the message to be sent to the voice control device, thereby reducing the risk of information leakage caused by the voice control device speaking. becomes possible. In addition, since the area security level is related not to the voice control device but to the information identifying the location where it is installed, even if the voice control device is moved, the appropriate message can be sent without making new settings. can be notified.

[その他の実施形態]
上記実施形態2では、エリアとデバイス情報の関連付けの方法として、デバイス管理サーバ108からネットワーク接続状態情報(図19(B))を取得し、その取得したネットワーク接続状態情報からクラウドサーバ104のもつ区分条件に従い、音声制御装置がカテゴライズされるエリアを判定した。しかし、クラウドサーバ104が図19(A)の区分条件ではなく、図19(D)に示す設置場所とエリア区分の関係情報を有し、クラウドサーバ104が、デバイス管理サーバ108もしくは、音声制御装置から各音声制御装置の場所情報を受け取り、デバイスのカテゴライズされるエリアを判断しても良い。
[Other embodiments]
In the second embodiment, as a method of associating the area and the device information, the network connection state information (FIG. 19B) is acquired from the device management server 108, and the category of the cloud server 104 is obtained from the acquired network connection state information. The conditions determined the areas in which the voice control device was categorized. However, the cloud server 104 has relationship information between the installation location and the area division shown in FIG. may receive location information for each voice control device from the , and determine the area in which the device is categorized.

また或いは、デバイス管理サーバ108がエリア区分を管理し、デバイス管理サーバ108にクラウドサーバ104が音声制御装置のエリア区分を問い合わせると、デバイス管理サーバ108が別途準備されたエリア区分とデバイス情報を関連付けたデータテーブルに基づいて、その音声制御装置のエリア区分情報を返送するようにしても良い。 Alternatively, the device management server 108 manages the area division, and when the cloud server 104 inquires of the device management server 108 about the area division of the voice control device, the device management server 108 associates the separately prepared area division with the device information. Based on the data table, the area division information of the voice control device may be returned.

またエリア区分とデバイス情報とを関連付ける方法は、デバイスの設置場所情報を事前サーバやデバイスに登録しておく以外にも、機器のGPS情報やビーコン、RFIDなどの位置測位技術を用いて、エリア区分とデバイス情報を関連付ける方法も考えられる。これは音声制御装置が例えばスマートフォンの場合に有効である。 In addition to registering device installation location information in advance in servers and devices, the method of associating area divisions with device information is to use positioning technologies such as GPS information, beacons, and RFID to determine area divisions. and device information. This is useful when the voice control device is, for example, a smart phone.

また上述の実施形態1,2にでは、音声制御装置にメッセージを送信する方法として、FAX受信メッセージ通知シーケンスを示しているが本発明は、これに限らない。 In the first and second embodiments described above, the FAX reception message notification sequence is shown as a method of transmitting a message to the voice control device, but the present invention is not limited to this.

またメッセージセキュリティレベルの判定手法として、イベントメッセージ内の属性を解析する例で説明したが、通知メッセージを自然言語処理してセキュリティリスクの高いワードが発話内容に含まれている場合、メッセージセキュリティレベルを高レベルと判定しても良い。 Also, as an example of how to determine the message security level, we explained the example of analyzing the attributes in the event message. It may be judged as high level.

また、音声制御装置の発話機器として外部デバイスと接続している場合は、そのセキュリティレベルを変えるようにしても良い。例えば、スピーカに代えて、外部に情報が漏洩しない音声デバイス(ヘッドセット、イヤホン)が接続されている場合は、常にデバイスセキュリティレベルを「1」としても良い。 Also, when an external device is connected as a speech device of the voice control device, the security level may be changed. For example, when an audio device (headset, earphone) that does not leak information to the outside is connected instead of a speaker, the device security level may always be "1".

また上述の実施形態では、デバイスのセキュリティレベルよりも高いセキュリティレベルの機密情報は発話しないようにしたが、例えば、その機密情報をマスクしたメッセージ、例えば「***さんからFAXを受信しました」を音声制御装置に出力する。このとき音声制御装置は、そのマスクされた内容の発声時の声質を変える(そのままなら女性、マスク済みなら男性的)ようにしても良い。また或いは、そのマスク部分の音量を下げる、或いは警告音を出す等を行っても良い。 In the above-described embodiment, confidential information with a security level higher than the security level of the device is not uttered. output to the voice control device. At this time, the voice control device may change the voice quality when uttering the masked content (female if unchanged, male if masked). Alternatively, the volume of the masked portion may be lowered, or a warning sound may be emitted.

また本実施形態では、実施形態1と実施形態2とをそれぞれ独立して説明したが、本発明は、実施形態1と実施形態2とを組み合わせても良い。即ち、実施形態1のデバイス(音声制御装置)のセキュリティレベルと、そのデバイスの設定場所のセキュリティレベルとを考慮して、そのデバイスに送信する音声データを変更しても良い。 Moreover, in this embodiment, although the first and second embodiments have been described independently, the present invention may combine the first and second embodiments. That is, the audio data to be transmitted to the device may be changed in consideration of the security level of the device (audio control device) of the first embodiment and the security level of the setting location of the device.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

本明細書及び図面は、以下の情報処理システム、情報処理装置とその制御方法並びにプログラムを開示する。 The specification and drawings disclose the following information processing system, information processing apparatus, control method thereof, and program.

[項目1]
情報処理装置と音声制御装置がネットワークを介して通信可能な情報処理システムであって、
前記情報処理装置は、
前記音声制御装置のセキュリティレベルを保持する保持手段と、
所定のイベントの発生を検知すると、前記所定のイベントに紐づけられたメッセージに関する情報を取得する取得手段と、
前記音声制御装置のセキュリティレベルと前記メッセージに関する情報とに基づいて、前記音声制御装置に送信するメッセージを決定する決定手段と、を有し、
前記音声制御装置は、
前記情報処理装置から送信された前記メッセージを再生する再生手段を、有することを特徴とする情報処理システム。
[Item 1]
An information processing system in which an information processing device and a voice control device can communicate via a network,
The information processing device is
holding means for holding a security level of the voice control device;
Acquisition means for acquiring, upon detection of occurrence of a predetermined event, information relating to a message linked to the predetermined event;
determining means for determining a message to send to the voice control device based on the security level of the voice control device and information about the message;
The voice control device
An information processing system, comprising a reproducing unit for reproducing the message transmitted from the information processing apparatus.

[項目2]
前記メッセージに関する情報は、前記メッセージの内容と前記メッセージのセキュリティレベルを含むことを特徴とする項目1に記載の情報処理システム。
[Item 2]
The information processing system according to item 1, wherein the information about the message includes the content of the message and the security level of the message.

[項目3]
前記決定手段は、前記音声制御装置のセキュリティレベルと一致するセキュリティレベルのメッセージを、前記音声制御装置に送信するメッセージと決定することを特徴とする項目2に記載の情報処理システム。
[Item 3]
3. The information processing system according to item 2, wherein the determining means determines a message with a security level that matches the security level of the voice control device as the message to be transmitted to the voice control device.

[項目4]
前記決定手段は、前記音声制御装置のセキュリティレベルと一致するセキュリティレベルのメッセージが存在しない場合、前記音声制御装置のセキュリティレベルを超えないセキュリティレベルの内、最も高いセキュリティレベルのメッセージを、前記音声制御装置に送信するメッセージと決定することを特徴とする項目2に記載の情報処理システム。
[Item 4]
If there is no message with a security level that matches the security level of the voice control device, the determination means selects a message with the highest security level among security levels that do not exceed the security level of the voice control device. 3. The information processing system according to item 2, wherein the message to be transmitted to the device is determined.

[項目5]
前記音声制御装置のセキュリティレベルを設定する設定手段を、更に有することを特徴とする項目1乃至4のいずれか一項に記載の情報処理システム。
[Item 5]
5. The information processing system according to any one of items 1 to 4, further comprising setting means for setting a security level of the voice control device.

[項目6]
前記情報処理装置は、イベントに関連付けて前記イベントに対応するメッセージとセキュリティレベルを記憶する記憶手段を、更に有し、
前記取得手段は、前記記憶手段を参照して前記所定のイベントに紐づけられたメッセージに関する情報を取得することを特徴とする項目1乃至5のいずれか一項に記載の情報処理システム。
[Item 6]
The information processing device further has storage means for storing a message and a security level corresponding to the event in association with the event,
6. The information processing system according to any one of items 1 to 5, wherein the acquisition means acquires information about a message linked to the predetermined event by referring to the storage means.

[項目7]
前記音声制御装置のセキュリティレベルは、前記音声制御装置が位置している場所に対応するセキュリティレベルであることを特徴とする項目1乃至6のいずれか一項に記載の情報処理システム。
[Item 7]
7. The information processing system according to any one of items 1 to 6, wherein the security level of the voice control device is a security level corresponding to the location where the voice control device is located.

[項目8]
前記音声制御装置が位置している場所は、前記音声制御装置から取得される位置情報に基づいて取得されることを特徴とする項目7に記載の情報処理システム。
[Item 8]
8. The information processing system according to item 7, wherein the location where the voice control device is located is obtained based on position information obtained from the voice control device.

[項目9]
前記音声制御装置が位置している場所は、前記音声制御装置が接続されているネットワークに基づいて取得されることを特徴とする項目7に記載の情報処理システム。
[Item 9]
8. Information processing system according to item 7, wherein the location where the voice control device is located is obtained based on the network to which the voice control device is connected.

[項目10]
前記音声制御装置が位置している場所は、前記音声制御装置が接続されている機器の情報に基づいて取得されることを特徴とする項目7に記載の情報処理システム。
[Item 10]
8. The information processing system according to item 7, wherein the location where the voice control device is located is obtained based on information of the device to which the voice control device is connected.

[項目11]
前記音声制御装置が位置している場所は、所定の部門に所属しているユーザしか存在しない場所、前記所定の部門に所属しているユーザ以外が存在するが第三者が存在しない場所、第三者が存在する場所に分類されることを特徴とする項目7乃至10のいずれか一項に記載の情報処理システム。
[Item 11]
The place where the voice control device is located is a place where only users belonging to a predetermined department exist, a place where users other than those belonging to the predetermined department exist but no third parties exist, 11. The information processing system according to any one of items 7 to 10, characterized in that the information processing system is classified into places where three parties exist.

[項目12]
前記情報処理システムは、更に、画像形成装置を有し、
前記所定のイベントは前記画像形成装置から通知され、
前記情報処理装置は、前記画像形成装置の認証に成功すると、連携している前記音声制御装置を特定し、特定した音声制御装置に送信するメッセージを決定することを特徴とする項目1乃至6のいずれか一項に記載の情報処理システム。
[Item 12]
The information processing system further includes an image forming device,
the predetermined event is notified from the image forming apparatus;
Items 1 to 6, characterized in that, when the information processing device succeeds in authentication of the image forming device, the information processing device specifies the cooperating voice control device and determines a message to be transmitted to the specified voice control device. The information processing system according to any one of the items.

[項目13]
前記音声制御装置は、少なくとも第1音声制御装置と、前記第1音声制御装置よりも高いセキュリティレベルの第2音声制御装置とを含み、
前記決定手段は、前記第1音声制御装置には、第1メッセージを送信すると決定し、前記第2音声制御装置には、前記第1メッセージとは異なる第2のメッセージを送信すると決定することを特徴とする項目1乃至12のいずれか一項に記載の情報処理システム。
[Item 13]
The voice control device includes at least a first voice control device and a second voice control device having a higher security level than the first voice control device,
The determining means determines to send a first message to the first voice control device and to send a second message different from the first message to the second voice control device. 13. Information processing system according to any one of the items 1 to 12.

[項目14]
前記第1メッセージは、前記第2のメッセージの一部がマスクされたメッセージであることを特徴とする項目13に記載の情報処理システム。
[Item 14]
14. The information processing system according to item 13, wherein the first message is a partially masked message of the second message.

[項目15]
イベントの発生に応じて、連携している音声制御装置に当該イベントに対応する音声で発話させる情報処理装置であって、
所定のイベントの発生を検知すると、前記所定のイベントに紐づけられたメッセージに関する情報を取得する取得手段と、
前記音声制御装置のセキュリティレベルを保持する保持手段と、
前記セキュリティレベルと前記メッセージに関する情報とに基づいて、前記音声制御装置に送信するメッセージを決定する決定手段と、
前記決定手段により決定された前記メッセージを前記音声制御装置に送信して発話させる送信手段と、
を有することを特徴とする情報処理装置。
[Item 15]
An information processing device that causes a cooperating audio control device to utter a sound corresponding to the event in response to the occurrence of an event,
Acquisition means for acquiring, upon detection of occurrence of a predetermined event, information relating to a message linked to the predetermined event;
holding means for holding a security level of the voice control device;
determining means for determining a message to send to the voice control device based on the security level and information about the message;
a transmitting means for transmitting the message determined by the determining means to the voice control device to make it speak;
An information processing device comprising:

[項目16]
前記メッセージに関する情報は、前記メッセージの内容と前記メッセージのセキュリティレベルを含むことを特徴とする項目15に記載の情報処理装置。
[Item 16]
16. The information processing apparatus according to item 15, wherein the information about the message includes the content of the message and the security level of the message.

[項目17]
前記決定手段は、前記音声制御装置のセキュリティレベルと一致するセキュリティレベルのメッセージを、前記音声制御装置に送信するメッセージと決定することを特徴とする項目16に記載の情報処理装置。
[Item 17]
17. The information processing apparatus according to item 16, wherein the determining means determines a message with a security level that matches the security level of the voice control device as the message to be transmitted to the voice control device.

[項目18]
前記決定手段は、前記音声制御装置のセキュリティレベルと一致するセキュリティレベルのメッセージが存在しない場合、前記音声制御装置のセキュリティレベルを超えないセキュリティレベルの内、最も高いセキュリティレベルのメッセージを、前記音声制御装置に送信するメッセージと決定することを特徴とする項目16に記載の情報処理装置。
[Item 18]
If there is no message with a security level that matches the security level of the voice control device, the determination means selects a message with the highest security level among security levels that do not exceed the security level of the voice control device. 17. The information processing device according to item 16, wherein the message to be transmitted to the device is determined.

[項目19]
前記音声制御装置のセキュリティレベルを設定する設定手段を、更に有することを特徴とする項目15に記載の情報処理装置。
[Item 19]
16. The information processing apparatus according to item 15, further comprising setting means for setting a security level of the voice control apparatus.

[項目20]
前記イベントに関連付けて前記イベントに対応するメッセージとセキュリティレベルを記憶する記憶手段を、更に有し、
前記取得手段は、前記記憶手段を参照して前記所定のイベントに紐づけられたメッセージに関する情報を取得することを特徴とする項目15乃至19のいずれか一項に記載の情報処理装置。
[Item 20]
further comprising storage means for storing a message and security level corresponding to the event in association with the event;
20. The information processing apparatus according to any one of items 15 to 19, wherein the acquisition means acquires information about a message linked to the predetermined event by referring to the storage means.

[項目21]
前記音声制御装置のセキュリティレベルは、前記音声制御装置が位置している場所に対応するセキュリティレベルであることを特徴とする項目15記載の情報処理装置。
[Item 21]
16. The information processing apparatus according to item 15, wherein the security level of the voice control device is a security level corresponding to the location where the voice control device is located.

[項目22]
前記音声制御装置が位置している場所は、前記音声制御装置から取得される位置情報に基づいて取得されることを特徴とする項目21に記載の情報処理装置。
[Item 22]
22. The information processing apparatus according to item 21, wherein the location where the voice control device is located is acquired based on position information acquired from the voice control device.

[項目23]
前記音声制御装置が位置している場所は、所定の部門に所属しているユーザしか存在しない場所、前記所定の部門に所属しているユーザ以外が存在するが第三者が存在しない場所、第三者が存在する場所に分類されることを特徴とする項目21に記載の情報処理装置。
[Item 23]
The place where the voice control device is located is a place where only users belonging to a predetermined department exist, a place where users other than those belonging to the predetermined department exist but no third parties exist, 22. The information processing apparatus according to item 21, wherein the information processing apparatus is classified into locations where three persons exist.

[項目24]
イベントの発生に応じて、連携している音声制御装置に当該イベントに対応する音声で発話させる情報処理装置を制御する制御方法であって、
所定のイベントの発生を検知すると、前記所定のイベントに紐づけられたメッセージに関する情報を取得する取得工程と、
前記音声制御装置のセキュリティレベルと前記メッセージに関する情報とに基づいて、前記音声制御装置に送信するメッセージを決定する決定工程と、
前記決定工程で決定された前記メッセージを前記音声制御装置に送信して発話させる送信工程と、
を有することを特徴とする制御方法。
[Item 24]
A control method for controlling an information processing device that, in response to the occurrence of an event, causes a cooperating voice control device to utter a sound corresponding to the event,
an obtaining step of obtaining information about a message linked to the predetermined event when occurrence of a predetermined event is detected;
a determining step of determining a message to send to the voice control device based on the security level of the voice control device and information about the message;
a transmission step of transmitting the message determined in the determination step to the voice control device to make it speak;
A control method characterized by having

[項目25]
コンピュータに、項目24に記載の制御方法の各工程を実行させるプログラム。
[Item 25]
A program that causes a computer to execute each step of the control method described in item 24.

本発明は上記実施形態に制限されるものではなく、本発明の精神及び範囲から逸脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために、以下の請求項を添付する。 The invention is not limited to the embodiments described above, and various modifications and variations are possible without departing from the spirit and scope of the invention. Accordingly, to publicize the scope of the invention, the following claims are included.

101…画像形成装置、102…情報端末、103,106,107…音声制御装置、104…クラウドサーバ、108…デバイス管理サーバ、202…(画像形成装置の)CPU、214…画像処理部、208…操作パネル、302…(情報端末の)CPU、307…操作部、402…(音声制御装置の)CPU、502…(クラウドサーバの)CPU DESCRIPTION OF SYMBOLS 101... Image forming apparatus 102... Information terminal 103, 106, 107... Audio control apparatus 104... Cloud server 108... Device management server 202... CPU (of image forming apparatus) 214... Image processing unit 208... Operation panel 302 CPU (of information terminal) 307 Operation unit 402 CPU (voice control device) 502 CPU (cloud server)

Claims (25)

情報処理装置と音声制御装置がネットワークを介して通信可能な情報処理システムであって、
前記情報処理装置は、
前記音声制御装置のセキュリティレベルを保持する保持手段と、
所定のイベントの発生を検知すると、前記所定のイベントに紐づけられたメッセージに関する情報を取得する取得手段と、
前記音声制御装置のセキュリティレベルと前記メッセージに関する情報とに基づいて、前記音声制御装置に送信するメッセージを決定する決定手段と、を有し、
前記音声制御装置は、
前記情報処理装置から送信された前記メッセージを再生する再生手段を、有することを特徴とする情報処理システム。
An information processing system in which an information processing device and a voice control device can communicate via a network,
The information processing device is
holding means for holding a security level of the voice control device;
Acquisition means for acquiring, upon detection of occurrence of a predetermined event, information relating to a message linked to the predetermined event;
determining means for determining a message to send to the voice control device based on the security level of the voice control device and information about the message;
The voice control device
An information processing system, comprising a reproducing unit for reproducing the message transmitted from the information processing apparatus.
前記メッセージに関する情報は、前記メッセージの内容と前記メッセージのセキュリティレベルを含むことを特徴とする請求項1に記載の情報処理システム。 2. An information processing system according to claim 1, wherein the information about said message includes the content of said message and the security level of said message. 前記決定手段は、前記音声制御装置のセキュリティレベルと一致するセキュリティレベルのメッセージを、前記音声制御装置に送信するメッセージと決定することを特徴とする請求項2に記載の情報処理システム。 3. The information processing system according to claim 2, wherein said determining means determines a message with a security level that matches the security level of said voice control device as a message to be transmitted to said voice control device. 前記決定手段は、前記音声制御装置のセキュリティレベルと一致するセキュリティレベルのメッセージが存在しない場合、前記音声制御装置のセキュリティレベルを超えないセキュリティレベルの内、最も高いセキュリティレベルのメッセージを、前記音声制御装置に送信するメッセージと決定することを特徴とする請求項2に記載の情報処理システム。 If there is no message with a security level that matches the security level of the voice control device, the determination means selects a message with the highest security level among security levels that do not exceed the security level of the voice control device. 3. The information processing system according to claim 2, wherein the message to be transmitted to the device is determined. 前記音声制御装置のセキュリティレベルを設定する設定手段を、更に有することを特徴とする請求項1に記載の情報処理システム。 2. An information processing system according to claim 1, further comprising setting means for setting a security level of said voice control device. 前記情報処理装置は、イベントに関連付けて前記イベントに対応するメッセージとセキュリティレベルを記憶する記憶手段を、更に有し、
前記取得手段は、前記記憶手段を参照して前記所定のイベントに紐づけられたメッセージに関する情報を取得することを特徴とする請求項1に記載の情報処理システム。
The information processing device further has storage means for storing a message and a security level corresponding to the event in association with the event,
2. The information processing system according to claim 1, wherein said acquisition means acquires information relating to a message linked to said predetermined event by referring to said storage means.
前記音声制御装置のセキュリティレベルは、前記音声制御装置が位置している場所に対応するセキュリティレベルであることを特徴とする請求項1に記載の情報処理システム。 2. The information processing system according to claim 1, wherein the security level of said voice control device is a security level corresponding to the location where said voice control device is located. 前記音声制御装置が位置している場所は、前記音声制御装置から取得される位置情報に基づいて取得されることを特徴とする請求項7に記載の情報処理システム。 8. The information processing system according to claim 7, wherein the location where said voice control device is located is obtained based on location information obtained from said voice control device. 前記音声制御装置が位置している場所は、前記音声制御装置が接続されているネットワークに基づいて取得されることを特徴とする請求項7に記載の情報処理システム。 8. The information processing system of claim 7, wherein the location where the voice control device is located is obtained based on the network to which the voice control device is connected. 前記音声制御装置が位置している場所は、前記音声制御装置が接続されている機器の情報に基づいて取得されることを特徴とする請求項7に記載の情報処理システム。 8. The information processing system according to claim 7, wherein the location where the voice control device is located is acquired based on the information of the equipment to which the voice control device is connected. 前記音声制御装置が位置している場所は、所定の部門に所属しているユーザしか存在しない場所、前記所定の部門に所属しているユーザ以外が存在するが第三者が存在しない場所、第三者が存在する場所に分類されることを特徴とする請求項7に記載の情報処理システム。 The place where the voice control device is located is a place where only users belonging to a predetermined department exist, a place where users other than those belonging to the predetermined department exist but no third parties exist, 8. The information processing system according to claim 7, wherein the information is classified into places where three parties exist. 前記情報処理システムは、更に、画像形成装置を有し、
前記所定のイベントは前記画像形成装置から通知され、
前記情報処理装置は、前記画像形成装置の認証に成功すると、連携している前記音声制御装置を特定し、特定した音声制御装置に送信するメッセージを決定することを特徴とする請求項1に記載の情報処理システム。
The information processing system further includes an image forming device,
the predetermined event is notified from the image forming apparatus;
2. The information processing apparatus according to claim 1, wherein, when the authentication of the image forming apparatus is successful, the information processing apparatus identifies the cooperating audio control apparatus, and determines a message to be transmitted to the identified audio control apparatus. information processing system.
前記音声制御装置は、少なくとも第1音声制御装置と、前記第1音声制御装置よりも高いセキュリティレベルの第2音声制御装置とを含み、
前記決定手段は、前記第1音声制御装置には、第1メッセージを送信すると決定し、前記第2音声制御装置には、前記第1メッセージとは異なる第2のメッセージを送信すると決定することを特徴とする請求項1に記載の情報処理システム。
The voice control device includes at least a first voice control device and a second voice control device having a higher security level than the first voice control device,
The determining means determines to send a first message to the first voice control device and to send a second message different from the first message to the second voice control device. 2. The information processing system according to claim 1.
前記第1メッセージは、前記第2のメッセージの一部がマスクされたメッセージであることを特徴とする請求項13に記載の情報処理システム。 14. The information processing system according to claim 13, wherein said first message is a message in which part of said second message is masked. イベントの発生に応じて、連携している音声制御装置に当該イベントに対応する音声で発話させる情報処理装置であって、
所定のイベントの発生を検知すると、前記所定のイベントに紐づけられたメッセージに関する情報を取得する取得手段と、
前記音声制御装置のセキュリティレベルを保持する保持手段と、
前記セキュリティレベルと前記メッセージに関する情報とに基づいて、前記音声制御装置に送信するメッセージを決定する決定手段と、
前記決定手段により決定された前記メッセージを前記音声制御装置に送信して発話させる送信手段と、
を有することを特徴とする情報処理装置。
An information processing device that causes a cooperating audio control device to utter a sound corresponding to the event in response to the occurrence of an event,
Acquisition means for acquiring, upon detection of occurrence of a predetermined event, information relating to a message linked to the predetermined event;
holding means for holding a security level of the voice control device;
determining means for determining a message to send to the voice control device based on the security level and information about the message;
a transmitting means for transmitting the message determined by the determining means to the voice control device to make it speak;
An information processing device comprising:
前記メッセージに関する情報は、前記メッセージの内容と前記メッセージのセキュリティレベルを含むことを特徴とする請求項15に記載の情報処理装置。 16. The information processing apparatus according to claim 15, wherein the information about said message includes the content of said message and the security level of said message. 前記決定手段は、前記音声制御装置のセキュリティレベルと一致するセキュリティレベルのメッセージを、前記音声制御装置に送信するメッセージと決定することを特徴とする請求項16に記載の情報処理装置。 17. The information processing apparatus according to claim 16, wherein said determining means determines a message with a security level that matches the security level of said voice control device as a message to be transmitted to said voice control device. 前記決定手段は、前記音声制御装置のセキュリティレベルと一致するセキュリティレベルのメッセージが存在しない場合、前記音声制御装置のセキュリティレベルを超えないセキュリティレベルの内、最も高いセキュリティレベルのメッセージを、前記音声制御装置に送信するメッセージと決定することを特徴とする請求項16に記載の情報処理装置。 If there is no message with a security level that matches the security level of the voice control device, the determination means selects a message with the highest security level among security levels that do not exceed the security level of the voice control device. 17. The information processing apparatus according to claim 16, wherein a message to be transmitted to the apparatus is determined. 前記音声制御装置のセキュリティレベルを設定する設定手段を、更に有することを特徴とする請求項15に記載の情報処理装置。 16. The information processing apparatus according to claim 15, further comprising setting means for setting a security level of said voice control apparatus. 前記イベントに関連付けて前記イベントに対応するメッセージとセキュリティレベルを記憶する記憶手段を、更に有し、
前記取得手段は、前記記憶手段を参照して前記所定のイベントに紐づけられたメッセージに関する情報を取得することを特徴とする請求項15乃至19のいずれか一項に記載の情報処理装置。
further comprising storage means for storing a message and security level corresponding to the event in association with the event;
20. The information processing apparatus according to any one of claims 15 to 19, wherein said acquisition means acquires information about a message linked to said predetermined event by referring to said storage means.
前記音声制御装置のセキュリティレベルは、前記音声制御装置が位置している場所に対応するセキュリティレベルであることを特徴とする請求項15に記載の情報処理装置。 16. The information processing apparatus according to claim 15, wherein the security level of said voice control device is a security level corresponding to the location where said voice control device is located. 前記音声制御装置が位置している場所は、前記音声制御装置から取得される位置情報に基づいて取得されることを特徴とする請求項21に記載の情報処理装置。 22. The information processing apparatus according to claim 21, wherein the location where said voice control device is located is acquired based on position information acquired from said voice control device. 前記音声制御装置が位置している場所は、所定の部門に所属しているユーザしか存在しない場所、前記所定の部門に所属しているユーザ以外が存在するが第三者が存在しない場所、第三者が存在する場所に分類されることを特徴とする請求項21に記載の情報処理装置。 The place where the voice control device is located is a place where only users belonging to a predetermined department exist, a place where users other than those belonging to the predetermined department exist but no third parties exist, 22. The information processing apparatus according to claim 21, wherein the information processing apparatus is classified into places where three persons exist. イベントの発生に応じて、連携している音声制御装置に当該イベントに対応する音声で発話させる情報処理装置を制御する制御方法であって、
所定のイベントの発生を検知すると、前記所定のイベントに紐づけられたメッセージに関する情報を取得する取得工程と、
前記音声制御装置のセキュリティレベルと前記メッセージに関する情報とに基づいて、前記音声制御装置に送信するメッセージを決定する決定工程と、
前記決定工程で決定された前記メッセージを前記音声制御装置に送信して発話させる送信工程と、
を有することを特徴とする制御方法。
A control method for controlling an information processing device that, in response to the occurrence of an event, causes a cooperating voice control device to utter a sound corresponding to the event,
an obtaining step of obtaining information about a message linked to the predetermined event when occurrence of a predetermined event is detected;
a determining step of determining a message to send to the voice control device based on the security level of the voice control device and information about the message;
a transmission step of transmitting the message determined in the determination step to the voice control device to make it speak;
A control method characterized by having
コンピュータに、請求項24に記載の制御方法の各工程を実行させるプログラム。 A program that causes a computer to execute each step of the control method according to claim 24.
JP2022170871A 2022-02-21 2022-10-25 Information processing system, information processing apparatus, control method thereof, and program Pending JP2023121710A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP22216904.7A EP4231185A1 (en) 2022-02-21 2022-12-28 Information processing system, information processing apparatus, method of controlling the same, and storage medium
US18/152,220 US20230267218A1 (en) 2022-02-21 2023-01-10 Information processing system, information processing apparatus, method of controlling the same, and storage medium
CN202310104741.3A CN116634072A (en) 2022-02-21 2023-01-30 Information processing system, information processing apparatus, control method therefor, and storage medium

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2022024920 2022-02-21
JP2022024920 2022-02-21
JP2022024921 2022-02-21
JP2022024921 2022-02-21

Publications (1)

Publication Number Publication Date
JP2023121710A true JP2023121710A (en) 2023-08-31

Family

ID=87797945

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022170871A Pending JP2023121710A (en) 2022-02-21 2022-10-25 Information processing system, information processing apparatus, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP2023121710A (en)

Similar Documents

Publication Publication Date Title
US10917369B2 (en) Information processing apparatus, information processing system, and information processing method
US10893157B2 (en) Information processing system and information processing apparatus
CN100539592C (en) Data handling system, data processing equipment and data processor
US11211069B2 (en) Information processing system, information processing method, and non-transitory recording medium
US11006007B2 (en) Control system, server system, and control method
JP2009194577A (en) Image processing apparatus, voice assistance method and voice assistance program
JP2019219740A (en) Printing system, control method, server and program
US12015746B2 (en) Image processing system, setting control method, image processing apparatus, and storage medium
JP4626662B2 (en) Data storage device and computer program
JP2023121710A (en) Information processing system, information processing apparatus, control method thereof, and program
US11647129B2 (en) Image forming system equipped with interactive agent function, method of controlling same, and storage medium
JP7022519B2 (en) Mobile terminals, their control methods, and storage media
EP4231185A1 (en) Information processing system, information processing apparatus, method of controlling the same, and storage medium
JP2004259250A (en) Multifunctional server apparatus
US11568854B2 (en) Communication system, server system, and control method
CN116634072A (en) Information processing system, information processing apparatus, control method therefor, and storage medium
JP7361509B2 (en) Peripheral device management system, printing device control system, control method, printing control device and program
JP4168997B2 (en) Image processing system, image processing apparatus, server, and program
CN111708507B (en) Sound information processing device and recording medium
JP2020061041A (en) Print control system and control method
JP6453172B2 (en) Information processing apparatus, information processing program, and image forming system
JP2002300297A (en) Data managing system, first and second devices and portable terminal to be used therefor, portable terminal, data managing method, data managing program and computer readable recording medium with the program recorded thereon
JP2022007018A (en) Voice setting system, voice setting support device and voice setting support program
KR20170123892A (en) Method for fax transmissions and receptions by using application, and image forming apparatus for performing the same
JP4258461B2 (en) MFP and program