JP4468231B2 - User interface device, home appliance / residential equipment, and user interface presentation method - Google Patents

User interface device, home appliance / residential equipment, and user interface presentation method Download PDF

Info

Publication number
JP4468231B2
JP4468231B2 JP2005123564A JP2005123564A JP4468231B2 JP 4468231 B2 JP4468231 B2 JP 4468231B2 JP 2005123564 A JP2005123564 A JP 2005123564A JP 2005123564 A JP2005123564 A JP 2005123564A JP 4468231 B2 JP4468231 B2 JP 4468231B2
Authority
JP
Japan
Prior art keywords
operator
user interface
interface device
distance
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005123564A
Other languages
Japanese (ja)
Other versions
JP2006302009A (en
Inventor
紀之 小宮
紀之 久代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2005123564A priority Critical patent/JP4468231B2/en
Publication of JP2006302009A publication Critical patent/JP2006302009A/en
Application granted granted Critical
Publication of JP4468231B2 publication Critical patent/JP4468231B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、制御対象の操作や設定を行うユーザインタフェース装置、そのユーザインタフェース装置を備える家電・住設機器およびユーザインタフェース提示方法に関するものである。   The present invention relates to a user interface device that performs operation and setting of a control target, a home appliance / residential device including the user interface device, and a user interface presentation method.

従来のユーザインタフェース装置では、予め組み込まれた形態の情報提示方法にしたがって、常に操作者に情報提示を行い、操作を行わせる形態をとっていた。操作者が近付いて操作した場合でも、少々離れた所から操作した場合でも、常に決められた方式で情報の提示を行っていた。また、ユーザインタフェース装置においては、機能の選択や、操作/設定を行うためのスイッチやボタンが並んでおり、一般に無機質で分かり難いものが多かった。音声を利用したユーザインタフェース装置でもこのような事情は同様で、操作者がどのようなメンタルモデルを抱いて機器に相対しているかには関係なく、予め定められた形態での操作が強いられていたり、スイッチやボタンの代わりに音声入力デバイスとしてマイクが置かれていたりするだけといったものが多かった。   In the conventional user interface device, the information is always presented to the operator according to the information presentation method incorporated in advance, and the operation is performed. Regardless of whether the operator approaches or operates from a distance, information is always presented in a predetermined manner. Further, in the user interface device, there are many switches and buttons for selecting functions and performing operation / setting, which are generally inorganic and difficult to understand. The situation is the same for a user interface device using voice, and the operation in a predetermined form is compelled regardless of what mental model the operator holds and the device. Or just a microphone as a voice input device instead of a switch or button.

このような課題を解決するために、本体装置とページャ端末という物理的に異なる機器を用意して本体装置の側にユーザが居るか居ないかによって情報の提示先を変更する試み(たとえば、特許文献1参照)や、擬人化された物体に埋め込まれたまたは関連付けられたカメラを持ち、擬人化された物体の操作をカメラ操作に結びつけることで自然かつ理解が容易なユーザインタフェースを提供しようとする試み(たとえば、特許文献2参照)や、クライアント/サーバ型のシステムにおいて擬人化エージェントがユーザの嗜好を質問形式で獲得して買い物をする形態のユーザインタフェースを提供する試み(たとえば、特許文献3参照)などが従来までになされている。   In order to solve such a problem, an attempt is made to change the presentation destination of information depending on whether there is a user on the side of the main unit by preparing physically different devices such as a main unit and a pager terminal (for example, patents) Reference 1), and a camera that has a camera embedded or associated with an anthropomorphic object and tries to provide a natural and easy-to-understand user interface by linking the operation of the anthropomorphic object to the camera operation An attempt (for example, see Patent Document 2) or an attempt to provide a user interface in which an anthropomorphic agent acquires a user's preference in a question form in a client / server type system for shopping (see, for example, Patent Document 3) ) Etc. have been made so far.

特開平9−275457号公報JP-A-9-275457 特表2003−516049号公報Japanese translation of PCT publication No. 2003-516049 特開2002−298012号公報Japanese Patent Laid-Open No. 2002-298012

しかしながら、従来のユーザインタフェース装置も、以下に示すような問題点を有していた。つまり、ユーザフレンドリな操作系の実現を目指して擬人的なインタフェースを採用した場合、機器の操作をよく理解しており、素早い操作を望む操作者にとってはこの方式は却って煩わしいという結果になることが多かった。また、機器というものに苦手意識を持つ操作者にとっては無機質で機械的なインタフェースを採用したユーザインタフェース装置では取っ付き難く、分かり難いという結果になることが多かった。たとえば、1台の機器を複数の操作者で使用するような家電機器や住宅における設備機器では、このように様々なメンタルモデルを有する操作者への対応が必要となるが、従来の方式では画一的なユーザインタフェースしか提供していないために、操作者各人が機器に対して抱くメンタルモデルに追随することができず、操作性の向上が望めなかった。また、家電機器や設備機器の表示が見え難い場合に操作者がその表示部に顔を近付けたり、音声入力のために操作者がマイクに顔を近づけたりするなどして家電機器や設備機器を操作する結果、家電機器や設備機器が物理的な動作を行う場合などには、家電機器や設備機器に近付いている操作者に対して危険が発生することもあった。   However, the conventional user interface device also has the following problems. In other words, when an anthropomorphic interface is adopted with the aim of realizing a user-friendly operation system, the operation of the device is well understood, and this method may be troublesome for an operator who wants a quick operation. There were many. In addition, it is difficult for an operator who is not good at equipment to use a user interface device that employs an inorganic and mechanical interface, and is often difficult to understand. For example, home appliances that use a single device with multiple operators and equipment in homes need to support operators with various mental models. Since only a single user interface is provided, it is impossible to follow the mental model that each operator has for the device, and improvement in operability cannot be expected. In addition, when it is difficult to see the display of household electrical appliances and equipment, the operator brings the face close to the display, or the operator brings the face close to the microphone for voice input. As a result of the operation, when home appliances or facility devices perform physical operations, there may be a danger to an operator approaching the home appliances or facility devices.

この発明は、上記に鑑みてなされたもので、様々な操作者がそれぞれに抱いているメンタルモデルに沿ったユーザインタフェースを提供することができるユーザインタフェース装置とそのユーザインタフェース装置を備える家電・住設機器およびユーザインタフェース提示方法を得ることを目的とする。また、ユーザインタフェース装置と操作者との距離を制御することができるユーザインタフェース装置とそのユーザインタフェース装置を備える家電・住設機器およびユーザインタフェース提示方法を得ることも目的とする。   The present invention has been made in view of the above, and a user interface device capable of providing a user interface according to a mental model held by various operators, and a home appliance / housing provided with the user interface device An object is to obtain a device and a user interface presentation method. It is another object of the present invention to obtain a user interface device that can control the distance between the user interface device and an operator, a home appliance / household device including the user interface device, and a user interface presentation method.

上記目的を達成するため、この発明にかかるユーザインタフェース装置は、操作者からの音声による指示を所定のコマンドに解釈し、前記操作者に対しては表示を行って所定の情報を伝えるユーザインタフェース装置において、前記操作者の音声による指示を受け付ける音声入力手段と、表示手段と、当該ユーザインタフェース装置から前記操作者までの操作者距離を測定する操作者位置検出手段と、前記操作者位置検出手段によって測定された前記操作者距離を、前記操作者の当該ユーザインタフェース装置に対して抱くメンタルモデルにしたがって定めた所定値と比較する操作者位置判定機能、前記操作者距離が所定値以上の場合に、擬人的な内容を前記表示手段に表示させる操作者位置離隔用インタフェース提示制御機能、および前記操作者距離が所定値以下の場合に、機械的な内容を前記表示手段に表示させる操作者位置近接用インタフェース提示制御機能を有する全体制御手段と、を備えることを特徴とする。 In order to achieve the above object, a user interface device according to the present invention interprets a voice instruction from an operator into a predetermined command, and displays the information to the operator by displaying the information. A voice input means for receiving an instruction by the voice of the operator, a display means, an operator position detection means for measuring an operator distance from the user interface device to the operator, and the operator position detection means. An operator position determination function for comparing the measured operator distance with a predetermined value determined according to a mental model held by the operator on the user interface device , when the operator distance is a predetermined value or more, An operator position separation interface presentation control function for displaying anthropomorphic content on the display means; and If the author distance is less than a predetermined value, characterized in that it comprises a main control device with mechanical contents to be displayed on said display means the operator position proximate interface presentation control function.

この発明によれば、操作者距離から操作者が機器に対して抱いているメンタルモデルを判定し、各操作者のメンタルモデルに追随した操作系を実現できるので、機器に対しての馴染み度合の異なる複数の操作者のそれぞれに対して操作性の向上を図ることができるという効果を有する。   According to the present invention, it is possible to determine the mental model that the operator has with respect to the device from the operator distance, and to realize an operation system that follows the mental model of each operator. There is an effect that operability can be improved for each of a plurality of different operators.

以下に添付図面を参照して、この発明にかかるユーザインタフェース装置、家電・住設機器およびユーザインタフェース提示方法の好適な実施の形態を詳細に説明する。   Exemplary embodiments of a user interface device, a home appliance / residential appliance, and a user interface presentation method according to the present invention will be described below in detail with reference to the accompanying drawings.

実施の形態1.
図1は、この発明にかかるユーザインタフェース装置の実施の形態1の構成を模式的に示すブロック図である。このユーザインタフェース装置10は、家電機器や住宅の設備機器(以下、操作対象機器という)に組み込まれて構成される装置であり、操作者からのコマンドを音声入力として受付ける音声入力部11と、操作者のコマンドを解釈するコマンド解釈部12と、ユーザインタフェース装置10からの操作者の位置(距離)を検出する操作者位置検出部13と、操作者に対して所定の情報の表示を行う表示部14と、操作者の位置に基づいて表示部14に表示させる内容を変化させる全体制御部15と、を備える。
Embodiment 1 FIG.
FIG. 1 is a block diagram schematically showing the configuration of the first embodiment of the user interface device according to the present invention. The user interface device 10 is a device configured to be incorporated in home appliances or residential equipment (hereinafter referred to as operation target devices), and includes a voice input unit 11 that receives commands from an operator as voice inputs, A command interpreter 12 for interpreting an operator's command, an operator position detector 13 for detecting the position (distance) of the operator from the user interface device 10, and a display unit for displaying predetermined information to the operator 14 and an overall control unit 15 that changes the content displayed on the display unit 14 based on the position of the operator.

音声入力部11は、マイクなどの音声を検出する手段から構成され、操作者からの音声による指示を音声入力として受信する。   The voice input unit 11 includes means for detecting voice such as a microphone, and receives voice instructions from an operator as voice input.

コマンド解釈部12は、音声入力部11からの音声入力をユーザインタフェース装置10が備えられる操作対象機器で解釈可能なコマンドに変換する。このコマンド解釈部12は、たとえば、操作対象機器で実行可能なコマンドに対して、同等な内容の用語を登録したコマンド解釈辞書を有し、音声入力された内容を、コマンド解釈辞書を参照して操作対象機器へのコマンドへと変換し、図示しない操作対象機器の制御部へと出力する。なお、ユーザインタフェース装置10が配置される空間に存在する人の話し声と、ユーザインタフェース装置10への指示とを区別するために、音声入力は所定の形式で行う必要がある。たとえば、従来公知の「冷蔵庫君、急速冷凍して。」や「冷蔵庫、急速冷凍オン。」というように、ユーザインタフェース装置10またはユーザインタフェース装置10を備える操作対象機器に付した名前に続けて、指示を発音するようにすることで、指示とそうでない話し声とを区別する方法などを用いることができる。   The command interpretation unit 12 converts the voice input from the voice input unit 11 into a command that can be interpreted by the operation target device provided with the user interface device 10. For example, the command interpreting unit 12 has a command interpretation dictionary in which terms having equivalent contents are registered with respect to commands that can be executed by the operation target device, and the contents inputted by voice are referred to the command interpretation dictionary. The command is converted into a command for the operation target device and output to a control unit of the operation target device (not shown). In addition, in order to distinguish between the voice of a person existing in the space where the user interface device 10 is arranged and the instruction to the user interface device 10, it is necessary to input the voice in a predetermined format. For example, following the names given to the user interface device 10 or the operation target device including the user interface device 10 such as the conventionally known “refrigerator-kun, quick-frozen” or “refrigerator, quick-frozen on”, By making the instruction pronounce, a method for distinguishing between the instruction and the other voice can be used.

操作者位置検出部13は、ユーザインタフェース装置10またはこのユーザインタフェース装置10が備えられる操作対象機器の近辺に人(操作者)が存在する場合に、その操作者までの距離を検出し、その結果を全体制御部15に出力する。このような操作者位置検出部13として、たとえば、焦電型センサと赤外線方式の測距センサとを組み合わせた装置を用いることができる。   The operator position detection unit 13 detects the distance to the operator when there is a person (operator) in the vicinity of the user interface device 10 or the operation target device provided with the user interface device 10, and the result Is output to the overall control unit 15. As such an operator position detection unit 13, for example, a device in which a pyroelectric sensor and an infrared range sensor are combined can be used.

表示部14は、液晶ディスプレイ装置などの表示手段から構成され、操作者の位置に応じた表示内容を表示する。   The display unit 14 includes display means such as a liquid crystal display device, and displays display contents corresponding to the position of the operator.

全体制御部15は、操作者のメンタルモデルに基づいて表示部14に表示させる内容を変化させる機能を有し、操作者位置がメンタルモデルに基づいて定まる所定値と比較して遠いか近いかを判定する操作者位置判定部151と、ユーザインタフェース装置10を擬人的に捉えている操作者に対して表示を行う操作者位置離隔用インタフェース提示制御部152と、ユーザインタフェース装置10を無機質で機械的なものと捉えている操作者用に表示を行う操作者位置近接用インタフェース提示制御部153と、を有する。   The overall control unit 15 has a function of changing the content displayed on the display unit 14 based on the operator's mental model, and determines whether the operator position is far or near compared to a predetermined value determined based on the mental model. An operator position determination unit 151 for determining, an operator position separation interface presentation control unit 152 that performs display for an operator who perceives the user interface device 10 as an anthropomorphic, and an inorganic mechanical device And an operator position proximity interface presentation control unit 153 that performs display for an operator who is regarded as an object.

ここで、操作者のメンタルモデルに基づいた表示内容の切替えについて説明する。この実施の形態1では、操作者がユーザインタフェース装置10に対してどのようなメンタルモデルを抱いているかを、操作者のユーザインタフェース装置10からの距離によって判定している。具体的には、所定値よりも離れている位置に存在する操作者は、ユーザインタフェース装置10を擬人的に(話し相手として)捉えているものとし、所定値よりも近い位置に存在する操作者は、ユーザインタフェース装置10を無機質で機械的なものと捉えているものとしている。これは、たとえば人と人との会話では、ある程度の距離を保って行い、顔と顔が接するような状態で話すことはないことから、所定の距離をおいてユーザインタフェース装置10に指示を行う操作者は、ユーザインタフェース装置10を擬人的に捉えていると考えることができる。また、たとえばマイクに向かって声を出すときには、人は口をマイクに接するくらいに近づけて発声することから、所定の距離よりも近い距離でユーザインタフェース装置10に指示を行う操作者は、ユーザインタフェース装置10を機械的に捉えていると考えることができる。以上により、この実施の形態1では、ユーザインタフェース装置10からの距離によって操作者のメンタルモデルを判定している。なお、全体制御部15で判定されるユーザインタフェース装置10からの所定の距離は、上述した人の特性を統計的に調べることによって得ることができる。   Here, switching of display contents based on the operator's mental model will be described. In the first embodiment, what kind of mental model the operator holds for the user interface device 10 is determined based on the distance from the user interface device 10 of the operator. Specifically, it is assumed that an operator present at a position farther than a predetermined value grasps the user interface device 10 as an anthropomorphic person (as a speaking partner), and an operator present at a position closer to the predetermined value The user interface device 10 is regarded as inorganic and mechanical. For example, in a conversation between people, a certain distance is maintained, and since the face is not in a state where the face is in contact, an instruction is given to the user interface device 10 at a predetermined distance. It can be considered that the operator grasps the user interface device 10 as an anthropomorphic person. Further, for example, when speaking out into a microphone, a person utters as close as the mouth touches the microphone. Therefore, an operator who gives instructions to the user interface device 10 at a distance closer than a predetermined distance is It can be considered that the device 10 is mechanically captured. As described above, in the first embodiment, the mental model of the operator is determined based on the distance from the user interface device 10. Note that the predetermined distance from the user interface device 10 determined by the overall control unit 15 can be obtained by statistically examining the above-described characteristics of the person.

操作者位置判定部151は、操作者位置検出部13から渡された操作者位置と予め設定される所定値とを比較して、操作者位置が所定値よりも大きい場合には操作者位置離隔用インタフェース提示制御部152を動作させ、操作者位置が所定値よりも小さい場合には操作者位置近接用インタフェース提示制御部153を動作させる。なお、操作者距離が所定値と等しい場合には、操作者位置離隔用インタフェース提示制御部152を動作させてもよいし、操作者位置近接用インタフェース提示制御部153を動作させてもよい。   The operator position determination unit 151 compares the operator position passed from the operator position detection unit 13 with a predetermined value set in advance, and when the operator position is larger than the predetermined value, the operator position separation is performed. When the operator position is smaller than a predetermined value, the operator position proximity interface presentation control unit 153 is operated. When the operator distance is equal to the predetermined value, the operator position separation interface presentation control unit 152 may be operated, or the operator position proximity interface presentation control unit 153 may be operated.

操作者位置離隔用インタフェース提示制御部152は、初期状態にあるときおよびユーザインタフェース装置10の前の所定の距離よりも離れた位置に操作者を検出したときに、操作者位置離隔用の表示画面を表示部14に表示させる。具体的には、上述したようにユーザインタフェース装置10から所定の距離よりも離れて存在する操作者は、ユーザインタフェース装置10を擬人的に捉えていると判定することができるので、表示部14に擬人的な画像や動物的な画像など、ユーザフレンドリな画面を表示する。   The operator position separation interface presentation control unit 152 displays an operator position separation display screen when in an initial state and when an operator is detected at a position away from a predetermined distance in front of the user interface device 10. Is displayed on the display unit 14. Specifically, as described above, an operator who is present at a distance greater than a predetermined distance from the user interface device 10 can determine that the user interface device 10 is captured in an anthropomorphic manner. A user-friendly screen such as an anthropomorphic image or an animal image is displayed.

操作者位置近接用インタフェース提示制御部153は、ユーザインタフェース装置10の前の所定の距離よりも近い位置に操作者を検出したときに、操作者位置近接用の表示画面を表示部14に表示させる。具体的には、上述したようにユーザインタフェース装置10から所定の距離よりも近くに存在する操作者は、ユーザインタフェース装置10を機械的に捉えていると判定することができるので、表示部14にマイクなどの無機質で機械的な画像を表示する。   The operator position proximity interface presentation control unit 153 causes the display unit 14 to display a display screen for operator position proximity when an operator is detected at a position closer than a predetermined distance in front of the user interface device 10. . Specifically, as described above, an operator who is closer than a predetermined distance from the user interface device 10 can determine that the user interface device 10 is mechanically captured. Display inorganic and mechanical images such as microphones.

ここで、このような構成のユーザインタフェース装置10の表示画面の切替え処理について説明する。図2は、ユーザインタフェース装置の動作処理手順を示すフローチャートであり、図3−1〜図3−2は、ユーザインタフェース装置とその操作者の位置関係を模式的に示す図であり、図4−1〜図4−2は、ユーザインタフェース装置の表示部に表示される画像の一例を示す図である。ここでは、ユーザインタフェース装置10は、家電機器や住宅の設備機器(以下、住設機器という)などの操作対象装置30に備えられている場合が示されている。   Here, a display screen switching process of the user interface device 10 having such a configuration will be described. FIG. 2 is a flowchart showing the operation processing procedure of the user interface device, and FIGS. 3-1 to 3-2 are diagrams schematically showing the positional relationship between the user interface device and its operator. 1 to 4B are diagrams illustrating an example of an image displayed on the display unit of the user interface device. Here, a case where the user interface device 10 is provided in an operation target device 30 such as a home appliance or a house equipment (hereinafter referred to as a housing device) is shown.

まず、ユーザインタフェース装置10が設けられている操作対象機器に対して音声による指示を出そうとして、操作者がユーザインタフェース装置10の操作者位置検出範囲に侵入すると、操作者位置検出部13は操作者位置を検出し、操作者位置までの距離である操作者距離を計測し(ステップS11)、その結果を全体制御部15に渡す。全体制御部15の操作者位置判定部151は、操作者位置検出部13から受取った操作者距離を操作者のメンタルモデルを判定するための所定値と比較し、操作者距離が所定値よりも大きいか否かを判定する(ステップS12)。   First, when an operator enters the operator position detection range of the user interface device 10 in an attempt to give a voice instruction to the operation target device provided with the user interface device 10, the operator position detection unit 13 performs the operation. The operator position is detected, the operator distance that is the distance to the operator position is measured (step S11), and the result is passed to the overall control unit 15. The operator position determination unit 151 of the overall control unit 15 compares the operator distance received from the operator position detection unit 13 with a predetermined value for determining the mental model of the operator, and the operator distance is less than the predetermined value. It is determined whether it is larger (step S12).

たとえば、図3−1に示されるようにユーザインタフェース装置10(操作対象機器30)と操作者50との間の操作者距離Rが所定値Aよりも大きい場合(ステップS12でYesの場合)には、操作者は操作対象機器30を話し相手として捉えているものとして、操作者位置離隔用インタフェース提示制御部152を駆動させる(ステップS13)。操作者位置離隔用インタフェース提示制御部152は、操作者が操作対象機器を話し相手として捕らえていると判断しているので、表示部14に図4−1に示されるように人の顔101などの擬人的な表示画面100を表示させる(ステップS14)。   For example, as shown in FIG. 3A, when the operator distance R between the user interface device 10 (operation target device 30) and the operator 50 is larger than a predetermined value A (Yes in step S12). The operator drives the operator position / separation interface presentation control unit 152 assuming that the operation target device 30 is regarded as a conversation partner (step S13). Since the operator position separation interface presentation control unit 152 determines that the operator grasps the operation target device as a talking partner, the display unit 14 displays a human face 101 or the like as shown in FIG. An anthropomorphic display screen 100 is displayed (step S14).

一方、図3−2に示されるようにユーザインタフェース装置10(操作対象機器30)と操作者50との間の操作者距離Rが所定値Aよりも小さい場合(ステップS12でNoの場合)には、操作者は操作対象機器30を機械的なものとみなしているものとして、操作者位置近接用インタフェース提示制御部153を駆動させる(ステップS15)。操作者位置近接用インタフェース提示制御部153は、操作者が操作対象機器をそのままの機器とみなしていると判断しているので、表示部14に図4−2に示されるようにマイク111などの機械的な表示画面110を表示させる(ステップS16)。   On the other hand, as shown in FIG. 3B, when the operator distance R between the user interface device 10 (operation target device 30) and the operator 50 is smaller than the predetermined value A (No in step S12). The operator assumes that the operation target device 30 is mechanical, and drives the operator position proximity interface presentation control unit 153 (step S15). Since the operator position proximity interface presentation control unit 153 determines that the operator regards the operation target device as the device as it is, the display unit 14 displays a microphone 111 or the like as shown in FIG. The mechanical display screen 110 is displayed (step S16).

その後またはステップS14の後、ユーザインタフェース装置10は、操作者からの音声による操作の指示を受付け可能な状態に入り(ステップS17)、処理が終了する。   After that or after step S14, the user interface device 10 enters a state where it can accept an operation instruction by voice from the operator (step S17), and the process ends.

図4−1のように、人の顔101を模した擬人的な表示画面100を表示部14に表示し、さらに音声による応答や問い掛けなども加えることにより、あたかも操作者と操作対象機器とが会話をしているかのようなユーザインタフェースを実現することができる。このように擬人的な操作者位置離隔用インタフェースを用いれば、機器を話し相手とみなすことができるような環境を作り出し、操作者に、より話し掛け易いユーザインタフェースを提供することができる。   As shown in FIG. 4A, an anthropomorphic display screen 100 simulating a human face 101 is displayed on the display unit 14, and further by adding a voice response or an inquiry, it is as if the operator and the operation target device are. A user interface as if having a conversation can be realized. By using an anthropomorphic operator position separation interface in this way, it is possible to create an environment in which the device can be regarded as a talking partner, and to provide a user interface that is easier to talk to the operator.

また、図4−2のように、マイク111などの機械的な表示画面110を表示部14に表示することにより、操作者が音声によって話し掛けている相手は、人のような話し相手ではなく、音声入力を行なって操作する機器そのものである、ということをより明確に提示するユーザインタフェースを実現することができる。機器を機器そのものとして受け入れている操作者にとってはこのような形式のユーザインタフェースの方がより音声を入力しやすくなり、より操作性の高いユーザインタフェースを提供できる。   Also, as shown in FIG. 4B, by displaying a mechanical display screen 110 such as a microphone 111 on the display unit 14, the partner to whom the operator speaks by voice is not a talker like a person but a voice. It is possible to realize a user interface that clearly presents that the device itself is operated by performing input. For an operator who accepts a device as the device itself, this type of user interface makes it easier to input voice and provide a user interface with higher operability.

たとえば、この実施の形態1のユーザインタフェース装置10を、操作対象機器であるファンヒータに組み込んだ場合を考えると、ある程度距離を置いて話し掛ける操作者に対しては図4−1のような擬人的インタフェースを提示し、ある程度以上近付いて操作しようとする操作者には図4−2のような機械的なインタフェースを提示する。図4−1のような擬人的な操作者位置離隔用インタフェースでは、たとえば操作者からの「ファンヒータ、点いて」と言った話し掛けを音声入力として、この指示をコマンドに変換してファンヒータを起動する。また、図4−2のような機械的な操作者位置近接用インタフェースでは、操作者はマイクに向かって「ファンヒータ、ON」といった操作のための音声コマンドの入力を行い、ファンヒータを起動する。   For example, considering the case where the user interface device 10 according to the first embodiment is incorporated in a fan heater that is an operation target device, an anthropomorphic person as shown in FIG. An interface is presented, and a mechanical interface as shown in FIG. In the anthropomorphic operator position separation interface as shown in FIG. 4-1, for example, a speech such as “fan heater, turn on” from the operator is used as a voice input, and this instruction is converted into a command. to start. In the mechanical operator position proximity interface as shown in FIG. 4B, the operator inputs a voice command for an operation such as “fan heater, ON” to the microphone and starts the fan heater. .

操作の進め方に関しても、擬人的な操作者位置離隔用インタフェースの場合には、擬人化された表示が操作者に説明を加えながら操作手順を誘導したり、擬人化された機器と操作者とが対話をしながら操作内容を決めていったりするなど、あまり機器になじみの無い操作者でも操作できるようにするための機能を盛り込んでもよい。一方、機械的な操作者位置近接用インタフェースを提示している場合には、上述した理由により操作者は機器に馴染んでいるとみなすことができるので、日頃よく行なう操作をすぐに実行できるように、音声による操作指示を直接受け付けるようにしたり、その助けとして入力可能な音声コマンドの候補を表示部14に文字情報として提示したり、さらにはその他説明や指示などの書かれた文字情報を提示したりしてもよい。   Regarding the way of operation, in the case of an anthropomorphic operator position separation interface, the anthropomorphic display guides the operation procedure while explaining the operator, or the anthropomorphic equipment and the operator A function for enabling an operator who is unfamiliar with the device to perform the operation, such as deciding the operation content while interacting, may be incorporated. On the other hand, when a mechanical operator position proximity interface is presented, the operator can be regarded as familiar with the device for the reasons described above, so that frequently performed operations can be performed immediately. The user can directly accept voice operation instructions, presents voice command candidates that can be input as text information on the display unit 14 as character information, and presents other text information such as explanations and instructions. Or you may.

また、機器への理解度の違いという性質を利用して、擬人的インタフェースの場合と機械的インタフェースの場合とで操作可能な範囲を変更してもよい。たとえば擬人的な操作者位置離隔用インタフェースでは一部の制限された機能のみを操作可能とし、機械的な操作者位置近接用インタフェースでは詳細な機能まで操作可能とするなどのようにしてもよい。前述のファンヒータで例示すれば、擬人的な操作者位置離隔用インタフェースではファンヒータのON/OFFのみを操作可能とし、機械的な操作者位置近接用インタフェースではON/OFFに加え、温度設定や風量設定、チャイルドロックなども操作できるように設定してもよい。   In addition, the range of operations may be changed between an anthropomorphic interface and a mechanical interface by using the nature of a difference in the degree of understanding of devices. For example, only some limited functions can be operated in the anthropomorphic operator position separation interface, and detailed functions can be operated in the mechanical operator position proximity interface. For example, in the case of the fan heater described above, the anthropomorphic operator position separation interface allows only the fan heater to be turned on / off, and the mechanical operator position proximity interface provides on- You may set so that air volume setting, child lock, etc. can be operated.

このような処理を実行するユーザインタフェース装置10は、MPU(Micro Processing Unit)とメモリを備える制御手段に、表示手段およびマイクが接続されて構成され、家電機器や住設機器などの操作対象機器に組み込まれて使用される。また、メモリには、上記処理を実行するためのソフトウェアがプログラムとしてメモリに格納される。ただし、操作対象機器にも自機器を制御するMPUやメモリを備える構成の場合には、操作対象機器の設計段階で、操作対象機器のMPUやメモリとユーザインタフェース装置10のMPUとメモリを共通化するようにしてもよい。   The user interface device 10 that executes such processing is configured by connecting a display unit and a microphone to a control unit including an MPU (Micro Processing Unit) and a memory. Incorporated and used. In addition, software for executing the above processing is stored in the memory as a program. However, in the case where the operation target device includes an MPU and a memory for controlling the own device, the MPU and memory of the operation target device and the MPU and memory of the user interface device 10 are shared at the design stage of the operation target device. You may make it do.

なお、上述した説明では表示部14には表示画面として人の顔の画像を表示したり、マイクの画像を表示したり、音声による応答、問い掛けなどを表示(出力)したり文字によりコマンド候補を表示したりする場合を例に挙げたが、これらは一例であり、表示部14としては光、文字、アイコン(図形、絵)、幾何学模様、報知音(ビープ音やメロディ音、自然界の音、創作的な音など)または音声などを利用するものであってもよいし、またこれらのうちの複数の要素を任意に組み合わせたものを利用するものであってもよい。これらの要素を用いることによって、操作者位置離隔用インタフェースでは、擬人的な画像として、前述した人の顔を模した画像の他に、ロボットや愛玩動物など、話し相手と認識できるような表現の画像を用いることができる。また、操作者位置近接用インタフェースでは、機械的な画像として、前述したマイクの表示や文字の他に、機器のスイッチの画像やアイコンなど、機器を意識させるような表現の画像を用いることができる。   In the above description, the display unit 14 displays an image of a person's face as a display screen, displays a microphone image, displays (outputs) a voice response, an inquiry, etc. However, these are only examples, and the display unit 14 is light, characters, icons (figures, pictures), geometric patterns, notification sounds (beep sounds, melody sounds, natural sounds). , Creative sounds, etc.) or voice, etc., or a combination of any of these elements may be used. By using these elements, in the operator position separation interface, in addition to the image imitating the person's face described above, an image of an expression that can be recognized as a talking partner, such as a robot or a pet animal, as an anthropomorphic image Can be used. In addition, in the operator position proximity interface, in addition to the microphone display and characters described above, an image of an expression that makes the device aware, such as a switch image or icon of the device, can be used as the mechanical image. .

この実施の形態1によれば、操作者位置(操作者距離)から操作者が機器に対して抱いているメンタルモデルを判定し、各操作者のメンタルモデルに追随した操作系を実現できるので、機器に対しての馴染み度合の異なる複数の操作者のそれぞれに対して操作性の向上を図ることができる。   According to the first embodiment, it is possible to determine the mental model that the operator has with respect to the device from the operator position (operator distance), and to realize an operation system that follows the mental model of each operator. It is possible to improve operability for each of a plurality of operators having different degrees of familiarity with the device.

実施の形態2.
実施の形態1では、操作対象機器の操作者のメンタルモデルを操作者距離に基づいて判定して、表示部に表示させる表示画面を変化させるユーザインタフェース装置を説明した。この実施の形態2では、操作者と操作対象機器との間の距離すなわち操作者距離を制御させるために表示部に表示させる表示画面を変化させるユーザインタフェース装置について説明する。なお、この実施の形態2でも、ユーザインタフェース装置は、実施の形態1の図1と同一の機能構成を有する。以下に、実施の形態1と異なる処理を実行する構成要素について説明し、実施の形態1と同一の機能を有する構成要素についての説明は省略する。
Embodiment 2. FIG.
In the first embodiment, the user interface device that determines the mental model of the operator of the operation target device based on the operator distance and changes the display screen displayed on the display unit has been described. In the second embodiment, a user interface device that changes a display screen displayed on a display unit in order to control a distance between an operator and an operation target device, that is, an operator distance will be described. In the second embodiment, the user interface device has the same functional configuration as that of the first embodiment shown in FIG. In the following, components that execute processing different from that of the first embodiment will be described, and description of components having the same functions as those of the first embodiment will be omitted.

全体制御部15は、コマンド解釈部12によって解釈された音声入力部11からの操作者の指示と、操作者位置検出部13によって測定されたその操作者までの距離である操作者距離に基づいて、操作者をよりユーザインタフェース装置10から遠ざけさせたい場合には操作者位置離隔用インタフェース提示制御部152を駆動し、ユーザインタフェース装置10側に近づけさせたい場合には操作者位置近接用インタフェース提示制御部153を駆動する。   The overall control unit 15 is based on the operator's instruction from the voice input unit 11 interpreted by the command interpretation unit 12 and the operator distance which is the distance to the operator measured by the operator position detection unit 13. When it is desired to move the operator further away from the user interface device 10, the operator position separation interface presentation control unit 152 is driven. When the operator is desired to move closer to the user interface device 10, the operator position proximity interface presentation control is performed. The unit 153 is driven.

操作者をユーザインタフェース装置10から遠ざけさせたい場合として、たとえば、操作者の指示が、操作対象機器の現在の設置空間よりも広い空間に物理的な影響を及ぼすものである場合が挙げられる。より具体的には、操作対象機器が開閉可能な扉を有する場合で、扉を閉状態から開状態となるように操作者が指示を出した場合でかつその扉が開状態となった時にその扉の移動範囲に操作者が存在する場合や、操作対象機器が加熱可能な構成を有する場合で、ある温度まで加熱するように操作者が指示を出した場合でかつその加熱によって操作者に危険が及ぶ可能性のある範囲に操作者が存在する場合などを例示することができる。また、操作者をユーザインタフェース装置10に近づけさせたい場合として、たとえば、音声入力部11から入力した操作者の指示が音圧不足によって判別することができない場合や、操作者が何度も指示を間違えている場合などを例示することができる。   As a case where the operator wants to move away from the user interface device 10, for example, there is a case where the operator's instruction has a physical effect on a space wider than the current installation space of the operation target device. More specifically, when the operation target device has a door that can be opened and closed, when the operator gives an instruction to open the door from the closed state, and when the door is opened, When there is an operator in the movement range of the door, or when the operation target device has a configuration capable of heating, when the operator gives an instruction to heat up to a certain temperature and the heating is dangerous to the operator The case where an operator exists in the range which may be covered can be illustrated. Further, as a case where the operator wants to bring the operator closer to the user interface device 10, for example, when the operator's instruction input from the voice input unit 11 cannot be determined due to insufficient sound pressure, or the operator repeatedly instructs the user interface device 10. The case where it is mistaken can be illustrated.

つまり、操作者位置判定部151は、コマンド解釈部12によって操作対象機器の現在の設置空間よりも広い空間に影響を及ぼすコマンドと判定されかつ操作者位置検出部13によって測定された操作者距離が所定値よりも小さい場合に、操作者位置離隔用インタフェース提示制御部152を駆動し、コマンド解釈部12によって音声入力部11からの操作者の指示が識別できなかった場合に、操作者位置近接用インタフェース提示制御部153を駆動する。   That is, the operator position determination unit 151 determines that the command interpretation unit 12 determines that the command affects a space larger than the current installation space of the operation target device, and the operator distance measured by the operator position detection unit 13 is the operator distance. When it is smaller than the predetermined value, the operator position separation interface presentation control unit 152 is driven, and when the command interpretation unit 12 cannot identify the operator's instruction from the voice input unit 11, The interface presentation control unit 153 is driven.

また、操作者位置離隔用インタフェース提示制御部152は、コマンド解釈部12によって操作対象機器の現在の設置空間よりも広い空間に影響を及ぼすコマンドと判定されかつ操作者位置検出部13によって測定された操作者距離が所定値よりも小さい場合に、操作者を現在位置よりも遠ざけさせる(離隔させる)ように、表示部14に擬人的な画像などの表示画面を表示させる。これは、実施の形態1で説明したように、擬人的な画像などを表示させることで、操作者に操作対象機器を機器などではなく人(話し相手)として認識させるためである。   Further, the operator position separation interface presentation control unit 152 is determined by the command interpretation unit 12 as a command that affects a space larger than the current installation space of the operation target device and is measured by the operator position detection unit 13. When the operator distance is smaller than a predetermined value, a display screen such as an anthropomorphic image is displayed on the display unit 14 so as to move the operator away (separate) from the current position. This is because, as described in the first embodiment, by displaying an anthropomorphic image or the like, the operator recognizes the operation target device as a person (speaking partner) instead of a device or the like.

さらに、操作者位置近接用インタフェース提示制御部153は、コマンド解釈部12によって音声入力部11からの操作者の指示が識別できなかった場合に、操作者を現在位置よりも近づけさせる(近接させる)ように、表示部14に機械的な画像や小さいフォントの文字で構成したコマンドの一覧情報などの表示画面を表示させる。これは、実施の形態1で説明したように、機械的な画像を表示させることで、操作者に操作対象機器をそのままの機器として認識させるためである。また、表示させる文字を小さくしたりすることで、操作者はよりユーザインタフェース装置10の表示部14の表示内容を確認するために近付いて、音声を入力するようになるからである。   Further, the operator position proximity interface presentation control unit 153 moves the operator closer to (is closer to) the current position when the command interpretation unit 12 cannot identify the operator's instruction from the voice input unit 11. As described above, the display unit 14 displays a display screen such as a list of commands composed of mechanical images and small font characters. This is because, as described in the first embodiment, by displaying a mechanical image, the operator recognizes the operation target device as it is. Further, by reducing the characters to be displayed, the operator comes closer to confirm the display contents of the display unit 14 of the user interface device 10 and inputs voice.

ここで、このような構成のユーザインタフェース装置10の表示画面の表示処理について説明する。図5は、ユーザインタフェース装置の表示処理手順の一例を示すフローチャートであり、図6−1〜図6−2は、ユーザインタフェース装置を冷蔵庫に組み込んだ場合の一例を示す図である。   Here, display processing of the display screen of the user interface device 10 having such a configuration will be described. FIG. 5 is a flowchart illustrating an example of a display processing procedure of the user interface device, and FIGS. 6-1 to 6-2 are diagrams illustrating an example when the user interface device is incorporated in a refrigerator.

まず、ユーザインタフェース装置10が設けられている操作対象機器に対して操作者から音声による指示が出されると(ステップS31)、音声入力部11はその音声をコマンド解釈部12に渡す。コマンド解釈部12は、受取った音声から操作者によって指示された内容を示すコマンドに解釈し(ステップS32)、その結果を全体制御部15に渡す。なお、コマンド解釈部12は、音声を解釈することができなかった場合には、解釈することができなかった旨の信号を全体制御部15に渡すものとする。   First, when an instruction is given by voice to the operation target device provided with the user interface device 10 (step S31), the voice input unit 11 passes the voice to the command interpretation unit 12. The command interpretation unit 12 interprets the received voice as a command indicating the content instructed by the operator (step S32), and passes the result to the overall control unit 15. In addition, the command interpretation part 12 shall pass the signal to the effect that it was not able to interpret to the whole control part 15, when an audio | voice cannot be interpreted.

全体制御部15の操作者位置判定部151は、コマンド解釈部12から指示を解釈することができない旨の信号を受取ったか否かを判定する(ステップS33)。指示を解釈することができない旨の信号を受取った場合(ステップS33でYesの場合)には、操作者位置近接用インタフェース提示制御部153を駆動し(ステップS34)、図6−1に示されるように機械的な画像やフォントを小さくした文字などの操作者近接用画面を表示部14に表示させる(ステップS35)。その後、操作者位置近接用インタフェース提示制御部153は、ステップS35の操作者近接用画面を所定の回数、表示したか否かを判定する(ステップS36)。所定の回数、ステップS35の操作者近接用画面を表示していない場合(ステップS36でNoの場合)には、再びステップS31へと処理が戻る。また、所定の回数、ステップS35の操作者近接用画面を表示した場合(ステップS36でYesの場合)には、操作者位置近接用インタフェース提示制御部153は、指示を解釈できない旨のエラーメッセージを操作者に対して通知し(ステップS37)、処理を終了する。これにより、操作者に対してもう一度最初から処理をやり直しさせる。   The operator position determination unit 151 of the overall control unit 15 determines whether or not a signal indicating that the instruction cannot be interpreted is received from the command interpretation unit 12 (step S33). When a signal indicating that the instruction cannot be interpreted has been received (Yes in step S33), the operator position proximity interface presentation control unit 153 is driven (step S34), and is shown in FIG. In this way, an operator proximity screen such as a mechanical image or a character with a reduced font size is displayed on the display unit 14 (step S35). Thereafter, the operator position proximity interface presentation control unit 153 determines whether or not the operator proximity screen in step S35 has been displayed a predetermined number of times (step S36). If the operator proximity screen in step S35 has not been displayed a predetermined number of times (No in step S36), the process returns to step S31 again. When the operator proximity screen in step S35 is displayed a predetermined number of times (Yes in step S36), the operator position proximity interface presentation control unit 153 displays an error message indicating that the instruction cannot be interpreted. The operator is notified (step S37), and the process is terminated. This causes the operator to start the process again from the beginning.

一方、全体制御部15の操作者位置判定部151は、コマンド解釈部12から指示を解釈することができない旨の信号を受取らなかった場合(ステップS33でNoの場合)すなわち操作者の指示をコマンドとして受取ることができた場合には、そのコマンドの実行結果が操作対象機器の現在の設置空間よりも広い空間に影響を及ぼすものか否かを判定する(ステップS38)。そのコマンドの実行結果が操作対象機器の現在の設置空間よりも広い空間に影響を及ぼすものである場合(ステップS38でYesの場合)には、操作者位置検出部13から操作者までの距離である操作者距離を取得する(ステップS39)。その後、操作者位置判定部151は、操作者距離が所定値よりも大きいか否かを判定する(ステップS40)。なお、このステップS40における所定値とは、コマンドの実行によって操作対象機器が外部に及ぼす影響のうち操作者に対する影響が及ばない操作対象機器(ユーザインタフェース装置10)からの距離である。   On the other hand, the operator position determination unit 151 of the overall control unit 15 does not receive a signal indicating that the instruction cannot be interpreted from the command interpretation unit 12 (No in step S33), that is, the operator's instruction If the command execution result can be received, it is determined whether or not the execution result of the command affects a space wider than the current installation space of the operation target device (step S38). When the execution result of the command affects a space larger than the current installation space of the operation target device (Yes in step S38), the distance from the operator position detection unit 13 to the operator is determined. A certain operator distance is acquired (step S39). Thereafter, the operator position determination unit 151 determines whether or not the operator distance is greater than a predetermined value (step S40). The predetermined value in step S40 is the distance from the operation target device (user interface device 10) that does not affect the operator among the effects of the operation target device on the outside due to the execution of the command.

操作者距離が所定値よりも小さい場合(ステップS40でNoの場合)には、操作者位置判定部151は操作者位置離隔用インタフェース提示制御部152を駆動し(ステップS41)、図6−2に示されるように擬人的な画像などの操作者離隔用画面を表示部14に表示させる(ステップS42)。その後、操作者位置離隔用インタフェース提示制御部152は、ステップS42の操作者離隔用画面を所定の回数、表示したか否かを判定する(ステップS43)。所定の回数、ステップS42の操作者離隔用画面を表示していない場合(ステップS43でNoの場合)には、ステップS39に戻り、操作者距離が所定値より大きくなるまで、ステップS39〜S42の処理を繰り返し実行する。また、所定の回数、ステップS42の操作者近接用画面を表示した場合(ステップS43でYesの場合)には、操作者位置離隔用インタフェース提示制御部152は、コマンドを実行できない旨のエラーメッセージを操作者に対して通知する(ステップS44)。たとえば、「近くでは危険ですのでこの操作はできません」のエラーメッセージを表示部14に表示させたり、音声で出力させたりすることができる。以上により、ユーザインタフェース装置10の表示処理手順が終了する。   When the operator distance is smaller than the predetermined value (No in step S40), the operator position determination unit 151 drives the operator position separation interface presentation control unit 152 (step S41), and FIG. As shown in FIG. 4, an operator separation screen such as an anthropomorphic image is displayed on the display unit 14 (step S42). Thereafter, the operator position separation interface presentation control unit 152 determines whether or not the operator separation screen in step S42 has been displayed a predetermined number of times (step S43). When the operator separation screen of step S42 has not been displayed a predetermined number of times (in the case of No in step S43), the process returns to step S39, and steps S39 to S42 are performed until the operator distance becomes greater than the predetermined value. Repeat the process. When the operator proximity screen in step S42 is displayed a predetermined number of times (Yes in step S43), the operator position separation interface presentation control unit 152 displays an error message indicating that the command cannot be executed. The operator is notified (step S44). For example, an error message “This operation cannot be performed because it is dangerous in the vicinity” can be displayed on the display unit 14 or output by voice. Thus, the display processing procedure of the user interface device 10 is completed.

また、ステップS38でコマンドの実行結果が操作対象機器の現在の設置空間よりも広い空間に影響を及ぼすものではない場合(ステップS38でNoの場合)またはステップS40で操作者距離が所定値よりも大きい場合(ステップS40でYesの場合)には、全体制御部15は、コマンド解釈部12で解釈されたコマンドを操作対象機器に送信し(ステップS45)、処理が終了する。   Further, when the command execution result does not affect a space larger than the current installation space of the operation target device in step S38 (in the case of No in step S38), or in step S40, the operator distance is greater than a predetermined value. If larger (Yes in step S40), the overall control unit 15 transmits the command interpreted by the command interpretation unit 12 to the operation target device (step S45), and the process ends.

この実施の形態2のユーザインタフェース装置10では、音声入力部11に入力された音声コマンドにより全体制御部15が表示部14に提示する内容を変化させるなど、ユーザインタフェースの手順を制御しながら処理が進められる。   In the user interface device 10 according to the second embodiment, the processing is performed while controlling the procedure of the user interface, such as changing the contents presented by the overall control unit 15 to the display unit 14 by the voice command input to the voice input unit 11. It is advanced.

たとえば、図6−1〜図6−2のように、冷蔵庫31の操作パネルとしてこの実施の形態2のユーザインタフェース装置10を適用した場合、冷蔵庫31の扉を開けるアプリケーションとして「冷蔵庫、ドアオープン」という音声コマンドを受け付けるとすると、開扉に際して操作者が扉に近付きすぎていては危険である。そのため、全体制御部15は「ドアオープン」コマンドが受付可能になる前に、図6−2の表示部14に示されるように、人の顔などの擬人的な画像の表示を操作者位置離隔用インタフェース提示制御部152に行なわせるようにして操作者が機器との距離を大きめに取るように仕向ける。実施の形態1と同様に、操作者は機器が擬人化されることにより、機器を話し相手とみなすようになり、ある程度の距離を保つようになることが期待できる。   For example, as shown in FIGS. 6-1 to 6-2, when the user interface device 10 according to the second embodiment is applied as an operation panel of the refrigerator 31, an application for opening the door of the refrigerator 31 is “refrigerator, door open”. Would be dangerous if the operator is too close to the door when opening the door. Therefore, before the “door open” command can be accepted, the overall control unit 15 displays an anthropomorphic image such as a human face as shown in the display unit 14 of FIG. The interface is presented to the operator so that the operator takes a larger distance from the device. As in the first embodiment, the operator can expect that the device will be regarded as a talking partner and a certain distance will be maintained when the device is anthropomorphic.

また逆に、ある時点で操作者を機器に引き寄せたい状況になった場合には全体制御部15は操作者位置近接用インタフェース提示制御部153を利用して、表示部14に機械的なインタフェースでの表示を行なわせる。たとえば、操作者が音声コマンドの言葉を正確に思い出せないなどして何度かコマンド入力に失敗したときに詳細の確認を促す場合や、機器が取得した音声レベル(音圧)が低く(すなわち声が小さく)、もっと近くで発話してもらった方がよいと判断したような場合に、全体制御部15は操作者位置近接用インタフェース提示制御部153を利用して、図6−1に示されるような文字表示を表示部14に提示して操作者が機器との距離を縮めるように仕向ける。   On the other hand, if it is desired to attract the operator to the device at a certain point in time, the overall control unit 15 uses the operator position proximity interface presentation control unit 153 to provide a mechanical interface to the display unit 14. To display. For example, the operator may not be able to remember the exact words of the voice command, prompting the user to confirm details when the command input fails several times, or the voice level (sound pressure) acquired by the device is low (ie, voice ), The overall control unit 15 uses the operator position proximity interface presentation control unit 153 as shown in FIG. Such a character display is presented on the display unit 14 so that the operator can reduce the distance from the device.

なお、それまで擬人的な操作者離隔用画面を表示していた場合には機械的な操作者近接用画面に表示を切り替えるだけでよいが、それまでも操作者近接用画面を表示していた場合にはより小さな文字や絵などの表示に切り替えるようにすることもできる。このようにすることで、操作者はよりよく表示を見ようとして機器との間の距離を縮めることが期待できる。たとえば、最初に図2−2のようなマイクが表示部14に表示されていたが、操作者が音声コマンドの入力に何度か失敗した結果、図6−1のような表示に切り替ったとする。図7は、図6−1のユーザインタフェース装置の表示部に表示される内容の一例を示す図である。操作者が近寄って見ると、この図7のように表示されていたとすると、操作者は自分の発話していたコマンド(言葉)に誤りがあることに気付き、その場で言い直すことにより、正確な用語・発音で、かつより音声レベルが高く入力される可能性が高まり、結果的に操作性の向上につながる。   If an anthropomorphic operator separation screen has been displayed until then, it is only necessary to switch the display to the mechanical operator proximity screen, but until then the operator proximity screen has been displayed. In some cases, it is possible to switch to display of smaller characters and pictures. By doing so, the operator can expect to reduce the distance to the device in order to better see the display. For example, the microphone as shown in FIG. 2-2 was initially displayed on the display unit 14, but the operator switched to the display as shown in FIG. 6-1 as a result of several failed input of voice commands. To do. FIG. 7 is a diagram illustrating an example of contents displayed on the display unit of the user interface device of FIG. 6A. When the operator approaches, if it is displayed as shown in FIG. 7, the operator notices that there is an error in the command (word) that he was speaking, and corrects it by rephrasing on the spot. There is a high possibility that words and pronunciations will be input with a higher voice level, resulting in improved operability.

なお、図5の説明では、コマンドの実行結果が操作対象機器の現在の設置空間よりも広い空間に影響を及ぼすものであり、そして、操作対象機器から所定の範囲内に操作者が存在する場合に、操作者がその範囲から外れない限りコマンドが実行されない場合を示したが、これに限定されず、たとえば操作対象機器に扉が設けられており、この扉を開ける命令の際には、操作者距離を考慮して、扉を開ける操作を無効にしたり、ドアの開く角度を狭めたり、ドアの開く量(スライド量)を少なくしたりするようにしてもよい。   In the description of FIG. 5, the command execution result affects a space wider than the current installation space of the operation target device, and the operator exists within a predetermined range from the operation target device. In this example, the command is not executed unless the operator deviates from the range. However, the present invention is not limited to this. For example, a door is provided on the operation target device, and an operation to open the door is performed. In consideration of the person distance, the operation of opening the door may be invalidated, the door opening angle may be narrowed, or the door opening amount (sliding amount) may be reduced.

また、上述した説明では、操作対象機器全体で、操作者に危険を及ぼさないための範囲である所定値を設定する場合を示したが、指示の対象となる操作対象機器の動作部位ごとに、操作者に危険を及ぼさないための範囲である所定値を設定するようにしてもよい。たとえば、図6−1〜図6−2の冷蔵庫31において、扉32Aの開状態の範囲と扉32Bの開状態の範囲とが異なる場合には、扉32Aを開けるための指示がなされた場合には、扉32Aが開くときに操作者にあたらない範囲の所定値aで比較し、扉32Bを開けるための指示がなされた場合には、扉32Bが開くときに操作者があたらない範囲の所定値bで比較するようにすればよい。   Further, in the above description, the case where the predetermined value, which is a range for not causing danger to the operator, is set in the entire operation target device, but for each operation part of the operation target device to be instructed, You may make it set the predetermined value which is the range for not giving a danger to an operator. For example, in the refrigerator 31 of FIGS. 6-1 to 6-2, when the range of the open state of the door 32A is different from the range of the open state of the door 32B, an instruction to open the door 32A is given. Is compared with a predetermined value a in a range that does not correspond to the operator when the door 32A is opened, and when an instruction to open the door 32B is given, a predetermined value in a range where the operator does not contact when the door 32B is opened. The comparison may be made with the value b.

この実施の形態2によれば、表示部14へのインタフェースの提示方法や提示内容の大きさを変更することにより、操作者位置を制御することができるので、操作対象機器が駆動されることによって生じる危険を回避したり、より操作性の高いユーザインタフェース装置10を提供したりすることが可能となる。また、操作の際に操作者が操作対象機器に近付きすぎると危険が発生するような場合には、操作者位置検出部13の出力も利用して、操作者と機器との距離が近過ぎるときに、たとえば扉を開ける操作を無効にしたり開くドアの角度を狭めたりといったように、操作自体や操作の結果として起きる動作を抑制するなどの安全策を取ることもできる。   According to the second embodiment, the operator position can be controlled by changing the method of presenting the interface to the display unit 14 and the size of the presentation content, so that the operation target device is driven. It is possible to avoid the danger that occurs and to provide the user interface device 10 with higher operability. In the case where danger occurs when the operator is too close to the operation target device during operation, the output of the operator position detection unit 13 is also used to make the distance between the operator and the device too short. In addition, for example, it is possible to take safety measures such as suppressing the operation itself or the operation that occurs as a result of the operation, such as disabling the operation of opening the door or narrowing the angle of the door to be opened.

なお、実施の形態1〜2において、ユーザインタフェース装置10をファンヒータや冷蔵庫31に適用した例を説明したが、このユーザインタフェース装置10が適用される対象はこれらに限られる趣旨ではなく、洗濯機、電子レンジ、オーブン、IH(Induction Heating)クッキングヒータ、エアコン、加湿/除湿器、クリーンヒータ、照明機器、テレビジョン、ビデオ機器、照明や空調などのビル設備システム機器、パソコンなどの種々の家電機器や住設機器の種々の機能や設定項目に対して適用可能である。さらに、実施の形態1と実施の形態2について、これらはそれぞれ単独で用いても双方を組み合わせて用いてもよく、適用機器、操作・設定系に応じて最も効果的な構成を構築すればよい。   In the first and second embodiments, the example in which the user interface device 10 is applied to the fan heater or the refrigerator 31 has been described. However, the object to which the user interface device 10 is applied is not limited to these, and a washing machine , Microwave oven, oven, IH (Induction Heating) cooking heater, air conditioner, humidifier / dehumidifier, clean heater, lighting equipment, television, video equipment, building equipment system equipment such as lighting and air conditioning, various home appliances such as personal computers, etc. It is applicable to various functions and setting items of residential equipment. Furthermore, regarding Embodiment 1 and Embodiment 2, these may be used alone or in combination, and the most effective configuration may be constructed according to the applied device and the operation / setting system. .

以上のように、この発明にかかるユーザインタフェース装置は、ユーザからの指示に基づいた処理を行う制御機能を備える家電機器や住設機器に有用である。   As described above, the user interface device according to the present invention is useful for home appliances and housing equipment having a control function for performing processing based on an instruction from a user.

この発明によるユーザインタフェース装置の実施の形態1の構成を模式的に示すブロック図である。It is a block diagram which shows typically the structure of Embodiment 1 of the user interface device by this invention. ユーザインタフェース装置の動作処理手順を示すフローチャートである。It is a flowchart which shows the operation | movement process sequence of a user interface apparatus. ユーザインタフェース装置とその操作者の位置関係を模式的に示す図である(その1)。It is a figure which shows typically the positional relationship of a user interface apparatus and its operator (the 1). ユーザインタフェース装置とその操作者の位置関係を模式的に示す図である(その2)。It is a figure which shows typically the positional relationship of a user interface apparatus and its operator (the 2). ユーザインタフェース装置の表示部に表示される画像の一例を示す図である(その1)。It is a figure which shows an example of the image displayed on the display part of a user interface apparatus (the 1). ユーザインタフェース装置の表示部に表示される画像の一例を示す図である(その2)。It is a figure which shows an example of the image displayed on the display part of a user interface apparatus (the 2). ユーザインタフェース装置の表示処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the display processing procedure of a user interface apparatus. ユーザインタフェース装置を冷蔵庫に組み込んだ場合の一例を示す図である(その1)。It is a figure which shows an example at the time of incorporating a user interface apparatus in a refrigerator (the 1). ユーザインタフェース装置を冷蔵庫に組み込んだ場合の一例を示す図である(その2)。It is a figure which shows an example at the time of incorporating a user interface apparatus in a refrigerator (the 2). 図6−1のユーザインタフェース装置の表示部に表示される内容の一例を示す図である。It is a figure which shows an example of the content displayed on the display part of the user interface apparatus of FIGS.

符号の説明Explanation of symbols

10 ユーザインタフェース装置
11 音声入力部
12 コマンド解釈部
13 操作者位置検出部
14 表示部
15 全体制御部
30 操作対象機器
31 冷蔵庫
50 操作者
151 操作者位置判定部
152 操作者位置離隔用インタフェース提示制御部
153 操作者位置近接用インタフェース提示制御部
DESCRIPTION OF SYMBOLS 10 User interface apparatus 11 Voice input part 12 Command interpretation part 13 Operator position detection part 14 Display part 15 Overall control part 30 Operation object apparatus 31 Refrigerator 50 Operator 151 Operator position determination part 152 Interface presentation control part for operator position separation 153 Interface Presentation Control Unit for Operator Position Proximity

Claims (11)

操作者からの音声による指示を所定のコマンドに解釈し、前記操作者に対しては表示を行って所定の情報を伝えるユーザインタフェース装置において、
前記操作者の音声による指示を受け付ける音声入力手段と、
表示手段と、
当該ユーザインタフェース装置から前記操作者までの操作者距離を測定する操作者位置検出手段と、
前記操作者位置検出手段によって測定された前記操作者距離を、前記操作者の当該ユーザインタフェース装置に対して抱くメンタルモデルにしたがって定めた所定値と比較する操作者位置判定機能、前記操作者距離が所定値以上の場合に、擬人的な内容を前記表示手段に表示させる操作者位置離隔用インタフェース提示制御機能、および前記操作者距離が所定値以下の場合に、機械的な内容を前記表示手段に表示させる操作者位置近接用インタフェース提示制御機能を有する全体制御手段と、
を備えることを特徴とするユーザインタフェース装置。
In a user interface device that interprets a voice command from an operator into a predetermined command and displays the information to the operator and transmits predetermined information.
Voice input means for receiving instructions by the operator's voice;
Display means;
Operator position detecting means for measuring an operator distance from the user interface device to the operator;
An operator position determination function for comparing the operator distance measured by the operator position detection means with a predetermined value determined according to a mental model held by the operator on the user interface device; An operator position separation interface presentation control function for displaying an anthropomorphic content on the display means when the predetermined distance is greater than or equal to a predetermined value, and a mechanical content on the display means when the operator distance is less than or equal to a predetermined value. An overall control means having an interface presentation control function for operator position proximity to be displayed ;
A user interface device comprising:
前記音声入力手段から入力された音声による指示をコマンドに解釈するコマンド解釈手段をさらに備え
前記操作者位置近接用インタフェース提示制御機能は、前記コマンド解釈手段によって前記操作者からの指示を解釈できなかった場合に、前記操作者を当該ユーザインタフェース装置に近づけるための操作者近接用画面を前記表示手段に表示させる機能を有することを特徴とする請求項に記載のユーザインタフェース装置。
Further comprising command interpreting means for interpreting voice instructions input from the voice input means into commands;
The operator position proximity interface presentation control function displays an operator proximity screen for bringing the operator closer to the user interface device when the command interpretation means cannot interpret the instruction from the operator. the user interface apparatus according to claim 1, characterized in that it has a function Ru is displayed on the display means.
前記操作者位置近接用インタフェース提示制御機能は、機械的な画像、実行可能なコマンドの一覧を示す文字またはそれまで表示されていた文字よりも小さなサイズの文字を前記表示手段に表示させることを特徴とする請求項に記載のユーザインタフェース装置。 The operator position proximity interface presentation control function causes the display means to display a mechanical image, a character indicating a list of executable commands, or a character having a size smaller than that of characters displayed so far. The user interface device according to claim 2 . 前記コマンド解釈手段によって解釈されたコマンドが、現在の当該ユーザインタフェース装置の設置空間よりも外部に影響を及ぼすものである場合に、
前記操作者位置離隔用インタフェース提示制御機能は、前記操作者距離が所定の距離以下の場合に、前記操作者を当該ユーザインタフェース装置から遠ざからせるための操作者離隔用画面を前記表示手段に表示させる機をさらに有することを特徴とする請求項のいずれか1つに記載のユーザインタフェース装置。
When the command interpreted by the command interpreting means affects the outside rather than the current installation space of the user interface device,
The operator position separation interface presentation control function displays, on the display means, an operator separation screen for moving the operator away from the user interface device when the operator distance is equal to or less than a predetermined distance. the user interface apparatus according to any one of claims 1 to 3, further comprising a Ru function is.
前記操作者位置離隔用インタフェース提示制御機能は、擬人的な画像を前記表示手段に表示させることを特徴とする請求項に記載のユーザインタフェース装置。 The user interface device according to claim 4 , wherein the operator position separation interface presentation control function displays an anthropomorphic image on the display unit. 前記全体制御手段は、前記操作者距離が前記所定の距離以上となるまで、前記コマンドを当該ユーザインタフェース装置に接続される機器に送信しないことを特徴とする請求項に記載のユーザインタフェース装置。 5. The user interface device according to claim 4 , wherein the overall control unit does not transmit the command to a device connected to the user interface device until the operator distance is equal to or greater than the predetermined distance. 前記全体制御手段は、前記操作者距離が所定の距離以上の場合に、当該ユーザインタフェース装置に接続される機器が前記操作者距離の範囲内で動作するように制限した条件を前記コマンドに付して、前記機器に送信することを特徴とする請求項に記載のユーザインタフェース装置。 The overall control means attaches a condition to the command that restricts a device connected to the user interface device to operate within the range of the operator distance when the operator distance is a predetermined distance or more. The user interface device according to claim 4 , wherein the user interface device transmits to the device. 請求項1〜のいずれか1つに記載のユーザインタフェース装置を備えることを特徴とする家電・住設機器。 A home appliance / residential equipment comprising the user interface device according to any one of claims 1 to 7 . 音声によって指示を行う操作者に対して表示によるインタフェースを提供するユーザインタフェース装置のユーザインタフェース提示方法において、
前記操作者を検知すると、当該ユーザインタフェース装置から前記操作者までの操作者距離を測定する操作者距離測定工程と、
前記操作者距離を、操作者のメンタルモデルにしたがって定めた所定値と比較する比較工程と、
前記比較工程で、前記操作者距離が前記所定値以上の場合に、擬人的な内容を前記操作者に対して提示、前記操作者距離が前記所定値以下の場合に、機械的な内容を前記操作者に対して提示する内容提示工程と、
を含むことを特徴とするユーザインタフェース提示方法。
In a user interface presentation method of a user interface device that provides a display interface for an operator who gives instructions by voice,
Upon detecting the operator, an operator distance measuring step for measuring an operator distance from the user interface device to the operator;
A comparison step of comparing the operator distance with a predetermined value determined according to the mental model of the operator;
In the comparison step, when the operator distance is equal to or greater than the predetermined value, an anthropomorphic content is presented to the operator, and when the operator distance is equal to or smaller than the predetermined value, mechanical content is displayed. A content presentation step to be presented to the operator;
A method for presenting a user interface, comprising:
前記操作者からの音声による指示をコマンドに解釈する指示解釈工程と、
前記指示がコマンドへ解釈不能の場合に、前記操作者を当該ユーザインタフェース装置に近づけるための操作者近接用画面を前記操作者に提示する操作者近接用画面提示工程と、
さらに含むことを特徴とする請求項9に記載のユーザインタフェース提示方法。
An instruction interpretation step for interpreting a voice instruction from the operator into a command;
An operator proximity screen presenting step for presenting to the operator an operator proximity screen for bringing the operator closer to the user interface device when the instruction cannot be interpreted as a command;
The user interface presentation method according to claim 9, further comprising:
前記指示解釈工程で解釈されたコマンドが、現在の当該ユーザインタフェース装置の状態よりも外部に影響を及ぼすものである場合に、
前記操作者距離測定工程で測定された前記操作者距離が、前記外部への影響が前記操作者に及ばなくなる当該ユーザインタフェース装置からの所定の距離以上か否かを判定する操作者距離判定工程と、
前記操作者距離判定工程での判定の結果、前記操作者距離が所定の距離以下の場合に、前記操作者を当該ユーザインタフェース装置から遠ざからせるための操作者離隔用画面を前記操作者に提示する操作者離隔用画面提示工程と、
をさらに含むことを特徴とする請求項10に記載のユーザインタフェース提示方法。
When the command interpreted in the instruction interpretation step affects the outside rather than the current state of the user interface device,
An operator distance determination step for determining whether the operator distance measured in the operator distance measurement step is equal to or greater than a predetermined distance from the user interface device at which the influence on the outside does not reach the operator ; ,
As a result of the determination in the operator distance determination step, when the operator distance is equal to or less than a predetermined distance, an operator separation screen for moving the operator away from the user interface device is presented to the operator An operator separation screen presentation process,
The method for presenting a user interface according to claim 10 , further comprising:
JP2005123564A 2005-04-21 2005-04-21 User interface device, home appliance / residential equipment, and user interface presentation method Active JP4468231B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005123564A JP4468231B2 (en) 2005-04-21 2005-04-21 User interface device, home appliance / residential equipment, and user interface presentation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005123564A JP4468231B2 (en) 2005-04-21 2005-04-21 User interface device, home appliance / residential equipment, and user interface presentation method

Publications (2)

Publication Number Publication Date
JP2006302009A JP2006302009A (en) 2006-11-02
JP4468231B2 true JP4468231B2 (en) 2010-05-26

Family

ID=37470214

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005123564A Active JP4468231B2 (en) 2005-04-21 2005-04-21 User interface device, home appliance / residential equipment, and user interface presentation method

Country Status (1)

Country Link
JP (1) JP4468231B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5886720B2 (en) * 2012-09-19 2016-03-16 シャープ株式会社 Wireless communication terminal, method, and program
JP6555858B2 (en) * 2014-08-01 2019-08-07 シャープ株式会社 Apparatus, audio output method, audio output program, network system, server, and communication apparatus
JP2017117371A (en) * 2015-12-25 2017-06-29 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Control method, control device, and program
CN108109623A (en) * 2018-01-31 2018-06-01 广东美的厨房电器制造有限公司 Control method, control device and cooking equipment
CN110085235A (en) * 2019-05-05 2019-08-02 珠海格力电器股份有限公司 Sound control method and device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04338817A (en) * 1991-05-16 1992-11-26 Sony Corp Electronic equipment controller
JP3886074B2 (en) * 1997-02-28 2007-02-28 株式会社東芝 Multimodal interface device
JP2000339277A (en) * 1999-05-27 2000-12-08 Matsushita Electric Ind Co Ltd Portable terminal device and data display method therefor
JP3067627U (en) * 1999-09-22 2000-04-07 株式会社アドバンテスト Visual protection device
JP2002041276A (en) * 2000-07-24 2002-02-08 Sony Corp Interactive operation-supporting system, interactive operation-supporting method and recording medium
JP3899241B2 (en) * 2001-06-13 2007-03-28 シャープ株式会社 Image display system, image display method, program, and recording medium
JP2003140632A (en) * 2001-11-05 2003-05-16 Hitachi Ltd Method and unit for image display

Also Published As

Publication number Publication date
JP2006302009A (en) 2006-11-02

Similar Documents

Publication Publication Date Title
KR102231105B1 (en) control device and method for controlling the same
CN105706395B (en) Control apparatus and control method thereof
CN105765514B (en) Control apparatus and control method thereof
CN105659179B (en) Device and method for interacting with HVAC controller
JP2005284492A (en) Operating device using voice
JP5214968B2 (en) Object discovery method and system, device control method and system, interface, and pointing device
JP4468231B2 (en) User interface device, home appliance / residential equipment, and user interface presentation method
KR101909498B1 (en) Control Station for Remote Control of Home Appliances by Recognition of Natural Language Based Command and Method thereof
CN104879882A (en) Method and system for controlling air conditioner
US10592062B2 (en) Control apparatus
TR201811142T4 (en) Electric food processor with word recognition unit.
CN110543159B (en) Intelligent household control method, control equipment and storage medium
KR100754521B1 (en) Home network system and method for providing information therein
WO2013128527A1 (en) Communication system, communication device, and communication method
EP3654170B1 (en) Electronic apparatus and wifi connecting method thereof
JP2002315069A (en) Remote controller
US20220123956A1 (en) Server, terminal device, and method for home appliance management thereby
CN109147776A (en) Display device and acoustic control opportunity indicating means with voice control function
KR102378908B1 (en) Home automation system using artificial intelligence
CN108572824A (en) Intelligent interaction device and its homepage method for customizing, device, readable storage medium storing program for executing
CN107734370A (en) Information interacting method, information interactive device and electronic equipment
JP2021158693A (en) Portable terminal, security system, display method and program
CN115884434A (en) Connection method of terminal and household appliance, terminal, household appliance and readable storage medium
US11449451B2 (en) Information processing device, information processing method, and recording medium
JP6850629B2 (en) Security systems, mobile devices, security methods and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100223

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100224

R150 Certificate of patent or registration of utility model

Ref document number: 4468231

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140305

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250